手势识别

UIView详解

隐身守侯 提交于 2020-01-29 04:15:26
UIView详解(http://www.beyondabel.com/blog/2014/01/01/uiview/) 引言 UIView表示屏幕上的一块矩形区域,它在App中占有绝对重要的地位,因为iOS中几乎所有可视化控件都是UIView的子类。负责渲染区域的内容,并且响应该区域内发生的触摸事件 目录 1、UIView家族 2、UIView的基本属性 3、几何方法类 4、控制级别类 5、渲染类 6、动画类 7、手势类 8、移动效果类 9、基于布局约束类(iOS6.0) 10、基于布局的约束core方法(iOS 6.0) 11、基于约束的兼容性(iOS 6.0) 12、层次布局的约束(iOS 6.0) 13、设备大小布局约束(iOS 6.0) 14、布局调度(iOS 6.0) 15、状态恢复(iOS 6.0) 16、快照 (iOS7.0) 1、UIView家族 下图就是视图的内层次 2、UIView的基本属性 // UIView是否接受events事件,默认为YES BOOL userInteractionEnabled; // 用于做标识所用,默认为0 NSInteger tag; // Core Animation layer有关,在常用方法中再详细讲解 CALayer *layer; // UIView在父视图中的位置 如果是在变形的时候不要用frame

移动设计八原则

廉价感情. 提交于 2020-01-26 04:37:53
移动设计八原则 近几年,交互设计专业也有了蓬勃发展, Alan Cooper 、 Donald Norman 等人为交互设计提供了许多理论上的支持, Ben Shneiderman 提出的交互设计“黄金八法”和 Nielsen 的“启发式评估 10 条原则”为交互设计的评估提供了标准,所有这些理论和原则在移动应用的设计上依然是通用的。但移动应用有其特殊性,在设备和情景上都与普通的设计不同。因此,我们在考虑其他原则的基础上,整理了八条移动应用设计的针对性原则。 一、内容优先 对于手机而言,屏幕空间资源显得非常珍贵。为了提升屏幕空间的利用率,界面布局应以内容为核心,而提供符合用户期望的内容是移动应用获得成功的关键。如何设计和组织内容,使用户能快速理解移动应用所提供的内容,使内容真正有意义,这是非常重要的。 重组内容,使内容符合移动的特征 在 PC 上的网页内容往往相对复杂,在进行内容移动化时,并不合适把内容直接照搬到手机端。在进行移动应用设计时,应该重组内容,使其符合移动应用的特征。 移 动应用的内容应使用用户的语言,以用户熟悉的维度来组织内容,这样更容易查找目标信息,提升内容的利用率;删除无关的多余内容,让内容更简洁清晰,考虑在 小屏幕空间可以合理的布局,增加屏幕的利用率;内容要是清晰和具体的,是用户恰好需要的;内容要是有情景特征的,可以在不同的情景下给用户提供不同的情景 下的内容。

如何造一个『为移动端而生』的日历

谁说我不能喝 提交于 2020-01-21 16:00:51
之前写了一篇 Calendar -『为移动端而生』的自定义日历 ,一直有童鞋对这个插件的手势处理存在一些问题,所以想写篇文章,来说说它的成长史~ 在阅读本文之前,确保你有稍微看过 calendar 的效果 喔~ 点击查看github, 查看calendar源码 也可以在 NPM上搜索 mob-calendar 找到它。 一、 确认需求 想做一个日历最主要的原因,当然还是因为在开发过程中频繁的遇到。而且对日历的需求又是奇葩到不行,市面上的插件都满足不了我们产品的需求。所以,我不得不动手自己造。 这段话,好像在造 上一个插件 - 级联选择器 的时候也说过 大家就当无事发生过(⁎⁍̴̛ᴗ⁍̴̛⁎) 首要问题依然是处理需求: 第1个问题:『日历的出现场景有哪些特点?』 用户不确定自己要选择的时间点或时间范围,需要一些基本的时间参照单位,比如“ 下星期一 ”、“ 下个周末 ”。 用户需要查看某个时间区间,之后再有选择性的选取时间点或时间范围,比如“ 尽可能避开周末的20天翘班请假计划 ”。 用户需要查看某个时间区间的行为记录,比如“ 查看过去几周的打卡情况 ” 当出现以上问题的时候,日历的时间定位优势就显示出来了。 第2个问题:『日历会有哪些奇葩需求?』 日历存在着点击事件,点击事件是 跳转事件 还是 高亮事件 无法预知。 日历存在着选取操作,选取的结果是 时间点 还是 时间范围 无法预知。

opencv 手势识别

不羁岁月 提交于 2020-01-20 02:07:26
我使用OpenCV2.4.4的windows版本+Qt4.8.3+VS2010的编译器做了一个手势识别的小程序。 本程序主要使到了Opencv的特征训练库和最基本的图像处理的知识,包括肤色检测等等。 废话不多,先看一下基本的界面设计,以及主要功能: 相信对于Qt有一些了解的人都不会对这个界面的设计感到陌生吧!(该死,该死!)我们向下走: 紧接着是Qt导入OPenCV2.4.4的库文件:(先看一下Qt的工程文件吧) #------------------------------------------------- # # Project created by QtCreator 2013-05-25T11:16:11 # #------------------------------------------------- QT += core gui CONFIG += warn_off greaterThan(QT_MAJOR_VERSION, 4): QT += widgets TARGET = HandGesture TEMPLATE = app INCLUDEPATH += E:/MyQtCreator/MyOpenCV/opencv/build/include SOURCES += main.cpp\ handgesturedialog.cpp \ SRC

百度AI攻略:手势识别

巧了我就是萌 提交于 2020-01-09 10:47:49
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 1.功能描述: 识别图片中的手部位置和手势类型,可识别24种常见手势,包括拳头、OK、比心、作揖、作别、祈祷、我爱你、点赞、Diss、Rock、竖中指、数字等 2.平台接入 具体接入方式比较简单,可以参考我的另一个帖子,这里就不重复了: http://ai.baidu.com/forum/topic/show/943327 3.调用攻略(Python3)及评测 3.1首先认证授权: 在开始调用任何API之前需要先进行认证授权,具体的说明请参考: http://ai.baidu.com/docs#/Auth/top 具体Python3代码如下: # -*- coding: utf-8 -*- #!/usr/bin/env python import urllib import base64 import json #client_id 为官网获取的AK, client_secret 为官网获取的SK client_id =【百度云应用的AK】 client_secret =【百度云应用的SK】 #获取token def get_token(): host = ' https://aip.baidubce.com/oauth/2.0/token?grant_type=client_credentials

百度AI攻略:手势识别

只愿长相守 提交于 2019-12-30 09:56:16
1.功能描述: 识别图片中的手部位置和手势类型,可识别24种常见手势,包括拳头、OK、比心、作揖、作别、祈祷、我爱你、点赞、Diss、Rock、竖中指、数字等 2.平台接入 具体接入方式比较简单,可以参考我的另一个帖子,这里就不重复了: http://ai.baidu.com/forum/topic/show/943327 3.调用攻略(Python3)及评测 3.1首先认证授权: 在开始调用任何API之前需要先进行认证授权,具体的说明请参考: http://ai.baidu.com/docs#/Auth/top 具体Python3代码如下: # -*- coding: utf-8 -*- #!/usr/bin/env python import urllib import base64 import json #client_id 为官网获取的AK, client_secret 为官网获取的SK client_id =【百度云应用的AK】 client_secret =【百度云应用的SK】 #获取token def get_token(): host = ' https://aip.baidubce.com/oauth/2.0/token?grant_type=client_credentials&client_id= ' + client_id + '&client

HandAI开源项目,拉近人和摄影的距离:基于手势识别完成不同的拍摄行为

佐手、 提交于 2019-12-28 19:52:41
在12月初,我诞生了这个想法。现在的拍摄效果的转换都是人和机器通过物理接触完成,包括开始拍摄,各种拍摄效果等,几乎都是通过手指来完成。人类具有丰富的表达自我的能力,手势是表达自我的手段之一。无论是哪个地域的文化,一些手势都有其含义。在深度学习时代,我们完全可以用手势代替手指,告诉机器我们想做什么样的事情,想调换什么拍摄模式,因此HandAI诞生了。 固然手指在更多的场合还是很方便,但我做这个事情,不想去探讨手势控制的价值以及实用性,我只是单纯想做这个事情。 效果展示视频 友情提示:后半段视频声音略大,请调小音量。 项目地址 项目功能 HandAI能识别出8种手势。这八种手势是亚洲地区常用的手势,其意义都是积极或中性的,没有贬义手势。 Note: 如果gif图像没法显示(有些图像较大),可以去github上下载项目,在 pictures 文件夹中查看。 one:背景虚化,实现景深效果,前景人物不虚化 two:背景变化 three:背景调成黑白模式,前景人物依然有色彩。 four:人脸贴纸 five:画面横向复制扩展 good:视频背景转换模式,当右上角出现红点之后,使用yeah手势(two),即可把背景换成视频数据,而不是单纯的图像。 eight:华丽防挡弹幕模式。 ok:结束录制 项目设计思路 项目包括三个深度学习模型,分别是手部关键点检测以及识别(算统一的一个模型),

【百度大脑新品体验】手势识别

我的未来我决定 提交于 2019-12-16 14:09:22
【百度大脑新品体验】手势识别 作者:才能我浪费99 1.功能描述: 识别图片中的手部位置和手势类型,可识别24种常见手势,包括拳头、OK、比心、作揖、作别、祈祷、我爱你、点赞、Diss、Rock、竖中指、数字等 2.平台接入 具体接入方式比较简单,可以参考我的另一个帖子,这里就不重复了: http://ai.baidu.com/forum/topic/show/943327 3.调用攻略(Python3)及评测 3.1首先认证授权: 在开始调用任何API之前需要先进行认证授权,具体的说明请参考: http://ai.baidu.com/docs#/Auth/top 具体Python3代码如下: - - coding: utf-8 - - #!/usr/bin/env python import urllib import base64 import json #client_id 为官网获取的AK, client_secret 为官网获取的SK client_id =【百度云应用的AK】 client_secret =【百度云应用的SK】 #获取token def get_token(): host = ‘https://aip.baidubce.com/oauth/2.0/token?grant_type=client_credentials&client_id=’ +

石头剪刀布AI进化版

拜拜、爱过 提交于 2019-12-13 07:54:17
石头剪刀布AI进化版 虽然人工智能目前以席卷之势,渗透各行各业,但是大多数人还处在“百姓日用而不知”的状态里,作为一个创客教师,对于新技术总是有与生俱来的敏感嗅觉,同时也希望把这些新内容教给我的学生,人工智能到底怎么玩?我的学生可以玩的转么?我的学生年龄都比较小,只是学过一些scratch,这样的水平可以玩AI么?带着这些疑问,笔者开始了自己的探索之路,在看了编程猫、mind+、mblock、Kittenblock、machine learning for kids等等的软件及网站之后,终于找到了一个看起来不那么复杂的又有AI插件的网站——广问AI (open.thinklandai.com)。 今天笔者就带领大家一起来用AI制作一个中国人小时候都会玩的游戏——石头剪刀布,说起这个石头剪刀布,它经常会作为我get新技能的第一个试水案例,比如会玩scratch之后我第一个做的是它,会玩microbit之后我第一个做的也是它,这次AI的版本当然也要做一次啦。 在开始制作之前,需要注册并用邮件激活,否则无法看到我们需要使用的AI插件,另外推荐大家使用Google Chrome浏览器,其他浏览器似乎会有看不到工程模板的情况。 顺利注册完毕之后,回到主页开始编程,进入后是标准的scratch3.0界面,唯一区别是菜单栏里多了一个叫工程模板的项目。 这里面藏着十个案例

EZ430 Chronos 开发设想 :广义手势语言

爱⌒轻易说出口 提交于 2019-12-12 17:54:04
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> EZ430 Chronos 开发设想 :广义手势语言 终于收到了代购的开发套件,这几天都在思考究竟用它来开发一款什么样的有趣应用呢? 终于在昨天确定了开发设想:手势语言,充分利用套件的3轴加速度感应器,捕捉手势数据,再根据预先设定的对应模型翻译成字符、数字或者指令,可以把翻译结果保留在手表内存/FLASH里,等到联机时再用RF传到PC上,也可以直接就用RF同步传送到PC上。 为什么起名为“广义手势语言”,而不是“手势交互”或者“手势输入”?因为准备设计一个比较全面的手势语言系统,类似于手语之类的,当然,还是一步步来,不可能一次就搞定,分阶段进行,最终能够跟实际的自然语言一一对应。 这种手势语言跟MCU结合紧密,比如可以直接利用手势来输入程序指令(好像需要编译才可以运行,后面再关注细节),可以直接在手表上把特定的三轴坐标翻译成指令来操作MCU的底层硬件(比如启动一个程序、进入程序的菜单进行设置,确认设置结果,等等),也可以利用手势来开启/关闭无线传输,还可以用手势来代替按钮的功能,调用不同的内置程序,修改设置什么的,比如调整时间,调整日期。 现阶段主要以手腕上可以方便佩戴的 chronos 为手势输入源,后续有一定进展后计划使用手套式传感器,每个手指头上都放置一个类似的三轴传感装置,因为手指的移动范围更灵活