一种智能终端的控制方法和装置的制造方法_3

文档序号:9864861阅读:来源:国知局
眼睛的中心点之间的连线K和定位眼睛垂直于智能终端屏幕的垂线M确定的面内,以定位眼睛的中心点为起点,在摄像头中心点与定位眼睛的中心点之间的连线K和定位眼睛垂直于智能终端屏幕的垂线M之间做一条直线N作为定位线,该直线与摄像头中心点与定位眼睛的中心点之间的连线K的夹角为预设夹角α。其中,α值小于连线K和垂线M之间的夹角。具体计算定位线与智能终端屏幕的交点P可以为根据定位眼睛的位置信息计算得到定位眼睛到原点的距离L ;根据定位眼睛的位置信息计算得到定位眼睛垂直于智能终端屏幕的垂线M的长度,获取定位线与定位眼睛垂直于智能终端屏幕的垂线M之间的夹角Y ;根据智能终端屏幕的垂线M的长度和定位线与定位眼睛垂直于智能终端屏幕的垂线M之间的夹角Y计算得到定位线长度S ;根据定位眼睛到原点的距离L、定位线与摄像头中心点与定位眼睛的中心点之间的连线K的夹角α和定位线的长度S计算得到定位线与智能终端屏幕的交点P到原点的距离a;获取定位线在智能终端屏幕的交点为P与原点连接的直线与原点y轴的夹角β ;根据定位线在智能终端屏幕的交点为P到原点的距离a和定位线在智能终端屏幕的交点为P与原点连接的直线与原点y轴的夹角β计算得到定位线在智能终端屏幕的交点P的位置。当然,具体的α夹角的值可以根据具体经验值进行设置,并且不仅仅限于根据该上述方式确定定位线和计算得到定位线在智能终端屏幕的交点P的位置,其他方式也可实现。
[0104]进一步,在上述步骤S103中,优先的触发控制指令可包括获取用户的眼睛动作,将眼睛动作与预先设置眼睛动作与控制指令对应关系进行比较,确定眼睛动作对应的控制指令,触发眼睛动作对应的控制指令。具体可以理解为在获取双眼位置信息同时根据眼睛位置的变化来获取眼睛的动作,这样就可以快速的获取眼睛的动作,与预先设置好的眼睛动作与控制指令之间对应的关系进行比较,确定眼睛动作对应的控制指令,触发控制指令。还可以为通过感应设备监测眼睛的动作,将具体监测到的眼睛动作与预先设置的眼睛动作与控制指令的关系进行比较,确定眼睛动作对应的控制指令,触发控制指令。还可以获取用户的语音信息,将语音信息与预先设置语音信息与控制指令对应关系进行比较,确定语音信息对应的控制指令,触发语音信息对应的控制指令。这里【具体实施方式】可以采用现有的语音控制的操作方式。
[0105]进一步,在本实施例中的眼睛动作可以包括眼睛凝视屏幕的时间、眼珠的转动、眼睛闭眼的时间、眨眼的频率和眼珠的平移的至少一种。应该理解为眼睛的动作与控制指令匹配是根据用户自己喜好进行设置的。进一步,当用户眼睛凝视屏幕的某个对象超过第一预设时间时,该眼睛动作对应为“确定”控制指令;当用户眼珠顺时针旋转时,该眼睛动作在有翻页的页面内对应为“下一页”控制指令,在有滑块的页面内对应为“向下滑动”控制指令;当用户眼珠逆时针转动时,该眼睛动作在有翻页的页面内对应为“上一页”,在有滑块的页面内对应为“向上滑动”;当用户左眼闭眼超过第二预设时间时,该眼睛动作对应为保存该位置的图片或者链接收藏;当用户右眼闭眼超过第三预设时间时,该眼睛动作对应为删除该位置的文件或者其他文件;当双眼闭眼超过第四预设时间时,该眼睛动作对应为自动打开搜索功能,或者启动语音搜索功能;当用户左眼连续眨眼超过第一预设频率时,该眼睛动作对应为自动进入呼叫界面,并启动语音呼叫功能;当用户右眼连续眨眼超过第二预设频率时,该眼睛动作对应为自动接听电话,并开启免提功能。当用户眼珠向左平移时,该眼睛动作在有翻页的页面内对应为“下一页”控制指令,在有滑块的页面内对应为“向下滑动”控制指令;当用户眼珠向右平移时,该眼睛动作在有翻页的页面内对应为“上一页”,在有滑块的页面内对应为“向上滑动”。值得注意的是,这里的第一预设时间、第二预设时间、第三预设时间、第三预设时间、第一预设频率和第二预设频率都可以根据用户的喜欢进行相应的设置,而不仅仅限于本申请实施例中的具体值,并且眼睛动作与控制制冷的对应关系也可以根据用户的喜欢进行相应的设置。例如,当用户凝视屏幕中的某个链接或者图标超过2秒时,图形处理单元可以将此动作解析为“确认”指令,再将此指令以及眼部对焦在屏幕中的坐标发送给终端的处理器,处理器接受此指令后,就会操作链接该坐标处的图标,等同于用手触摸了改图标或者链接一次。此眼部动作还可以预定义多种,通过图形处理单元即可采集,然后输入相应控制指令,即可完成命令的解析。优选的,眼部动作以及被解析的命令包括如下范围:当用户凝视屏幕的某个连接或者图标超过2秒时,用户的此动作会被解析为“确认”指令;当用户眼睛顺时针旋转时,在有翻页的页面内可以解析为“下一页”,在有滑块的页面内解析为向下滑动;当用户眼睛逆时针转动时,在有翻页的页面内解析为“上一页”,在有滑块的页面内解析为“向上滑动”;当用户左眼闭眼超过2秒时,解析为保存该位置的图片或者链接收藏;当用户右眼闭眼超过2秒时,删除该位置的文件或者其他文件;当双眼闭眼超过2秒时,自动打开搜索功能,或者启动语音搜索功能;当用户左眼连续眨眼超过2次时,自动进入呼叫界面,并启动语音呼叫功能;当用户右眼连续眨眼超过2次时,自动接听电话,并开启免提功能;当眼睛向左平移时,可以解析为“下一页”;当眼睛向右平移时,可以解析为“上一页”。
[0106]实施例二:
[0107]本实施例提供的智能终端控制的方法,通过图像采集设备去获取眼睛的位置信息,优选的该图像采集设备可以为摄像头,通过模拟计算模块来完成确定用户眼睛对应在屏幕上的位置。如图2所示,包括以下步骤:
[0108]步骤S201:流程开始;
[0109]步骤S202:启动图像采集设备,去监测用户双眼定位的位置,以及眼部动作,由模拟计算模块计算出用户定位的位置对应在屏幕上的坐标,并解析眼部动作所定义的指令;
[0110]在给步骤中,如图3所示,将终端的平面设置成一个坐标图,以图像采集设备302的中心点作为平面的原点G(0,O),当然也可选择其他点作为原点,所以终端的屏幕303的每个像素点都有自己的坐标,都包含在整个坐标系内。图3中的301为手机的接收器receiver, 304则为触摸按键。
[0111]图4则展示了本方案的基本原理,当用户的双眼阅读屏幕中的内容时,图像采集设备实时监测用户双眼的变化,同时将图像传至模拟计算单元,实时的模拟计算出用户双眼对焦在屏幕上的位置P,并将P的坐标同时传送至CPU,与此同时,图像采集设备302会实时采集用户的眼睛的动作,如凝视屏幕的某个位置P(x,y,O)超过1S,模拟计算单元会将此眼部动作解析为预置的指令,反馈至CPU,CPU会执行相应的指令。
[0112]用户双眼定焦在屏幕上的位置P点坐标的计算方式如下,以用户右眼402的定位位置作为基准,即将右眼402作为定位眼睛。通过图像采集设备中的红外测距模块,可以计算出右眼距离图像采集设备的距离L,以及右眼距离对焦点P的距离S。这里是以眼睛的边缘某一点为直线的起点,当然也可以以眼睛的中心点为起点。首先,在测距开始前,图像采集设备会对用户的双眼位置进行确定,方法如下:如果以右眼作为测距基准,终端会提示用户右眼连续眨眼两次确定是否为右眼,同时会虚拟出图像采集设备与右眼对焦的直线,此直线是为了算法描述所虚拟出的,当用户眼睛挪动时,就相当于直线在不停的变换。此虚拟出的直线与图像采集设备选定的y轴的夹角β、以及L和S之间的夹角α可以通过图像采集设备模拟计算出。所有的算法都是基于如上所述的前提:通过图像采集设备,在以终端的屏幕作为水平面的基础上,可以模拟出双眼的聚焦的趋势,即图像采集设备是可以将双眼的对焦点的方向模拟出来的,如果每个眼睛的视线可以认为是一条直线的话,两只眼睛的直线必将在屏幕的某位置汇合。以下算法就是说明,双眼汇合在终端屏幕上该点的算法。要计算双眼对焦的位置,必须以其中的一只眼睛作为基准,即前面所示的右眼作为基准点。图4所示,用户右眼402的位置与终端屏幕的夹角为α与P点之间虚拟的直线可以认为是人的右视线,其与采集设备跟人眼之间的虚拟直线L的夹角为α,此夹角可以通过图像采集设备采集出来,且402与7轴的夹角β也可以通过图像采集设备计算出来。通过图像采集设备的红外测距功能可以计算出402与原点G的距离L,通过夹角α可以计算出P点距离原点距离:
[0113]a = L2+S2_2LS*cos α
[0114]由于S是未知,需要先得到S的数值。因为人的右眼E2对应在立体中的坐标为E2(x2,y2,z2),如图4所示,假设右眼E2投影在终端屏幕上的点为E2’,通过图像采集设备可以模拟计算出Z轴与右眼视线(即定位线)之间的夹角为Y。因此可以通过Z2, Y,可以计算出右眼视线的距离S。
[0115]即S = Z2/cos Y
[0116]所以,a= L2+S2_2LS*cos
当前第3页1 2 3 4 5 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1