技术相比,本发明提高了使用摇杆类设备进行英文输入的效率。一方面,对于新手用户的学习门槛很低,输入效率在一开始就比较高。另一方面,在线学习机制不断更新用户的书写样本,使得长时间使用时,系统更加符合用户书写习惯,输入速度和准确率大幅提升。
【附图说明】
[0046]图1为输入法系统的示范性的模块结构图;
[0047]图2为提取特征模块的算法流程示意图;
[0048]图3为训练SVG模型的算法流程示意图;
[0049]图4为联想输入模式的算法流程示意图;
[0050]图5为非联想输入模式的算法流程示意图;
[0051]图6为一种可能使用该输入系统的摇杆设备Xbox360手柄的示意图;
[0052]图7为一种可能使用该输入系统的摇杆设备PSP游戏机的示意图;
[0053]图8为一种可能使用该输入系统的摇杆设备电视/机顶盒遥控器的示意图;
[0054]图9为一种可能使用该输入系统的摇杆设备车载导航旋钮的示意图;
[0055]图10为使用摇杆书写字母和使用触摸板书写字母的轨迹的示意图;
[0056]图11为本发明英文输入界面的示意图。
【具体实施方式】
[0057]下面对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例1
[0058]如图6所示,本实施系统支持的一种摇杆类设备Xbox360手柄。Xbox360手柄上有两个摇杆,用户可以使用其中一个摇杆进行书写,使用另一个摇杆进行选择。在用户测试中,使用了左上角的摇杆用于书写,右下角的摇杆进行选择,实际可以根据用户习惯设定。手柄上的三个按钮X、A、B分别被设定为删除、确定和联想模式开关功能。图11示例输入界面包含输入栏和联想候选栏,输入栏用于显示反馈动画和确定后的字母,联想候选栏在联想模式中用于选择可能的单词,在非联想模式中不存在。
[0059]使用摇杆进行书写的识别方式在一定程度上借鉴了触摸板。但是,两者仍有着巨大的差别。如图10所示,触摸板上的轨迹铺开在一个平面上并有着明显的断点,而使用摇杆书写的轨迹通常是连续的,很多笔画会重叠在边界上。这是因为使用摇杆进行书写时,紧靠物理边界移动是最自然且最有效率的。为了分割笔画,将轨迹分割成几个笔画后,再分别对每个笔画部分根据曲率阀值进行切分。因此每个轨迹都可以细分为多个笔画,每个笔画又由一系列的近似直线段构成。对于每个近似直线段,都从中提取了 7个特征,包括距离、角度、绝对位置、绝对角度、绝对距离和偏移。当然由于一个字母可能有多种写法,因此每个字母都有多个对应的轨迹。
[0060]从用户的书写样本中提取出的特征用于训练成一个SVG (Scalable VectorGraphics)模型,该模型将用于实时识别用户的书写轨迹。对于样本提供者来说,这个系统在一开始就是比较准确的。对于其他使用者来说,发现样本的多样性对系统的准确度有着显著的影响。除了让样本尽量覆盖更多可能的书写风格,提出的在线学习机制能随着用户的输入逐渐提高系统的识别效果。系统中提供了两种输入模式:联想输入模式和非联想输入模式。
[0061]在联想输入模式中,用户逐词进行输入。对于用户书写的每个字母轨迹,SVG模型都会给出多个可能的识别结果和相应的概率。识别出的字母中准确率低于阀值的会被排除,剩下的准确率较高的字母经过HMM算法筛选后以叠加的方式呈现在输入栏光标处。在一个单词的输入过程中,用户每输入一个字母,HMM算法都会根据用户在整个单词中输入的一系列轨迹的识别结果和词库中存在的单词计算出联合概率,概率为O的单词结果会被排除,反映在画面上就是叠加的字母组中相应的字母消失,其余可能的单词按概率从大到小排列于联想栏候选栏中。因此一个单词的整个输入过程就是刚开始每次输入的结果都是叠加在一起的字母组,而随着一个个字母的输入,叠加的字母逐渐减少,用户的目标单词逐渐浮现出来。目标单词的浮现速度与单词本身的性质和词库的大小相关。当一个单词输入成功,在线学习机制将会学习单词中的每个字母和对应的轨迹,使SVG模型更加符合使用者的书写习惯,提高识别准确率。
[0062]在非联想模式中,用户每输入一个轨迹,识别出的结果中概率最高的3个字母会按概率大小顺序排列在输入光标下等待用户选择,用户选择某个字母后,相应的字母就完成了输入。该字母和对应的轨迹将经过在线学习机制纳入到SVG模型中,提高针对该用户的识别准确率。
【主权项】
1.一种基于带摇杆设备的文本输入系统,其特征在于,包括:输入设备、笔迹特征提取模块、笔迹SVG模型、笔迹模型训练模块、词库联想算法模块、界面信息控制模块、显示设备,其中:输入设备与笔迹特征提取模块相连并传递用户输入的笔迹的一系列平面坐标,笔迹特征提取模块和笔迹模型训练模块均与笔迹SVG模型相连并分别输入笔迹特征信息和输入结果反馈信息,笔迹SVG模型分别与词库联想算法模块和界面信息控制模块相连并输出笔迹识别的结果,词库联想算法模块与界面信息控制模块相连并在联想模式下输出筛选出的最有可能的单词,界面信息控制模块与显示设备相连并输出动画信息,用户根据输入结果正确与否将反馈信息传入笔迹模型训练模块,用于训练新的笔迹SVG模型,从而不断提高识别的准确率。2.根据权利要求1所述的系统,其特征是,在联想输入模式下,笔迹SVG模型与词库联想算法模块相连并传递笔迹识别的结果,即可能的字母及其概率;在非联想模式下,笔迹SVG模型直接与界面信息控制模块相连,并传递笔迹识别的结果供用户选择,根据概率大小可选结果的数量不超过3个。3.根据权利要求1所述的系统,其特征是,所述的笔迹SVG模型,通过在线学习机制对用户的书写轨迹和正确的识别结果进行学习分类,以对SVG模型进行优化,从而进一步提高字符分类的准确率。4.一种根据上述任一权利要求所述系统的文本输入方法,其特征在于,包括以下步骤:首先通过采用摇杆运动中的摇杆触碰或离开边界、摇杆回到中心和在边界上反向三种状态来分割轨迹并根据曲率阈值分割特征向量提取轨迹特征,并训练成用于实时识别用户的书写轨迹的SVG模型,再采用SVG模型对同样进行特征提取的摇杆输入轨迹进行字符分类判断,并输出一系列可能的字母及其概率。5.根据权利要求4所述的方法,其特征是,在联想输入模式(整词输入)和非联想输入模式(逐字母输入)间切换,在联想输入模式下,已经输入的所有轨迹的字符分类判断结果将与词库中的单词计算联合概率给出概率最高的单词,并随着继续输入不断更新。在非联想输入模式下,概率高于阈值且数量不超过三个的字符判断结果将提供给用户进行选择。6.根据权利要求4或5所述的方法,其特征是,所述的方法,具体包括以下步骤: 步骤1、采集初始用户字母轨迹样本特征并训练SVG学习模型,具体包括: .1.1读取字母书写轨迹的平面坐标; .1.2根据摇杆运动中的摇杆触碰或离开边界、摇杆回到中心和在边界上反向三种状态判断是否添加新笔划,每个笔划都由一系列坐标点构成; .1.3根据采样点数量对笔划进行筛选,去除噪音; .1.4轨迹中的每个笔划再根据一定的曲率阈值被切分为近似于直线段的特征向量; .1.5从每个特征向量提取多项特征,包括距离、角度、绝对位置、绝对角度、绝对距离和偏移; .1.6根据轨迹特征集合训练SVG模型; 步骤2、对一次摇杆输入轨迹进行识别,具体包括: . 2.1采集一次摇杆输入轨迹坐标数据; .2.2提取轨迹特征; .2.3导入SVG学习模型; .2.4输出识别结果,包含多个字母及其概率,当当前模式为联想输入模式时,进入步骤.3,否则进入步骤4; 步骤3、根据轨迹识别结果对词库进行筛选,具体包括: .3.1根据此次识别结果去除词库中失去可能性的单词; .3.2判断此时词库是否为空; . 3.3如果词库为空给出提示,如果不为空去除输入栏中叠加字母组中不可能的字母; 步骤4、选择候选表中字母进行输入,具体包括: . 4.1根据概率阀值对识别结果进行筛选,只保留概率大于阀值的字母; .4.2将概率最高的字母作为默认显示,除此之外概率前三识别结果作为候选表; . 4.3如果默认或候选表中没有目标字母,删除当前结果重新输入,否则继续下一步; . 4.4用户选定字母; .4.5输入栏显示输入选定字母; .4.6成功输入字母后根据字母和相应输入轨迹更新SVG模型; 步骤5、选择单词或继续输入字母,具体包括: .5.1使用HMM算法根据单词中每个字母可能的结果及概率和单词的词频计算联合概率; .5.2将词库中单词按概率从大到小排列作为候选表,并对画面默认单词和单词候选表进行更新; . 5.4如果从候选表中选定单词,则输入该单词;如果不做选择,继续输入字母轨迹,重复步骤I?4,直至选定单词; .5.4单词输入成功后根据字母和相应输入轨迹更新SVG模型。
【专利摘要】一种基于带摇杆设备的文本输入系统及方法,包括:输入设备、笔迹特征提取模块、笔迹SVG模型、笔迹模型训练模块、词库联想算法模块、界面信息控制模块、显示设备,其中:输入设备与笔迹特征提取模块相连并传递用户输入的笔迹的一系列平面坐标,笔迹特征提取模块和笔迹模型训练模块均与笔迹SVG模型相连并分别输入笔迹特征信息和输入结果反馈信息,笔迹SVG模型分别与词库联想算法模块和界面信息控制模块相连并输出笔迹识别的结果,词库联想算法模块与界面信息控制模块相连并在联想模式下输出筛选出的最有可能的单词,界面信息控制模块与显示设备相连并输出动画信息,用户根据输入结果正确与否将反馈信息传入笔迹模型训练模块,用于训练新的笔迹SVG模型,从而不断提高识别的准确率,本发明能够显著提高输入效率。
【IPC分类】G06F3/02, G06F3/023
【公开号】CN104898855
【申请号】CN201510305823
【发明人】顾振宇, 徐兴亚, 储程
【申请人】上海交通大学
【公开日】2015年9月9日
【申请日】2015年6月5日