一种目标跟踪方法及电子设备的制造方法

文档序号:10570723阅读:592来源:国知局
一种目标跟踪方法及电子设备的制造方法
【专利摘要】本发明公开了一种目标跟踪方法,应用于电子设备中,该电子设备具有一摄像头,该方法包括:将摄像头采集到的图像数据发送给控制设备;接收控制设备发来的目标点的位置信息,其中,目标点为在控制设备通过显示屏输出图像数据的画面时用户在画面上选中的点,目标点为跟踪目标上的任一点;基于目标点的位置信息,确定跟踪目标对应的跟踪模板;基于跟踪目标对应的跟踪模板,利用视觉跟踪算法对跟踪目标进行视觉跟踪。本发明解决了现有技术中的在线学习的视觉跟踪算法,由于采用用户指定区域来定义跟踪模板的交互模式,存在无法对运动中的物体进行视觉跟踪的技术问题。同时,本发明还提供了一种电子设备。
【专利说明】
一种目标跟踪方法及电子设备
技术领域
[0001]本发明涉及视觉跟踪技术领域,尤其涉及一种目标跟踪方法及电子设备。
【背景技术】
[0002]视觉跟踪技术,是指对图像序列中的跟踪目标进行检测、提取、识别和跟踪,获得跟踪目标运动参数,如位置、速度、加速度和运动轨迹等,从而进行下一步的处理与分析,实现对跟踪目标的行为理解,以完成更高一级的检测任务。视觉跟踪技术主要目的是模仿生理视觉系统的运动感知功能,赋予机器辨识图像序列中物体运动及其相互关系的能力,为图像序列理解提供重要途径。视觉跟踪技术具有广阔的应用前景,如视频监控、视频分析、视频检索、基于视频的运动分析和合成、基于运动信息的身份识别等。
[0003]近几年,基于在线学习的视觉跟踪技术兴起,各种在线学习的视觉跟踪算法不断涌现,在没有任何离线学习的先验经验的情况下,根据在初始帧画面中定义的跟踪模板,训练模型用于后续视频中目标的跟踪,并在跟踪过程不断更新模型,以达到适应目标物体姿态变化,以及克服复杂背景干扰的目的。由于无需离线训练,使得在线学习的视觉跟踪技术具有很高的通用性,可以对用户指定的任何物体进行视觉跟踪。
[0004]现有的在线学习的视觉跟踪算法的交互模式,需要用户在视频画面中指定跟踪目标所在的区域(该区域通常为一个矩形区域,需要用户通过画框操作画出该区域),从而将该区域定义跟踪模板。在线学习的视觉跟踪算法对跟踪模板的精度有较高的要求,过大的跟踪模板易包含较多的干扰背景,过小的跟踪模板不具有足够的区分度。这种基于用户指定区域来定义跟踪模板的交互模式,要求在用户指定区域过程中,跟踪目标必须处于静止状态,以给用户足够的时间来准确指定该区域。但是,若跟踪目标处于运动状态,用户则没有足够的时间来准确定义跟踪目标所在的区域,也就无法获得满足要求的跟踪模板,继而无法对运动中的跟踪目标进行视觉跟踪。
[0005]综上,现有技术中的在线学习的视觉跟踪算法,由于采用用户指定区域来定义跟踪模板的交互模式,存在无法对运动中的物体进行视觉跟踪的技术问题。

【发明内容】

[0006]本发明实施例通过提供一种目标跟踪方法及电子设备,解决了现有技术中的在线学习的视觉跟踪算法,由于采用用户指定区域来定义跟踪模板的交互模式,存在无法对运动中的物体进行视觉跟踪的技术问题。
[0007]—方面,本发明通过本发明的一实施例提供如下技术方案:
[0008]—种目标跟踪方法,应用于电子设备中,所述电子设备具有一摄像头,所述目标跟踪方法包括:
[0009]将所述摄像头采集到的图像数据发送给控制设备;
[0010]接收所述控制设备发来的目标点的位置信息,其中,所述目标点为在所述控制设备通过显示屏输出所述图像数据的画面时用户在所述画面上选中的点,所述目标点为跟踪目标上的任一点;
[0011 ]基于所述目标点的位置信息,确定所述跟踪目标对应的跟踪模板;
[0012]基于所述跟踪目标对应的跟踪模板,利用视觉跟踪算法对所述跟踪目标进行视觉跟踪。
[0013]优选地,所述基于所述目标点的位置信息,确定所述跟踪目标对应的跟踪模板,包括:
[0014]基于所述目标点的位置信息,在所述画面中确定所述目标点;
[0015]在所述目标点周围生成多个备选跟踪模板;
[0016]基于显著性算法,分别对所述多个备选跟踪模板进行分析,并从所述多个备选跟踪模板中选出一最佳备选跟踪模板,其中,所述最佳备选跟踪模板即为所述跟踪目标对应的跟踪模板。
[0017]优选地,在所述基于所述跟踪模板,利用视觉跟踪算法对所述跟踪目标进行视觉跟踪过程中,还包括:
[0018]控制所述电子设备对准所述目标点前进,其中,所述电子设备为可移动电子设备。
[0019]优选地,所述控制所述电子设备对准所述目标点前进,包括:
[0020]基于等式Picth = arctan(dy/f),确定所述目标点与所述画面的中心在竖直方向上的竖直偏离角;其中,Picth为所述竖直偏离角,f为所述摄像头的焦距,dy为所述目标点到所述摄像头光轴的垂直偏移量;
[0021 ]根据所述竖直偏离角,调整所述摄像头的俯仰角,以使所述目标点在竖直方向靠近所述画面的中心。
[0022]优选地,所述控制所述电子设备对准所述目标点前进,包括:
[0023]基于等式73¥ = 31"(^311((11/;0,确定所述目标点与所述画面的中心在水平方向上的水平偏移角;其中,yaw为所述水平偏移角,f为所述摄像头的焦距,dx为所述目标点到所述摄像头光轴的水平偏移量;
[0024]根据所述水平偏移角,确定所述电子设备的转动角速度;
[0025]基于所述转动角速度,控制所述电子设备转动,以使所述目标点在水平方向靠近所述画面的中心。
[0026]优选地,所述控制所述电子设备对准所述目标点前进,包括:
[0027]根据所述跟踪目标对应的跟踪模板在所述画面中的尺寸,确定所述电子设备的前进速度;
[0028]基于所述前进速度,控制所述电子设备向所述跟踪目标前进。
[0029]另一方面,本发明通过本发明的一实施例,提供如下技术方案:
[0030]—种电子设备,所述电子设备具有一摄像头,所述电子设备,还包括:
[0031 ]发送单元,用于将所述摄像头采集到的图像数据发送给控制设备;
[0032]接收单元,用于接收所述控制设备发来的目标点的位置信息,其中,所述目标点为在所述控制设备通过显示屏输出所述图像数据的画面时用户在所述画面上选中的点,所述目标点为跟踪目标上的任一点;
[0033]确定单元,用于基于所述目标点的位置信息,确定所述跟踪目标对应的跟踪模板;
[0034]跟踪单元,用于基于所述跟踪目标对应的跟踪模板,利用视觉跟踪算法对所述跟踪目标进行视觉跟踪。
[0035]优选地,所述确定单元,包括:
[0036]第一确定模块,用于基于所述目标点的位置信息,在所述画面中确定所述目标点;
[0037]生成模块,用于在所述目标点周围生成多个备选跟踪模板;
[0038]分析模块,用于基于显著性算法,分别对所述多个备选跟踪模板进行分析,并从所述多个备选跟踪模板中选出一最佳备选跟踪模板,其中,所述最佳备选跟踪模板即为所述跟踪目标对应的跟踪模板。
[0039]优选地,所述电子设备,还包括:
[0040]控制单元,用于在所述基于所述跟踪模板,利用视觉跟踪算法对所述跟踪目标进行视觉跟踪过程中,控制所述电子设备对准所述目标点前进,其中,所述电子设备为可移动电子设备。
[0041]优选地,所述控制单元,包括:
[0042]第二确定模块,用于基于等式Picth= arctan(dy/f),确定所述目标点与所述画面的中心在竖直方向上的竖直偏离角;其中,Picth为所述竖直偏离角,f为所述摄像头的焦距,dy为所述目标点到所述摄像头光轴的垂直偏移量;
[0043]调整模块,用于根据所述竖直偏离角,调整所述摄像头的俯仰角,以使所述目标点在竖直方向靠近所述画面的中心。
[0044]优选地,所述控制单元,包括:
[0045]第三确定模块,用于基于等式73¥= 31"(^311((^/;0,确定所述目标点与所述画面的中心在水平方向上的水平偏移角;其中,yaw为所述水平偏移角,f为所述摄像头的焦距,dx为所述目标点到所述摄像头光轴的水平偏移量;
[0046]第四确定模块,用于根据所述水平偏移角,确定所述电子设备的转动角速度;
[0047]第一控制模块,用于基于所述转动角速度,控制所述电子设备转动,以使所述目标点在水平方向靠近所述画面的中心。
[0048]优选地,所述控制单元,包括:
[0049]第五确定模块,用于根据所述跟踪目标对应的跟踪模板在所述画面中的尺寸,确定所述电子设备的前进速度;
[0050]第二控制模块,用于基于所述前进速度,控制所述电子设备向所述跟踪目标前进。
[0051]本发明实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
[0052]1、在本实施例中,将用户通过点击操作来定义跟踪模板的这种交互模式与在线学习的视觉跟踪算法相融合,仅需要用户点击跟踪目标上的一个目标点,即可获得跟踪目标对应的跟踪模板,从而利用在线学习的视觉跟踪算法对所述跟踪目标进行视觉跟踪。由于无需耗费过多时间,用户瞬间即可完成该点击操作,从而完成对跟踪模板的定义,具有操作方便、快捷的优点。所以有效地解决了现有技术中的在线学习的视觉跟踪算法,由于采用用户指定区域来定义跟踪模板的交互模式,耗时较长,存在无法对运动中的物体进行视觉跟踪的技术问题。实现了将用户通过点击操作来定义跟踪模板的这种交互模式与在线学习的视觉跟踪算法相融合,来对运动中的物体进行视觉跟踪的技术效果。
[0053]2、在本实施例中,用户可以通过控制设备监视电子设备是否出现目标跟丢的情况,在出现目标跟丢的情况时,可以通过点击操作及时对目标点进行修正,从而弥补了某些视觉跟踪算法(例如:长期跟踪算法)鲁棒性差的不足。
[0054]3、在本实施例中,将摄像头采集到的图像数据发送给控制设备,实现了将电子设备的视野与用户共享,使得用户可以方便地在控制设备所输出的画面中确定目标点,进而使得电子设备可以基于目标点确定跟踪目标的跟踪模板,并利用视觉跟踪算法对跟踪目标进行视觉跟踪。且在对跟踪目标进行视觉跟踪过程中,电子设备还可以自动对准目标点前进,这样,用户即可在控制设备输出的画面上点击任一目标点,来控制电子设备的行驶方向,同时,用户可以在控制设备上实时观看电子设备在行驶过程中的路况信息,并对电子设备的行驶方向进行调整,具有操控方便的优点。
【附图说明】
[0055]为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0056]图1为本发明实施例中一种目标跟踪方法的流程图;
[0057]图2为本发明实施例中一种电子设备的结构图;
[0058]图3为本发明实施例中一种目标跟踪方法的流程图。
【具体实施方式】
[0059]本发明实施例通过提供一种目标跟踪方法及电子设备,解决了现有技术中的在线学习的视觉跟踪算法,由于采用用户指定区域来定义跟踪模板的交互模式,存在无法对运动中的物体进行视觉跟踪的技术问题。
[0060]本发明实施例的技术方案为解决上述技术问题,总体思路如下:
[0061]—种目标跟踪方法,应用于电子设备中,该电子设备具有一摄像头,该方法包括:将摄像头采集到的图像数据发送给控制设备;接收控制设备发来的目标点的位置信息,其中,目标点为在控制设备通过显示屏输出图像数据的画面时用户在画面上选中的点,目标点为跟踪目标上的任一点;基于目标点的位置信息,确定跟踪目标对应的跟踪模板;基于跟踪目标对应的跟踪模板,利用视觉跟踪算法对跟踪目标进行视觉跟踪。
[0062]为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
[0063]实施例一
[0064]本实施例提供了一种目标跟踪方法,应用于电子设备中,所述电子设备具有一摄像头,如图1所示,所述目标跟踪方法,包括:
[0065]步骤SlOl:将摄像头采集到的图像数据发送给控制设备。
[0066]在具体实施过程中,所述电子设备可以是一可移动电子设备,其包括一动力系统,能够驱动电子设备行驶(例如:直行,转弯,倒退,曲线行驶,等等)。
[0067]在具体实施过程中,在电子设备上设置有一摄像头,用于采集图像信息。为了获得更为广阔的图像采集视角,对于地面移动电子设备而言,摄像头应尽量设置在靠近电子设备顶部的位置;对于空中移动电子设备(如无人机)而言,摄像头应尽量设置在靠近电子设备底部的位置。
[0068]在具体实施过程中,控制设备可以与该电子设备通过有线方式或无线方式连接,以使得控制设备可以与电子设备进行通信。在电子设备通过摄像头采集到图像数据后,会将采集到的图像数据实时发送给控制设备。
[0069]在具体实施过程中,该控制设备可以是与电子设备为相互独立的设备(例如:智能手机、或平板电脑、或笔记本电脑、或台式机电脑、或智能电视、或智能钥匙、等等);或者,该控制设备还可以直接设置在电子设备上,作为电子设备的一部分。
[0070]步骤S102:接收控制设备发来的目标点的位置信息,其中,目标点为在控制设备通过显示屏输出图像数据的画面时用户在画面上选中的点。
[0071]在具体实施过程中,控制设备接收到电子设备发来的图像数据后,可以通过一触摸屏(例如:电容式触摸屏、或电阻式触摸屏)输出该图像数据对应的画面(即:传图画面),从而实现了将电子设备的视野与用户共享。用户可以在控制设备输出的画面上寻找一跟踪目标(该跟踪目标可以是静止的物体,也可以是运动的物体),并通过点击操作点击跟踪目标上的任意一个像素点,这个像素点就是所述目标点。控制设备获取到用户的点击操作后,即可将用户点击的目标点的位置信息(例如:目标点在屏幕上的二维坐标)发送给电子设备。对应地,电子设备接收控制设备发来的目标点的位置信息。
[0072]步骤S103:基于目标点的位置信息,确定跟踪目标对应的跟踪模板。
[0073]具体来讲,步骤S103,包括:
[0074]基于目标点的位置信息,在画面中确定目标点;在目标点周围生成多个备选跟踪模板;基于显著性算法,分别对多个备选跟踪模板进行分析,并从多个备选跟踪模板中选出一最佳备选跟踪模板,其中,最佳备选跟踪模板即为跟踪目标对应的跟踪模板。
[0075]在具体实施过程中,可以获取目标点、以及目标点附近其它像素点的颜色信息(例如:色调参数、亮度参数,或RBG参数),并对这些像素点的颜色信息进行分析,由于构成跟踪目标的像素点可能具有相同或相近的颜色,所以可以将颜色相同或相近的像素点所组成的区域定义为一个备选跟踪模板,从而生成多个备选跟踪模板。
[0076]在具体实施过程中,可以对每个备选跟踪模板添加噪声和随机形变,生成每个备选跟踪模板的正样本;对每个备选跟踪模板周围的背景区域随机采样,生成每个备选跟踪模板的负样本;基于每个备选跟踪模板的正样本和每个备选跟踪模板的负样本,生成每个备选跟踪模板的校验集。进一步,训练每个备选跟踪模板的跟踪模型;生成每个备选跟踪模板的校验集;再测试每个备选跟踪模板的跟踪模型在各自对应备选跟踪模板的检验集上的响应;基于正样本和负样本集上平均响应的比值,确定每个备选跟踪模板的跟踪模型的显著性;最后将显著性最高的跟踪模型对应的备选跟踪模板确定为最佳备选跟踪模板。
[0077]在具体实施过程中,每个备选跟踪模板都为矩形区域,这样最终得到的最佳备选跟踪模板也为矩形区域,从而满足了在线学习的视觉跟踪算法对跟踪模板的要求,进而实现了将用户通过点击操作来定义跟踪模板的这种交互模式与在线学习的视觉跟踪算法相融合。
[0078]步骤S104:基于跟踪目标对应的跟踪模板,利用视觉跟踪算法对跟踪目标进行视觉跟踪。
[0079]在具体实施过程中,视觉跟踪算在一定时间内的具有很高的鲁棒性(具体受限于应用环境的复杂程度,大概在几十秒到十几分钟之间),所以,视觉跟踪算法可以提供较高的自动化程度,在准确跟踪期间,无需用户控制,即可准确地对跟踪目标进行视觉跟踪。
[0080]在具体实施过程中,所述视觉跟踪算法是指在线学习的视觉跟踪算法,此处不限定具体的视觉跟踪算法,任何短期跟踪算法(short-term tracking)和长期跟踪算法(long-term tracking)都可以采用。但是,鉴于短期跟踪算法具有更好的鲁棒性且算法更加成熟,应尽量选择短期跟踪算法,例如,可以选择采用协同滤波器(Correlat1n Filter)的跟踪算法,从而获得更好的鲁棒性,并且降低算法的复杂度。
[0081]在具体实施过程中,在电子设备对跟踪目标进行视觉跟踪时,可以在摄像头采集到的图像数据中标记出跟踪目标,并将携带有标记的图像数据发送给控制设备。在控制设备输出图像数据对应的画面时,用户即可根据画面中的标记和跟踪目标的位置关系,判断电子设备是否出现目标跟丢的情况。例如,若画面中的标记与跟踪目标的位置重合,则表明没有跟丢;若画面中的标记与跟踪目标的位置不重合,甚至相距较远,则表明跟丢了。在用户发现电子设备出现目标跟丢的情况时,可以在控制设备的显示屏上重新点击跟踪目标的任一点,从而确定一新的目标点,以使电子设备基于新的目标点,重新确定跟踪目标对应的跟踪模板,并利用视觉跟踪算法对跟踪目标进行视觉跟踪。
[0082]在本实施例中,用户可以通过控制设备监视电子设备是否出现目标跟丢的情况,在出现目标跟丢的情况时,可以通过点击操作及时对目标点进行修正,从而弥补了某些视觉跟踪算法(例如:长期跟踪算法)鲁棒性差的不足。
[0083]在本实施例中,将用户通过点击操作来定义跟踪模板的这种交互模式与在线学习的视觉跟踪算法相融合,仅需要用户点击跟踪目标上的一个目标点,即可获得跟踪目标对应的跟踪模板,从而利用在线学习的视觉跟踪算法对所述跟踪目标进行视觉跟踪。由于无需耗费过多时间,用户瞬间即可完成该点击操作,从而完成对跟踪模板的定义,具有操作方便、快捷的优点。所以有效地解决了在线学习的视觉跟踪算法,由于采用用户指定区域来定义跟踪模板的交互模式,耗时较长,存在无法对运动中的物体进行视觉跟踪的技术问题。实现了利用在线学习的视觉跟踪算法对运动中的物体进行视觉跟踪的技术效果。
[0084]作为一种可选的实施方式,在执行步骤S104过程中,还可以同时执行步骤S105。
[0085]步骤S105:控制电子设备对准目标点前进。
[0086]在具体实施过程中,可以根据目标点在画面中的位置,调整摄像头的俯仰角、以及控制电子设备转弯,使得目标点逐渐靠近画面的中心,从而控制电子设备对准目标点,再控制电子设备前进。
[0087]在具体实施过程中,可以基于等式(I)确定目标点与画面的中心在竖直方向上的竖直偏离角:
[0088]Picth = arctan(dy/f)--等式(I)
[0089]其中,Picth为竖直偏离角,f为摄像头的焦距,dy为目标点到摄像头光轴的垂直偏移量;
[0090]再根据竖直偏离角Picth,调整摄像头的俯仰角,使竖直偏离角Picth逐渐减小趋于0,最终使目标点在竖直方向靠近画面的中心。
[0091]在具体实施过程中,可以基于等式(2)确定目标点与画面的中心在水平方向上的水平偏移角:
[0092]yaw = arc tan (dx/f)--等式(2)
[0093]其中,yaw为水平偏移角,f为摄像头的焦距,dx为目标点到摄像头光轴的水平偏移量;
[0094]再根据水平偏移角,确定电子设备的转动角速度;基于转动角速度,控制电子设备转动,使得水平偏移角yaw逐渐减小趋于O,最终使目标点在水平方向靠近画面的中心。
[0095]其中,转动角速度与水平偏移角成正比例关系,这样,在水平偏移角越大时,转动角速度也会越大,可以使目标点在水平方向快速靠近画面的中心。
[0096]在竖直偏离角Picth和水平偏移角yaw都为O时(或都接近O时),目标点基本就位于画面的中心点,此时,即可控制电子设备前进,逐渐靠近目标点,从而实现对目标点的跟踪行驶。
[0097]在具体实施过程中,可以根据跟踪目标对应的跟踪模板在画面中的尺寸,确定电子设备的前进速度;基于该前进速度,控制电子设备向跟踪目标前进。其中,可以使用sigmoid函数制定速度衰减模型。
[0098]在具体实施过程中,电子设备的前进速度与跟踪目标对应的跟踪模板在画面中的尺寸成反比例关系,这样,在跟踪目标对应的跟踪模板在画面中的尺寸越小时,说明跟踪目标与电子设备的距离越远,则控制电子设备的前进速度越快,从而控制电子设备快速靠近跟踪目标,而在跟踪目标对应的跟踪模板在画面中的尺寸越大时,说明跟踪目标与电子设备的距离越近,则控制电子设备的前进速度越慢,从而防止电子设备与跟踪目标碰撞。
[0099]在本实施例中,将摄像头采集到的图像数据发送给控制设备,实现了将电子设备的视野与用户共享,使得用户可以方便地在控制设备所输出的画面中确定目标点,进而使得电子设备可以基于目标点确定跟踪目标的跟踪模板,并利用视觉跟踪算法对跟踪目标进行视觉跟踪。在对跟踪目标进行视觉跟踪过程中,电子设备还可以自动对准目标点前进,这样,用户即可在控制设备输出的画面上点击任一目标点,来控制电子设备的行驶方向,操作方便,并且用户可以在控制设备上实时观看电子设备在行驶过程中的路况信息,并对电子设备的行驶方向进行调整。
[0100]在具体实施过程中,用户可以在控制设备的触摸屏上,连续点击画面中的不同目标点,从而遥控电子设备自由行驶。
[0101]基于同一发明构思,本实施例该提供了一种电子设备,该电子设备具有一摄像头,如图2所示,该电子设备,还包括:
[0102]发送单元201,用于将摄像头采集到的图像数据发送给控制设备;
[0103]接收单元202,用于接收控制设备发来的目标点的位置信息,其中,目标点为在控制设备通过显示屏输出图像数据的画面时用户在画面上选中的点,目标点为跟踪目标上的任一点;
[0104]确定单元203,用于基于目标点的位置信息,确定跟踪目标对应的跟踪模板;
[0105]跟踪单元204,用于基于跟踪目标对应的跟踪模板,利用视觉跟踪算法对跟踪目标进行视觉跟踪。
[0106]作为一种可选的实施方式,确定单元203,包括:
[0107]第一确定模块,用于基于目标点的位置信息,在画面中确定目标点;
[0108]生成模块,用于在目标点周围生成多个备选跟踪模板;
[0109]分析模块,用于基于显著性算法,分别对多个备选跟踪模板进行分析,并从多个备选跟踪模板中选出一最佳备选跟踪模板,其中,最佳备选跟踪模板即为跟踪目标对应的跟踪丰旲板。
[0110]作为一种可选的实施方式,电子设备还包括:
[0111]控制单元205,用于在基于跟踪模板,利用视觉跟踪算法对跟踪目标进行视觉跟踪过程中,控制电子设备对准目标点前进,其中,电子设备为可移动电子设备。
[0112]作为一种可选的实施方式,控制单元205包括:
[0113]第二确定模块,用于基于等式Picth = arctan(dy/f),确定目标点与画面的中心在竖直方向上的竖直偏离角;其中,Picth为竖直偏离角,f为摄像头的焦距,dy为目标点到摄像头光轴的垂直偏移量;
[0114]调整模块,用于根据竖直偏离角,调整摄像头的俯仰角,以使目标点在竖直方向靠近画面的中心。
[0115]作为一种可选的实施方式,控制单元205,包括:
[0116]第三确定模块,用于基于等式yaw = arctan(dx/f),确定目标点与画面的中心在水平方向上的水平偏移角;其中,yaw为水平偏移角,f为摄像头的焦距,dx为目标点到摄像头光轴的水平偏移量;
[0117]第四确定模块,用于根据水平偏移角,确定电子设备的转动角速度;
[0118]第一控制模块,用于基于转动角速度,控制电子设备转动,以使目标点在水平方向靠近画面的中心。
[0119]作为一种可选的实施方式,控制单元205,包括:
[0120]第五确定模块,用于根据跟踪目标对应的跟踪模板在画面中的尺寸,确定电子设备的前进速度;
[0121]第二控制模块,用于基于前进速度,控制电子设备向跟踪目标前进。
[0122]由于本实施例所介绍的电子设备为实施本发明实施例中目标跟踪方法所采用的电子设备,故而基于本发明实施例中所介绍的目标跟踪方法,本领域所属技术人员能够了解本实施例的电子设备的【具体实施方式】以及其各种变化形式,所以在此对于该电子设备如何实现本发明实施例中的方法不再详细介绍。只要本领域所属技术人员实施本发明实施例中目标跟踪方法所采用的电子设备,都属于本发明所欲保护的范围。
[0123]上述本发明实施例中的技术方案,至少具有如下的技术效果或优点:
[0124]1、在本发明实施例中,将用户通过点击操作来定义跟踪模板的这种交互模式与在线学习的视觉跟踪算法相融合,仅需要用户点击跟踪目标上的一个目标点,即可获得跟踪目标对应的跟踪模板,从而利用在线学习的视觉跟踪算法对所述跟踪目标进行视觉跟踪。由于无需耗费过多时间,用户瞬间即可完成该点击操作,从而完成对跟踪模板的定义,具有操作方便、快捷的优点。所以有效地解决了在线学习的视觉跟踪算法,由于采用用户指定区域来定义跟踪模板的交互模式,耗时较长,存在无法对运动中的物体进行视觉跟踪的技术问题。实现了将用户通过点击操作来定义跟踪模板的这种交互模式与在线学习的视觉跟踪算法相融合,来对运动中的物体进行视觉跟踪的技术效果。
[0125]2、在本发明实施例中,用户可以通过控制设备监视电子设备是否出现目标跟丢的情况,在出现目标跟丢的情况时,可以通过点击操作及时对目标点进行修正,从而弥补了某些视觉跟踪算法(例如:长期跟踪算法)鲁棒性差的不足。
[0126]3、在本发明实施例中,将摄像头采集到的图像数据发送给控制设备,实现了将电子设备的视野与用户共享,使得用户可以方便地在控制设备所输出的画面中确定目标点,进而使得电子设备可以基于目标点确定跟踪目标的跟踪模板,并利用视觉跟踪算法对跟踪目标进行视觉跟踪。且在对跟踪目标进行视觉跟踪过程中,电子设备还可以自动对准目标点前进,这样,用户即可在控制设备输出的画面上点击任一目标点,来控制电子设备的行驶方向,同时,用户可以在控制设备上实时观看电子设备在行驶过程中的路况信息,并对电子设备的行驶方向进行调整,具有操控方便的优点。
[0127]实施例二
[0128]本实施例提供了一种目标跟踪方法,应用于自平衡车中,所述自平衡车具有一摄像头,如图3所示,所述目标跟踪方法,包括:
[0129]步骤S301:将摄像头采集到的图像数据发送给控制设备。
[0130]在具体实施过程中,所述自平衡车主要有独轮和双轮两类,其运作原理主要是建立在一种被称为“动态稳定” (Dynamic Stabilizat1n)的基本原理上,利用车体内部的陀螺仪和加速度传感器,来检测车体姿态的变化,并利用伺服控制系统,精确地驱动电机进行相应的调整,以保持系统的平衡。自平衡车中包括一套动力系统,能够驱动自平衡车在路面上行驶(例如:直行,转弯,倒退,曲线行驶,等等)。
[0131]在具体实施过程中,在自平衡车上设置有一摄像头,用于采集图像信息。为了获得更为广阔的图像采集视角,摄像头应尽量设置在靠近自平衡车顶部的位置。
[0132]在具体实施过程中,控制设备可以与自平衡车通过有线方式或无线方式连接,以使得控制设备可以与自平衡车进行通信。在自平衡车通过摄像头采集到图像数据后,会将采集到的图像数据实时发送给控制设备。
[0133]在具体实施过程中,该控制设备可以是与自平衡车为相互独立的设备(例如:智能手机、或平板电脑、或笔记本电脑、或台式机电脑、或智能电视、或智能钥匙等等);或者,该控制设备还可以直接设置在自平衡车上,作为自平衡车的一部分。该控制设备在为智能钥匙时,可以控制自平衡车锁车、开锁,或开启防盗报警。
[0134]步骤S302:接收控制设备发来的目标点的位置信息,其中,目标点为在控制设备通过显示屏输出图像数据的画面时用户在画面上选中的点。
[0135]在具体实施过程中,控制设备接收到自平衡车发来的图像数据后,可以通过一触摸屏(例如:电容式触摸屏、或电阻式触摸屏)输出该图像数据对应的画面(即:传图画面),从而实现了将自平衡车的视野与用户共享。用户可以在控制设备输出的画面上寻找一跟踪目标(该跟踪目标可以是静止的物体,也可以是运动的物体),并通过点击操作点击跟踪目标上的任意一个像素点,这个像素点就是所述目标点。控制设备获取到用户的点击操作后,即可将用户点击的目标点的位置信息(例如:坐标信息)发送给自平衡车。对应地,自平衡车接收控制设备发来的目标点的位置信息。
[0136]步骤S303:基于目标点的位置信息,确定跟踪目标对应的跟踪模板。
[0137]具体来讲,步骤S303,包括:
[0138]基于目标点的位置信息,在画面中确定目标点;在目标点周围生成多个备选跟踪模板;基于显著性算法,分别对多个备选跟踪模板进行分析,并从多个备选跟踪模板中选出一最佳备选跟踪模板,其中,最佳备选跟踪模板即为跟踪目标对应的跟踪模板。
[0139]在具体实施过程中,可以获取目标点、以及目标点附近其它像素点的颜色信息(例如:色调参数、亮度参数,或RBG参数),并对这些像素点的颜色信息进行分析,由于构成跟踪目标的像素点可能具有相同或相近的颜色,所以可以将颜色相同或相近的像素点所组成的区域定义为一个备选跟踪模板,从而生成多个备选跟踪模板。
[0140]在具体实施过程中,可以对每个备选跟踪模板添加噪声和随机形变,生成每个备选跟踪模板的正样本;对每个备选跟踪模板周围的背景区域随机采样,生成每个备选跟踪模板的负样本;基于每个备选跟踪模板的正样本和每个备选跟踪模板的负样本,生成每个备选跟踪模板的校验集。进一步,训练每个备选跟踪模板的跟踪模型;生成每个备选跟踪模板的校验集;再测试每个备选跟踪模板的跟踪模型在各自对应备选跟踪模板的检验集上的响应;基于正样本和负样本集上平均响应的比值,确定每个备选跟踪模板的跟踪模型的显著性;最后将显著性最高的跟踪模型对应的备选跟踪模板确定为最佳备选跟踪模板。
[0141]在具体实施过程中,每个备选跟踪模板都为矩形区域,这样最终得到的最佳备选跟踪模板也为矩形区域,从而满足了在线学习的视觉跟踪算法对跟踪模板的要求,进而实现了将用户通过点击操作来定义跟踪模板的这种交互模式与在线学习的视觉跟踪算法相融合。
[0142]步骤S304:基于跟踪目标对应的跟踪模板,利用视觉跟踪算法对跟踪目标进行视觉跟踪。
[0143]在具体实施过程中,视觉跟踪算在一定时间内的具有很高的鲁棒性(具体受限于应用环境的复杂程度,大概在几十秒到十几分钟之间),所以,视觉跟踪算法可以提供较高的自动化程度,在准确跟踪期间,无需用户控制,即可准确地对跟踪目标进行视觉跟踪。
[0144]在具体实施过程中,所述视觉跟踪算法是指在线学习的视觉跟踪算法,此处不限定具体的视觉跟踪算法,任何短期跟踪算法(short-term tracking)和长期跟踪算法(long-term tracking)都可以采用。但是,鉴于短期跟踪算法具有更好的鲁棒性且算法更加成熟,应尽量选择短期跟踪算法,例如,可以选择采用协同滤波器(Correlat1n Filter)的视觉跟踪算法,从而获得更好的鲁棒性,并且降低算法的复杂度。
[0145]在具体实施过程中,在自平衡车对跟踪目标进行视觉跟踪时,可以在摄像头采集到的图像数据中标记出该跟踪目标,并将携带有标记的图像数据发送给控制设备。在控制设备输出图像数据对应的画面时,用户即可根据画面中的标记和跟踪目标的位置关系,判断自平衡车是否出现目标跟丢的情况。例如,若画面中的标记与跟踪目标的位置重合,则表明没有跟丢;若画面中的标记与跟踪目标的位置不重合,甚至相距较远,则表明跟丢了。在用户发现自平衡车出现目标跟丢的情况时,可以在控制设备的显示屏上重新点击跟踪目标的任一点,从而确定一新的目标点,以使自平衡车基于新的目标点,重新确定跟踪目标对应的跟踪模板,并利用视觉跟踪算法对跟踪目标进行视觉跟踪。
[0146]在本实施例中,用户可以通过控制设备监视自平衡车是否出现目标跟丢的情况,在出现目标跟丢的情况时,可以通过点击操作及时对目标点进行修正,从而弥补了某些视觉跟踪算法(例如:长期跟踪算法)鲁棒性差的不足。
[0147]在本实施例中,将用户通过点击操作来定义跟踪模板的这种交互模式与在线学习的视觉跟踪算法相融合,仅需要用户点击跟踪目标上的一个目标点,即可获得跟踪目标对应的跟踪模板,从而利用在线学习的视觉跟踪算法对所述跟踪目标进行视觉跟踪。由于无需耗费过多时间,用户瞬间即可完成该点击操作,从而完成对跟踪模板的定义,具有操作方便、快捷的优点。所以有效地解决了在线学习的视觉跟踪算法,由于采用用户指定区域来定义跟踪模板的交互模式,耗时较长,存在无法对运动中的物体进行视觉跟踪的技术问题。实现了利用在线学习的视觉跟踪算法对运动中的物体进行视觉跟踪的技术效果。
[0148]作为一种可选的实施方式,在执行步骤S304过程中,还可以同时执行步骤S305。
[0149]步骤S305:控制自平衡车对准目标点前进。
[0150]在具体实施过程中,可以根据目标点在画面中的位置,调整摄像头的俯仰角、以及控制自平衡车转弯,使得目标点逐渐靠近画面的中心,从而控制自平衡车对准目标点,再控制自平衡车前进。
[0151]在具体实施过程中,可以基于等式(I)确定目标点与画面的中心在竖直方向上的竖直偏离角:
[0152]Picth = arctan(dy/f)--等式(I)
[0153]其中,Picth为竖直偏离角,f为摄像头的焦距,dy为目标点到摄像头光轴的垂直偏移量;
[0154]再根据竖直偏离角Picth,调整摄像头的俯仰角,使竖直偏离角Picth逐渐减小趋于0,最终使目标点在竖直方向靠近画面的中心。
[0155]在具体实施过程中,可以基于等式(2)确定目标点与画面的中心在水平方向上的水平偏移角:
[0156]yaw = arc tan (dx/f)--等式(2)
[0157]其中,yaw为水平偏移角,f为摄像头的焦距,dx为目标点到摄像头光轴的水平偏移量;
[0158]再根据水平偏移角,确定自平衡车的转动角速度;基于转动角速度,控制自平衡车转动,使得水平偏移角yaw逐渐减小趋于O,最终使目标点在水平方向靠近画面的中心。
[0159]其中,转动角速度与水平偏移角成正比例关系,这样,在水平偏移角越大时,转动角速度也会越大,可以使目标点在水平方向快速靠近画面的中心。
[0160]在竖直偏离角Picth和水平偏移角yaw都为O时(或都接近O时),目标点基本就位于画面的中心点,此时,即可控制自平衡车前进,逐渐靠近目标点,从而实现对目标点的跟踪行驶。
[0161]在具体实施过程中,可以根据跟踪目标对应的跟踪模板在画面中的尺寸,确定自平衡车的前进速度;基于该前进速度,控制自平衡车向跟踪目标前进。其中,可以使用sigmoid函数制定速度衰减模型。
[0162]在具体实施过程中,自平衡车的前进速度与跟踪目标对应的跟踪模板在画面中的尺寸成反比例关系,这样,在跟踪目标对应的跟踪模板在画面中的尺寸越小时,说明跟踪目标与自平衡车的距离越远,则控制自平衡车的前进速度越快,从而控制自平衡车快速靠近跟踪目标,而在跟踪目标对应的跟踪模板在画面中的尺寸越大时,说明跟踪目标与自平衡车的距离越近,则控制自平衡车的前进速度越慢,从而防止自平衡车与跟踪目标碰撞。
[0163]在本实施例中,将摄像头采集到的图像数据发送给控制设备,实现了将自平衡车的视野与用户共享,使得用户可以方便地在控制设备所输出的画面中确定目标点,进而使得自平衡车可以基于目标点确定跟踪目标的跟踪模板,并利用视觉跟踪算法对跟踪目标进行视觉跟踪。在对跟踪目标进行视觉跟踪过程中,自平衡车还可以自动对准目标点前进,这样,用户即可在控制设备输出的画面上点击任一目标点,来控制自平衡车的行驶方向,操作方便,并且用户可以在控制设备上实时观看自平衡车在行驶过程中的路况信息,并对自平衡车的行驶方向进行调整。
[0164]在具体实施过程中,用户可以在控制设备的触摸屏上,连续点击画面中的不同目标点,从而遥控自平衡车自由行驶。
[0165]基于同一发明构思,本实施例该提供了一种自平衡车,该自平衡车具有一摄像头,该自平衡车还包括图2中所示的发送单元201、接收单元202、确定单元203和跟踪单元204。其中,
[0166]发送单元201,用于将摄像头采集到的图像数据发送给控制设备;
[0167]接收单元202,用于接收控制设备发来的目标点的位置信息,其中,目标点为在控制设备通过显示屏输出图像数据的画面时用户在画面上选中的点,目标点为跟踪目标上的任一点;
[0168]确定单元203,用于基于目标点的位置信息,确定跟踪目标对应的跟踪模板;
[0169]跟踪单元204,用于基于跟踪目标对应的跟踪模板,利用视觉跟踪算法对跟踪目标进行视觉跟踪。
[0170]作为一种可选的实施方式,确定单元203,包括:
[0171 ]第一确定模块,用于基于目标点的位置信息,在画面中确定目标点;
[0172]生成模块,用于在目标点周围生成多个备选跟踪模板;
[0173]分析模块,用于基于显著性算法,分别对多个备选跟踪模板进行分析,并从多个备选跟踪模板中选出一最佳备选跟踪模板,其中,最佳备选跟踪模板即为跟踪目标对应的跟踪丰旲板。
[0174]作为一种可选的实施方式,自平衡车,还包括:
[0175]控制单元205,用于在基于跟踪模板,利用视觉跟踪算法对跟踪目标进行视觉跟踪过程中,控制自平衡车对准目标点前进,其中,自平衡车为可移动自平衡车。
[0176]作为一种可选的实施方式,控制单元205包括:
[0177]第二确定模块,用于基于等式Picth= arctan(dy/f),确定目标点与画面的中心在竖直方向上的竖直偏离角;其中,Picth为竖直偏离角,f为摄像头的焦距,dy为目标点到摄像头光轴的垂直偏移量;
[0178]调整模块,用于根据竖直偏离角,调整摄像头的俯仰角,以使目标点在竖直方向靠近画面的中心。
[0179]作为一种可选的实施方式,控制单元205,包括:
[0180]第三确定模块,用于基于等式yaw = arctan(dx/f),确定目标点与画面的中心在水平方向上的水平偏移角;其中,yaw为水平偏移角,f为摄像头的焦距,dx为目标点到摄像头光轴的水平偏移量;
[0181]第四确定模块,用于根据水平偏移角,确定自平衡车的转动角速度;
[0182]第一控制模块,用于基于转动角速度,控制自平衡车转动,以使目标点在水平方向靠近画面的中心。
[0183]作为一种可选的实施方式,控制单元205,包括:
[0184]第五确定模块,用于根据跟踪目标对应的跟踪模板在画面中的尺寸,确定自平衡车的前进速度;
[0185]第二控制模块,用于基于前进速度,控制自平衡车向跟踪目标前进。
[0186]由于本实施例所介绍的自平衡车为实施本发明实施例中目标跟踪方法所采用的可移动电子设备,故而基于本发明实施例中所介绍的目标跟踪方法,本领域所属技术人员能够了解本实施例的自平衡车的【具体实施方式】以及其各种变化形式,所以在此对于该自平衡车如何实现本发明实施例中的方法不再详细介绍。只要本领域所属技术人员实施本发明实施例中目标跟踪方法所采用的自平衡车,都属于本发明所欲保护的范围。
[0187]上述本发明实施例中的技术方案,至少具有如下的技术效果或优点:
[0188]1、在本发明实施例中,将用户通过点击操作来定义跟踪模板的这种交互模式与在线学习的视觉跟踪算法相融合,仅需要用户点击跟踪目标上的一个目标点,即可获得跟踪目标对应的跟踪模板,从而利用在线学习的视觉跟踪算法对所述跟踪目标进行视觉跟踪。由于无需耗费过多时间,用户瞬间即可完成该点击操作,从而完成对跟踪模板的定义,具有操作方便、快捷的优点。所以有效地解决了在线学习的视觉跟踪算法,由于采用用户指定区域来定义跟踪模板的交互模式,耗时较长,存在无法对运动中的物体进行视觉跟踪的技术问题。实现了将用户通过点击操作来定义跟踪模板的这种交互模式与在线学习的视觉跟踪算法相融合,来对运动中的物体进行视觉跟踪的技术效果。
[0189]2、在本发明实施例中,用户可以通过控制设备监视自平衡车是否出现目标跟丢的情况,在出现目标跟丢的情况时,可以通过点击操作及时对目标点进行修正,从而弥补了某些视觉跟踪算法(例如:长期跟踪算法)鲁棒性差的不足。
[0190]3、在本发明实施例中,将摄像头采集到的图像数据发送给控制设备,实现了将自平衡车的视野与用户共享,使得用户可以方便地在控制设备所输出的画面中确定目标点,进而使得自平衡车可以基于目标点确定跟踪目标的跟踪模板,并利用视觉跟踪算法对跟踪目标进行视觉跟踪。且在对跟踪目标进行视觉跟踪过程中,自平衡车还可以自动对准目标点前进,这样,用户即可在控制设备输出的画面上点击任一目标点,来控制自平衡车的行驶方向,同时,用户可以在控制设备上实时观看自平衡车在行驶过程中的路况信息,并对自平衡车的行驶方向进行调整,具有操控方便的优点。
[0191]本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
[0192]本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0193]这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0194]这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0195]尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
[0196]显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
【主权项】
1.一种目标跟踪方法,应用于电子设备中,所述电子设备具有一摄像头,其特征在于,所述目标跟踪方法包括: 将所述摄像头采集到的图像数据发送给控制设备; 接收所述控制设备发来的目标点的位置信息,其中,所述目标点为在所述控制设备通过显示屏输出所述图像数据的画面时用户在所述画面上选中的点,所述目标点为跟踪目标上的任一点; 基于所述目标点的位置信息,确定所述跟踪目标对应的跟踪模板; 基于所述跟踪目标对应的跟踪模板,利用视觉跟踪算法对所述跟踪目标进行视觉跟足示O2.如权利要求1所述的目标跟踪方法,其特征在于,所述基于所述目标点的位置信息,确定所述跟踪目标对应的跟踪模板,包括: 基于所述目标点的位置信息,在所述画面中确定所述目标点; 在所述目标点周围生成多个备选跟踪模板; 基于显著性算法,分别对所述多个备选跟踪模板进行分析,并从所述多个备选跟踪模板中选出一最佳备选跟踪模板,其中,所述最佳备选跟踪模板即为所述跟踪目标对应的跟踪丰旲板。3.如权利要求1或2所述的目标跟踪方法,其特征在于,在所述基于所述跟踪模板,利用视觉跟踪算法对所述跟踪目标进行视觉跟踪过程中,还包括: 控制所述电子设备对准所述目标点前进,其中,所述电子设备为可移动电子设备。4.如权利要求3所述的目标跟踪方法,其特征在于,所述控制所述电子设备对准所述目标点前进,包括: 基于等式Picth = arctan(dy/f),确定所述目标点与所述画面的中心在竖直方向上的竖直偏离角;其中,Picth为所述竖直偏离角,f为所述摄像头的焦距,dy为所述目标点到所述摄像头光轴的垂直偏移量; 根据所述竖直偏离角,调整所述摄像头的俯仰角,以使所述目标点在竖直方向靠近所述画面的中心。5.如权利要求3所述的目标跟踪方法,其特征在于,所述控制所述电子设备对准所述目标点前进,包括: 基于等式yaw = arctan(dx/f),确定所述目标点与所述画面的中心在水平方向上的水平偏移角;其中,yaw为所述水平偏移角,f为所述摄像头的焦距,dx为所述目标点到所述摄像头光轴的水平偏移量; 根据所述水平偏移角,确定所述电子设备的转动角速度; 基于所述转动角速度,控制所述电子设备转动,以使所述目标点在水平方向靠近所述画面的中心。6.如权利要求3所述的目标跟踪方法,其特征在于,所述控制所述电子设备对准所述目标点前进,包括: 根据所述跟踪目标对应的跟踪模板在所述画面中的尺寸,确定所述电子设备的前进速度; 基于所述前进速度,控制所述电子设备向所述跟踪目标前进。7.一种电子设备,所述电子设备具有一摄像头,其特征在于,所述电子设备,还包括: 发送单元,用于将所述摄像头采集到的图像数据发送给控制设备; 接收单元,用于接收所述控制设备发来的目标点的位置信息,其中,所述目标点为在所述控制设备通过显示屏输出所述图像数据的画面时用户在所述画面上选中的点,所述目标点为跟踪目标上的任一点; 确定单元,用于基于所述目标点的位置信息,确定所述跟踪目标对应的跟踪模板; 跟踪单元,用于基于所述跟踪目标对应的跟踪模板,利用视觉跟踪算法对所述跟踪目标进行视觉跟踪。8.如权利要求7所述的电子设备,其特征在于,所述确定单元,包括: 第一确定模块,用于基于所述目标点的位置信息,在所述画面中确定所述目标点; 生成模块,用于在所述目标点周围生成多个备选跟踪模板; 分析模块,用于基于显著性算法,分别对所述多个备选跟踪模板进行分析,并从所述多个备选跟踪模板中选出一最佳备选跟踪模板,其中,所述最佳备选跟踪模板即为所述跟踪目标对应的跟踪模板。9.如权利要求7或8所述的电子设备,其特征在于,所述电子设备,还包括: 控制单元,用于在所述基于所述跟踪模板,利用视觉跟踪算法对所述跟踪目标进行视觉跟踪过程中,控制所述电子设备对准所述目标点前进,其中,所述电子设备为可移动电子设备。10.如权利要求9所述的电子设备,其特征在于,所述控制单元,包括: 第二确定模块,用于基于等式?:!^1:11 = 31'(^311((17/;0,确定所述目标点与所述画面的中心在竖直方向上的竖直偏离角;其中,PiCth为所述竖直偏离角,f为所述摄像头的焦距,dy为所述目标点到所述摄像头光轴的垂直偏移量; 调整模块,用于根据所述竖直偏离角,调整所述摄像头的俯仰角,以使所述目标点在竖直方向靠近所述画面的中心。11.如权利要求9所述的电子设备,其特征在于,所述控制单元,包括: 第三确定模块,用于基于等式yaw = arctan(dx/f),确定所述目标点与所述画面的中心在水平方向上的水平偏移角;其中,yaw为所述水平偏移角,f为所述摄像头的焦距,dx为所述目标点到所述摄像头光轴的水平偏移量; 第四确定模块,用于根据所述水平偏移角,确定所述电子设备的转动角速度; 第一控制模块,用于基于所述转动角速度,控制所述电子设备转动,以使所述目标点在水平方向靠近所述画面的中心。12.如权利要求9所述的电子设备,其特征在于,所述控制单元,包括: 第五确定模块,用于根据所述跟踪目标对应的跟踪模板在所述画面中的尺寸,确定所述电子设备的前进速度; 第二控制模块,用于基于所述前进速度,控制所述电子设备向所述跟踪目标前进。
【文档编号】G06T7/20GK105931263SQ201610201474
【公开日】2016年9月7日
【申请日】2016年3月31日
【发明人】孙晓路, 陈子冲, 安宁, 王野, 蒲立
【申请人】纳恩博(北京)科技有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1