一种基于力融合的机器人手控器共享控制方法
【专利摘要】本发明提出一种基于力融合的手控器共享控制方法,其步骤包括:首先以目标对象为导向,通过操作者自身的智能决策实现人手操纵手控器控制机器人运动;同时通过立体视觉技术获取作业场景图像数据并实时重构三维环境,以目标对象为导向构建使机器人自主接近目标的虚拟引导力,以此虚拟力引导手控器控制机器人运动,并将操作者的操纵力与目标对象的虚拟引导力进行融合,通过融合力对手控器和机器人的运动进行控制,实现机器智能与人类智能共同作用下控制机器人接近目标对象,完成作业过程。本发明可实现人类智能与机器智能的有效结合,保证作业过程安全、快速的进行。
【专利说明】一种基于力融合的机器人手控器共享控制方法
【技术领域】
[0001]本发明属于机器人的控制方法,特别涉及一种基于力融合的手控器共享控制方法。
【背景技术】
[0002]机器人对于高温、高压、强辐射等极限环境下作业任务的完成发挥了愈来愈重要的作用。机器人正朝着智能化的方向发展,然而由于受控制、传感及人工智能等发展水平的制约,研制出在变化环境下的全自主机器人是短期内难以达到的目标。操控终端,简称手控器,是操作者和机器人之间进行人机交互的桥梁,必须有较高的操控效率和实时性。对机器人的作业自主控制在长期内主要还是通过机器人操作终端来实时控制。
[0003]但是在现在的复杂和高危环境下,对于操作者和整个作业过程等而言,以往的机器人手控器的控制方法还存在着诸多问题有待改善。
[0004]首先,机器人作业任务完成的成功与否以及效率高低,过多地依赖于操纵人员的技能水平和熟练程度。由于手控器在结构、形式、尺寸等方面与机器人相差甚大,操作者在远距离控制过程中,往往要经过多次反复的位姿调整,无疑会导致机器人操控效率低下。同时,在注意力高度集中的状态下,长时间的操作容易造成操纵人员的心理紧张及精神疲劳。
[0005]其次,由于作业环境和任务的复杂性,目前的一些操作方法大都难以满足实际作业中的控制需求。因为这些方法无法获得环境的深度信息,操作者主要依靠二维图像推断机器人与目标的相对位姿,并进一步决策如何操纵手控器,这样势必会增加操作者的工作负担。同时,图像由于数据量大,在远距离传输中不可避免地存在较大时滞,由此引发的误操作频频发生。
[0006]再者,现有的操控终端多采用单边位置伺服或双边力反馈伺服控制策略,无法向操纵人员提供全方位、预见性的信息反馈。根据经验可知,操纵人员利用手控器操控机器人时,更关心的是机器人末端与任务目标、障碍物的相对位姿情况,以便控制机器人迅速、安全地接近目标。在此操作阶段,位移、力传感器并不能提供相关信息。
[0007]最后,综合操作者的手动控制和机器人的自主控制的优点,在人、自主控制系统之间进行协调,共同对机器人进行控制,即共享控制。共享控制虽然已经被大量应用于环境不可预知、时延导致的控制信号不可靠等机器人操控场合,但是现有的共享控制方法普遍存在传感信号多、控制系统复杂等问题,而且无论是自由度分割与融合的共享控制方式(人的手动与机器人的自主分别控制机器人的不同自由度,而非共同控制某个自由度),还是基于视觉共享的任务分解控制方式(人先手动操纵机器人到指定位置,机器人再自主完成作业任务),操作者的智能与机器人的智能在控制回路依旧相对独立,融合度不高,难以适应复杂的、多变的作业环境。
【发明内容】
[0008]针对上述机器人操控领域中在操作性与安全性方面存在的问题,本发明提出一种基于力融合的机器人手控器共享控制方法。
[0009]本发明所采用的技术方案:本发明研究机器人手控器上操纵力与虚拟引导力融合的人一机共享控制方法。虚拟引导力在机器人运动控制中具有“预测”和“导引”的功能,操作者的操纵力是人类高级决策的一种输出形式。采用合适的控制方法,合理分配操作者手动参与和机器自主参与的权值,将机器人的自主任务规划和手动控制有效结合,从而可以实现人类智能与机器智能的集成。其具体方法包括如下步骤
[0010]a.通过手控器操作终端,以目标对象为导向,通过操作者自身的智能决策实现人手操纵力信号控制机器人运动; [0011]b.通过立体视觉技术获取作业场景图像数据并实时重构三维环境,以目标对象为导向构建引导机器人接近目标对象的虚拟引导力(包括引力、斥力、图像伺服力),以此虚拟引导力实现机器人的局部自主控制;
[0012]c.将步骤a中所述操作者手动控制力与步骤b中所述目标对象的虚拟引导力进行融合,通过融合力对手控器和机器人的运动进行控制,实现机器智能与人类智能共同作用下控制机器人接近目标对象,完成作业过程。
[0013]所述步骤a通过手控器操作终端,以目标对象为导向,通过操作者自身的智能决策实现人手操纵力信号控制机器人运动,通过以下具体方式实现:
[0014]一、搭建基于力闭环的机器人运动控制平台;
[0015]二、计算机采集人手操纵力信号,传送数据为系统控制手控器的运动做准备;
[0016]三、以质量一阻尼系统控制策略,依据手控器控制系统动力学模型公式
[0017]
【权利要求】
1.一种基于力融合的手控器共享控制方法,其特征在于,包括以下步骤: a.通过手控器操作终端,以目标对象为导向,通过操作者自身的智能决策实现人手操纵力信号控制机器人运动; b.通过立体视觉技术获取作业场景图像数据并实时重构三维环境,以目标对象为导向构建引导机器人接近目标对象的虚拟引导力(包括引力、斥力、图像伺服力),以此虚拟引导力实现机器人的局部自主控制; c.将步骤a中所述操作者手动控制力与步骤b中所述目标对象的虚拟引导力进行融合,通过融合力对手控器和机器人的运动进行控制,实现机器智能与人类智能共同作用下控制机器人接近目标对象,完成作业过程。
2.根据权利要求1所述的基于力融合的手控器共享控制方法,其特征在于,所述步骤a通过手控器操作终端,以目标对象为导向,通过操作者自身的智能决策实现人手操纵力信号控制机器人运动,通过以下具体方式实现: 一、搭建基于力闭环的机器人运动控制平台; 二、计算机采集人手操纵力信号,传送数据为系统控制手控器的运动做准备; 三、以质量一阻尼系统控制策略,依据手控器控制系统动力学模型公式M'I ad 对手控器的运动进行实时控制,式中,M、B分别为手控器的惯量矩阵和阻尼矩阵,J为手控器的雅可比矩阵,Fh为操作者所施加的操纵力,Fe为机器人与环境的接触力,qD为手控器的期望运动位姿; 四、将手控器的运动位姿信号传递到机器人各运动关节处,使机器人运动与手控器运动同步,以目标对象为导向,通过操作者自身的智能决策实现人手操纵力信号控制机器人运动。
3.根据权利要求1所述的基于力融合的手控器共享控制方法,其特征在于,所述步骤b通过立体视觉技术获取作业场景图像数据并实时重构三维环境,以目标对象为导向构建引导机器人接近目标对象的虚拟引导力,以此虚拟力引导手控器控制机器人运动,按以下方式实现: 一、通过立体视觉技术获取作业场景图像数据并实时重构三维环境,计算目标对象为导向下机器人的期望位姿,做法如下: O由环境相机实时获取并计算背景图像中各像素点的空间坐标,然后生成背景环境(障碍物)的高程数据模型; 2)根据手部相机获取的图像中各像素点的颜色、纹理特征,来提取作业对象区域,然后构建作业对象图像特征; 3)根据图像匹配及摄像机标定的结果,计算作业对象区域中各像素点的空间坐标; 4)构建作业对象包围盒模型,以视觉计算得到的作业对象OBB包围盒轴线方向为期望位姿方向,计算机器人末端的期望位姿; 二、通过获取的作业场景图像数据和重构的三维环境,计算作业对象及障碍物对机器人末端的虚拟引力、斥力、图像伺服力: O以机器人末端当前位姿与期望位姿的相对量为参数,在已获取的作业对象特征和各像素点空间坐标的基础上,依据引力场中物体的受力关系公式
F5=-O ( Y - Y J 计算机器人所受的作业对象虚拟引,式中,α为引力系数,Y与Y*分别为机器人末端的当前位姿和期望位姿向量; 2)以机器人末端当前位姿与期望位姿的相对量为参数,结合环境相机测得的背景环境(或障碍物)高程信息,求解机器人末端沿其速度方向与背景环境的距离,依据斥力场中物体的受力关系公式
4.根据权利要求1所述的基于力融合的手控器共享控制方法,其特征在于,步骤c中所述的操作者操纵力与所述目标对象的虚拟引导力的融合按以下做法实现: O以合理的权值系数,将手控器各关节处的虚拟力/力矩、操纵力Fh、机器人与环境的接触力Fe共同作用到手控器的质量一阻尼控制系统模型中,手控器将产生期望的运动趋势qD,按照手控器控制系统动力学模型公式
【文档编号】B25J13/08GK103991077SQ201410056953
【公开日】2014年8月20日 申请日期:2014年2月19日 优先权日:2014年2月19日
【发明者】倪涛, 张红彦, 郑幻飞, 许 鹏, 赵可孟, 李启东, 蔡明君, 刘金峰, 李骁鹏, 马兆建, 于长治, 冯云龙 申请人:吉林大学