基于运动学与深度神经网络融合的机器人标定方法和装置

文档序号:28419448发布日期:2022-01-11 21:15阅读:1008来源:国知局
基于运动学与深度神经网络融合的机器人标定方法和装置

1.本发明属于智能制造领域,更具体地,涉及一种基于运动学与深度神 经网络融合的机器人标定方法和装置。


背景技术:

2.工业机器人是现代制造业的重要自动化设备,它集成了机械、电子、 控制、计算机、传感器、人工智能等多学科的先进技术。由制造公差、安 装误差、磨损、传动误差和柔顺性等诸多因素共同作用,机器人控制器中 使用的运动学模型无法准确描述实际机器人的运动学变换。因此,通过控 制关节达到的实际位置与运动学模型的理论位置不一致,导致机器人的定 位误差。工业机器人绝对定位精度相对较低,通常只有数控机床的1/30。 空载状态机器人绝对定位误差90%源于关节运动学建模误差,没有运动学 标定的机器人绝对定位精度仅为毫米级。如何提高定位精度是工业机器人 的重要发展方向之一,这也成为离线编程方法在先进机器人制造系统中实 际应用的关键技术之一。
3.现有技术中有很多提高机器人定位精度的标定方法。比如:专利《一 种基于卡尔曼滤波的机器人运动学参数标定方法》通过微分运动将机器人 末端实际位姿矩阵全微分得到机器人末端位姿误差与机器人运动学误差间 的线性关系建立误差模型。专利《一种工业机器人运动学参数简易标定装 置及其标定方法》公开一种工业机器人运动学参数简易标定装置及其标定 方法,并使用最小二乘法求得工业机器人运动学参数的标定结果。专利《一 种基于激光测距仪的机器人运动学参数标定方法》采集机器人每次运动对 应的关节角度值及激光测距仪的读数值,依据共面条件确定运动学参数误 差。专利《基于多点姿态采样的串联型机器人运动学参数标定方法》操作 机器人工具中心多次以不同的姿态围绕固定点旋转,同时采集每次旋转对 应的关节变量值,根据采集到的多组关节变量值及初始位置矢量来确定型 机器人的运动学参数的最优误差补偿值,以采用最优误差补偿值对串联型 机器人的运动学模型参数进行修正。
4.现有技术中的机器人标定方法往往标定过程复杂,机器人末端位姿预 测精度不准,导致标定精度较低。


技术实现要素:

5.针对现有技术的以上缺陷或改进需求,本发明提供了一种基于运动学 与深度神经网络融合的机器人标定方法和装置,其目的在于通过建立与运 动学精确映射的深度神经网络模型并进行训练,输入机器人各个轴的关节 角度值,进而精准预测机器人末端位姿,提高机器人标定精度;由此解决 机器人末端位姿预测精度不准导致的绝对定位精度较低的技术问题。
6.为实现上述目的,按照本发明的一个方面,提供了一种基于运动学与 深度神经网络融合的机器人标定方法,包括:
7.s1:将机器人各个轴关节角度值对应的实轴指令序列输入预先建立的 运动学基
础模型,得到理论位姿序列;
8.s2:采集在所述实轴指令序列控制下机器人的实际位姿,形成实际位 姿序列;
9.s3:将所述实轴指令序列、所述理论位姿序列、所述实际位姿序列作 为输入,位姿偏差作为输出对深度神经网络进行训练得到大数据偏差模型;
10.s4:将机器人的当前实轴指令及其对应的理论位姿序列输入所述大数 据偏差模型得到预测位姿偏差,利用所述预测位姿偏差补偿对应的理论位 姿序列得到预测位姿序列,从而完成机器人的运动学标定。
11.在其中一个实施例中,所述s1之前,所述方法包括:
12.基于机器人的关节类型、关节尺寸、关节轴坐标系确定各个轴的关节 角度和末端位姿的映射关系,从而建立起所述运动学基础模型,所述运动 学基础模型的输入为实轴指令序列,输出为理论位姿序列。
13.在其中一个实施例中,所述s2包括:当机器人在所述实轴指令序列的 控制下运动时,利用激光跟踪仪追踪采集到机器人末端的连续多个实际位 姿,形成所述实际位姿序列。
14.在其中一个实施例中,所述s2包括:
15.当机器人在所述实轴指令序列的控制下运动时,利用摄像装置采集所 机器人的实际位姿视频或多张连续的实际位姿图像,从所述实际位姿视频 或所述多张连续的实际位姿图像获取连续的多个实际位姿,形成所述实际 位姿序列。
16.在其中一个实施例中,所述s4中,所述深度神经网络的输入层神经元 个数与样本数据中特征的维度相同,输出层为1个神经元;所述样本数据 包括:所述实轴指令序、所述理论位姿序列和所述实际位姿序。
17.按照本发明的另一方面,提供了一种基于运动学与深度神经网络融合 的机器人标定装置,包括:
18.初始化模块,用于将机器人各个轴关节角度值对应的实轴指令序列输 入预先建立的运动学基础模型,得到理论位姿序列;
19.采集模块,用于采集在所述实轴指令序列控制下机器人的实际位姿, 形成实际位姿序列;
20.训练模块,用于将所述实轴指令序列、所述理论位姿序列、所述实际 位姿序列作为输入,位姿偏差作为输出对深度神经网络进行训练得到大数 据偏差模型;
21.标定模块,用于将机器人的当前实轴指令及其对应的理论位姿序列输 入所述大数据偏差模型得到预测位姿偏差,利用所述预测位姿偏差补偿对 应的理论位姿序列得到预测位姿序列,从而完成机器人的运动学标定。
22.按照本发明的另一方面,提供了一种基于运动学与深度神经网络融合 的机器人标定系统,包括存储器和处理器,所述存储器存储有计算机程序, 所述处理器执行所述计算机程序时实现上述方法的步骤。
23.总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够 取得下列有益效果:
24.(1)本发明首先将实轴指令序列输入基于理论分析建立机器人运动 学基础模型得到理论位姿序列;其次采集的机器人实际位姿序列和理论位 姿序列,制作训练大数据偏
差模型的样本;然后建立大数据偏差模型并进 行训练,修正运动学基础模型的预测偏差;最后往偏差模型中输入机器人 各个轴的关节角度值,即可预测得到实际机器人末端位姿,实现对机器人 的运动学标定。该方法通过建立与物理实体精确映射的机器人深度神经网 络融合模型,当输入机器人各个轴的关节角度值能够得到位姿偏差,可以 精准预测出实际机器人末端位姿,提高机器人绝对定位精度。
25.(2)机器人是一个复杂动态系统,机器人绝对定位精度由制造公差、 安装误差、磨损、传动误差和柔顺性等诸多因素共同影响,机器人的精度 误差为多种因素产生的耦合误差,用数学方法及机器人运动学理论建立的 运动学基础模型对这种耦合误差的表达受限于运动学基础模型的参数个数 的影响,难以完整、准确描述实际机器人的运动学变换,仿真误差较大, 无法提供精确的补偿量,并且这种模型属于一种通用模型,并没有对特定 某一台机器人的特性进行分析建模。采用基于深度神经网络的非线性的建 模方法,可以取得更精准的仿真结果。运动学基础模型输入仅为实轴指令 时间序列,与实际物理系统的实时的状态无关,不需要实际物理系统提供 额外的信息,不与实际物理系统相互耦合。
附图说明
26.图1是本发明一实施例中基于运动学与深度神经网络融合的机器人标 定方法的框架图;
27.图2是本发明一实施例中基于运动学与深度神经网络融合的机器人标 定方法的流程图;
28.图3是本发明一实施例中s3的原理图;
29.图4、图5、图6、图7、图8和图9均是本发明一实施例中理论位姿 序列、实际位姿序列与预测位姿序列的曲线图。
具体实施方式
30.为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图 及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体 实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的 本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可 以相互组合。
31.本发明专利提出了一种运动学与深度神经网络融合的机器人标定方 法,建立了机器人运动学与深度神经网络融合模型进行机器人运动学标定, 融合模型包括两个部分:一个是基于理论分析的运动学基础模型,以下简 称运动学基础模型;另一个是基于深度神经网络的大数据偏差模型,以下 简称偏差模型。融合模型的建模过程如图1所示。
32.首先,基于理论分析,建立机器人运动学基础模型;
33.其次,采集的机器人实际位姿数据和运动学基础模型的数据之间的偏 差,制作训练大数据偏差模型的样本;
34.然后,建立大数据偏差模型,修正运动学基础模型的预测偏差。
35.最后,向大数据偏差模型输入机器人各个轴的关节角度值,即可预测 得到实际机器人末端位姿,实现对机器人的运动学标定。
36.如图2所示,本发明提供一种基于运动学与深度神经网络融合的机器 人标定方
法,包括:
37.s1:将机器人各个轴关节角度值对应的实轴指令序列输入预先建立的 运动学基础模型,得到理论位姿序列;
38.s2:采集在实轴指令序列控制下机器人的实际位姿,形成实际位姿序 列;
39.s3:将实轴指令序列、理论位姿序列、实际位姿序列作为输入,位姿 偏差作为输出对深度神经网络进行训练得到大数据偏差模型;
40.s4:将机器人的当前实轴指令及其对应的理论位姿序列输入大数据偏 差模型得到预测位姿偏差,利用预测位姿偏差补偿对应的理论位姿序列得 到预测位姿序列,从而完成机器人的运动学标定。
41.在其中一个实施例中,s1之前,方法包括:
42.基于机器人的关节类型、关节尺寸、关节轴坐标系确定各个轴的关节 角度和末端位姿的映射关系,从而建立起所述运动学基础模型,所述运动 学基础模型的输入为实轴指令序列,输出为理论位姿序列。
43.具体的,根据实际机器人建立其运动学基础模型,运动学基础模型的 输入是机器人各个轴的关节角度值,输出为机器人末端实际位姿。详细如 下:机器人包括但不限于各种构型串并联机器人;运动学建模包括运动学 方程的建立,并求解出其运动学正逆解,基于机器人的尺寸、构型建立各 个轴关节的角度和姿态的映射关系。
44.在其中一个实施例中,s1和s2包括:
45.样本数据采集:建立机器人各个轴的关节角度值的实轴指令序列,将 该序列输入机器人理论运动学基础模型获得理论位姿序列;同样将该实轴 指令序列下发机器人,并采集机器人的实际位姿,形成实际位姿序列。
46.实轴指令序列是一系列机器人实轴的数据,输入到机器人可以控制机 器人根据实轴数据运动,输入到运动学基础模型可以计算出机器人末端的 理论位姿;
47.实际位姿序列是指机器人位姿检测装置采集到的机器人末端实际位 姿,采集装置包括但不限于激光跟踪仪。
48.所属样本数据包括:实轴指令序列、理论位姿序列、实际位姿序列。
49.在其中一个实施例中,s2包括:
50.当机器人在实轴指令序列的控制下运动时,利用激光跟踪仪追踪采集 到相应的机器人末端实际位姿,形成实际位姿序列。所述的采集设备包括 但不限于激光跟踪仪。
51.在其中一个实施例中,s2包括:
52.当机器人在实轴指令序列的控制下运动时,利用摄像装置采集所机器 人的实际位姿视频或多张连续的实际位姿图像,从实际位姿视频或多张连 续的实际位姿图像获取连续的多个实际位姿,形成实际位姿序列。
53.s3:机器人运动学深度神经网络模型的训练,利用标记好的样本数据, 实轴指令序列、理论位姿序列、实际位姿序列作为深度神经网络的输入, 位姿偏差作为深度神经网络的输出,训练该深度神经网络模型。
54.图3为机器人大数据偏差模型的训练与泛化过程图。
55.需要说明的是,利用的深度神经网络,输入层神经元个数为样本中输 入特征的维度,输出层为1个神经元。
56.s4:预测阶段,输入机器人各个轴的关节角度值,预测出实际位姿偏 差。预测偏差补偿运动学基础模型,从而预测得到实际机器人末端位姿。
57.图4-图9为机器人在实轴指令序列控制下末端位置和角度值,图中6 幅子图分别为x,y,z轴位移数据和a,b,c的欧拉角数据。其中,最 上面的曲线为理论位姿序列;中间的曲线为实际位姿序列;最下面的曲线 为预测位姿序列。图4中的(b)是图4中的(a)中第4个点的局部放大 图;图5中的(b)是图5中的(a)中第4个点的局部放大图;图6中的 (b)是图6中的(a)中第4个点的局部放大图;图7中的(b)是图7中 的(a)中第4个点的局部放大图;图8中的(b)是图8中的(a)中第4 个点的局部放大图;图9中的(b)是图9中的(a)中第4个点的局部放 大图。由图4中的(b)、图5中的(b)、图6中的(b)、图7中的(b)、 图8中的(b)、图9中的(b)中最上面曲线和最下面曲线差值较小可知, 预测位姿与实际位姿基本重合。
58.本发明方法采用的是一种运动学与深度神经网络融合的机器人标定方 法,利用神经网络算法,实现对机器人末端实际位姿进行精准的建模,提 高机器人绝对定位精度。
59.本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已, 并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等 同替换和改进等,均应包含在本发明的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1