一种端到端的地外探测样品智能抓取方法与流程

文档序号:27049283发布日期:2021-10-24 07:39阅读:253来源:国知局
一种端到端的地外探测样品智能抓取方法与流程

1.本发明涉及一种端到端的地外探测样品智能抓取方法,属于航空航天技术领域。


背景技术:

2.地外探测是人类探索宇宙起源和星系演化、和平开发宇宙资源的重要手段,是世界航天领域未来的主要发展方向。地外探测从最近的月球逐步延伸到越来越远的火星、小行星等天体,探测方式从掠飞环绕,逐渐进步到着陆巡视和采样返回。地外探测样本采集是采样返回的核心关键环节,具有重要的科学价值和工程意义。
3.目前地外探测样本采集主要通过机械臂、激光或钻取设备,进行就地取样,但目前还依赖地面指令或人在回路的操作方式,难以自主胜任未知变化环境下的多类复杂探测任务。同时基于传统方法进行地外采样存在异形未知物体检测耗时长、偏差大,不规则物体的抓取位姿难以确切描述和依赖人为设置的特征问题。在新一代人工智能背景下,人工智能技术的植入是提高地外探测器采样自主性的一条极其有效的途径。


技术实现要素:

4.本发明的目的在于:为了解决地外探测样本采集的问题,提出一种端到端的地外探测样品智能抓取方法,以火星探测中的样本采集为应用背景,开展数字

物理一体化抓取、分析与装箱全流程的学习训练,实现全自主的目标发现、抓取与精细操作。
5.本发明目的通过以下技术方案予以实现:
6.一种端到端的地外探测样品智能抓取方法,包括如下步骤:
7.选择强化学习方法;
8.构建地外探测样本采集仿真训练环境;
9.在构建的仿真训练环境中,进行数字训练,得到抓取模型;
10.将得到的抓取模型迁移到地外探测样本抓取物理实验系统中,进行地外探测基于强化学习的样品采集物理试验,从而完成端到端的地外探测样品智能抓取。
11.进一步的,采用近端策略优化方法ppo作为选择的强化学习方法。
12.进一步的,采用多平台机器人仿真软件webots构建地外探测样本采集仿真训练环境。
13.进一步的,构建地外探测样本采集仿真训练环境时,建立目标机械臂、手爪、相机、目标物体、箱子和桌面模型;
14.手爪设置在目标机械臂的前端,用于抓取桌面上的目标物体;
15.相机设置在桌面上方,用于观察待抓取的目标物体;
16.箱子用于手爪抓取目标物体后,放置目标物体。
17.进一步的,所述进行数字训练,具体为:通过设计奖励函数和网络结构,训练深度神经网络,输入通过相机获得的rgb

d图像,输出对应图像坐标系下最佳抓取位姿。
18.进一步的,奖励函数如下:
[0019][0020]
近端策略优化方法ppo中执行网络actor和评价网络critic都采用稠密神经网络densenet,具体参数如下:选用densenet

121网络,121层,包含初始化层、密集连接层、过渡层与全连接层。
[0021]
进一步的,训练过程包括如下:
[0022]
(1)根据当前物品抓取环境状态,机械臂根据初始的抓取策略选取并执行抓取动作;初始的抓取策略根据选择的强化学习方法得到;
[0023]
(2)执行抓取动作后,抓取环境转移到新的状态,并通过奖励函数获得相应的动作奖励;
[0024]
(3)重复上述过程直到训练环境中物体全部抓取成功;
[0025]
(4)得到深度神经网络模型,即抓取模型。
[0026]
进一步的,地外探测样本抓取物理实验系统包括目标机械臂、手爪、相机、目标物体、箱子和桌子;
[0027]
手爪设置在目标机械臂的前端,用于抓取桌面上的目标物体;
[0028]
相机设置在桌面上方,用于观察待抓取的目标物体;
[0029]
箱子用于手爪抓取目标物体后,放置目标物体;
[0030]
所述将得到的抓取模型迁移到地外探测样本抓取物理实验系统中是指,建立仿真环境中的抓取位姿与物理试验环境抓取位姿一一对应的关系;
[0031]
在物理试验环境中,利用标定板求解相机相对机械臂基座坐标系的位姿,将仿真环境中的抓取位姿变换到机械臂基座坐标系下,从而控制机械臂完成样本抓取。
[0032]
进一步的,所述进行地外探测基于强化学习的样品采集物理试验,具体为:训练得到的神经网络参数迁移物理环境中进行试验验证,并且通过不断与环境进行交互,使机械臂不断更新抓取模型,实现持续学习,提高样品采集成功率。
[0033]
进一步的,本发明还提出一种地外探测样本抓取位姿智能选择系统,包括:
[0034]
强化学习方法确定模块:选择近端策略优化方法ppo作为强化学习方法;
[0035]
仿真训练环境构建模块:采用多平台机器人仿真软件webots构建地外探测样本采集仿真训练环境;建立目标机械臂、手爪、相机、目标物体、箱子和桌面模型;手爪设置在目标机械臂的前端,用于抓取桌面上的目标物体;相机设置在桌面上方,用于观察待抓取的目标物体;箱子用于手爪抓取目标物体后,放置目标物体;
[0036]
训练模块:在构建的仿真训练环境中,进行数字训练,得到抓取模型,具体为:通过设计奖励函数和网络结构,训练深度神经网络,输入通过相机获得的rgb

d图像,输出对应最佳抓取位姿;
[0037]
奖励函数如下:
[0038][0039]
ppo中执行网络actor和评价网络critic都采用稠密神经网络densenet,具体参数如下:选用densenet

121网络,121层,包含初始化层、密集连接层、过渡层与全连接层;
[0040]
试验验证模块:将得到的抓取模型迁移到地外探测样本抓取物理实验系统中,进行地外探测基于强化学习的样品采集物理试验,从而完成端到端的地外探测样本抓取位姿智能选择。
[0041]
本发明相比于现有技术具有如下有益效果:
[0042]
(1)在本发明实施例中的一种端到端的地外探测样品智能抓取方法,本发明公开的端到端的地外探测样本抓取位姿智能选择方法,不需要样本进行监督训练,而是“自学习”机制,可在线提升。
[0043]
(2)本发明公开的端到端的地外探测样本抓取位姿智能选择方法,抓取训练过程中无需知道样本形状、大小等先验信息,能够对几何形状未知且不规则的物体进行高成功率的抓取。
[0044]
(3)训练得到的神经网络参数迁移物理环境中进行试验验证,并且通过不断与环境进行交互,使机械臂能够不断更新模型,实现持续学习,不断提高样品采集成功率。
附图说明
[0045]
图1为本发明实施例提供一种端到端的地外探测样品智能抓取方法流程图;
[0046]
图2为本发明实施例提供一种地外探测样本采集仿真训练环境示意图;
[0047]
图3为本发明实施例提供一种地外探测样本采集物理环境不规则石块抓取示意图。
具体实施方式
[0048]
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明的实施方式作进一步详细描述。
[0049]
图1所示,为本发明实施例提供一种端到端的地外探测样品智能抓取方法流程图,按照先数字训练,再物理试验的方式开展了数字

物理试验验证;包括:
[0050]
步骤一、选择强化学习方法;
[0051]
步骤二、构建地外探测样本采集仿真训练环境;
[0052]
步骤三、在构建的仿真训练环境中,进行数字训练,得到抓取模型;
[0053]
步骤四、将得到的抓取模型迁移到地外探测样本抓取物理实验系统中,进行地外探测基于强化学习的样品采集物理试验,抓取石块等物品,从而完成端到端的地外探测样本抓取位姿智能选择。
[0054]
在本发明实施例中,采用近端策略优化方法ppo作为强化学习算法。
[0055]
在本发明实施例中,采用多平台机器人仿真软件webots构建数字仿真环境。
[0056]
在本发明实施例中,仿真环境中建立目标机械臂、手爪、相机、目标物体、箱子和桌
面等模型。
[0057]
手爪设置在目标机械臂的前端,用于抓取桌面上的目标物体;
[0058]
相机设置在桌面上方,用于观察待抓取的目标物体;
[0059]
箱子用于手爪抓取目标物体后,放置目标物体。
[0060]
在本发明实施例中,进行数字训练,具体为:通过设计奖励函数和网络结构,训练深度神经网络,输入通过相机获得的rgb

d图像,输出对应最佳抓取位姿。
[0061]
在本发明实施例中,训练过程包括如下:
[0062]
(1)根据当前物品抓取环境状态,机械臂根据初始的抓取策略选取并执行抓取动作;初始的抓取策略根据选择的强化学习方法得到;
[0063]
(2)执行抓取动作后,抓取环境转移到新的状态,并通过奖励函数获得相应的动作奖励;
[0064]
(3)重复上述过程直到训练环境中物体全部抓取成功;
[0065]
(4)得到深度神经网络模型,即抓取模型。
[0066]
在本发明实施例中,动作奖励函数设计如下:
[0067][0068]
在本发明实施例中,ppo中执行网络actor和评价网络critic都采用稠密神经网络densenet,具体参数如下:
[0069]
选用densenet

121网络,121层,包含初始化层、密集连接层、过渡层(transition layer,tl)与全连接层。
[0070]
在本发明实施例中,地外探测样本抓取物理实验系统包括目标机械臂、手爪、相机、目标物体、箱子和桌子;
[0071]
手爪设置在目标机械臂的前端,用于抓取桌面上的目标物体;
[0072]
相机设置在桌面上方,用于观察待抓取的目标物体;
[0073]
箱子用于手爪抓取目标物体后,放置目标物体;
[0074]
所述将得到的抓取模型迁移到地外探测样本抓取物理实验系统中是指,建立仿真环境中的抓取位姿与物理环境抓取位姿一一对应的关系;
[0075]
在物理实验系统中,利用标定板求解相机相对机械臂基座坐标系的位姿,将仿真环境中的抓取位姿变换到机械臂基座坐标系下,从而控制机械臂完成样本抓取。
[0076]
在本发明实施例中,训练得到的神经网络参数迁移物理环境中进行试验验证,并且通过不断与环境进行交互,使机械臂能够不断更新模型,实现持续学习,不断提高样品采集成功率。
[0077]
实施例:
[0078]
以火星探测中的样本采集为应用背景,开展数字

物理一体化抓取、分析与装箱全流程的学习训练,实现全自主的目标发现、抓取与精细操作。样本采集训练抓取流程如图1所示。在选定强化学习训练方法和初始网络基础上,反复迭代训练,以确定合适的网络结构、reward设计以及训练超参数,获得最佳抓取点网络模型,最终实现机械臂采样控制。
[0079]
步骤1:地外探测基于强化学习的样品采集方法设计。
[0080]
将抓取任务视为马尔科夫决策过程:给定t时刻的状态s
t
,机械臂根据策略π(s
t
)选取并执行动作a
t
,然后转移到新的状态s
t+1
,并获得相应的奖赏抓取任务需要找到使得累积奖赏最大的策略,γ为折扣因子。试验采用离策略ppo方法,ppo算法问题定义如式(1)所示:
[0081][0082]
其中,θ
old
表示更新前的策略参数向量,a
t
表示t时刻优势函数估计值,β表示kl离散度的调价参数。可采用梯度下降法直接求解最优参数。
[0083]
在深度学习网络中,网络深度的加深容易导致梯度消失,而稠密神经网络(dense convolutional network,densenet)建立了不同层之间的连接关系,通过这种连接做出了比resnet更好的网络结构,进一步减轻了梯度消失问题,并且网络很窄,极大的减少了参数量,有助于抑制过拟合的问题,因此本节参照densenet对策略网络进行设计。由于机械臂的动作空间是连续的,直接进行离散化会使得训练的策略效果不佳或出现维度灾难等情况,将ppo和densenet结合,直接获得抓取姿态连续控制量f的均值和方差。考虑星表平面抓取任务,通过对连续控制量f随机采样获得抓取时的位置(x,y),机械臂手爪沿z轴的转动角α。
[0084]
步骤2:地外探测样本采集仿真训练环境构建。
[0085]
直接利用机械臂进行物理训练存在成本高、效率低的问题,采用开源的多平台机器人仿真软件webots构建数字仿真环境,基于步骤1中的强化学习算法和深度神经网络进行训练,通过设计奖励函数和网络结构,使得深度神经网络达到输入r

gbd图像输出对应动作状态的效果。
[0086]
机械臂抓取训练仿真系统在webots已有的ur5七自由度机械臂基础上进行搭建,其可控制关节空间的每个角度和机械臂末端在欧式空间上相对于基座的姿态,同时可用自带的逆运动学解算函数转换到关节空间的位移。考虑到操作对象形状不规则,为提高抓取成功率,物体抓放采用末端装有三指爪的协作机械臂,通过控制夹爪角度来控制闭合。此外,在仿真环境中建立了目标物体、箱子和桌面等模型,如图2所示。为了弥补视角带来的信息缺失,我们采用深度相机获取的物体rgb

d图作为的策略网络的输入,即马尔可夫决策过程的状态。相机安装方位是斜45
°
向下,图像大小为200
×
200
×
4。
[0087]
步骤3:地外探测基于强化学习的样品采集方法物理试验。
[0088]
将步骤2中训练得到的神经网络参数迁移物理环境中进行试验验证,并且通过不断与环境进行交互,使机器人能够不断更新模型,实现持续学习,不断提高样品采集成功率。
[0089]
在上述技术方案基础上,将一堆形状复杂的物体按一定顺序和位姿装入20*20*10cm的箱内,要求有限的空间装尽可能多的物体。在非结构环境下,难以直接获得物体准确的位置、姿态和形状,将仿真中训练的模型迁移到实际场景中直接抓取任意不规则石块,抓取过程中不断添加石块,抓取成功率83.33%。真实环境中抓取结果如图3所示。
[0090]
本发明说明书中未作详细描述的内容属本领域技术人员的公知技术。
[0091]
本发明虽然已以较佳实施例公开如上,但其并不是用来限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,都可以利用上述揭示的方法和技术内容对本发明技术方案做出可能的变动和修改,因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化及修饰,均属于本发明技术方案的保护范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1