摘要
基于视觉伺服控制的机器人手眼标定和逆运动学求解一直是视觉伺服领域的核心问题。随着应用场景的逐渐复杂,传统手眼标定方法已无法满足需求;随着网络深度的增加,单一BP神经网络逆运动学求解算法的误差趋于饱和甚至变大,无法进一步提升网络性能。针对以上问题,本文将手眼标定和逆运动学求解融合为拟合目标图像坐标到机器人各关节角之间的映射关系问题,提出了一种残差BP神经网络算法。使用多个残差网络模块的方式加深BP神经网络的深度,残差模块的输入信息可以在网络内跨层传输,较好地解决了因深度增加网络模型容易产生梯度消失而无法提升网络性能的问题;通过6自由度机器人雅可比方程对逆运动学解的空间进行划分,确定了8个独立的区域,基于独立区域方法对训练数据进行处理,从而避免了多自由度机器人逆运动学多解对网络学习的影响,网络训练精度提升了2个数量级,训练速度提高了2倍。在REBot-V-6R型6自由度机器人输送线分拣系统中进行二维平面抓取和三维实物抓取实验,实验结果验证了该方法的准确性。结果表明,该方法比1层BP神经网络、3层BP神经网络、5层BP神经网络的训练精度分别提高了4个数量级、2个数量级、5个数量级,测试精度提高2个数量级;与传统标定方法相比,本文方法节约了逆运动学求解过程的计算成本,抓取位姿精度提高了1个数量级。
- 单位