摘要

针对传统视觉伺服算法特征提取步骤繁琐,实时性能差的情况;提出了一种基于卷积神经网络的端到端直接视觉伺服算法,通过直接预测安装在机械臂末端相机的瞬时线速度与瞬时角速度来进行伺服定位工作,不需要标记手工特征、相机固有参数或深度信息。首先,将相机观测到的图像输入改进的GhostNet轻量级特征提取网络进行信息提取,在网络中融入瓶颈注意力模块来增强目标物体的空间信息和通道信息;然后采用全连接层作为速度回归函数对线速度角速度进行解耦回归;最后,在真实环境下采用一种实时捕捉方法制作训练所需的数据集,速度标签根据基于位置的视觉伺服控制律算法生成,训练好的网络可使机械臂在未经训练的初始位姿下完成高效、精确的定位和跟踪任务。大量真实场景下的实验测试结果验证了该算法的有效性,且对场景背景信息具有一定的鲁棒性。