摘要

为探索在自然苹果园环境中对高度遮挡果实进行机器人自动化采摘,提出基于RGB与Depth图像双输入的YOLO-RD-Apple果园异源图像遮挡果实检测模型。使用轻量化的MobileNetV2并在此基础上设计的更加轻量化的MobileNetV2-Lite分别作为RGB和Depth图像的特征提取器,保证特征提取能力的同时降低网络的计算量;将CSPNet与深度可分离卷积结合SE注意力模块,提出全新的SE-DWCSP3模块对PANet结构进行改进,提升网络对于残缺苹果目标的特征提取能力;引入Soft NMS算法替代一般NMS算法,以减少对密集目标的错误抑制现象,降低被遮挡苹果的漏检率。实验结果表明,YOLO-RD-Apple在自然遮挡苹果数据集上性能优秀,在测试集上的AP值达到93.1%,较YOLOv4提升了1.4%,参数量则降低了70%,在GPU(V100)的检测速度达到40.5 FPS,较YOLOv4速度提升了12.5%,在检测精度和速度上均有不同程度地提升,同时降低了网络参数量,更加适用于实际果园苹果采摘场景。