摘要
在复杂的农业环境下,水果采摘机器人系统感知端的识别与定位性能是提高水果采摘成功率的重要指标。本文以复杂外形的火龙果作为研究对象,针对采摘机器人的视觉系统提出了一种适用于火龙果图像自主检测的实时多任务卷积神经网络——SegYOLOv5。该网络基于YOLOv5-s卷积神经网络的主体架构进行适应性改进,通过提取3层加强特征作为改进级联RFBNet语义分割网络层的输入,实现图像检测和语义分割的多任务目标识别检测,有效提升了模型的整体性能。改进的SegYOLOv5网络结构能够适应对边界敏感的图像语义分割农业场景,测试集的平均精度均值和平均交并比分别为93.10%和83.64%,与YOLOv5-s+原始RFBNet和YOLOv5-s+BaseNet模型相比,高出了前者1.23%和2.74%,高于后者2.38%和1.45%。SegYOLOv5平均检测速度达到71.94 fps,相比EfficientDet-D0提高40.79 fps,平均精度均值高出5.8%。通过端到端输出SegYOLOv5检测结果并结合图像几何矩算子,能够实时准确定位火龙果质心作为理想采摘点。改进的算法具有较高的鲁棒性和通用性,为基于视觉感知的水果采摘机器人奠定了有效的实践基础。
- 单位