摘要

微观三维形貌重建作为精密制造领域生产制造的关键环节,其重建过程依赖于高分辨率稠密图像的采集.而面对复杂应用场景的高时效性需求,高分辨率稠密图像的输入会导致运算量与计算复杂度呈几何倍增加,无法实现高效率低延时的实时微观三维形貌重建.针对上述现状,提出一种分组并行的轻量级实时微观三维形貌重建方法 GPLWS-Net.GPLWS-Net以U型网络为基础构造轻量化主干网络,以并行分组式查询加速三维形貌重建过程,并针对神经网络结构进行重参数化设计避免重建微观结构的精度损失.另外,为弥补现有微观三维重建数据集的缺失,公开了一组多聚焦微观三维重建数据集(Micro3D),其标签数据利用多模态数据融合的方式获取场景高精度的三维结构.结果表明,所提出的GPLWS-Net网络不仅可以保证重建精度,而且在三组公开数据集中相比于其他5类深度学习方法平均耗时降低39.15%,在Micro3D数据集中平均耗时降低50.55%,能够实现复杂微观场景的实时三维形貌重建.

全文