摘要
基于深度学习的驱油图像分割是驱油率分析计算的关键步骤,相对于其他方法,基于U形结构的全卷积神经网络(Fully Convolutional Networks, FCN)在许多不同的图像任务中取得了显著的成效。但在这些结构中,标准卷积具有固定的感受野,不能提取到不同尺度的信息,丢失细节特征,导致分割精度较差,边缘模糊;其次主流模型对噪声的鲁棒性较差,并且信息之间往往会存在冗余,在融合阶段中未能对关键信息有效提取。为解决上述问题,在U-net的基础上引入多尺度信息提取和空间注意力融合并将其集成为多尺度信息提取融合(MIEF)模块,通过提取不同的尺度信息有效地保留了图像细节特征,之后通过空间注意力动态地融合提取到的多尺度信息,增强抗干扰性,实现网络对多尺度信息的有效利用。通过在驱油数据集上进行实验,准确率和MIoU相较于原始U-net网络分别提高了2.55%和1.24%,并与其他方法进行对比,验证了该方法的可行性和有效性。
-
单位陕西科技大学; 中电科西北集团有限公司