摘要
针对人工判别胃癌病理图像对专业知识要求较高且费时费力的问题,提出一种基于深度学习的分割算法对胃癌病理图像的病变区域进行自动分割,为病理医生的工作提供更有依据的诊断指导。在已有的U-Net模型基础上,提出一种基于多尺度输入与特征融合的多输入融合网络(MIFNet)模型,通过对不同输入尺度特征进行自动提取和融合以实现对胃癌病理图像中病变区域的自动分割。多尺度输入数据能够帮助模型更有针对性地捕捉图像的局部和全局特征,特征融合策略能够兼顾模型对全局特征与局部特征的关注。在中国大数据人工智能创新创业大赛的"病理切片识别AI挑战赛"数据集上的实验结果显示,MIFNet在测试中的dice系数达到了81.87%,比U-Net和SegNet等模型提高了10%以上,模型的参数规模也大大下降。所以说,MIFNet模型在提高分割的准确度以及节省计算资源等方面都取得了更好的效果。
- 单位