摘要

针对低分辨率图像到高分辨率图像的映射函数解空间极大,导致超分辨率重建模型难以产生细致纹理的问题,本文提出一种结合双注意力和结构相似度量的图像超分辨率重建网络。以改进的U-Net网络模型作为基本结构,引入针对低级别视觉任务的数据增强方法,增加样本多样性。编码器部分由卷积层和自适应参数线性整流激活函数(Dynamic ReLU)组成。同时引入了一种残差双注意力模块(Residual Dual Attention Module, RDAM)与像素重组(PixelShuffle)模块共同构成解码器,通过上采样操作,逐级放大图像。为了使生成图像更加符合人眼视觉特性,采用了一种结合结构相似度量准则的损失函数,增强网络约束。实验结果表明:重建图像的质量对比SRCNN,在Set5、Set14、BSD100和Urban100标准测试集上的平均PSNR提升约1.64 dB,SSIM提升约0.047。本文方法能够使重建的图像纹理细节更丰富,有效地减少了映射函数可能的解空间。