摘要
针对目前图像修复中存在的大面积缺失、修复语义不连贯、纹理不清晰、分辨率低等问题,提出一种深度生成式对抗网络的超分辨率(deep super resolution generative adversarial network, DSRGAN)图像修复与重建方法。首先,提出改进的DenseNet网络结构作为生成器,提取图像生成的特征信息实现残损图像上下文信息的准确定位;其次,构建相对条件判别器,实现图像数据集的多方位数据梯度接收;再次,利用DenseNet网络与深度生成网络相结合,建立图像低维信息和高维信息之间的映射关系;最后,将DSRGAN与GCA、SI、PIC模型通过CelebA、Places2及残损纺织物3个数据集进行实验测试。结果表明:残损图像经DSRGAN模型修复后的峰值信噪比和结构相似性具有明显的优势,峰值信噪比平均提高了2.57 dB、3.17 dB、5.89 dB;结构相似性平均提高了0.083 5、0.148 1、0.264 1。
- 单位