摘要

针对当前以图藏图技术无法较好平衡隐藏容量和图像质量的问题,提出基于富特征分支网络的高图像质量的一图藏两图方法。在编码网络中,设计Res2Net-Inception模块提高特征提取能力。在解码网络中,设计W-Net网络结构,实现解码网络对图像细粒度细节和粗粒度语义的全尺度捕捉。为了更好地与人类视觉系统相关联,引入更适合隐写的混合损失函数训练整个模型。实验结果表明,相比其他以图藏图模型,该模型在保证隐藏容量的同时,有效提高了含密图像及重构秘密图像的质量。