摘要

对于两幅不同质量的图像,人眼视觉系统(Human Visual System,HVS)能够比较容易地区分两幅图像间的质量差异,因此通过模拟HVS来判断两幅图像的相对质量比给出图像的绝对质量分数更加准确。文中提出了一种用于评估图像间相对质量的CPNet(Compare-net)模型,该模型是一种分数无关类型的算法,利用图像组合的形式解决数据量的限制,相比绝对质量分数标签,提出的相对质量标签以及相对质量顺序标签具有更广阔的应用场景,并且获取方式更加方便、准确。首先,通过分析卷积神经网络结构相关参数对网络性能的影响,来构建合理的网络基础结构;其次,以双通道输入网络和设计特征求差的方式得到两幅图像的质量差异特征,并结合图像对相对质量标签来完成分类学习;最后,通过在公共数据库上的实验证明了该算法的精度优于其他算法。所提算法在相同参考图像类型实验中分别取得了0.971和0.947的最优精度;在不同参考图像类型实验上也取得了很有竞争力的精度,分别为0.926和0.860。另外,设计了三通道网络并进行实验来探究将所提算法扩展到多通道的可能性。