摘要
针对侨乡建筑图像中不同种类纹样间差异较大,相同种类纹样间差异较小的特点,设计了一种融合注意力机制的两阶段图像检索框架.第一阶段引入一个预训练的大型图像源网络并迁移其参数到目标网络,通过目标网络得到已分类的图像.第二阶段利用融合注意力机制提取已分类的图像的特征,通过对比损失减少类内相似图像的距离.在检索时通过第二阶段提取的特征进行相似性度量返回检索结果.结果表明,本文方法在侨乡建筑数据集、Paris500K数据集和Corel5K数据集上的检索精度分别达到了76.5%、70.4%和72.2%.本文算法一定程度上提升了侨乡建筑图像检索精度,还解决了类内图像差异小难检索等问题.
- 单位