摘要

针对图像关键点误匹配剔除问题,提出了一个多尺度损失函数。对每个候选匹配,该损失函数分别从单样本分类正确性、局部邻域结构一致性和全局几何一致性三个层面进行约束,利用有监督的学习方式训练一个深度神经网络进行错误匹配的剔除。在原始匹配结果质量评估和下游应用精度上的实验表明,新的损失函数引入了更丰富的信息,能进一步提升原有网络结构的结果。同时,所提方法在图像关键点初始匹配精度不高的情况下具有更显著的优势。

全文