摘要
提出了一种基于GPU加速的自适应耦合变分模型。首先该模型基于Meyer能量极小化分解理论,采用自适应扩散张量模型对图像结构部分进行边缘增强;其次通过非局部平均滤波,实现了保持边缘及细小结构的同时对图像振荡部分进行去噪;然后利用GPU的通用计算功能对耦合变分模型进行并行处理,通过合并访问和共享内存策略相结合的手段使耦合变分算法效率大幅度提升。实验结果表明,在较好保护图像边缘信息、增强纹理特征的前提下,该算法的GPU处理速度是CPU串行处理的15倍。
-
单位中国科学院自动化研究所; 复杂系统管理与控制国家重点实验室; 北京航空航天大学