摘要
针对虚拟化环境下中断频率过大影响密码设备密码运算性能的问题,提出了一种降低中断频率的性能优化方法。首先建立了中断频率控制模型,通过实验验证了该模型的合理性和正确性;然后基于单根I/O虚拟化,在虚拟功能驱动层加入速度监测模块来实时监测加密速度的变化,并且当该模块监测到加密速度降低时自动调整虚拟功能中断频率上限,降低由中断频率过大带来的I/O传输消耗。实验结果表明,中断频率上限的调整显著提高了I/O密集型加密过程的加密速度。
-
单位信息工程大学