摘要
数据备份的目的就是为了恢复.由于逻辑连续的数据被物理分散在不同的磁盘位置,传统的去重方法产生的碎片严重影响了系统的恢复性能.之前存在的一些优化方法都是尝试在备份时利用重写算法来改进后期的恢复性能,然而重写算法自身存在的弊端就是必须以牺牲去重率的代价来获得更好的数据恢复性能,最终导致浪费磁盘空间的结果.并且传统的方法在备份完成后只会生成一份备份元数据以便后期恢复,导致系统在恢复过程中频繁地低效率访问磁盘上的元数据.本文提出将备份元数据分类组织成文件元数据和块元数据,在不牺牲系统去重率和充分利用硬件资源的前提下,通过对元数据更加激进式的预取来有效提高恢复性能和吞吐量.关于本文系统的恢复性能的实验评估是基于真实的数据集,实验表明:相比基于历史感知和基于内容的重写算法所获得的恢复性能,基于元数据分类的数据恢复分别在平均节约了1.91%和4.36%的去重率的情况下,获得了27.2%和29.3%的恢复性能提升.
- 单位