正在阅读:关于选购重复数据删除解决方案的一些建议关于选购重复数据删除解决方案的一些建议

2008-08-18 15:52 出处:PConline原创 作者:佚名 责任编辑:nixiaoqiang

  存储系统的容量正在以惊人的速度增长,在过去的10年里,各大厂商提供的存储系统容量从数十GB发展到数百TB,足足翻了10,000倍!但是,多数企业发现它们对存储的需求甚至增长得更快,除了存储所有这些数据的磁盘或磁带的成本外, 数据中心空间和电源也变得越来越昂贵。重复数据删除技术的萌发有效的解决了这类问题,为了在市场上占据有利位置,商家们纷纷推出各自的方案,并且都宣称自己的方案如何“牛”。其实这些重复数据删除方案各自的实现方式各有不同,因此有些方案可能对某些用户来说是很好的选择,但另换他人的话就不一定合适了。

  下面我们就为打算选购重复数据删除解决方案的用户提供一些建议:

1. 能够解决关键性问题:有效删除重复数据

  重复数据删除解决方案是否能够真正解决关键问题所在:有效的删除二级存储上的重复数据,是我们首先要考虑的问题。重复的备份数据会造成多次储存需求,只要重复数据不被删除,储存需求就会继续。

  ESG集团2007年发布的报告用图表方式说明了备份向新技术发展的必要性。相对于一次全备份来说,增量和差异数据备份也可以减少备份的数据量。

备份向新技术发展的必要性

  然而,即使是增量备份,在保护基于文件级变化的数据时,还是会备份很多重复的数据。当需要跨越多个站点的多台服务器进行备份时,通过部署重复数据删除解决方案减少存储才是更好的选择。

  另外就压缩率这个问题而言,不同用户所得到的最终结果也会各不相同。一般说来,1:10的压缩比率是比较保险的数值,有很多用户在使用1:20的压缩率。但是没有一个人最后可以达到这样的效果。最终得到的实际结果很大程度上取决于你的备份数据类型和备份方式。”

  这主要看你是否拥有众多的异地站点或经常外出办公的员工,或者是否打算在一个集中的数据中心内实施数据删除。虽然你能够找到可同时兼顾这两种情况的重复数据删除方案,但一种方案并不会对所有的用户都适用。

2. 能够与当前环境相整合

  一个高效的重复数据删除解决方案应该对当前IT环境的影响/中断越小越好。许多企业都选择利用VTL备份来避免影响/中断,以在不改变企业当前备份策略、处理或软件的情况下提升备份质量。因此,基于VTL的重复数据删除技术在部署时对环境影响也应该是最小的。它将更多的注意力集中在了备份这个巨大的重复数据存储池上。

  基于VTL的t重复数据删除解决方案通常要求使用专用设备,但这并不影响部署的灵活性。一个充分灵活的重复数据删除解决方案应该即可以以软件包形式提供给用户,也可以提供给用户整体的解决方案(Turnkey Appliance),从而最大限度的使用户的现有资源得以利用。

3. VTL容量

  如果重复数据删除技术的部署是围绕着VTL进行的,那么VTL自身的容量就必须作为评估的一部分来考虑。重复数据删除节省下的容量是不能解决由于使用不够规格的VTL所引发的问题的。因此,既要全面考虑VTL的功能性、性能、稳定性以及支持能力也要充分考虑重复数据删除的扩展能力。

4. 重复数据删除对备份性能的影响

  在哪里、什么时候进行重复数据删除是关系到备份处理性能的非常重要的问题。有些解决方案试图在数据进行备份时删除重复数据,这会使VTL的性能降低多达60%以上,直接造成备份过程太慢和备份窗口太大的严重性能影响。

  相比之下,在备份任务完成之后进行重复数据删除的解决方案则不会出现这些问题,而且不会对备份性能带来任何影响。另外,为了最大限度的发挥易管理性,解决方案允许用户依照多种不同的因素,如资源利用、生产进度、创建时间等进行精细(磁带级或磁带组级)的基于策略的重复数据删除。这使得存储经济性轻松实现,同时,也将系统资源的利用发挥到最大。

5. 具备可扩展能力

  由于重复数据删除解决方案是用于长期的数据储存的,在容量和性能方面的可扩展能力也是非常重要的考虑因素,而且至少要考虑未来五年甚至更长时间的增长计划。那么,在保证快速访问的前提下,你希望有多少数据保存在磁带上?你需要怎样的数据索引系统呢?

  优秀的重复数据删除解决方案提供的架构,无论是在初始部署时,还是面对未来系统的长期增长,都应该能保证最优化(Right-sizing)、最经济的架构规模。集群可以帮助用户满足不断增长的容量需求—即使是N多Petabyte数据增长的环境—而且不会降低重复数据删除的效率或系统的性能。

重复数据删除技术

  这个架构还为存储库保护的部分提供了故障切换(Failover)功能。

6. 支持分布式应用

  重复数据删除技术,不只是能为单个数据中心带来利益,对于具有多个分支机构或多个站点的大型企业来说,它可以让整个企业的分布式应用受益无穷。一个包含复制和多级重复数据删除的解决方案可以将这一技术的优势发挥到极致。

  举例来说,一个企业由1个总部和3个区域代表机构构成,可以在区域代表机构部署一台具备重复数据删除功能的容灾设备,使本地存储及向远程中央站点的复制更为高效。这种解决方案使数据复制到中央站点的带宽需求降到最低,它只不过是用来确定远程的数据是否已经包括在中央的存储库中。所有站点中,只有唯一的数据会被复制到中央站点或是容灾站点,否则所需的带宽就会增大。

7. 能够对存储库提供实时保护

  保证对删除重复数据的存储库的访问是非常关键的,因此它不能允许有单点故障发生。一个优秀的重复数据删除解决方案应该包括可以在本地存储故障发生时提供保护的镜像功能,同时也应该具备复制功能以在灾难发生时从提供保护。这种解决方案还应该在出现节点故障时具备故障切换能力,即使是一个集群中的多个节点出现故障,企业也必须能够及时恢复数据同时还要保证业务持续运营。

8. 效率及有效性

  与基于文件的重复数据删除方式相比,在SUBFILE或数据块级分析数据的方式删除的冗余数据会更多。比如,一个4MB大小的文件被修改了一行内容,如果是文件级解决方案,整个4MB的文件都必须再被保存,而存储上就需要保存两遍。如果这个文件被发送给多个人(这种情况非常普遍),这种负面的效应也会随之倍增。

  大多数SUBFILE重复数据删除处理是通过将大量的数据分割成‘块’,就像虚拟磁带匣一样,在相对小尺寸的数据块中搜索重复数据。分割成大块的数据处理速度更快,但发现的重复数据也比较少;而分割成小块的数据可以更轻松的发现更多重复数据,但它在扫描数据时所需的开销也会更高。

  如果数据在磁带(或其它应用的数据流)的时候就被分割成‘块’,重复数据删除处理在备份软件创建的元数据上就能进行。优秀的解决方案可以分离元数据,从而在分割成‘块’的实际数据文件中发现重复数据,这种方式使找到重复数据的机率更高。有些重复数据删除解决方案甚至可以按照所掌握的数据格式来调节分割的‘块’的大小。如果能将这些技术结合应用,将使发现的重复数据数量大幅增加。这在重复数据删除解决方案的经济效益标准方面影响重大。

 
受不了多愁善感的天气?那就选部好片宅在家 追求极致的体验 神画智能影院F1 Pro新品评测 斐讯与他的0元购:一个猜到开头却猜错结尾的故事 不好意思 你在电脑上干了什么我们都知道! 国外随时掐断咱的网络?危言耸听还是确有其事
键盘也能翻页,试试“← →”键

为您推荐

加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多

服务器论坛帖子排行

最高点击 最高回复 最新
最新资讯离线随时看 聊天吐槽赢奖品