在所有已知的领域,备份是普遍存在并占支配地位的技术。虽然一些人可能想相信备份的一只脚已经踏入坟墓,另一只脚在香蕉皮上,但是备份毁灭的流言有些言过其实了。虽然让它离开人世的所有元素都已具备,但是IT领域倾向于以从容的步伐移动,因此这些元素成为主流需要花费很长时间。
备份仍旧是IT领域最没有革新性的技术之一,它引起了一些重大问题,耗费了用户的时间和金钱。很长时间以来发生在备份领域最激动人心的事儿就是Data Domain,它正面应对使用磁带作为备份介质所带来的普遍挑战。
磁带不可靠,难于管理,恢复过程可能复杂,毫无效率,难于处理,存在发生错误的倾向……问题还可列举很多。但是磁带的优势是便宜。谁不想要一个廉价的保险单?只有当问题发生时你才会关心你的保险单到底有多好。而且如果它几乎从不或者从不发生,那么生活将很美好。
Data Domain使用重复数据删除挑战了备份数据到磁盘的经济学,其他的都是历史学(也就是没有任何影响)。他们从根本上提供了更好的、被经济学所强制的保险。Data Domain是件容易的事儿。
但是不管备份领域是否发生了任何兴奋的事儿,你仍然必须进行备份,仍然需要软件和代理,以及服务器、网络和存储资源。
随着数据库变得越来越大,文件系统变得越来越巨大,数据在持续增长,你仍然需要拥有小的备份数据集,因为谁想恢复10TB、100TB、500TB或1PB的数据集呢?仅仅是猜测,我可以说没有人想这么做。
数据存储厂商喜欢谈论无限的文件系统和大量基于对象的存储系统,但是你如何备份这类对象?如果你有大文件系统,你很可能不会备份,而是复制。然而,在粒度级别找到并恢复数据是使用复制时所欠缺的。如果你在存储系统级别进行复制,那么你在使用基于块的技术。如果你使用基于主机的软件,那么你将耗尽大量的服务器资源,这变得不切实际甚至不可能使用这种方法复制大量的数据。
环境很小的用户可以继续使用相同的传统过程进行备份,但是当100TB增加到200TB会发生什么?当500TB转换为1PB呢?我正与在环境中具有PB级数据的公司共事,而且它们数据增长的比率令人惊愕。存储肆无忌惮的增长不久将需要另一种方法,因为遗产备份和恢复软件永远不会削弱。
大量的用户没有大量的文件系统或庞大的数据库,但是却有大量的小型文件系统和数据库实例。经常有上百甚至上千个离散的备份任务在操作上造成了挑战,数据丢失的风险加倍,造成了巨大的风险。
服务器虚拟化同样在挑战备份的极限。甚至环境很小的用户可能有大量他们必须管理的应用程序。使用虚拟化,你不仅要保护大量的数据,而且必须保护大量的应用程序。
总的来说,备份仍旧是保护数据的实际手段而且至少将持续到下一个十年。正如已经说过的,我认为终结开始临近。备份过程正在被逐步替代。
复制和恢复将被更加频繁作为基于应用程序的数据保护工具使用。这两点看起来彼此矛盾,但是现状和下一代方法并存很长时间是IT领域常见的方式。