在刚刚过去的伦敦奥运会中,赛事进程、比赛结果数据、人员信息及现场视频、音频传输等,都产生了庞大的数据量。那些以每秒60Gb量级在伦敦上空交互的数据,给IT服务团队带来了很大压力。而支撑这一切运行的则是伦敦奥运背后“隐形”的高效数据中心。在某种程度上,今年的流行术语“大数据”已经开始在我们的实际生活中产生激烈反应。IT硬件厂商挤出更多效率,以满足大数据对数据中心的功耗,那么这能否满足企业CIO对大数据处理的需要呢?

高效数据中心是不足以应对大数据挑战的,需要建设者思考的还有许多
答案显然是不够的。我们看见,今天的典型数据中心均由刀片服务器、SAN存储局域网络交换机、UPS等基础硬件构成。在一个数据中心经理眼里,虽然配备了这些利器,面对TB甚至PB级的数据来看,数据中心仍然会产生更多令人恐怖的噪音。作为数据中心的经理们都很清楚,随着数据量的持续增长,在爆炸数据面前,他们需要更多的服务器,更多的存储空间和更多的带宽。同时,摆在这一问题面前的尖锐事实是,数据中心的能耗也相应要增加。
据资料显示,五年前,美国环境保护署发出的一份报告预测,美国的数据中心功耗,到2010年将比2005年翻一番。现在看来,似乎来自数据中心的能耗威胁更加严重。但IT服务商并没有坐以待毙,Intel早在五年前就在服务器运行上使用110瓦的两大核心芯片组。今天,英特尔E7芯片组架构可以运行10个核心、20线程处理,却仅仅耗电130瓦。这大大提升了数据中心的处理能力,降低了相对能耗,使得小功率包络与最新的服务器处理大幅度增加。虚拟化技术的应用,也显著提高了服务器的利用率,减少了额外添加更多处理设施。IDC预估,到明年全球数据中心的每一个物理服务器将平均容纳8.5个虚拟机。
在同一时期,我们也戏剧性的看到,之前不被看好的云计算技术,也在全球得到了快速增长。像亚马逊、苹果公司、Facebook、谷歌、微软这些全球IT大户,其数据中心的耗电量和数据量都是庞大的。他们采取云计算来降低数据中心的处理压力,提升IT硬件的效率,确保大的数据能够得以处理,给用户提供存储和服务。
由此可见,面对数据量的增长,传统数据中心架构虽然能够实现扩充,但局限性在于没有办法实现水平式的横向扩展。传统的IT架构和数据处理方式无法有效地应对大数据环境。数据的存储、计算、管理、分析等几个节点都需要适应大数据的解决方案。企业数据中心应该如何设计?从基础设施的层面上看,需要一个平衡式的架构,既要有高容量,同时也要满足性能上的扩展。基础设施必须有能力应对各种不同的数据量。因此,企业数据中心未来的存储将是横向扩展的架构,总体的思路是采用一种线性增长的方式以实现平衡的存储和计算能力。
创新是推动创造性地运用新的工具,解决新的问题,从而发现新的机会。事实上,当企业面对大数据的问题时,短期内的解决方式差强人意,需要发挥不同的创新思维。将这些社会平台的访问数据进行研究或用于其他市场分析,常常是通过API,这就意味着大数据可用于更好的业务决策。大数据的影响不仅存在于企业IT基础设施架构、数据管理策略、数据可视化与分析能力等方面,从根本上也对数据中心的机房设计原则等提出了更高的要求。因此,高效数据中心或许在长久上对大数据的处理能力还有提升空间。大型数据中心在设计时也应该遵循五大原则:高节能性、高稳定性、高安全性、高可扩展性、高度冗余,基础设施建设应充分考量这五个方面。