科技术如今彻底地融入人们的生活,也改善了全球的生活质量。预计信息和通信技术市场将成倍增长,但是这种进步是有代价的。预计ICT行业将继续消耗全球越来越大的电能。
因此,很多媒体报道了全球数据中心的运营状态以及它们消耗的电量。
良好的开端
令人鼓舞的是,很多运营商在降低数据中心用电增长率方面采取了重大措施。数据中心功耗通常支持计算能力及其数据中心的散热需求。其目的是推动更多的节能实践,因此发展了PUE(能源使用电效率)这一概念。
开放计算项目(OCP)是世界上超大规模的组织,正在努力使数据中心PUE接近于1,而这是数据中心功率使用率的最佳结果。但是,边缘计算的采用正在增加,其普及性无疑会影响数据中心的功耗,因为它不适合超大规模数据中心。
然而实现完美PUE的代价也很高昂。要实现更低的PUE,需要做什么?一些解决方案包括在寒冷地区运营数据中心,这些数据中心产生的热量使建筑物变暖,并使用外界冷空气为IT设备制冷,并设计了可以在高环境温度下运行的服务器,以消除机房空调的应用。但是,这仍不是一个很好的解决方案
人们熟知的摩尔定律即将在2023年结束。随着英特尔公司在其10纳米制造工厂中陷入困境,自从晶体管密度上一次重大变化以来,这些影响已超过两年,人们已经看到了这种影响。
直到几年前,这些越来越快的CPU都专用于一项服务。由于该CPU的运行速度超过了所需的服务速度,因此经常会导致CPU和内存的利用率不足。潜在的成本降低实现了虚拟化和容器的显著增长。但是,运行这些虚拟机管理程序也会消耗处理能力,因为这是一项开销。虚拟化并不是什么新鲜事物,它在多年前已在IBM大型机上提供,只是将其引入x86服务器才是相对较新的事物。
与往常一样,数据中心的一大成功就是管理其资源。确保有足够的交付,但不要浪费太多费用。很多IT人士需要不断地问自己,瓶颈在哪里?瓶颈是实际的纯计算吗?它是否被存储,内存控制器甚至网络放慢了速度?减轻CPU所做的一些I/O工作是一件好事,因为它使CPU能够集中精力进行计算。
延迟当然是一个问题。延迟是推动边缘计算采用的因素之一,受最小延迟影响的人工智能和机器学习也是如此。但是,企业能否确定您的网页是在2毫秒还是3毫秒内交付的?我们是否需要花费大量的企业和个人精力和力量来实现有效和完美的延迟,而这并不是必需的?
为什么服务器通常在数据中心包含VGA和USB端口?并且因为BIOS希望它们存在,但是人们很少在服务器上使用它们。
如今已经有了很多发展,也许是时候进行一场革命了?
是时候重新考虑了
所有这些不必要的组件都需要剥离,高吞吐量必须成为优先考虑的问题。如果有许多IT系统以较低的功率运行,具有较高的网络、存储和内存带宽,它们将提供比传统服务器体系结构更高的并行吞吐量。
加快时钟速度无疑会带来更高的性能,但是消耗的功率是多少呢?它根本不是线性的,是指数增长的。以总体上较低的频率运行的CPU意味着较少的功率,因此意味着较少的热量。这就意味着在较小的空间中可以容纳更多的服务器,从而需要更少的空调功率。但是,现在可以在同一空间中获得更多服务器,因此单个线程可能不那么快,但是给定空间和功耗下的总体吞吐量更高。
追求更低的PUE值可能并不是正确的选择。相反,应该考虑在单位功率下可以完成多少工作;这是对效率的真实衡量。这将支持所需的更改,以便数据中心可以开始解决降低功耗所需的工作。
计算架构的改变以及向低功耗处理器的转换将使现代数据中心的功耗水平发生大规模而革命性的变化。 |