如果你曾经把饮料不小心洒在你的手机或其它电子设备上,或者如果你曾经滴了一滴水(无论是游泳池、湖泊或冲厕所的水),那么你知道,电子产品和水是不能混合的。尽管数据中心装备了敏感的高科技的电子产品,但水不一定是这些计算设备和数据存储设备的敌人。
每平方英尺(或每立方英尺,如果你要考虑三个维度)的数据中心的空间是有代价的,与任何建筑物的建造一样。因此,增加更多的计算设备到数据中心(不扩大现有的空间)意味着增加了该设施的功率密度-所消耗的电量,因此,转换成的热。由于电子设备不能承受高温(80华氏度的范围已经是非常可怕的,对于一些设备甚至是危险的),消耗的热量必须移出设施。所以,仅仅打开一个窗口,对不对?在某些情况下,是的,这就够了(虽然是更复杂的方式,涉及空气过滤等技术),但只有当外界温度足够低时,才能够满足要求。有时候,这种做法简直是太不够的。
如果热源均匀分布在整个设施中,保持IT设备的冷却一定会简单得多。但由于服务器被安置在机架和其它类似的装置上,热点就出现了,虽然数据中心的大部分可能是处在足够冷的温度上,但这些热点可能意味着严重的麻烦。例如,通过计算机房空调装置(CRACs)来调节空气,可以做到比简单地“打开窗户”更好地保持整个数据中心的冷却,但是它的代价更高,无论在设备(资本支出)上,还是在持续费用(运营支出)方面。这种方法也会比较浪费,因为整个数据中心可能需要保持比所需的温度更低,以防止某些区域过热。良好的气流控制技术,如热通道和冷通道,可以有所帮助,但由于功率密度的增加超过一定程度时,上述方法即使是有效的,计划周密的空气冷却策略也会迅速变得不足以保护敏感的设备。
高密度:空气不足以冷却
由于功率密度的增加,必须去除的热量也会增加,这是非常明确的。那么,还不十分清楚的是如何实现既有效(为设备提供充足的保护),又负担得起(这样的计算能力成本仍然负担得起)的方式。空气冷却技术在某些方面来讲,是一个很好的解决方案,空气是无处不在的,(大部分情况)对设备不会造成任何伤害。但问题的部分原因是,空气是一个糟糕的热导体,也就是说,它不能很好地把热量从一个地方移动到另一个地方。你是不是并不知道如何体会这个概念?在寒冷的天气,到外面去,把手放在一块金属(最好是像钢或铜这样的金属,而不是铝)上,你会觉得把手放在金属上比裸露在空气中更为寒冷,因为金属是良好的热导体,它比空气更能从你的手上带走热量。关于这个概念的另一个理解的方法是,空气相对于金属来说,是一种很好的热绝缘体。空气与其它物质(如:水)相比,无法容纳大量的热,所以当它用于冷却目的时,与其它具有更大的热容量的物质相比,它需要使用更多,才能运送一个相同数量的热量。
因此,空气尽管随时可以用到,但它真的不是冷却高密度部署的一个好的选择。更高效的IT设备可以帮助改善这个问题(正如上世纪90年代开关从双极晶体管技术转换到CMOS技术一样),但缺乏技术的飞跃,效率的提高很难抵消由高密度产生的热量。一个更好的热传导材料是水,水也是随时可以用到的物质(并且它具有较高的热容量)。
DimensionDataAmericas的首席数据中心顾问KrisDomich,总结如下:“作为一个规则,水和其它液体媒体与空气相比,都有一个更高的载热潜力,所以它们通常被用于更高密度设备的制冷。重要的是要记住,我们是通过去除热量来冷却,而不是增加冷却,所以无论是使用水还是空气,散热必须高效、精确。
然而,液体冷却技术的本质并不是一个新的技术:液体冷却已经用于大型机行业几十年了。随着数据中心对新设备的选择,大型机逐渐减少,液体冷却也逐渐被淘汰了。但是由于空气对高密度设备的冷却不够,水(或者更广泛地说,液体)是否又会用于数据中心的冷却呢?
水的上升与下降
液体冷却从本质上分,主要有两种选择:一种是液体与设备(无论是在模块上,还是在芯片上)直接接触,另一种是液体仅仅是为把热量移出设备的传输介质。显然,把芯片浸泡在水中的是不可取的(假设你希望芯片做任何有用的事情,水是导体),因此未来的水,特别是在数据中心,将只涉及作为传输热量的介质被使用。
由于水(不像空气)必须严格地与设备分离,在本质上,以水为基础的冷却,所有都要安装高科技的管道系统。(事实上,Craysupercomputerfame的SeymourCray往往自称是一个“全能的管道工”,由于Cray超级计算机使用了以水冷却。)“许多数据中心从来没有使用过的液体冷却,在第一次提到时,可能会觉得让液体如此接近IT设备不是一个好主意”,但在一个适当设计的系统中,“液体不应该有可能接触到的IT设备,因此,所有的危险是很容易避免的”Domich说。这种特殊的基础设施(相对于空气冷却要求)给数据中心设施增加了巨额的成本,但费用可以用一个事实来平衡,这个事实就是对于像超级计算机和其它高性能设备这样的高密度部署来说,水(或液体)冷却远远优于以空气冷却。在这种情况下,让组件保持尽可能地靠近,是获得高性能的必要部分,但是,功率密度也增加了,其结果是“热密度”也会增加。Domich指出,虽然,空气冷却系统不可能让给定的高密度负载得到充分的冷却,但是液体冷却是可以给大量部署的设备(即几个相邻机架)更有效的冷却。不过,成本是一个问题:“液体系统的购置和安装,特别是有冷水机组和冗余管道的系统,比空气系统的成本高”Domich说,但他也指出,对于某些数据中心来说,从长远来看,增加额外的成本可能是正当的。
但是,仅仅因为一个设施用水并不意味着它不能利用相同原理的空气节约器(主要是“打开窗口”的方式来冷却)的好处。当外界温度足够低,携带从设备发出的热量的水,可以用与空气冷却系统相同的方法来冷却。然而,在这种情况下,水的主要优势之一就是外部环境和内部环境可以保持隔离,减少了内外空气的混合带来的污染和空气湿度的变化。此外,至少把水冷却纳入数据中心的整体冷却策略的一部分,可以给基础设施在足迹方面带来好处:采用水冷方式,可以使设备排放到数据中心外部的足迹较少。与精确的数据中心的空调机组相结合,人们可以期望冷却设备占用更小的空间,排出更多的热量(例如,从许多刀片机箱上产生的热量)。
另外,尽管以水冷却设施可能会比具有相同能力的空气冷却设施的费用高,但是,水可能会提供给试图扩大容量的数据中心一个更好的途径。模块化水冷却系统可以更容易增加额外的冷却能力,使公司避免一开始就购买比它实际的需要更多的冷却能力。在某些情况下,能够“即用即付”,尽管它与传统空调相比,可能会比较昂贵,但它是一种方便的方式,一些数据中心的管理者是不能错过的。
那么,是用水,还是不用水?
水是不会被数据中心行业完全放弃的,虽然似乎有什么阻碍的东西在使用水的人们和不使用水的人们之间。Domich指出,“数据中心经理往往要么害怕液体冷却,要么拥抱它。这取决于他们对这个技术的认识水平。这可能是,比如,一些数据中心的经理们经常试图在家里自己动手修理管道。可是,现在有不少人(数据中心管理人员和其他人)在这样做时,有可能会发现要保持水只在它应该在的地方(在管子里,而不是在地上或后面的墙壁上)是多么的困难。有了这样的经验,这些管理人员可能自然地对让水接近IT设备感到怀疑,尽管水管不是复杂的话题,但泄漏似乎无处不在。
是的,泄漏当然是可能的,在这里或那里都会存在有缺陷的部分,或者是轻微的缺陷,它们可以导致泄漏,可能会损害IT设备。但是,可能那个空气冷却系统可能会冷却不足。这在很大程度上取决于具体情况(具体来说是IT设备的类型及其冷却需求)、提供给数据中心经理的资源和上级管理者对某种技术的倾向。因此,目前来看,水是介于两者之间的,有些人喜欢,有些人则不喜欢。
水在哪里?
大型机可能(至少根据某些批评者的观点)正在走出数据中心,而水可能正在走进数据中心。Domich声明DimensionDataAmericas提供了“很多围绕数据中心配电和冷却设计的咨询,发现一半的数据中心经理并没有意识到他们的长远IT发展计划可能会要求液体冷却。”例如,正在规划或实施大规模高密度部署的公司,可能需要液体冷却方式,以适应小空间产生的大量的热。缺少像一个新技术的转移,正如从双极晶体管向CMOS技术的转移一样,不断在给定的空间内增加计算能力,将最终达到空气介质制冷不足的地步。水(或其它液体)的作用不一定局限于大公司(或者更具体地说,拥有大型数据中心的公司),尽管这些公司是它的重点(部分出于费用的原因)。然而,Domich却认为,“越来越多的液体冷却在各种规模的数据中心起作用。大型数据中心往往已经拥有了它。较小的和中型的数据中心,特别是那些正在迅速采用高密度计算的数据中心,正处在采用它的一个快节奏阶段。”换句话说,在功率密度高的地方,水是越来越容易获得立足点的。
水的替代品
不用说,水不是唯一的可以将热量移走的液体,虽然水具有实际的可用性、安全性(在这个意义上讲,它是无毒的)、成本低的特点。也许它的最大缺点(相对来说)是它的电导率,这一点阻止其作为一种媒介使用,为了防止其浸入设备。其它液体可能在移动热方面比水的性能更好,但他们几乎无一例外地涉及一些问题:成本较高,可用性较小,以及在它们生产、处理或(可能)意外释放(即发生泄漏)时,对健康或环境造成的影响。
浸没冷却的一个选择是矿物油,它具有类似于水的热性能,但它不是一个导体,这意味着它不会毁掉设备。此外,矿物油不具有危险性:泄漏,虽然杂乱,但不需要进行大规模清理,不威胁人员的健康和安全。但是由于设备是沉浸的,要实施这种制冷解决方案的数据中心,必须使用非常不同的基础设施。例如,一个典型的垂直的机架或机柜(在开门时,全部设施可以被移出)就需要更换了。设备机架很可能会采用书架状结构的大桶。此外,维修可能涉及给机架(或“大桶”)排水,这将需要一些方法来储存的液体,直到它被用回到机架中。此外,这种系统将有可能不太能够垂直扩展,这意味着对于一个给定的设备需要更多的数据中心面积。
不过,浸没冷却缺少一个“大量沉浸”技术,它是采用了更小规模的技术。例如,处理器可能是在一个封闭的充满液体的装置中,用一些方法提取该装置中的热量。可以肯定的是,这些和类似的冷却方法,与空气冷却方式(不论是基本的“打开窗户”的方法,还是更复杂的系统,例如:使用计算机房空调装置和类似的设备)相比,更让人不放心,但面对密度增加,空气根本是不够的,液体冷却系统就是目前最佳的替代方法。
结论
水(或者更一般地说,液体)又回到数据中心了吗?从某种意义上讲,它从未离开过,但它肯定一直都不是最常用的选项。但是,不管其目前的地位如何,它的未来似乎已经越来越光明,特别是对于高密度的部署。当大多数人在考虑计算机设备时,当然不会首先想到水,但它在高性能(高密度)计算部署上,有可能发挥巨大的和重要的作用。水有用于大型机的历史,它(或其它液体)可能将继续用于尖端超级计算机和其它IT设备,用来消除从较小空间中产生的大量的热。
因此,水的未来在很大程度上依赖于密度:如果数据中心的经理认为,高密度计算的麻烦是不值得的,那么液体冷却解决方案的采用将可能仍然相当有限。随着对IT资源需求的日益增加,在目前不建立一个新的数据中心或扩大现有的可用资源的前提下,高密度是一个选项。而且,由于空气冷却超过某一点时,不能达到要求,那么水有可能填补这个空白。