在大公司的数据中心空气中,分离凉爽的空气和排除的热空气是一个重要的能源效率战略,能够显著优化能源利用效率。隔离冷、热空气是由道理的,因为冷热空气混合需要额外消耗能源对这部分混合空气进行冷却。
早在2004年,甲骨文德克萨斯州的奥斯汀数据中心的管理人员就面临了热负荷不断上升的问题。他们将烟囱贴着机架顶部,把热量抽取到一个封闭的空间里,让后在进入到回风口进行循环,甲骨文的研究小组并证实了这一方案确实能够节约能源。
自那时起,关于冷通道遏制/热通道遏制就衍生出了很多的产品和技术。封闭通道和防止冷空气在CRAC单元循环,通常可以通过此方法调整降低室内空气中计算机处理程序时风扇排出的混合余热。
那种发发更好呢?主要的供应商采取的办法各不相同.施耐德APC主张热通道遏制,而艾默生网络能源提供的产品确实冷通道遏制。2008年由美国劳伦斯伯克利国家实验室对这两种方法做了比较实验,但两种策略都是通过隔离冷热空气来达到节能的效果。有些公司已经实施了这类方案。
热通道遏制
对于热通道遏制的实验,谷歌在机柜行与行之间使用了塑料空气密封胶帘结合金属框架的一个空气遏制系统,被称作“低成本热通道封闭吊舱技术”,这个想法可以控制任何正在使用的机架,而我们需要做的就是卷起窗帘,从机架顶部放下窗帘,使机架有效地被封锁起来,这种非常便宜的解决方案几乎可以适用于任何数据中心,将大大减少甚至消除了冷热空气混合的潜力,还能灵活的添加机架。
Sun公司也在其165000平方英尺的科罗拉多洲的旧数据中心整顿项目中,使用塑料空气密封胶帘部署了700平方英尺。
而微软都柏林数据中心也使用了具有热通道控制系统的服务器箱(serverpod)。热通道控制系统使用固定的结构,在侧面安装了一些大小合适的格子。热通道有一个入口(绿门),有需要的时候管理员可由此进入。
在新近建设的数据中心里,雅虎洛克波特数据中心采用了开放式的设计,百叶窗式的墙壁让新鲜空气进入到数据中心里,可以对数据中心进行冷却。新鲜的冷空气从服务器前端进入,然后排到热通道内,通过热通道顶端的烟囱排出,这样以来,这座建筑本身就是一个空气处理器,这座建筑为了能够呼吸,还有使用了大量的百叶窗和阻尼器来控制气流。
WrightLine及其合作伙伴合作开发先进的数据中心,使数据中心建立一个灵活的控制系统,保持空气分离并添加进入热通道和门板,以及环境光热通道等功能。
冷通道遏制
游戏运营商CCP游戏采用冷通道遏制系统部署了12个机柜集群的服务器,稳定的集群安装在伦敦的房子里,万家超过33万。
惠普位于英国北海温亚德的数据中心服务器,也采用了冷通道遏制系统。冷通道温度保持在24摄氏度。
去年,Facebook改良了其14560平方英尺的硅谷数据中心,使其可以用新鲜的冷空气来冷却服务器。然后也利用一个塑料屋顶和过道两端的推拉门架组合安装了一个冷通道遏制系统,数据中心工程经理JayPark和他的团队接着用两行穿孔的地砖替换除出了原来的瓷砖。该系统可以更好地控制气流,降低服务器风扇的频率,从而达到节能的目的。
安装在Facebook硅谷数据中心的冷通道遏制系统
去年,艾默生网络能源生产的SmartAisle系统,它结合了冷通道控制、行间内冷却和管理工具,为数据中心管理人员提供更多的环境温度与能源控制数据。
灭火
该解决方案针对火灾灭火系统等新的问题也有一些创新展品,如Polargy系统面板,它能探测到火灾前期温度的升高,并能自动落下来形成封闭系统。