专业的信息化与通信融合产品选型平台及垂直门户
注册 登陆 设为首页 加入收藏
首页 企业新闻 招标信息 行业应用 厂商专区 活动 商城 中标信息

资讯
中心

新闻中心 人物观点
厂商专区 市场分析
行业
应用
政府机构 能源产业 金融机构
教育科研 医疗卫生 交通运输
应用
分类
统一协作 呼叫客服 IP语音 视频会议 智能管理 数据库
数字监控 信息安全 IP储存 移动应用 云计算 物联网

TOP

重新定义数据中心 解读液冷服务器发展潮流
2014-07-22 15:30:15 来源:天极网 作者:【
关键词:数据中心 IT管理
 
随着移动数据、云计算和大数据业务的迅猛发展, 数据中心建设规模越来越大,数据中心拥有者对数据中心节能的诉求,也逐渐突显出来。近年来,出现了许多数据中心节能新技术,但都没有突破思维瓶颈, 一直孤立地关注数据中心基础设施层面本身的技术创新,并未将服务器设施层面纳入数据中心节能工程中, 统一地、系统地思考数据中心的节能问题,造成数据中心的设计PUE值难以突破1.60这个极限。
  随着移动数据、云计算和大数据业务的迅猛发展, 数据中心建设规模越来越大,数据中心拥有者对数据中心节能的诉求,也逐渐突显出来。近年来,出现了许多数据中心节能新技术,但都没有突破思维瓶颈, 一直孤立地关注数据中心基础设施层面本身的技术创新,并未将服务器设施层面纳入数据中心节能工程中, 统一地、系统地思考数据中心的节能问题,造成数据中心的设计PUE值难以突破1.60这个极限。
  行业诟病困扰数据中心降耗节能
  2000年前后的互联网泡沫,给人类留下的技术遗产是服务器形态的革命以及数据中心建设理念的革命----由于服务器的规模化应用,机架化的服务器取代了塔式服务器; 同时引发了数据中心建设思路的革命----从机房环境到机柜微环境的变革、高架地板式数据中心成为数据中心的建设标准。
  在之后的十年中,数据中心市场逐渐进入了一个高速发展的时期。IT设备的机架化在节省了数据中心物理空间的同时,也提高了机柜的功率密度。数据中心的功率密度,逐渐从低密度向中密度发展,期间出现了许多诸如局部热点等技术问题。遗憾的是,针对新出现的这些技术问题,行业内并没有意识到这是一个更高功率密度的新时代到来的预兆, 没有认真思考应对之道,而是不负责任地试图使用传统办法解决新问题。其结果是,数据中心的能耗指标PUE值,虽然从最初的3.00逐渐降低到了2.00以下,但一直难以突破1.60。
  究其原因,是缺乏技术发展战略上的行业集成思维。事实上,对数据中心能耗贡献最大的设备或部件----CPU、内存、服务器散热系统、数据中心空调系统、数据中心UPS系统,其相关行业均在独自地研究和开发节能技术, 并且多数行业领域的技术创新潜力已经挖掘殆尽。如果不去改变技术战略和思维方式,产生大的技术成就几无可能。
  国内外一些行业领导者已经意识到这个问题,并开始采取了行动。目前来看,主要有两个技术方向: 高温风冷服务器配合数据中心新风直接自然冷却技术,以及液冷服务器配合数据中心水系统或氟系统间接自然冷却技术。 前者依靠提高服务器热源品位和特殊气候环境来实现节能,后者依靠降低传热过程的热品位损失来实现节能。
  2013年Facebook对外界公开了其位于瑞典北部城镇吕勒奥(Lule)的数据中心,采用的就是新风直接自然冷却技术。吕勒奥位于波罗的海北岸,距离北极圈只有100公里之遥,当地的气候因素是Facebook选择在吕勒奥建立数据重要原因之一。据Facebook介绍,自1961年以来,吕勒奥的气温高于30度的时间不超过24小时,在该地区建立数据中心将节省一大笔散热开支。但是,从国内各地气候条件来看,南方地区温度高、北方地区风沙大,类似于吕勒奥这样数据中心的理想选址地点几乎没有;全球范围来看,新风自然冷却技术的应用场景也少之又少。
  而液冷服务器技术则很少受限,这是因为这种技术不需要空气进入数据中心,甚至不需要空气进入服务器。
  早在几年之前,IBM等公司就开发出了以纯水为工质的间接液冷型的服务器来取代风冷型服务器,来大幅改善PUE指标, 因为他们意识到空气作为冷却用的工质,远非理想中的最佳材料;而水要比空气的冷却效率高1000倍数量级。所谓间接液冷,指的是液体并不接触发热部件,而是通过冷板、冷仓等将液体与发热部件隔离开。
  而美国Intel和美国3M则走另一条路线, 采用特殊液体直接与发热部件接触进行换热,即直接式液冷服务器技术,或称浸没式液冷服务器技术。这需要找到一种具有电磁兼容性、电气兼容性、物理兼容性、化学兼容性等性能均十分良好的液体直接与发热部件接触的技术。中科曙光自2010年开始研究液冷服务器技术,对液冷服务器未来的发展方向,与美国3M公司可谓是“英雄所见略同”,在许多技术方面做出了创新,形成了新的技术体系。
  液冷服务器开创行业降耗新标杆
  曙光一直致力于高效制冷技术的研究工作,并不断应用到产品中去,惠及广大曙光客户。中科曙光CloudBASE®系列C1000/2000/3000/4000方案,均是针对风冷服务器的、采用气流组织优化(包括池级、排级和机柜级)、温湿控制解耦、氟泵自然冷却等成熟技术的具体实施方案,根据目前这些方案在国内的运行数据来看,已经成功地将数据中心的PUE值从2.00降到1.60。
  目前最新的液冷服务器技术, 是中科曙光利用自身对服务器需求的深入了解以及服务器开发的技术实力所进行的创新的结果。从目前实验室数据来看,使用液冷服务器的数据中心,配合高效的氟泵循环系统,可以去掉压缩机、全年在自然冷却工况下运行,从而可以轻易地将PUE值从1.60降到1.20。
  随着代表着业界领先水平、 国内首款采用3M公司电子冷媒技术的直接浸没式液冷服务器的发布,其高可用性、高密度、超低PUE等优点,势必撼动业内对于数据中心节能降耗的技术认知。从成本分析方面看,虽然中科曙光的液冷服务器产品比风冷服务器产品的制造成本有所增加,但是配套的数据中心基础设施的制造成本的下降则抵消了部分成本增量,使数据中心总体CapEX并未明显改变。但是,节能导致的OpEX的大幅降低,则使数据中心的TCO显著降低,这种优良的经济性表现是驱动行业对这项革命性技术认知的动力。
  在中科曙光看来,服务器液冷技术势必将带来服务器物理形态的变革,同时带来数据中心建设模式的变革,从而对信息化产业格局产生深刻的影响。
      

责任编辑:admin
免责声明:以上内容转载互联网平台或企业单位自行提供,对内容的真实性、准确性和合法性不负责,Voipchina网对此不承担任何法律责任。

】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部

上一篇北京联通黄村数据中心:国内首个..
下一篇“寒冷”芬兰为数据中心建设选址..

热门文章

图片主题

最新文章

相关文章

广告位

Copyright@2003-2009 网络通信中国(原VoIP中国) 版权所有
联系方式:503927495@qq.com
  京ICP备05067673号-1 京公网安1101111101259