专业的信息化与通信融合产品选型平台及垂直门户
注册 登陆 设为首页 加入收藏
首页 企业新闻 招标信息 行业应用 厂商专区 活动 商城 中标信息

资讯
中心

新闻中心 人物观点
厂商专区 市场分析
行业
应用
政府机构 能源产业 金融机构
教育科研 医疗卫生 交通运输
应用
分类
统一协作 呼叫客服 IP语音 视频会议 智能管理 数据库
数字监控 信息安全 IP储存 移动应用 云计算 物联网

TOP

曙光:互联网行业绿色数据中心发展最快
2013-05-07 12:37:46 来源:赛迪网 作者:【
关键词:CloudBASE 低温热源 pPUE
 
2012年,全球的数据中心投资增长了22%,从2011年的约860亿美元增长到1050亿美元。中国目前有将近54万个数据中心在运营,并正以每年18%的复合增长率高速增长,与数据中心相关的基础设施建设市场也将达到千亿规模。

  2012年,全球的数据中心投资增长了22%,从2011年的约860亿美元增长到1050亿美元。中国目前有将近54万个数据中心在运营,并正以每年18%的复合增长率高速增长,与数据中心相关的基础设施建设市场也将达到千亿规模。

  伴随这一快速发展的行业趋势、如何优化数据中心的基础设施、如何在数据中心实现真正的绿色节能,如何进一步降低能耗、提升数据中心运营效率?这些问题倍受关注。

  曙光高性能产品总监 戴荣博士

  曙光高性能产品总监戴荣博士在接受赛迪网采访的时候表示:用户对数据中心节能的重视程度,的确在逐年提高,尤其是在云计算开始兴起之后。随着IT设备的成本下降,数据中心的TCO中,以电费为主的运营费用所占的比例,在不断上升。所以,我认为绿色数据中心,将是以云计算业务为代表的第四代数据中心的最主要的特点之一;数据中心绿色化,将是数据中心技术发展的主要工作。

  高效制冷技术更值得关注

  谈到业界最受人关注的PUE值,戴博士认为,目前这个阶段,影响PUE的最主要的因素是制冷系统的能耗。曙光一直致力于高效制冷技术的研究工作,并不断地应用到曙光的客户中去。制冷系统的节能技术的发展,短期来看,主要是气流组织优化、温湿解耦等;长期来看,则是制冷系统的革命(如自然冷却、甚至“去压缩机化”)以及服务器冷却技术的革命(如高温服务器、液冷服务器)。

  曙光现有的CloudBASE系列基础设施一体化解决方案,采用成熟的机柜排级或机柜池级的气流组织优化方式,配合温湿解耦技术以及多联机技术,可以轻易地使pPUE值(仅考虑制冷系统功耗的PUE值)降低到1.6以下。

  技术方面,据了解曙光正在研究的全年自然冷却技术配合液冷服务器技术,则可提供1.2以下的PUE,目前仍处于实验室阶段,预计不久将进入产品化阶段。

  刀片服务器对数据中心散热要求更高

  近两年给人感觉刀片服务器逐渐“火”了起来,其实刀片在某些数据中心里也占据着不可替代的地位。戴博士认为,相比传统机架式服务器,刀片式服务器由于其高密度、高集成度、易扩展、易维护等特点,在数据中心得到了广泛的应用。但如果从高能效比的角度来看,刀片未必是最佳选择。刀片通常都采用两边对插形式,中间有个大面积的高速背板,对于风道影响很大,不利于散热,因此对数据中心的制冷提出了更高的要求。

  未来高能效比数据中心曙光认为将采用整机柜服务器。整机柜服务器的特点是以一个机柜为单位,共享供电、散热、管理等模块,比传统服务器节能至少10%以上,而且更易部署和维护,将会成为大型数据中心的主流。

  同样采用高密度设计的GPU服务器也开始赢得密集型计算用户的青睐。戴荣表示,GPU的主要优势是高性能功耗比,GPU上的应用也越来越通用,最近几年已经有越来越多的厂商支持GPU,以及其它异构加速设备。由于能耗和空间的限制,未来混合计算肯定是一种趋势。高计算密度也会带来更高的功率密度,单机柜功率的提高会使整个数据中心的制冷模式发生革命性的变化,从传统的地板下送风方式变成机柜级、机柜排级、机柜池级制冷方式,从而获得更高的能效比。

  超低功耗服务器未来会有一定市场份额

  随着服务器多元化的发展,目前我们已经看到百度的ARM服务器以及淘宝的ATOM服务器,那么曙光对超低功耗服务器怎么看?未来市场前景如何呢?

  据了解,目前超低功耗服务器瞄准的是网络密集型或者存储密集型应用,而不是计算密集型应用,这是服务器市场细分的必然结果,未来会有一定的市场份额。超低功耗服务器可以降低数据中心的总体能耗,但是不能解决能效比的问题。

  绿色数据中心能够给云计算提供有力支撑

  谈到云计算,曙光高性能产品总监戴荣博士表示,云计算的特点是大规模、低成本,所以对数据中心的TCO提出了苛刻的要求。除了降低PUE之外,降低TCO的另一个方向是降低机房的面积。传统的数据中心建设过程中,由于制冷系统中存在的送风瓶颈,导致设计功率密度无法提高,例如早期的第三代数据中心通常采用每机柜3kW的功率密度设计值,机柜内部大量空间处于闲置状态;若将功率密度提高到每机柜10kW,则主机房的面积则可降低到1/3,同时机柜方面的投资也相应减少。

  另外,合适的功率密度,还可以提高送风利用率,从而降低空调系统功耗。所以,高密度的数据中心设计技术,将对云计算提供有力的支持。当然,在实际应用中,功率密度的选取,还与数据中心的机房环境、空调设备及气流组织形式有关,并非越高越好。

  缺乏标准阻碍了国内自然冷却发展

  现在国外出现了很多采用自然冷却方式散热的数据中心,但在国内却不多见。国内和国外在数据中心发展方面还有哪些差距?戴博士在接受本站采访时候给出了答案。他认为,自然冷却技术,充分利用地理性和季节性的室外低温环境作为冷源,通过建立特殊热量传递通道,将机房内的热量从室内转移到室外,而无需压缩制冷循环参与,仅靠风机或泵驱动,所以PUE能够显著降低。

  自然冷却技术主要有两种形式:新风直接式自然冷却和间接换热式自然冷却,这两种技术在国外都有成熟的应用。由于国内具有温度低、而且湿度和洁净度均适宜的地区极少,所以只能采用第二种技术,从技术灵活性上,就少了50%的选择。

  自然冷却的基本要求,是室外低温热源的温度足够低、室内高温热源的温度足够高,而提高室内高温热源,则需要改变用户理念、以及进行冷却系统和服务器的革命。以目前的空调技术,通过通道封闭等技术,可以提高热通道的温度到35oC,从而使自然冷却的使用时间提高20%-30%,但并不是所有用户都敢于做这样的设置。

  同时,行业内尚未建立成熟的能耗评估标准和体系,也是国内自然冷却技术推广缓慢的一个原因。由于缺乏数据支持,用户难以对一个节能改造方案作出投资回报率的精确计算,或者计算过程的说服力不足,从而给决策者对自然冷却技术或其它节能改造技术缺乏信心。

  互联网行业数据中心发展最快

  目前国内发展最快的是互联网数据中心。面向云计算时代,设备的集中是个必然的趋势,因此数据中心的数量和规模都在不断增长。随之而来的,用户对数据中心的PUE越来越关注,各种节能技术,比如热管、液冷、氟泵等纷纷应用于数据中心。传统数据中心的改造也成为一个热点。

  空调技术和UPS技术都将面临着重大突破

  在数据中心绿色化的不同发展阶段,数据中心内最耗能的设备种类有所不同。例如,在五年之前,许多数据中心的PUE高达3.0以上,其中的空调系统的耗电量甚至高于服务器本身;而现在,数据中心的PUE普遍已经低于2.0。但目前来看,最耗能的设备或部件,仍主要是CPU、内存、空调系统、UPS系统。开发低功耗CPU和内存,是服务器行业的工作任务;而数据中心基础设施行业的任务,仍像10年前一样,盯在空调系统和UPS系统上。经过今10年的酝酿,空调技术和UPS技术都将面临着重大突破,其中空调系统的革命可能来的更早些。

      

责任编辑:admin
免责声明:以上内容转载互联网平台或企业单位自行提供,对内容的真实性、准确性和合法性不负责,Voipchina网对此不承担任何法律责任。

】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部

上一篇宁波银行选择Teradata天睿公司建..
下一篇思博伦助下一代数据中心网络快速..

热门文章

图片主题

最新文章

相关文章

广告位

Copyright@2003-2009 网络通信中国(原VoIP中国) 版权所有
联系方式:503927495@qq.com
  京ICP备05067673号-1 京公网安1101111101259