专业的信息化与通信融合产品选型平台及垂直门户
注册 登陆 设为首页 加入收藏
首页 企业新闻 招标信息 行业应用 厂商专区 活动 商城 中标信息

资讯
中心

新闻中心 人物观点
厂商专区 市场分析
行业
应用
政府机构 能源产业 金融机构
教育科研 医疗卫生 交通运输
应用
分类
统一协作 呼叫客服 IP语音 视频会议 智能管理 数据库
数字监控 信息安全 IP储存 移动应用 云计算 物联网

TOP

英特尔在数据中心积累了大量财富
2019-11-15 19:44:08 来源:网络 作者:【
关键词:英特尔 数据中心
 
英特尔(Intel)发布了一系列新产品,旨在巩固其在企业数据中心业已占据的主导地位。位居榜首的是扩展和调整的第二代Xeon可伸缩处理器家族(Cascade Lake),以及供应商备受期待的Optane DC持久内存(Apache Pass)。

  英特尔(Intel)发布了一系列新产品,旨在巩固其在企业数据中心业已占据的主导地位。位居榜首的是扩展和调整的第二代Xeon可伸缩处理器家族(Cascade Lake),以及供应商备受期待的Optane DC持久内存(Apache Pass)。

  但那是4月初的事了,这让我们不禁要问,这些产品是否真的已经进入了数据中心,以及这些交付的产品如何与大肆宣传相抗衡。

  让我们从处理器开始,需要强调的是,Intel的第二代Xeon可伸缩产品线背后的架构与一些人可能预期的重大飞跃相差甚远。事实上,该结构与第一代几乎没有什么变化,硅本身也是使用相同的14nm工艺制造的。也就是说,一些sku上的时钟速率被调整了,其他的有更多的核心,而且它们都支持高达2933MHz的DDR4 RAM。此外,它还内置了许多额外的技术,以利用新的可选直流持久内存,处理硬件而非软件的安全性,以及加速人工智能处理等。此外,除了9200系列(稍后将介绍更多)之外,新的Xeons和支持的Optane DC持久内存可以像第一代Xeons一样插入到相同的主板上,任何新特性都可以通过BIOS更新来解锁。

  这些第2代Xeon可伸缩处理器与它们的前辈一样适合安装在相同的主板插座上。

  有些人可能会对此感到失望,因为英特尔还没有完善其长期承诺的10nm制程。不过,从短期来看,这是一个好消息,因为供应商可以立即提供新一代服务器,而不必等待新一代服务器的缓慢启动。事实上,大多数公司都在这么做,包括戴尔、EMC和惠普,这两家公司都发布了使用新芯片的升级产品。不幸的是,我们无法得到这些服务器中的任何一个,但我们能够进入波士顿有限公司的实验室,亲自操作一些超级微服务器,以便更好地了解客户对新硅的期望。

  考虑到它们可以像第一代Xeon可伸缩处理器一样嵌入相同的套接字中,因此发现Supermicro提供跨越几乎整个服务器范围的第2代cpu也就不足为奇了。事实上,我们看到的服务器是我们以前看过的。其中之一是一个简单的双插槽1U超微,另一个2U超微双Pro可以容纳四个双插槽服务器安装在插件雪橇。这两款产品的主板都配备了LGA 3647插槽,使它们能够配备第一代或第二代处理器,而采用第二代处理器只需要很少的修改,除了更大的散热器来处理更高的TDP额定值。

  更大的散热器可能需要与第二代Xeon可扩展处理器,这在一些服务器上可能会阻塞相邻的DIMM槽,如图所示,更大的散热器是平衡在原来的上面。

  不幸的是,在像模块化的Twin Pro这样空间有限的服务器上,更大的散热器意味着相邻的DIMM槽不能使用,从而限制了内存容量。然而,这只是在完全填充的系统上的一个问题,可以通过支持Intel的新Optane DC Persistent Memory modules (DCPMM)来解决,它和新的处理器一样,也可以插到现有的主板上。

  让我们更详细地看看这是怎么回事。

  讨论和预览在代号为“Apache, Optane直流(数据中心)内存使用了一种“3 d XPoint技术”,像传统的快闪记忆体,电源关闭时可以保留数据。与传统的flash,然而,Optane DC可以提供接近DRAM性能但更低的成本,从而能够构建服务器有大量内存没有打破银行。为此,我们找到了128GB的Optane DC模块,零售价约为890美元:这比SSD要贵很多,但还不到安装了ECC DRAM的DDR4 DIMM的一半。

  Optane DC持久存储器采用与DRAM相同的DIMM格式,并且可以插入到相同的主板插槽中。

  Optane DC内存采用标准DIMM格式(这就是为什么不需要新的连接器或插座),目前每个模块最多可以提供512GB的内存。根据英特尔的数据,这意味着每台服务器的低成本内存高达36TB,这听起来很不错,但也有一些警告。,

  首先,Optane DC需要一个新的内存控制器,它内置在新的2d -gen处理器中,所以你不能在不交换处理器的情况下将新的Optane DC模块插入到现有的服务器中。每个插槽也有六个Optane模块的限制,每个插槽至少需要一个传统的DRAM DIMM。在默认的“内存模式”中,它被用作Optane模块上的高速缓存。

  另一个缺点是DRAM缓存不计入总的内存容量,但它确实使Optane内存在支持具有可预测数据使用模式的应用程序时能够提供接近DRAM的性能。此外,不需要对操作系统或其他软件进行任何更改,就可以实现这一点,这将立即使大数据分析和大型虚拟服务器场等应用程序受益。

  Optane DC持久内存模块(这里显示的是突出的白色标签)插入到标准DIMM槽中,与传统DRAM一起使用,在默认的内存模式下,DRAM用于缓存。

  然而,对于使用模式较难预测的应用程序,在内存模式中使用Optane DC很容易比DRAM降低性能。此外,持久性在内存模式中不可用,因此,与所有DRAM设置一样,当电源关闭时,数据仍然会丢失,无论是在DRAM缓存中还是在Optane DC模块上。

  为了充分利用它的持久性能力和更好地全面支持应用程序,Optane需要在所谓的App Direct模式下使用,允许数据根据需要被定向到DRAM或持久性内存。同样,在这种模式下,Optane DC可以像SSD一样用作可字节寻址的块存储,这样就可以提供高性能的存储,而不会遇到传统存储接口的瓶颈。

  参见:云v.数据中心决策(ZDNet特别报告)

  然而,所有这些都依赖于hypervisor和/或能够区分不同内存技术的操作系统的使用。在撰写本文时,这意味着Windows Server 2019和/或VMware vSphere(6.7)的最新版本。应用程序也可能需要更新,以最大限度地发挥其优势,通常使用开源的持久性内存开发工具包(PMDK)。

  据说大型云供应商SAP和其他公司也在开发mod,以便在他们的平台上利用Optane DC。

  在发布会上,英特尔大肆宣传了其新Xeons和Optane DC内存的性能优势。然而,将这些声明付诸实践远非易事,到目前为止,最大的收益将来自同时使用这两种新产品的服务器,这让测试变得更加困难。尽管如此,波士顿的工程师们已经证实,仅使用处理器就可以显著提高性能,这主要是由于英特尔提高了时钟数,在少数情况下,与同等的第一代xeon相比,其核心计数更高。

  可用性问题意味着他们不能测试每一个处理器,但是他们可以测量的结果如下:

  比较第一代和第二代Intel Xeon可伸缩处理器的LINPACK结果。*时钟速度提高,**核心计数增加,***更多的核心和更快的时钟)。

  在一些处理器上,你可以通过使用英特尔的新速度选择技术来优化基本频率来进一步调整性能。这通常设置在一个较低的级别,即使所有核心都处于活动状态,也可以维持这个级别,但是如果工作负载模式所需的工作负载少于全部工作负载,那么Speed Select允许提高基本频率,从而提供更高的总体性能。

  这些成果都是值得拥有的,但远远低于英特尔发布会上展示的一些幻灯片上的数字。这并不奇怪,因为最引人注目的数字集中在Xeon Platinum 9200上,尽管Xeon是第二代Xeon可扩展家族的一部分,但它是一个完全不同的产品。

  特点是先进的性能或“AP”,你得到的每个9200“处理器”是一对Xeon可伸缩8200系列的模具耦合在一个单一的高度密集的包。这意味着处理器核的数量要增加一倍——从高端9282 SKU的28个增加到56个——加上相关内存的两倍,使用12个DDR4通道而不是仅仅6个。

  Xeon Platinum 9200实际上是两个处理器合二为一,无法插入标准的主板插槽。

  正是这一加倍的安排,使英特尔得以在9282 Xeon可伸缩版上获得2倍的性能提升,而在其发布文献中,早前的版本是8180。但是8180的核心数量只有一半,所以这个数字并不令人惊讶。

  在撰写本文时,Platinum 9200处理器刚刚开始出厂,波士顿还没有收到任何要测试的样品,也没有任何价格信息。此外,需要强调的是,与第二代Xeon可扩展家族的其他成员不同,9200s的设计不适合标准的主板插座。相反,它们以BGA包的形式出现,并且很可能会与主机主板紧密相连。主板也将来自英特尔和ZDNet的理解,OEM供应商,像Supermicro,将无法提供可伸缩的9200处理器在他们自己的设计。

  所有这些并不意味着客户不会从其他第二代Xeon可伸缩处理器中获得巨大收益,特别是如果他们还部署了Optane DC持久内存。然而,需要注意的是如何组合正确,因为买家想要通过DRAM来最大化Optane DC来省钱,例如,与所有DRAM平台相比,性能可能会下降。性能差异也会因应用程序类型的不同而有所不同,英特尔(Intel)还准备了一种新的“深度学习增强”(Deep Learning Boost)功能,专门用于加速人工智能推理应用程序。

  与人工智能训练不同的是,人工智能训练对处理能力有巨大的要求,而这些要求最好是通过GPU技术来满足,而推断应用程序(人工智能算法实际投入工作的地方)则不那么耗费精力。实际上,推断数据量可以大大减少,处理的精度也相对较低——Xeon可伸缩架构中包含的512位向量单元(AVX512)是英特尔新推出的深度学习功能,这为这一需求提供了便利。使用这些,第2代处理器现在可以使用单个硬件指令同时处理64个8位或32个16位整数,再加上对融合操作(如FMA)的支持,可以对推断性能产生巨大的影响。

  例如,Dell EMC已经发布了使用ResNet-50推理基准的测试结果,结果显示,第2代Xeon可伸缩处理器的深度学习能力提高了两倍多,吞吐量提高了8位整数精度:

  人工智能推理性能可以显著提高英特尔的深度学习推进。

  同样,真正的应用程序可能并不总是反映这些数字,但确实有一些好处,不需要额外的GPU硬件,进一步加强英特尔的数据中心主张。

  这里的底线是,虽然英特尔引用的一些数据需要谨慎对待,但确实有性能上的好处。然而,它们不是自动的,客户将需要花费更多的时间来匹配新的处理器和应用程序,并解决如何最好地部署Optane DC内存。好消息是,除了Platinum 9200以外,英特尔在将新产品推向市场方面出奇地快,与此同时,该公司还推出了大量其他技术,这些技术加在一起似乎将迅速重塑数据中心。

      

责任编辑:admin
免责声明:以上内容转载互联网平台或企业单位自行提供,对内容的真实性、准确性和合法性不负责,Voipchina网对此不承担任何法律责任。

】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部

上一篇对话联想童夫尧:联想中国区数据..
下一篇当大数据与汽车相遇,中汽数据中..

热门文章

图片主题

最新文章

相关文章

广告位

Copyright@2003-2009 网络通信中国(原VoIP中国) 版权所有
联系方式:503927495@qq.com
  京ICP备05067673号-1 京公网安1101111101259