加入收藏 | 设为首页 | 会员中心 | 我要投稿 PHP编程网 - 黄冈站长网 (http://www.0713zz.com/)- 数据应用、建站、人体识别、智能机器人、语音技术!
当前位置: 首页 > 运营中心 > 产品 > 正文

除了PUE,你知道IUE吗?

发布时间:2019-08-06 01:23:01 所属栏目:产品 来源:中国IDC圈
导读:副标题#e# 随着5G技术的落地,让万物聚合互联,释放数据价值,这更需要高效的云计算数据中心。在最近举行的2019维谛技术峰会上,维缔技术(Vertiv)创新性推出了基于POD(性能优化数据中心)架构的供电最佳颗粒度和制冷最佳颗粒度模型。这套数据中心最佳颗

除了考虑UPS的容量之外,还要考虑UPS的可靠性,单模组UPS的容量是小于变压器的容量的,要接近或达到变压器的容量,则通过并联实现。但是UPS模组并联过多就会涉及到UPS并机环流问题,UPS并联的模组越多,意味着可靠性下降。从下图由马里兰大学CALCE研究中心提供的UPS并机可靠性曲线看到,当UPS并机模组数量超过4台,其并机系统的可靠性将比一台单机的可靠性还要低。

这一点与我国相关规范是不谋而合,GB50174-2017要求UPS模组并联数量最多四台,也就意味着目前单个UPS系统的容量不会超过2400KVA(即2.4MVA)。这就大致决定了变压器容量的选择。

5

UPS电量供应使用率与UPS并机可靠性曲线,由马里兰大学可靠性研究所提供。(图源自:维谛技术)

根据上图可以看出,在数据中心领域,根据UPS模组容量的不同(比如400KVA、500KVA、600KVA),在4台UPS并联后,UPS电量供应IUE曲线(最佳点是100%使用率)与可靠性曲线(要求并机的可靠性高于单机)的交叉点形成供电最佳颗粒度选择为1.6MVA、2MVA和2.4MVA。

供电的不同选择当然也意味着其POD内服务器功率的选择将发生改变,这给应用需求与服务器选型提供了灵活性。当然,如果POD内服务器功率是5KW每个机柜,每个POD是1MW(需要1.2MVA UPS供电),建议采用2.4MVA给2个POD供电。

供电选择完后还要选择散热系统。IT加上散热的能耗几乎约等于数据中心的总能耗了。而散热系统的能耗又由选择何种散热系统决定,散热系统的能耗也是影响数据中心PUE的最大因素。

第三,最佳的制冷颗粒度。

数据中心散热系统目前主流有“风冷”空调和“水冷”空调两种可供选择,

虽能目前大部分云计算数据中心比较青睐离心机或螺杆机的冷冻水“水冷”解决方案,但“水冷”空调散热系统的管道设计复杂,由于冷冻水机组空调换热环节多,系统效率低,无法实现超低PUE的交付。而且“水冷”空调系统的冷量设计较为巨大,通常以上千“冷吨”为单位,需要数百千瓦的电力供应,冷量使用率较低,维护成本很高,且不宜工作在低负载状态,进一步降低了散热系统的效率。

6

上图表示在相同POD数量下(以某个数据中心6个POD为例),“风冷”空调与“水冷”空调的使用效率对比。满足相同数量的服务器散热时,“风冷”空调的效率明显高过“水冷”空调。此外,IT低负载时,为了避免冷机“喘振”导致故障或停机,“水冷”空调散热系统通常不能使用

在一个部署了6个POD的数据中心内,其服务器总功耗为12MW,这意味着需要12MW的冷量。如果采用维谛技术(Vertiv)的Liebert®PEX4超高能效精密空调,单个POD需要22台(单台冷量100KW)以20+2的方式冗余制冷,同时考虑到电力机房与电池机房(UPS间)所需冷量,约共需要164台PEX4空调提供16.4MW的冷量(设计冷量)。而这个数据中心实际需要13.6MW冷量与设计冷量16.4MW之比即为冷量使用率(83%)。

而在相同条件如果采用“水冷”空调散热系统,要提供13.6MW的冷量,其需要6(5+1)台1000冷吨设计的离心机组(1冷吨约3.5KW,即3500KW,美制),那么其设计总冷量就高达21MW,所以其冷量使用效率仅为65%。况且还有低负载下无法使用的缺点;因此换热环节少,维护成本低和适合更多应用场景“风冷”解决方案成为趋势。为了提升冷量使用率和降低TCO,推荐适合高层建筑使用的无水极致节能风冷最大颗粒度120KW和100KW的解决方案。

7

维谛技术基于其在散热领域的深厚积淀,不止推出了PEX4超高能效精密空调,还有与PEX4搭配使用的Liebert®VCC集中式高效冷凝器,以及Liebert®PEH节能型湿膜加湿器。这些最新的产品不仅能够提高数据中心效率,还能节省占地面积,以及降低能耗

IT机架数、供电以及制冷都确定了,剩下的就是数据中心设计了。维谛技术(Vertiv)在这方面根据其在数据中心建设领域的丰富经验,以及其最佳组合的产品特点推出了面向云计算与互联网领域的Vertiv云计算最佳颗粒度解决方案,围绕POD而设计,将一个4层楼的数据中心2、3、4层布局如下:

8

维谛技术基于POD推出的云计算最佳颗粒度解决方案,具有快速部署上线、可复制以及操作性强等特点:

l  2、3、4层共3层楼共设置6个POD 共12MW:

l  每层UPS 设置2.4MVA×2/POD,采用維谛高可靠高效率的 Cube or APT;

l  IT机房设置风冷PEX4 100kW (20+2)/PODx6=132台;

l  电力机房电池机房32台PEX4 100kW

l  预备800K电力,冗余400K共预备1.2M电力/POD用于连续制冷

l  每层设置400柜共占地4000-5000平米(含辅助区)

l  楼顶设置VCC外机,占楼顶面积30%

由于采用“风冷”空调散热系统替代了较为传统的“水冷”空调,这意味着不需要额外的冷站和蓄冷罐,而原本用于建设冷站的地下一层也可设计为IT机房,可在其内部署1个或2个POD及与之配套的供电与散热。

可以看出,维缔技术(Vertiv)打造的全方位供电和制冷的颗粒度方案,加上全球的供应链体系,可以帮助客户实现最优的TCO,目前在全球已经拥有了广泛的成功实践。

以全球第一大COLO运营商Equinix为例,每个数据中心采用采用维缔技术(Vertiv)N+1套2.4MVAUPS系统形成 2主1备RR系统或者3主1备RR系统的的最佳供电颗粒度解决方案。Equinix借助广泛部署在全球200多个International Business Exchange (IBX)数据中心,建立一个ECX Fabric云平台,在这个平台上9500多个客户可以快速地将自己的应用连接到全球Equinix部署的BIG EDGE云平台中,来降低延时和保证安全性。

(编辑:PHP编程网 - 黄冈站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读