云计算 频道

AGDC绿色数据中心网络能源解决方案

     【IT168 资讯】日前,由计世资讯主办的2009下一代数据中心国际峰会在北京新世纪日航饭店举办。来自IBM、Intel、BMC、艾默生、戴尔、RCG等企业的技术总监或业务拓展经理围绕云计算的前沿趋势做了精彩演讲。以下是艾默生网络能源中国区副总裁丁麒钢的演讲内容。

    丁麒钢:大家好,很荣幸参加这次高峰论坛,借这个机会跟大家分享一下艾默生网络能源有限公司在动态绿色数据中心建设方面的观点和认识以及我们的经验。

    艾默生提出的AGDC,动态绿色数据中心,强调四个核心概念,一个核心概念是高可用性,这是所有数据中心的基础,如果脱离了这个基础,一切东西都是无效的。对数据中心而言,高可用性是永远不变的基石,不可取代的。第二对于数据中心来讲,业务是持续发展的,一个数据中心的平均寿命8年到16年,最长不会超过20年。在这么长的生命周期内,你的IT技术不断发展、服务器技术在不断发展、软件技术在不断发展,但是作为生命体的周期本身的数据中心,你怎么保证前期投资是可不被浪费的,每次更新不是推翻前面的,平滑的升级保护你的投资,这是艾默生提的第二个观点,高灵活性。第三就是高可维护性,不是狭义的维护管理,实际上是运营观念上的东西,数据中心也存在智能化的问题。比如资源调用,你的资源究竟都多少,服务器有多少可用空间,有多少资源可以被调用,是否一台一台去查还是后台系统立刻就可以清楚放在哪台服务器上。所以这个东西是高度智能化的东西。第三是高效节能,这是我今天重点要讲,这是操作层面关注的问题。

    艾默生的观点,作为动态绿色数据中心来说,从评价和规划来讲,有三个纬度,第一个纬度可用性纬度,这是有国际标准的。第二个纬度就是能效模型,这是直接关系到TCU,怎么规划设计。第三作为运营主体,追求最好的投资回报。艾默生在这个行业里,我们已经从一个产品供应商,现在可以提供多维度的咨询服务,帮助你规划设计数据中心。大家看一看,从全球的各个行业统计来看,数据中心宕机50%不是主设备,而是来自非IT设备,人为错误又是最主要的,每分钟的宕机50%以上损失不大于1万美金,这是为什么无论技术怎么发展,无论怎么节能、减排,如果脱离了可用性基础,所有东西都是虚无的,没有用的。因为你的宕机给你带来的损失可能远远高于节省成本带来的收益。

    所以从可用性来讲,美国的标准TIA942-TIER1系统的特点解决源头上两路电,但是是单机单线,以为着是可以间断的,控制在0.001这个范围内。典型应用就是机架式数据中心,最小范围就是机架,这是很多小企业可以用的,这个机架里完全的有了计算、存储、服务器、UPS、配电、后台管理,艾默生有一个产品,叫做ITNest,可以扩展到10个一下,原理是非标准机房,所有的标准规范都在一个机架里来实现。TIER2它的特点是并机单路线,典型应用是标准的数据机房,这里可以看打动力设备和IT设备是在一个房间里。TIER3,是用于大型数据中心,不对称双路线,可用性是99.9999%,这是一个典型的场景分布,配电、UPS等等已经是分区管理了。这是较高级的TIER4,特点是对称性双路线,可用性99.99999%,所有负载同时是两路线上,而且是同步的。所以在这样的系统里,我们现在在全球包括在中国,我们推荐使用的是TIER4,我们在英国伦敦交易所提供双母线,比如A路是黄色,另一个是红色的,维护的时候就知道这个系统代表哪些。

    正因为可用性非常重要,这点作为了标准规定下来,必须这样做,才知道什么等级数据中心达到什么可用性要求,这样才能达到利益最大化。近两年一个时髦的动作是PUE,数据中心能源消耗效率。光是数据中心已经占全美消耗1.5%了,未来两年可能是2.5%,美国政府发电量要提高10%,中国状况只会比他早不会比他晚。所以正因为关注,大家可以看到,如果技术没有革命,按照应用发展,就是最上面的线,5年之内几乎能耗翻番,目前技术革新大家可以看到,目前已经比传统有降低了,大家的目标是通过各种措施,达到这个位置,而目前业界的业界是这个,而实际上可以做到这里,这是可行的。艾默生提出的可用度、PUE还有RIY,过渡追求任何指标都不能保证你的利益最大化。

    怎么降低PUE是寻求路径的,这是来自美国环保所的报告,在典型的按照规范设计的数据中心里,阻塞能耗大概占到52%,空调能耗38%到40%,照明系统等在10%到12%左右。如果芯片好一个千伏安的时候内部服务器损耗将达到0.5个,到了数据中心供电系统空调制冷,满足一个千瓦的芯片能耗供电要2.84挖。所以要从服务器端,供电系统智能端疏导。

    我们看一下PUE,告诉我们是数据中心效率,共识是整个数据机房总能耗比上你的IT服务动向的能耗是多少。反过来DCE反映的是服务对象的范围能耗占整个数据能耗的多少。PUE越小越好,但不可能为零,道理很简单,什么空调也没有,供电也不要,光是损耗都可能超过1%,所以最小指趋近1,所以所有技术变革只是往共产主义逼近而已,永远达不到。

    在看一下,我们看IT设备、制冷用典设备、供配电能耗加上其他能耗,IT设备能耗永远是一,可变化的是空调制冷因子等其他能耗因子。要降低PUE来讲,三个纬度,首先是降低空调能耗因子,第二降低供电能耗因子,第三降低其他的能耗因子。这就是为什么大家建数据中心考虑的,朝向都决定能耗高还是低,为什么?因为永远受太阳辐射的影响,这就是为什么对地点还这么讲究。所以目前正因此,牵扯到国内的客户已经在建数据中心的时候,招标的时候开始采用标准,就是目前我们看到的腾讯、招行、平安、保险PUE作为衡量标准。

    艾默生建议大家这个东西,PUE是有经济性的,我们建议是在1.8到1.6,中国目前国内的,大致在2.5,差的在3以上。这个地方强调一点,追究PUE受两个东西制约,一个受可用性制约,一个是DCE最低要求制约。所以光追求PUE不够的,要节能第一是主设备的节能,又不在PUE里。在主设备节能里,降低的话后面自然而然降低。其次是空调。我们建议选择主设备的时候,不管选择什么品牌,要采用低功率处理器,这是微软做的实验,高性能的,还有性能低但能耗也比较低。意味着节能有很多纬度、很多角度。第二刀片式服务器,大家注意了,由于性能提高,从单位的流量来讲,能耗是低了,但主能量升高了。节能揭载服务器管理的效能降低,所以供应商推广的时候你们要甄别他讲的节能概念,是整体的还是整体里某一个部分,可能讲的是整体局部节能百分制多少。第三是虚拟化,确实节能,原因是一个服务器多逻辑服务,所以可以关掉一些服务器,而且也有配比关系,所以会降低能耗。所以主设备上,我们要做的工作就是主设备选择上选择节能型的产品。

    第二来看PUE本身来讲电源,传统电源一般数据中心负载30%效率在72%到75%,现在要在30%负载时效率为89%到91%。告诉大家高压直流目前技术水平和UPS相比,效率上没有任何优势。第三采用高效率电源解决的问题是一般保证电源覆盖10到35%的时候效率达到最高。电源也要像服务器一样,逐渐的向虚拟运行化管理方向发展。所以电源本身来说,要转向模块化,供电系统也要采用模块化,典型整合率是3:1到6:1,最后供电系统要配合去做。所以负载率越高效率就越高,损耗就越小,这是在供电安全解决方案和能耗之间寻求的平衡点。

    在空调怎么解决,要不要空调?肯定要,如果你不适用空调,这些问题会大大影响你的数据安全、寿命等等,要增加维护成本,所以必须要有空调。怎么算PUE,有很多方法,第一种方法是系统累加法,很难做。第二种是估算发和实后调整法,往往和实际运营效果差距一般只会大不会小。那么我们看看空调节能难在哪里,损耗有四个部分,压缩机、室内风机、室外风机的耗电计算,怎么降低空调呢,也是一样,虚拟化运行,避免多台空调间的竞争性运行,第二与服务器的虚拟计算分布相同步。第三通过可调节制冷量和风速降低空调虚拟化云兴霞的能耗。第四是高热密度制冷降低空调的能耗,末端直接到热源,把送风距离短了。然后冷热通道隔离降低空调能耗,前提是满足中国消防的标准,提高冷热交换率。再有一个方法是集装箱式的空间设计空间最小化,现在已经开始了,这是我们做的低PUE。再有机柜内制冷,这是最高效的PUE。再有我们提出一个新的概念,冬天用室外冷源,采用一个新的技术,把下级高温气侯和冬天结合起来,把PUE降低。当然还有,比如太阳能空调等等。

0
相关文章