PUE和冷热通道隔离.docx
- 文档编号:10725268
- 上传时间:2023-02-22
- 格式:DOCX
- 页数:13
- 大小:1.26MB
PUE和冷热通道隔离.docx
《PUE和冷热通道隔离.docx》由会员分享,可在线阅读,更多相关《PUE和冷热通道隔离.docx(13页珍藏版)》请在冰豆网上搜索。
PUE和冷热通道隔离
如何用PUE指标衡量机房能耗效率2008-07-1011:
00出处:
IT168作者:
雪原【我要评论】[导读]为了节能,你首先得知道你的数据中心能效水平是怎样的,所以必须开始实时测量和监视数据中心的用电。
为了节能,你首先得知道你的数据中心能效水平是怎样的,所以必须开始实时测量和监视数据中心的用电。
当前,测量数据中心的能耗指标有两种方法:
PowerUsageEffectiveness(电源使用效率,PUE)和DataCenterInfrastructureEfficiency(数据中心基础架构效率,DCIE)。
这两种方法都考虑了数据中心里供电、散热系统和IT设备所各自消耗的能量,得到了TheGreenGrid(绿色网格)组织的支持。
这个组织是去年为了专门开发数据中心能效及生产力测量体系而组建的。
TheGreenGrid定义了这两种测量方法的具体计算方式:
1.PUE=数据中心总设备能耗/IT设备能耗,PUE是一个比率,基准是2,越接近1表明能效水平越好。
2.DCiE=IT设备能耗/数据中心总设备能耗x100,DCiE是一个百分比值,数值越大越好。
根据TheGreenGrid,测量数据中心中IT设备电耗的最有效的方法是测量机房PDU(powerdistributionunits)的输出电量,这个方法应该代表了数据中心里向服务器机柜输送的总电力。
目前,PUE已经成为国际上比较通行的数据中心电力使用效率衡量指标。
据统计,国外先进的机房PUE值可以达到1.7,而我们国家的PUE平均值则在2.5以上,这意味着IT设备每耗一度电,就有多达1.5度的电被机房设施消耗掉了。
特别是中小规模的机房PUE值更高,测量数值普遍在3左右,这说明有大量的电实际都被电源、制冷、散热这些设备给消耗了,而用于IT设备中的电能很少。
据统计,目前国内机房中140平米以下的占50%,400平米以下的占75%左右。
如果按照装机量大致计算,总的全国机房耗电量在100亿度到200亿度。
如果能把PUE降低一个数值,节约的能耗就是33%,大概30到60亿人民币。
可见,数据中心用户的目标是应当将PUE目标值定在2以下,尽可能接近1。
换句话说,如果IT设施需要1,000瓦电力,数据中心需要的总电力不应当超过2,000瓦。
原文出自【比特网】,转载请保留原文链接:
数据中心冷热通道隔离封闭式机房的设计与实践
窗体底端
1整体规划设计原则
1.1关键设备对机房的发展要求
对高校的网络信息中心(数据中心)而言,需要有众多的服务器供教学教务等的业务部门使用,而且今后的发展规模也是一个不确定的因素。
信息中心的主要服务设备有存贮系统、主机系统、高性能机架式服务器和刀片式服务器等。
发展方向是提高机器的空间密集度达到节约机房空间和相对的能耗减少;特别是一个机柜中配制刀片服务器时,电力的需求大大增加,一个"满配"的刀片服务器,其所需要的电力大约为5~10kW,一个机柜部署多台刀片服务器时,电力不足的矛盾非常突出,散热问题也突显出来。
因此运行虚拟服务器系统也是今后解决这个问题的方法之一。
通过高性能服务器和虚拟服务器系统的使用,可大大减少实体服务器的数量,在满足业务使用要求的前提下,达到了节能减排的目的,并使机房配套设备的投资也大大减少。
1.2节能减排
越来越强处理能力的服务器,越来越大容量的数据存储设备和网络设备,需要消耗更多的电能。
而集成度越来越高的设备,发热量越加集中,导致机房温度控制是个很大的问题。
只有对降低机房能耗的新技术与新方法进行研究,力求通过合理选用服务器机架、合理进行散热规划、优化机房设计、布局、使用等方面,提高机房散热效率,降低数据中心机房的整体能耗,才能达到节能减排的目标。
1.3UPS电源
由数据中心的特点可知,虽然数据中心是整体建设的,但数据中心的设备的增加是逐步的,因此供电能力也应该是阶段式提高才行。
为此,我们在规划设计中,让UPS机房相对独立,并留有UPS设备的扩展空间。
数据中心机房的机柜一次性到位,数据中心机房的电源分配列头柜与UPS电源房的电源输出配电柜之间的电缆的容量按全部机柜“满载”容量的供电量配置设计,UPS设备的供电能力则不满配。
UPS供电能力按机房的设备量阶段性地增加,有扩展的余地。
UPS供电系统,可采用2N或者2(N十l)方式,确保供电可靠性和扩展性。
通过UPS电源的按需阶段式扩展,可以避免大马拉小车的现象,UPS电源设备的投资减少的同时,也达到了节能减排的目的。
1.4机房空调
机房的散热冷却是确保数据中心安全可靠运行的基本条件之一,通常是在机房内安装精密空调。
对于数据中心而言,当机房的设备"满载"运行时,会有较大的发热量,但对新建的数据中心而言,由于设备的增加会有一个较长的时间过程,而且一年中不同季节的空调的负荷量也是在变化的,要适应于散热容量变化量较大的发展需求,为了达到节能减排的目的,我们在规划设计中,选配了两台空调,空调总容量要满足机房设计“满载”时的调节能力,每台空调有双机组、能分组独立运行,这样2台空调4个机组能按热容量自动地动态调整,按需自动运行不同数量机组来满足经济运行,从而完成了空调机组运行的节能减排。
1.5场地布局
本案例中,由于新建的数据中心的场地,并不是专为数据中心考虑的建筑场地,而是要把两个教室打通后改建成数据中心的场地。
这就涉及到两个重要的问题,一是承重,二是层高。
承重的问题是通过在机柜地板下加散力架的方式解决,这样使空间高度不足的问题更突出,需要更好地组织气流,以致不阻碍于冷通道的气流流动,为此机柜的排列就很关键,我们在规划设计中,使散力架不位于冷通道上。
在规划设计时采用了下送风上排风的气流组织方式,强电与弱电的布线都采用了上走线的方式,这样为今后维护带来方便的同时,冷通道的阻力大为减少,有可能降低地板高度,通过上述措施,把地板的安装高度控制在35cm。
但由于原教室不但是高度不足,而且大梁高度等也产生了很大的影响,天花板上部的上层空间中还要布置气体灭火管道和新风换气管道等,热回风通道的安排较困难,大截面的热回风管道在工程施工中难以实施,而且因机房的机柜排列方向的长度较大,回风的匀衡也很难保证,需将天花板的上层空间经特殊处理作为热回风管道来解决了这个问题。
机房中机柜的排列形式的安排,从美观和节能性上进行考虑,规划设计中没有采用常用的多列机柜排列的方式,而是采用双列机柜面对面的长排列方式,这样的布置在不减少机柜排列密度的情况下,美观性非常好,无论是从监控机房看进去,还是在机房内部,通透性都很好,为减少冷热凤主通道上的阻力也提供了方便。
1.6冷热通道隔离封闭
机柜长排列的方式也为低成本处理冷热通道的隔离提供了条件,在机房内气流组织完成冷热通道隔离,这样最大限度地提高能效,从而达到节能减排的目的。
在本案例中,机房内冷热通道隔离的设计是在机柜的上部安装了钢化玻璃,拉长了机柜的排列长度,并且高密度地安置了上回风口,在机柜列的头部不安排回风口,使冷热气流不经过机柜而直接短路的可能性减少到最小,相对地做到了让冷热气流隔离。
2工程的实施与实践
2.1机房的机柜布置
浙江理工大学网络信息中心机房呈长方形布置,机房内设两列机柜,机柜的间距达3米,很宽畅,通透性好。
机柜呈面对面排列,形成冷通道,出风口在机柜面部的地板上。
回风口在A2~A16、B2~B16机柜的背面上方,B18机柜的上部放置垂直的弱电桥架经天花板上部空间与外部走廊的弱电桥架相连;机柜的左侧安置2个配电列头柜(A1、B2),2个配电列头柜的上部各设置了一个垂直桥架通往天花板上部,在天花板上部2个配电列头柜通过水平桥架互连(机房内看不到),并与外部走廊的强电桥架相连;机柜采用面板开孔率>63%的宽800mm(600mm的标准机柜加200mm的侧柜)、深1150mm的机柜,在每个机柜除了有600mm的设备安装空间外,两侧有200mm的布线空间,可预置大量网络线和多芯万兆预连接光缆,直接放置到这个侧柜的空间内,这样弱电的连接线经机柜背部左侧柜可以直接连接到服务器,可靠性大大提高,由于没用到的预放线缆在侧柜内,前后有面板盖住,所以多余的线缆看不到,美观性很好。
在机房的中间,安置了2个水平的弱电桥架位于天花板的下面,主要是考虑到日常维修的方便。
这样的安排是为了尽可能减少桥架的露出量,又不影响日常的使用,美观性好。
2.2冷热通道隔离封闭措施
机房内若不采取冷热通隔离时,存在着一个较大的温度梯度,为了满足机柜中上部的关键设备能较好的散热效果,有必要降低空调出风的温度,这样就增加了空调的能耗。
而通常的在机柜顶部加盖的冷热通道隔离封闭方式,存在着视觉效果压抑和消防许可的问题。
浙江理工大学网络信息中心机房采取了独特的冷热通道隔离封闭措施,在机柜的上部至天花板做完全封闭的冷热通道隔离,即在机柜的上部加了钢化玻璃,使冷热气流隔离。
这样可使冷通道的上下温度梯度就很小,空调的出风温度就能适当提高,从而达到节能的目的。
在冷通道上部的天花板,仍使用统一的微孔天花板,以保持机房整体的美观;并在冷通道和机房的左右两侧,需要形成冷通道的每块天花板上部加一张镀锌铁皮,以防止冷通道上部的有孔天花板进行回风。
在机柜的两列热通道的上部,使用了较多的回风口,以保证回风口的吸风量。
在空调的上部回风口加了一个空调投影面积相同的回风管,直通天花板上部空间,与天花板的上部空间一起形成了一个横截面积很大的回风主管道,因热通道的回风口面积远远小于这个回风主管道,所以保证了各回风口的吸风均衡。
在天花板上部安装独立的新风冷热系统不受影响。
这种冷热通道隔离的措施,成本很低,而且灯光系统和气体消防系统的处理方式可按通常的设计,机房整体视觉效果和美观度极好,热通道回风效果也很好。
3结论
在对新一代数据中心机房的设计和工程实践当中,通过全面的整体规划,对机房的关键设备、UPS电源、空调机房、场地布局等进行综合的考虑和节能设计是能达到节能减排的目标。
冷热通道隔离封闭是机房节能减排的措施之一。
机柜布置可以适当改变排列方式以及采取适当的措施形成冷热通道的隔离,改变环境气流组织和减低冷通道的温度梯度,改良机柜内的有效制冷效果,从而达到节能的目的。
冷通道封闭和气流分配结合使用
冷通道封闭
绝大多数机架安装服务器的设计都是从前面吸入冷空气,后面排出热空气。
如果机架都朝向一个方向,则第一排机架排出的热空气在通道中将和供应空气或室内空气相混合,然后进入到第二排机架的前面……这样连续通过后几排机架后,将导致IT设备温度升高,势必引起稳定性问题。
最好的作法是采用热通道和冷通道设备布局,如图所示:
开孔地板安置在冷通道中,使得服务器的前面(空气入口)朝向冷通道,热空气将被排放到热通道中。
这样一来,不仅较好地解决了热冷空气混合的问题,同时也充分利用了冷空气资源。
冷通道加强配件—冷封闭
原理,防止上端冷热气混合对地板供冷形成负压。
未封闭的冷通道
封闭的冷通道
实际效果图
冷封闭部件
通道封闭门 通道封闭顶板
1200mm宽通道使用 600mm宽机柜、1200mm宽通道使用
此外,还可以从机架前部的气流分布着手,加强后部热空气的排出。
典型产品如ADU(气流分配单元)。
ADU
常见的冷热风通道交替,通过下送风的方式为机架中的IT设备提供制冷。
这种自下而上的制冷方式,机架顶部1/3的部分往往制冷不足,容易因为过热而宕机。
此外,这还易在机柜上方形成局部热点,造成能源的浪费。
显然,传统的地板下配风的气流组织方式,已经无法解决高密度机柜的制冷需求。
随着IT技术的发展,机柜功率越来越大,需要的配风风量也相应的增加。
由于地板下配风存在两个瓶颈:
地板下送风截面积和地板的出风口的有效出风面积。
故此为了解决地板下出风口的截面积瓶颈,目前地板铺高越来越高,普遍需要600mm以上。
但是地板出风口的面积已经达到了极限,因为过孔率不可能达到100%,而增加每台机柜拥有的地板出风量必须增加机房面积。
所以,地板下配风的气流组织方式,目前只能满足每机柜5KW以下的功率密度要求。
地板风口面积:
0.36m2
过孔率:
20-40%
风阻系数:
0.5-0.8
极限风量:
1500m3/h
极限冷量:
5KW
实际冷量:
0-4KW
因此建议,如果要在一个传统的地板下送风方式的机房中,满足5KW以上的高密度机柜的制冷需求,则需要针对部分高功率密度机柜单独配置区域性加大冷量供应的单元。
地板式ADU性能
额定电压
230V
额定功率
130W
额定电流
0.6A
输出风量
2000m3/h
冷量
9000W
物理指标
长
600.00MM
宽
600.00MM
深
180.00MM
工艺
机箱选用2.0mm厚的冷轧钢板,上等黑细釉喷漆,进口网板丝网印字
功能
解决机房局部过热现象
送风量是普通地板出风口的3倍
安装直接代替原风口地板即可
有效避免机房服务器过热宕机现象的产生
使用ADU加强送冷,并同时将若干高密度机柜布置成为热通道或冷通道封闭系统,与ADU加强送冷组成高密度区
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- PUE 冷热 通道 隔离