新代数据中心设施平台演进Word文档下载推荐.docx
- 文档编号:17601465
- 上传时间:2022-12-07
- 格式:DOCX
- 页数:19
- 大小:1.07MB
新代数据中心设施平台演进Word文档下载推荐.docx
《新代数据中心设施平台演进Word文档下载推荐.docx》由会员分享,可在线阅读,更多相关《新代数据中心设施平台演进Word文档下载推荐.docx(19页珍藏版)》请在冰豆网上搜索。
在这个时代,计算的形态总的来说是分散为主,分散与集中并存。
因此,数据机房的形态也就必然是各种小型,中型,大型机房并存的态势,特别是中小型机房得到了爆炸式的发展。
第三阶段,1995-现今,互联网的兴起被示为计算行业从发明计算机之后的第二个里程碑。
互联网的兴起本质上是对计算资源的优化与整合。
而对人类社会分散计算资源的整合是计算发展本身的内在的要求与趋势。
本阶段计算资源再次集中的过程绝不是对第一阶段的简单复制,有两个典型的特点:
一是分散的个体计算资源本身的计算能力急速发展,比如摩尔定律和其后的多核技术就是典型的应用,二.个体计算资源被互联网整合。
而这种整合现在也成了一个关键环节,因此也会不断的演进。
顺着上述两条思路我们看现今的热点:
INTEL和AMD的白热化竞争,刀片服务器,互联网宽带,IPV6,虚拟化,云计算等等均在上述思路覆盖之中。
数据机房建设的理念在发展的里程中也更加成熟和理性,不断的超越原来“机房”的范畴,日益演进为组织内部的支撑平台以及对外营运的业务平台。
数据机房在这个阶段呈现出了一种新的形态:
数据中心。
数据中心通过实现统一的数据定义与命名规范、集中的数据环境,从而达到数据共享与利用的目标。
数据中心按规模划分为部门级数据中心、企业级数据中心、互联网数据中心以及主机托管数据中心等。
一个典型的数据中心常常跨多个供应商和多个产品的组件,包括:
主机设备、数据备份设备、数据存储设备、高可用系统、数据安全系统、数据库系统、基础设施平台等等。
这些组件需要放在一起,确保它们能作为一个整体运行。
图1
计算与数据机房的演进路线示意图
二.数据中心功能演进
从功能特征看,随着技术的发展和应用及机构对IT认识的深入,数据中心的内涵已经发生了巨大的变化。
从功能的内涵,可将数据中心可以分为四个大的阶段,数据存储中心阶段、数据处理中心的阶段、数据应用中心,数据运营服务中心阶段。
在数据存储中心阶段,数据中心主要承担功能是数据存储和管理,在信息化建设早期,用来作为OA机房或电子文档的集中管理场所。
此阶段的典型特征是:
1)数据中心仅仅是便于数据的集中存放和管理;
2)数据单向存储和应用;
3)救火式的维护;
4)关注新技术的应用;
5)由于数据中心的功能比较单一,对整体可用性需求也很低。
在数据处理中心阶段,基于局域网的MRPII、ERP,以及其他的行业应用系统开始普遍应用,数据中心开始承担核心计算的功能。
1)
面向核心计算;
2)数据单项应用;
3)机构开始组织专门的人员进行集中维护;
4)
对计算的效率及对机构运营效率的提高开始关注;
5)
整体上可用性较低
随着大型基于机构广域网或互联网的应用开始普及,信息资源日益丰富,开始关注挖掘和利用信息资源。
组件化技术及平台化技术广泛应用,数据中心承担着核心计算和核心的业务运营支撑,需求的变化和满足成为数据中心的核心特征之一。
这一阶段典型数据中心叫法为“信息中心”。
此阶段的特征是:
1)面向业务需求,数据中心提供可靠的业务支撑;
2)数据中心提供单向的信息资源服务;
3)对系统维护上升到管理的高度,又事后处理到事前预防;
4)开始关注IT的绩效;
5)数据中心要求较高的可用性
从现在技术发展趋势分析,基于互联网技术的,组件化、平台化的技术将在各组织更加广泛的应用,以及数据中心基础设施的智能化,使得组织运营借助IT技术实现高度自动化,组织对IT系统依赖性加强。
数据中心将承担着组织的核心运营支撑、信息资源服务、核心计算、数据存储和备份,并确保业务可持续性计划实施等。
业务运营对数据中心的要求将不仅仅是支持,而是提供持续可靠的服务。
在这个阶段,数据中心将演进成为机构的数据运营服务中心。
数据运营服务中心的含义包括以下几个方面:
1)机构数据中心不仅管理和维护各种信息资源,而且运营信息资源,确保价值最大化;
2)IT应用随需应变,系统更加柔性,与业务运营融合在一起,实时的互动,很难将业务与IT独立分开;
3)IT服务管理成为一种标准化的工作,并借助IT技术实现集中的自动化管理;
4)IT绩效成为IT服务管理工作的一部分;
5)不仅仅关注IT服务的效率,IT服务质量成为关注重点;
6)数据中心要求具有高可用性
如下图所示:
图2
数据中心功能演进路线示意图(数据来源:
计世资讯CCWResearch)
“新一代数据中心”,就是通过自动化、资源整合与管理、虚拟化、安全以及能源管理等新技术的采用,解决目前数据中心普遍存在的成本快速增加、资源管理日益复杂、信息安全等方面的严峻挑战,以及能源危机等尖锐的问题,从而打造与行业/企业业务动态发展相适应的新一代企业基础设施。
新一代数据中心所倡导的“节能、高效、简化管理”也已经成为众多数据中心建设时的参考标准。
新一代数据中心是目前业界的热点,业界主流厂商正对新一代数据中心都有局部或者整体的解决方案。
IBM推出“新一代数据中心”的业务;
惠普称之为“绿色数据中心”或者“下一代数据中心”;
DELL也联合EMERSON在业界推广绿色数据中心的解决方案,SUN知名的Blackbox计划,也就是SunModularDatacenter(虚拟化和模块化的数据中心);
华为所倡导的USC(UnifiedSubscriberCenter)解决方案,即创新的融合用户数据中心解决方案等等。
此外,与之相应的几乎所有的一线厂家都建立了其数据中心解决方案团队,新一代数据中心的建设总体来讲正在向纵深迅速发展。
三.数据中心物理解构
对于数据中心从业者来讲,如果以不同的支点对数据中心的解构进行解构,当然会有不同的结论。
图3为基于建设的角度通行的一种解构方式,在图中我们可以清晰的看到数据中心的三个层次:
第一个层次为管理支持的层次,是最贴近数据中心的实现目标的“软支持”,承载的平台主要是各种功能软件和流程;
第二个层次为数据支持的层次,主要实现的是数据的处理、交换、传输以及储存。
承载的平台主要是服务器,交换机,网络路由器等,这是由IT或者说网络设备所搭建的一个硬件的支持平台。
第三个层次为基础设施支持的层次,主要实现的为上一级的硬件设备提供供电支持,环境保障等,这个层次就直接涉及的就是机房的装饰装修,供电建设,制冷建设,综合布线,防雷接地等。
随着近年随着计算密度(或功率密度)的不断提升,这个平台的建设越来越受到关注。
图3
数据中心基于建设角度的解构
但是,对于数据中心建设者来讲,最为直观的往往是硬件平台的建设,因此,上述结构模型往往会有图4的简化版本,特别是在数据中心能效被广泛关注的今天,图4的数据中心结构模型广泛为业界所引用,(在后续关于能效的探讨时,本文会作相对详细叙述。
)
在图4中,由于不再考虑管理支持的层次,整个硬件系统的建设分为两个层次,一个是网络平台的层次(IT),另外一个层次为基础设施平台的层次(Facility)。
业界关于数据中心硬件平台的共识为数据中心建设的一些基础理论工作的展开提供极大的便利性,本文探讨的对象主要集中在基础设施平台(Facility)。
图4
数据中心基于建设角度的简化解构
四.新一代数据中心基础设施面临的挑战与因应
数据中心基础设施平台(Facility)所有的作用只是为网络平台(IT)提供支撑和保护,所以网络平台的建设特性直接决定基础设施平台的建设特性。
而新一代数据中心的网络平台由于自身的快速演进,对于基础设施平台建设特性的要求也发生了极大的改变:
1)IT设备功率密度增大,可靠性要求增加带来的供电系统建设新思路
从最初塔式服务器发展至标准规格的机架式服务器,再到目前方兴未艾的刀片式服务器,服务器之所以朝着功能更强,体积更小的方向演进,主要得益于技术和成本推动。
图5
服务器外形演进示意图
与之同时,服务器为了提高其本身用电的可靠性,普遍的采用了冗余取电的技术。
图6
HPDL380G53+3电源实例
冗余取电是服务器为提高服务器用电可靠性采取的一项关键技术,为业界所广泛采用。
电源的设计和芯片的设计直接相关,因此Intel关于PC和服务器电源相关设计文件虽然不是由国家机构发布的标准,严格意义上也不是规范文件,但它却是目前PC和服务器电源领域最重要的产品设计参考,因为Intel在PC领域长期处于绝对的领先地位,成了事实上的行业兼容标准。
且相关文件对电源作了非常详尽的描述,从外形结构、接口定义到各个输入输出参数的定义和设定,几乎涵盖电源所有特性。
目前全球绝大多数的电源都在依据Intel相关文件进行设计、测试、和评价。
Intel目前在业界所定义的ATX和SSI标准的演进绝大多数都和冗余电源设计相关。
(具体标准可见
(1)Intel,PowerSupply:
DesignGuideforDesktopPlatformFormFactorsVersion1.2,2008-02;
(2)Intel,PowerSupplyDesignGuidelinefor2008Dual-socketServerandWorkstationsVersion1.0,2008-02)。
如果要达到较高的用电可用性等级(TelecommunicationsInfrastructureStandardforDataCenter,April2005,TIA-942有详细界定),IT设备冗余电源(冗余电源在实践中普遍的表现为双路取电的方式)就直接从源头上需要有多路独立的供电源和多路独立的供电路由,如下图所示:
图7
针对冗余电源冗余供电方式
而传统的供电方式(单机供电,串联热备份供电,直接并机供电)最大的障碍有两点:
第一是供电电源的不独立,第二是供电路由的不独立。
这两点就直接导致传统的供电方式和目前IT设备取电方式发生了严重的不匹配,出现问题就在情理之中。
新一代数据中心基础设施的供电建设只有在充分地了解当前负载的取电特性之后再规划后续的供电建设方案才能真正的满足业务可靠性的高要求。
2)IT设备标准化,高热密度引起的制冷系统建设的新思路
服务器在朝着功率密度增加的方向上演进的同时,同时也在朝着IT设备“去高科技化”的方向上演进,其中主要的内容是IT设备的标准化:
硬件尺寸的标准化,软硬件接口的标准化等等不一而足。
标准化带来的直接好处就是各设备兼容性越来越强,对于终端客户的直接收益就是建设的可选择性越来越高,从而可以极大地降低建设成本。
IT设备硬件平台的标准化(尺寸,电源设计,制冷设计)对于基础设施平台而言就有更加重要的意义,这也直接引起了数据中心内部形态的极大改观。
图7左边图像显示的传统的机房,各种IT设备(计算设备,存储设备,通信设备等)尺寸各异,对于制冷和供电的建设而言,必然是分散,零星,非标准化的。
而图7右边图像所展示的新一代数据中心的物理结构就完全不同,由于所有的IT设备在标准化以后都可以放置进入标准的服务器机柜(主流的尺寸为容纳宽度19英寸服务器,高度为42U,1U=1.75英寸=4.445厘米.U是一种表示服务器外部尺寸的单位),所以整个房间给人的直观的感觉就是“机柜的森林”。
数据机房内部物理形态的演进
而这种标准化的“机柜的森林”就为我们在数据中心整个空间尺度上构建合适的气流组织提供了坚实的物质基础。
上面我们从数据中心的宏观尺度上考察了机房本身的演进,接着我们在考察一下在微观的尺度—也就是在机柜里面的单个IT设备(比如服务器)层面发生了哪些显著的变化。
首先,单台IT设备的发热量越来越大。
单台IT设备的发热量越来越大是和设备的功率密度直接比例相关,因为服务器超过99%的耗电最后都以热量的形式散发除去。
2005ASHRAE(美国采暖、制冷与空调工程师学会)做过统计和预测,今天看来,数据依然十分可靠,如图6。
目前随着刀片服务器的迅猛发展,单个机柜的热负荷在满配的情况下可高达30KW或以上。
图7展示的业界做过的一个测试,对于一个1000平方英尺的数据中心,如果热密度达到14.4KW/服务器机柜,如何制冷系统故障,只需要5分钟,温度就能从20度上升到50度,50度意味着IT设备会由于过热而宕机。
数据通信设备电源潮流和制冷应用图7在不同热密度条件下温度和时间关系图
其次,单台IT设备取冷的方式发生了重大的改变
Intel在关于服务器电源的相关标准中,均对风扇及风道设计作了详细设计,比如在《PowerSupplyDesignGuidelinefor2008Dual-socketServerandWorkstations》版本1.0中,定下了ERP1U服务器电源的要求,空气前进后出,水平流动:
图8ERP1U机械外形尺寸及气流方向
因此,对于新的广电数据中心机房的制冷系统建设,建议采用机柜面对面/背靠背的摆放方式,可以确保机列与机列之间冷气通道和热气通道分开,从而可极大的提高制冷效率。
此外,在条件允许的情况之下,同时也推荐采用地板下送风,热气上回的气流组织方式,因为这样也最符合热力学原理(冷空气重,热空气轻)。
还有,精密机房空调(HVAC)的摆放也十分重要,为确保热空气在回流精密机房空调的过程中路径最短,阻力最小,且不产生冷热气流交混,要求精密机房空调放置在热通道的末端,且垂直与机列廊道,从而形成回风顺廊道的状况。
也就是说,新一代数据中心制冷系统的建设直接对整个机房服务器机柜布置提出了新的要求,这在以往的机房建设里面是不多见的。
图9机柜面对面/背靠背,地板下送风,回风顺廊道的设备摆放方式
因为过高的热密度(6KW/机架或者以上),有很多应用的场地即使在上述措施合理采用后依然不能解决所有的问题,业界因此也发展了很多新的制冷的技术,比如水冷系统,辅助制冷系统等,但解决问题的主要思路依然来自对机房制冷需求的了解和研发。
传统的制冷理念由于其简单,孤立的看待数据中心的制冷,没有关注到新的历史条件下IT设备取冷的方式已经发生了重大的改变,所以问题重重。
只要统筹兼顾当今的IT设备取冷方式和机房具体的应用环境,才有可能合理解决当前数据中心的发热问题。
精密机房空调系统
传统意义上的数据中心精密机房空调系统建设几乎都是将单台的设备分开考虑,最多也就是考虑到了设备之间的备份,但在新一代广电的数据中心的建设过程中,这种建设思路是不完善的。
新的建设思想是需要将数据中心的所有精密机房空调既作为个体来考虑,更要将所有的个体设备整合统一作为一个系统来进行考虑。
在作了这样的处理之后,整个机房内所有的制冷设备不单可以做到备份与冗余,也可以完全避免竞争运行(例如除湿/加湿同时运行),从而可以极大的改善数据中心的空调能耗现状。
高热密度制冷
应用于高热密度制冷的开放式架构的其中一个方法是顶部辅助制冷,该方法使用R134a制冷剂作为制冷媒介。
顶部辅助制冷可提供最大的灵活性、最高的可靠性并能提高能效。
顶部辅助制冷和传统地板下送风制冷系统配合使用,为现有及新建数据中心提供有效制冷,尤其是当传统地板下送风制冷系统不能满足机房制冷需求时。
可靠性
使顶部辅助制冷设备靠近高密度发热源,可将其放置在机架顶部或掉挂于天花板下,为机架顶部提供冷空气以解决机列上部1/3部分的发热问题。
此外,使用R134a替代水作为制冷剂也可提高可靠性并消除水带来的隐患。
另外,由于制冷模块和电子设备不在同一密闭环境之中,在制冷系统电力故障时,机房中的冷空气可用作缓冲,可以在电力恢复前继续维持制冷。
能源效率
如果对1kW显热负荷制冷,目前市场上使用的顶部辅助制冷系统比传统地板下送风精密空调系统节省32%的能源。
其中一个原因是顶部辅助制冷系统用来传输空气的风机功率减小64%,因为在静态0压下它只需要移动空气不超过1米。
同时也由于这些制冷模块提供100%的显热负荷制冷,没有能源浪费在控制湿度方面。
另外,使用制冷剂可针对每1kW显热负荷减少0.2kW的冷凝器容量需求。
这不但减少应用场合的能耗,还可以不用增加冷凝器就可增加制冷容量。
最大灵活性
最后,顶部辅助制冷在应对数据中心增长问题和布局方面为用户提供最大灵活性。
由于系统不使用任何宝贵的架高地板空间,用户不受机架摆放方位、管道和设备放置的约束。
另外,当今的辅助制冷符合任何机架制造商的设备。
采用管道预先安装方法,可在天花板上安装必要的管道,这样最终用户可通过“即插即用”的方式增加制冷模块,且不影响其它制冷模块的运行。
3)数据中心基础设施平台能效
数据中心能效是从2007年开始被数据中心从业者纳入关注的热点范围的,这首先和政府的关注密切相关,首先,我国政府在2007空前关注能效方面的议题,简单回顾一下:
2007年1月16日,国家发改委发布了《“十一五”资源综合利用指导意见》。
2007年4月,国家发展改革委发布《能源发展“十一五”规划》。
2007年6月3日新华社受权发布《国务院关于印发节能减排综合性工作方案的通知》。
2007年10月28日,全国人大常委会表决通过修改后的《中华人民共和国节约能源法》。
与此同时,美国政府和国会直接针对数据中心的能效采取了措施:
2007年8月2日美国环保署(EnvironmentalProtectionAgency,EPA)递交了一份报告(公共条例109-431)给美国国会(USCongress),据该报告分下2006年数据中心电损耗占全美的1.5%到2011年这个数据将达到2.5%,要求采取最佳方案的实施可以使能耗降低50%。
因此,该领域的研究在各国政府的直接引导下进入了蓬勃发展的时期。
数据中心能效直接关系到数据中心的TOC(总拥有成本)—在数据中心运营的过程中,最大的成本就是用电的成本。
对于企业来讲,对能效的关注就是对于成本的关注,所以数据中心业界对于能效的研究有着直接的现实利益驱动。
数据中心能效的研究和改善目前在业界进行的如火如荼,而且数据中心基础设施的能效研究在整个业界还处于领先的位置,主要体现在目前在数据中心能效定量评价指标还未定稿之前,数据中心基础设施平台的能效标注已经出炉,且为广大数据中心从业者在数据中心建设实践中广泛采用。
数据中心基础设施定量评价指标
2007年2月GreenGrid(绿色网格,是一个非盈利的第三方机构,由业界专家构成,该机构主要负责研制修订数据中心能效定量评价指标,和EPA,ECM,DOE等机构关系密切)定义出数据中心基础设施层能效定量评价指标。
PUE:
PowerUsageEffectiveness(能量使用效率)
DCiE:
DataCenterInfrastructureEfficiency(数据中心基础设施效率)
PUE=
DCiE=
=
×
100%
PUE和DCiE二者成倒数关系。
此外,一些政府或者企业也在数据中心基础设施能效方面取得显著的成果,比如:
1)LawrenceBerkeley国家实验室(LBNL)提供的10个最佳的节能措施。
2)Emerson提出了从终端主设备到基础设施的级联节能效应的能效逻辑概念。
新一代数据中心基础设施平台面临的挑战包括但绝不会仅限于上述我们阐述的三个方面的内容,热点会不断的切换,但数据中心从业者始终应该对下面三个问题保持清晰的头脑,理性的思维和果敢的行动。
在新一代数据中心基础设施在建设时必须解决的三大问题:
1.如何提高系统的可用性?
2.如何平滑扩容以因应业务需求的迅速变化?
3.如何有效的降低系统的TCO(总拥有成本)?
五.新一代数据中心基础设施的发展趋势
1)新一代数据中心数量越来越多,基础设施规模越来越大
经济的发展往往是以周期性的形态展现出来。
自从20世纪90年代以来,在全球化和新经济的带动下,世界经济进入了第五个长波的上升期,其突出的表现是以信息化为标志的技术创新和制度创新的蓬勃发展。
信息产业是这一轮经济成长的主力军,而作为信息产业重要组成部分的数据中心行业,必然在产业的带动下迅速发展。
1.电信行业的数据中心建设一直在我国数据中心建设中的占有重要地位。
以电信运营商运营的IDC为例,从2003到2007年复合增长率没有低于30%,从08年开始,预期年复合增长率也不会低于25%。
这种增长速率远远高于同期GDP的增长率。
图112003-2007中国IDC市场规模图122008-2012中国IDC市场预测
注:
赛迪CCID所定义的“IDC”,指的是电信承建的面向社会各行业提供信息化服务的数据中心,一般提供服务器托管及租用系列服务和增值应用服务。
此外,随着我国电信行业的重组完成,电信行业3G业务的推出在近一到两年内可以预期,届时数据业务还会大量增长,电信企业内部的数据中心建设也会保持快速增长。
2.金融行业
金融行业第一个轮次的数据中心建设高潮是和金融行业的数据大集中紧密联系在一起的,虽然这个阶段已经完成。
但是随着业务的发展和一行三会(中国人民银行,银监会,证监会,保监会)对业务和数据中心的日益关注,金融也数据中心的发展又重新进入稳步发展的时期。
中国人民银行总行在2002年8月30日下发的《中国人民银行关于加强银行数据集中安全工作的指导意见》中明确规定:
“为保障银行业务的连续性,确保银行稳健运行,实施数据集中的银行必须建立相应的灾难备份中心。
”
中国银行业监督管理委员会2006年11月2日下发的《银行业金融机构信息系统风险管理指引》第十九条银行业金融机构应严格执行国家信息安全相关标准,参照有关国际准则,积极推进信息安全标准化,实行信息安全等级保护。
第二十一条银行业金融机构信息系统数据中心机房应符合国家有关计算机场地、环境、供配电等技术标准。
全国性数据中心至少应达到国家A类机房标准,省域数据中心至少应达到国家B类机房标准,省域以下数据中心至少应达到
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数据中心 设施 平台 演进