云网络的搭建文档格式.docx
- 文档编号:17280236
- 上传时间:2022-11-30
- 格式:DOCX
- 页数:15
- 大小:966.19KB
云网络的搭建文档格式.docx
《云网络的搭建文档格式.docx》由会员分享,可在线阅读,更多相关《云网络的搭建文档格式.docx(15页珍藏版)》请在冰豆网上搜索。
交换机新技术发展:
虚拟化、扁平化
在新一代的云计算数据中心应用环境中,服务器虚拟机的动态迁移已经成为一种普遍应用需求。
但是,大量的虚拟机迁移给网络的管理带来新的挑战。
首先,你很难知道每一台虚拟机到底迁移到了哪里;
其次,必须要保证在虚拟机迁移前后,针对其设定的安全策略保持不变,即安全策略跟随虚拟机迁移。
但是,虚拟机的动态迁移,要求必须是在一个二层网络内运行,因此我们必须将数据中心建设成为一个扁平化的大二层网络。
同时,数据中心交换机,还必须具备数据中心超高速的流量交换能力,并提供强大的网络扩展性,以满足迅猛增长的数据流量需求。
为了满足上述云计算数据中心应用的需求,数据中心交换机技术也在同步向虚拟化方向迈进。
在交换机虚拟化技术的基础上,具备了交换机接入/管理虚拟化、网络架构扁平化这两大技术特点。
下面《网络世界》对这两大技术特点分别进行了分析。
交换机接入/管理虚拟化
交换机接入虚拟化:
在云计算数据中心其中一项主要工作“分布式运算”中,需要云计算数据中心交换机可以提供超越以往的网络处理速率,以极高的数据中心中业务请求响应能力,完成协同处理、分布式运算的工作。
并且由于云计算虚拟化的需求,网络中的设备环境需要自由调整。
在调整过程中,需要网络链路在极短的时间内重新聚合。
最早思科推出的VSS(VirtualSwitchingSystem)系统可以整合两台物理的Ciscocatalyst6500系列交换机成为一台单一逻辑上的虚拟交换机。
两台CiscoCatalyst6509交换机配置虚拟交换系统后,就可以当作一台单独的CiscoCatalyst6509交换机进行管理。
后来瞻博网络又推出了虚拟机框(VirualChassis)技术,可以将两个或多个EX4200系列交换机互连在一起使用。
但是,在某一个层面进行交换机的虚拟化(核心层,或汇集层,或接入层),层和层之间还是传统的技术,二层以太网络捆绑,运行SpanningTree协议,或是三层以太网路捆绑配合各种FHRP和IGP协议是不能满足目前云计算网络应用需求的。
在以往的网络中,由于生成树协议(SpanningTree)在三层路由上进行路由收敛时,最少也为十到三十秒左右,在复杂环境下甚至可以达到几十分种的的路由收敛时间,足以让追求灵活变运的虚拟化云计算网络完全崩溃!
这种情况,在交换机接入/管理虚拟化技术产生后才有所改观。
交换机接入虚拟化技术实际上,就是由交换机堆叠与以太网链路聚合这两项旧有技术相结合而产生的。
当然,其技术实现手段并非是简单将两项技术相加,但其技术核心并没有离开通过新的以太网链路聚合技术将交换机以堆叠的方式进行连接的技术范畴。
因此,我们通过交换机堆叠+以太网链路聚合=交换机接入虚拟化这个公式,可以很轻易的理解交换机接入虚拟化的技术构成。
在当前,交换机虚拟化接入可以把多台物理设备虚拟化成为一台统一的逻辑设备。
在管理和使用上形成一个整体,可以实现网络资源的虚拟化,进一步简化网络配置。
提高链路和设备的使用率,增强网络可靠性,同时大大降低前期投入和后期维护成本。
交换机接入虚拟化具有随着物理设备数量的增加,设备间的交互将成几何级数增加特点。
但其中的协调与控制难度也同步提高,因此在核心交换机上实现交换机接入虚拟化技术(核心交换机集群)需要面对更多的技术挑战,这也是目前从多交换机厂商技术研发的重点。
那么,交换机接入虚拟化可以为我们带来什么样的技术提升呢?
根据《网络世界》评测实验室参与的交换机接入虚拟化功能测试显示:
交换机接入虚拟化的链路收敛时间,最短仅为0.88毫秒,在理想状态下可以达到Ping包不丢的效果。
可以充分满足了目前云计算数据中心中网络结构变动灵活,网络响应及时的应用需求。
并且由于所以网络交换设备均成为一个整体,为管理和使用均提供了非常多的便利。
交换机管理虚拟化:
在数据中心应用环境中,服务器虚拟机的动态迁移已经成为一种普遍应用需求。
在当前的云计算数据中心解决方案中,可以利用虚拟化提供商(VMware,XEN等)公开的API,通过虚拟机管理服务器(vCenter)来实时感知和收集虚拟机服务器(VM)的信息,让接入层的交换机能够感知与其连接的虚拟机。
然后将与VM相关的安全策略(ACL)在VM通信时进行关联,实现对VM的网络保护。
同时,通过交换机与虚拟化交换机管理软件的协作,实现对全网虚拟机安全策略的统一实施和管理,从而实现跨设备安全策略迁移。
网络管理员将规则自动导入虚拟交换机管理软件数据库,利用虚拟交换机管理软件获取服务器虚拟机VM的实时信息,当该虚拟机活动时,邻接交换机会自动从数据库获取相关策略配置信息,并使该ACL的策略在交换机上自动生效。
这是目前各大交换机厂商主推的数据中心交换机虚拟化管理解决方案,《网络世界》也将在随后的技术调研中,更细致的为大家进行技术性分析。
网络架构的发展:
扁平化、一体化、集群
通过交换机虚拟化技术,可以有效解决云计算数据中心中业务请求响应能力问题。
在数据中心虚拟机发生变动时,也能迅速将网络重新整合。
由此也引发了数据中心网络架构的新变革。
扁平化——汇聚层的融合:
在传统数据中心网络架构中有三层:
核心层,汇聚层和接入层。
目前,通过交换机虚拟化技术,交换机上的控制策略特性(ACL、QOS、端口安全等)实现了整网端到端的统一部署。
从而将数据中心网络中的多个层面统一在一起。
由此,引发了网络基础架构的革命性变化。
计算资源、存储资源、内存资源等等被完全虚拟化,资源可以灵活支配。
这也是IETF组织积极研究和推广TRILL的原因,既网络基础架构的整体虚拟化。
目前,伴随着万兆及以上的以太网交换机处理能力的提升,以及交换机虚拟化技术的引入,允许用户把服务器机架和柜顶式交换机直接连接到核心网络,不再需要汇聚层。
从而使数据中心网络向仅有核心层与边缘层(接入层)的二层架构发展。
由此云计算数据中心开始向网络基础架构的整体虚拟化、扁平化的方向发展。
然而,网络扁平化不是简单的取消了汇聚层设备,而是通过虚拟化技术来替代汇聚层交换设备的管理控制功能,将汇聚功能融入了核心与接入的网络设备之中。
而这种融合,不但需要对新核心交换设备在端口密度、交换容量以及转发性能上提出了更高的要求,而且还需要具有虚拟化接入功能的边缘层(接入层)交换机产品来对其进行支持。
在这方面,各网络厂商的技术解决方案各有不同,有些厂商是通过强化核心层设备的处理能力,简化接入层产品功能来实现这一目标;
有些厂商是通过同步增强核心设备与边缘层(接入层)虚拟化功能来完成这项工作;
在另一些厂商推出的革新性架构中,核心层的网络管理控制功能被极大削减,流量处理工作由接入层设备全力接手。
下面《网络世界》就通过不同厂商的代表性架构设计为大家更进一步进行分析。
简化的虚拟化接入模块:
思科Nexus2000
思科Nexus2000系列阵列虚拟化模块,是思科FabricPath网络架构的具体产品应用体现。
通过思科Nexus2000系列阵列虚拟化模块,可以扩展并整合主交换设备(Nexus7000)的接入能力,形成全网状的延伸,当连接到主交换设备后,无需在Nexus2000上再进行任何接触配置,既可实现自动配置和软件升级。
这种集成不需要运行生成树协议,就可令主交换设备连接到多个环节,从而为客户提供无环路的、积极主动的、交换互联。
目前,一台Nexus7000目前可以支持32个虚拟化模块,一个管理节点可以同时提供1920个线速千兆接口。
Nexus7000虚拟槽位集群
核心与接入并重——阿朗POD与博科VCS
阿尔卡特朗讯的POD网络连接方式是阿朗AFN(ApplicationFluentNetwork)网络架构的一个主体组成部分。
它是利用OmniSwitch6900(OS6900)堆叠局域网交换机构成的。
OS6900是结构紧凑,高密度10GbE的40GbE平台。
平台采用模块化的方法,确保了高性能和极低延迟的服务质量,以及系统和网络的弹性部署。
阿尔卡特朗讯POD网络架构
通过OS6900可提供多达64个万兆高密度端口,同时还允许多达6的40G上行链路端口。
运用如此多的万兆端口和上行40G链路端口,阿朗创造了一种全新的高密度网络连接模式——POD。
阿朗推荐的MESH-POD网络架构,在核心运用两台OS10K可以把12个POD超级交换群组连接起来,每个POD超级群组由5个POD通过20条40G网状互联组成,每个POD由6个OS6900通过30条40G进行全网状高性能连接,通过MESH-POD架构,阿朗可以构建连接从几百到超过14000万兆服务器端口的网络集群。
同时,阿朗的管理工具套件,可以实现与标准管理程序、虚拟机移动性和集成管理(VMM)。
确保用户体验所需的服务质量,应用交付能见度。
确保了用户所需要的服务质量。
阿尔卡特朗讯的AFN网络架构可以达到一个很高的端口接入密度,按照阿朗的MESH-POD架构模型,网络中每个POD中有240个10G网络接口用于连接服务器,POD之间带宽为1200G(5*40G*6),每个POD用于超级POD群组内的互联带宽为160G(4*40G),用于上联核心OS10K的带宽为80G(40G*2);
参考云计算数据中心东西向数据流量模型,70%流量存在于POD内部,20%存在与超级POD群组内,10%通过核心OS10K跨越超级POD群组,在阿朗MESH-POD架构下服务器至服务器的端到端平均数据转发收敛比为1.8:
1。
同样采取同步增强核心设备与边缘层(接入层)虚拟化功能的还有博科的VCS网络架构:
博科VCS网络架构拓扑
与阿尔卡特朗讯的AFN网络架构相类似,博科的VCS网络架构由博科VDX6710、VDX6720以及VDX6730三种不同型号的数据中心交换机以Fabric(网状结构)为主体构成。
核心运用的是MLX系列核心交换机。
博科VCS的突出特点是可以把以太网与FCoE有效的融合,FC的数据可以轻松在全网进行传输。
然而同样存在全网数据转发时具有瓶颈的问题,这主要是由于核心交换机的处理性能限制所引发的。
博科的VCS网络架构很具有普遍性,也是众多网络厂商在虚拟化网络解决方案中采用最多的一种形式。
,例如锐捷的RG-S12000系列核心交换产品与RG-S6200-48XS网络接入产品等,在此就暂不一一列举了。
在本次调研中发现,目前的交换机厂商中基本都推出了自己的扁平化网络解决方案,但是在选用标准上还有区别,有的是基于TRILL有的是基于SPB,还有一些厂商是基于自己研发的私有标准。
有关交换机厂商网络架构及解决方案更详细的内容,我们同样将在随后的技术调研中,更细致的为大家进行技术性分析。
为了突破核心交换处理能力的束缚,瞻博网络做出了打破常规的全新网络架构设计,简化了核心层的管理控制能力,增强接入层的处理性能。
在瞻博网络率先推出的QFabric架构中,其核心的QFX3008互连设备(最高可提供128个40G网络接口可连接128台QFX3500节点)仅需完成个节点之间的数据转发工作,所有网络处理功能由节点设备QFX3500来实现,并通过QFX3100主管设备和瞻博网络EX4200以太网交换机管理网络设备。
在网络架构上,不但取消汇聚层,即便是核心层也由QFabric架构直接取代,从而使网络架构向“一体化”的方向发展。
提供了一个简化的网络环境。
在瞻博网络的“一体化”网络架构中,每个Fabric都是一个可以协调行动行为的单独交换机设备,组成了一个高度可扩展的、分布式的网络环境,为下一代数据中心提供一个高性能、低延迟,以及统一的互连解决方案。
瞻博网络QFabric网络架构拓扑
这种交换机“一体化”网络架构也受到了其他网络厂商的追捧。
2011年春季,思科扩展了自己的FabricPath战略,增强了其Nexus7000核心数据中心交换机的性能,扩展了该产品的端对端的、从服务器接口卡到网络核心的以及多跳点以太网光纤通道(FCoE)的性能。
博科(Brocade)发布了它的CloudPlex架构。
这个架构以博科的VDX结构交换机和光纤通道SAN(存储局域网)交换机为基础。
惠普推出了其FlexNetwork架构,试图把数据中心、园区和分支网络统一到同一个交换结构中。
Enterasys、Extreme、AVAYA和阿尔卡特-朗讯等厂商增强了自己的结构观点,推出了新的交换机和软件或者同时推出这两种产品。
然而,交换机网络“一体化”架构,毕竟是一个全新甚至可以说是十分超前的网络架构,与当前数据中心网络设备的兼容性,以及在目前数据中心中的实际应用能力还有待进一步验证。
用户在进行数据中心网络升级改造之前,还需要慎重的进行可行性分析工作后,再做出决策。
核心交换机集群
伴随着网络扁平化、一体化的技术发展,与交换机接入端口带宽的增长,对交换机的核心处理能力提出了更高的要求。
然而核心交换机的处理能力毕竟有限,不可能无限制的扩展下去。
当数据中心接入需求高过单台核心交换机处理能力时,需要如何处理?
这个问题需要通过核心交换机集群技术来进行解决。
交换机虚拟化技术与40/100G接入端口技术的结合,使得交换机集群技术产生了飞跃式的发展,突破了以往交换机集群采用的级联与堆叠技术的束缚。
目前在厂商提供的网络架构解决方案中,基本上都已经在采网核心交换机集群技术。
把核心交换机集群做为一个技术项,单列出来,是因为我们发现,目前由于厂商的技术实力上的差距,交换机集群的规模也有不同。
根据思科最新提供的数据显示,其新近研发出N7K-FP集群交换系统可以将64台性能强大的Nexus7000核心交换机进行集群,可以提供数倍于瞻博网络QFabric系统的网络交换容量,交换机处理速率也相应的有了极大的提升。
在其他厂商中,具备一定技术领先性的企业可以支持4台核心交换机集群,一般厂商基本可以实现两台核心交换机集群技术,使数据中网络的接入、处理能力达到成倍提升的效果。
但有些厂商并未进行宣传,以至于无法找到确切的核心交换机集群能力数据。
根据目前资料显示,支持核心交换机集群技术的厂商还有阿尔卡特朗讯、AVAYA与H3C等。
预计在2012年,将有更多的厂商加入到大规模核心交换机集群的队伍中来,现有的核心交换机集群技术也将会得到更好的发展。
然而对于用户来讲,核心交换机集群技术目前还面临着兼容性方面的问题。
目前绝大部分网络用户所面临的是数据中心网络升级问题,全新搭建的数据中心在实际应用中所占比例很少。
然而,全新的网络技术和旧有的网络设备是否兼容?
旧有网络设备能否融入到全新的网络架构中去?
此类问题如果不能很好解决,将会对数据中心发展形成很大的制约。
凸现在新技术下的标准问题
当前各大厂商都在力推他们自己的虚拟化网络解决方案,国际标准组织IEEE和IETF也有相关的交换机虚拟化标准出台。
就TRILL标准而言,目前已经有三个IETFRFC——RFC6325、RFC6326和RFC6327被公布。
后续的相关草案正在评估制定当中,从而对标准不断进行完善。
现在站在TRILL一端的厂商不少,思科的数据中心架构(DCBA),博科的BrocadeOne架构,DELLForce10的开放式云网络架构OpenAutomationFramework2.0,锐捷网络的“面向虚拟化、扁平化设计的大二层云计算数据中心网络”,神州数码网络的CVSF(convergedvirtualswitchframework)以及H3C都与TRILL标准密切相关。
其中,FabricPath被思科宣称为TRILL的“扩展集”。
SPB标准同样也在完善过程中,今年9月,IEEE802.1Qbc、802.1Qbp项目编辑BenMack-Crane曾向《网络世界》透露SPB标准目前已经通过IEEE工作组投票,再经过两轮赞助商投票,预计明年三月份左右就可以颁布。
在SPB阵营中,AVAYA和Alcatel-Lucent是中坚力量。
Avaya提出了虚拟企业网络架构(AvayaVENA),而Alcatel-Lucent则采用AFN(ApplicationFluentNetwork,应用流畅网络)实现扁平化。
有些厂商在TRILL和SPB两方都下了赌注,比如:
HP和华为。
在TRILL和SPB之外,瞻博网络走了一条新路。
今年2月份推出的JuniperQuantumFabric(QFabric)架构在推出当日就引起了市场的强烈反应。
然而,目前同一目的多套标准本身就存在兼容性问题。
并且,无论在网络扁平化技术还是交换机集群技术上,各厂商还是在采用自己的私有标准。
不同厂商之间的网络产品难以实现互联互通。
现在用户在进行虚拟化网络解决方案选择时,往往会陷入在功能、性能与价格之间左右为难的境地。
根据目前收集到的厂商信息可以了解,华为正在致力于通用的虚拟化网络产品标准订制工作,并且在积极参与到IEEE和IETF的相关标准订制工作中去。
相关的新标准和新产品有望在两年之内推出。
期望届时,云计算数据中心可以真正地进入蓬勃发展阶段。
接入端口的变化10G、40G/100G和端口虚拟化
交换机的接入端口就好想计算机的系统总线一样,更高的接入带宽和更高的交换处理速率可以为我们的带来更好的应用体验。
下面就从10G、40G/100G以及为虚拟化技术服务的端口虚拟化这几种端口技术在云计算中的应用为大家做一个分析:
1、10G接入带宽的新扩展
千兆以太网标准已经推出有很多年了,而云计算得以顺利实施,实际上还是在10G以太网传输标准出现后不久才开始的。
由于有更大的可用带宽,一对10Gb以太网连接端口就能够满足一个典型虚拟服务器主机的所有输入和输出(I/O)需求。
同时10G以太网还具备更快的响应速度,它的时延性能大大优于普通千兆网的的时延性能。
因此我们可以建立更大、更快和更具弹性的网络,它不仅仅可以输送传统的数据流,还可以通过FCoE传输存储数据。
由此可知,10G网络端口的接入密度,将成为交换机选型的一个重要指标。
随着目前交换机技术的发展,以及10G接口光纤模块(SFP+)体积的减小,很多有实力的交换机厂商均已推出了48端口的10G网络接口板。
网络接口密度已经和最高的千兆网络接口板基本持平。
然而在有些网络厂商所提供的网络接口板中,虽然10G网络接口密度很高,但受到接口板转发性能及业务板转发效率的制约,无法真证达到线速。
因此,在目前某些厂商的交换产品中,还不能把10G网络接入带宽的最大性能发挥出来。
2、40/100G网络扁平化的基础
40/100G(802.3ba)以太网标准的出现,进一步增强了云计算数据中心的网络处理性能。
可以实现多台数据中心交换机之间的高性能数据互联互通。
在大型的园区或数据中心中,需要多台核心的数据中心交换机相互连接进行“横向”数据传输及备份工作。
此时仅凭10G网络接口进行数据传输就会力不从心了,必需要求交换机有更高的端口处理性能。
而40/100G以太网端口的出现正好可以有效的解决此类问题。
使交换机之间的连接更加高效、更加便捷,同时使“网络扁平化”技术的实现成为可能。
目前正式发布40/100G网络接口的网络厂商还不是很多,即便是思科这样的网络厂商,也只能在1月30日,才会正式发布其Nexus系列上的40/100G网络接口板。
3、端口虚拟化云计算的新技术
在服务器虚拟化技术中,虚拟服务器需要通过软件模拟的交换机进行数据通讯。
这样即增加了服务器的运算负担,传输效率也不高。
因此交换机厂商开发出了一种可以缓解虚拟机负担的端口虚拟化技术。
通过此类技术可以使交换机的物理接口直接与服务器上的虚拟接口连接,通过交换机来直接处理服务器虚拟网络接口的数据。
在提升虚拟机网络传输速率的同时,可以有效减低虚拟机网络数据转发的负担。
核心竞赛数据中心交换机技术指标大PK
为了更便于用户对数据中心交换机产品进行选择,《网络世界》评测实验室根据目前数据中心交换机的应用需求及以往的评测经验,列举了一部分数据中心交换机的重要评测项目,并收集了目前主流数据中心交换机厂商的技术资料,进行了一次技术对比。
希望通过这样的对比可以使用户对不同厂商的数据中心交换机产品有一个较清晰的了解。
在交换机产品型号中,我们选择了各厂商数据中心交换机中的最高端产品进行技术对比。
在技术指标对比项目上,我们选择了交换容量、包转发率、业务槽位、单板接口数这四个项目进行对比。
主要是考查交换机机箱以及控制(业务)板的处理性能及可扩展性。
数值高者的处理及扩展能力自然就越强。
交换容量(最高性能/单控制卡)、包转发率
在核心交换机中,己基本上没有了以前交换机所谓背板的概念,接口板卡数据大部分是通过控制卡之类的相关转发控制板卡进行机框内的转发。
因此在本次对比中,取消了背板带宽的对比,而是重点比对厂商产品交换容量和数据包的转发速率。
我们在整理厂商提供的交换容量与包转发率数据时,产生了很大的疑虑:
包转发率的结果与交换容量的成绩不能匹配!
其中最为明显的是AVAYA所提供的数据:
AVAYAVSP9000的最大交换容量可以达到27Tbps,位列核心交换机交换容量的第一位。
而其包转发率4200Mpps还比不上一些名列包转发率第5、6位的厂商,虚高的核心交换机交换容量指标是如何得来的?
在应用中会有什么实际意义?
这些情况,我们目前还无从进行更进一步的了解。
同时,由于各厂商对自身产品指标的评测方法不统一,也会导致对比数据差异性的出现。
在目前媒体评测中,对核心交换机的一或几对端口的网络性能进行测试可以轻松实现,但对核心交换机的整体性能测试,基本就无能为力了。
这也成为对厂商相关技术指标核实工作的一大障碍。
很多负责任的厂商在进行此类大规模产品性能评测时,会请媒体评测人员到场共同参与测试,或将产品送到第三方评测机构进行测试。
并以第三方报告所得出成绩对外进行市场发布。
我们也由衷的希望,厂商可以提供出更多的第三方测试报告以供用户参考。
表1:
核心交换机交换容量性能指标对比
表2:
核心交换机包转发率性能指标对比
最小时延
需要说明的是,在《
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 网络 搭建