UCS优势简述.docx
- 文档编号:10550804
- 上传时间:2023-02-21
- 格式:DOCX
- 页数:16
- 大小:806.18KB
UCS优势简述.docx
《UCS优势简述.docx》由会员分享,可在线阅读,更多相关《UCS优势简述.docx(16页珍藏版)》请在冰豆网上搜索。
UCS优势简述
思科UCS系统优势简述
1.整体优势
2.技术对比细节
类别
方案1:
思科统一计算系统方案
方案2:
传统刀片机箱方案
网络
端口性能
-20或40口全万兆全线速
-无阻塞无丢包
-支持FCoE
-刀片机箱内无需交换机
-增加刀片机箱无需对网络结构做任何更改
-每个刀片机箱都需要配交换机,如果要冗余必须配2个
-10G以太网平台;
-很多型号不支持堆叠,数据中心还需要配主干交换机
-不支持FCoE,无法对应未来的技术
-刀片机箱越多,网络结构就越复杂
扩展性能
-只要配扩展模块就可以连接传统SAN存储;
-有多种扩展模块可选
-无扩展模块
-连接SAN存储必须采用SAN交换机,冗余配置必须2台
管理性
-一次连接技术,物理连接后,无论如何更改配置,都不需要更改物理连接
-传统技术,更改配置需要物理更改连接
机箱
管理
-无需管理模块,所有管理配置工作由6120XP完成,且天然冗余;
-单一入口,全局视图,可以看到所有设备,包括交换机本身,以及任意刀片的部件;
-每机箱配置2个管理模块,否则没有冗余;
-刀片机箱需要单独管理,管理员帐号和密码需要一一对应;
-需要额外的服务器和软件才有全局视图,需要额外的费用和设备
配置
-由思科的管理模板对相同性质的服务器做批量设置;
-由于在统一界面看到所有设备,跨机箱设置极其简单;
-对服务器预先设置网络和存储如VLAN和VSAN;
-单台服务器管理,无法规模配置;
-需要进交换机配置界面配置VLAN;
-需要进入SAN交换机配置VSAN
-跨机箱配置很困难
可靠性
-在保证结构简单的同时,整个系统无单点故障;
-内嵌的管理模块天然冗余配置;
-通过灵活的ServiceProfile配置,可以实现刀片服务器硬件级别的高可靠性;在单个刀片服务器出现故障时,无需任何手动配置,可以将原有服务器的ServiceProfile(包括地址,WWN,启动顺序等)应用于可正常工作的刀片并重启
-如果要保证无单点故障,需要配置大量LAN交换机和SAN交换机;
-管理服务器出现故障则整个系统不可管理;
刀片服务器
内存扩展性
-可支持单刀片384GB内存,利于虚拟化应用
-在给定的内存需求是,可选用多条低密度内存条来大大降低费用
-需要大内存要昂贵的4路服务器
-无法支持经济型的内存配置,需配置昂贵的大密度内存条
-无法支持单刀片384GB内存
网络和SAN连接
-有融合网卡CNA选件,支持万兆以太网和传统的HBA卡
-有虚拟网卡选件,可为每个虚拟机单独配置网卡,无需设置软交换机,大大提高虚拟机的效率
-配合VN-LINK技术,虚拟机迁徙可以将网络和SAN端口一起迁徙,保持一致性,跨机箱迁徙也如此
-无融合网卡选件
-需单独配置HBA卡
-无虚拟网卡选件,虚拟环境中只能用软交换机,性能和效率低下
-无VN-LINK技术,虚拟机迁徙可能需要重新配置交换机和SAN连接,跨机箱迁徙很难
3.权威评测机构发布的UCS评测记录以及高度评论(基于新一代Westmere-EP处理器)
由上述性能测试结果表明,在多项性能测试中,UCS的结果都达到了第一,充分说明了UCS的性能。
4.
技术细节详细对比
∙双活网络架构的高可用性(此功能目前为Cisco独有)。
在UCS中,用户可以非常方便的实现双活网络的高可用,并且实现不丢包的网络故障切换,普通刀片系统无法实现类似功能。
目前每台服务器(无论刀片还是机架式)一般都配有2块网卡,为实现网络高可用,用户都会做网卡的绑定,以实现当一块网卡损坏或一条网络链路故障,能自动切换到另一条链路。
但是这样的做法有一定局限性:
网卡的切换需要一定时间,一般为几秒钟,且切换过程中一定会导致应用的中断。
对于刀片系统来讲,情况就要严重得多:
因为刀片系统中交换机是插入刀片机箱的,一般刀片到交换机的连接不会故障(刀片网卡是经中板连至交换机的下行接口,一般中板不会损坏),这时,如果交换机上行链路故障,如线路物理损坏,上行交换机损坏等,传统刀片系统无法实现故障切换!
这是因为刀片上的OS认为刀片的到机箱内交换机的连接是完好的,所以无论上行链路出现什么问题,OS都不会有任何动作。
这种情况下,即使OS能正常运行,网络也不通,更严重的是,用户也无法通过正常的远程连接来让网卡做故障切换,只能通过管理模块来实现,而管理模块通常在特定的管理网段内,一般不对外。
采用网卡绑定的另一个问题是:
只能有一个IP地址,这对某些需要多IP地址的应用来所,就有很大限制。
UCS的架构和普通刀片不一样,刀片机箱内无交换设备,刀片机箱连到6120XP上,6120XP工作在end-host模式。
在配置刀片和6120XP连接时,用户可以指定某块网卡连到特定的6120XP,一旦这条链路上任何部件故障,无论是6120XP本身,机箱到6120XP的连线,还是6120XP到上行交换机的连线或者是上行交换机本身,只要有任何部件故障,刀片服务器上的网卡会自动采用另一条链路,而切换过程不丢包,保证业务的连续性。
这个独特的功能是由硬件实现,和操作系统完全无关,无需在OS层面上做网卡绑定,不但实现不中断切换,还实现双IP和双活。
以下是该功能的配置示意图,只要简单的点选failover框即可。
下图是整体系统架构图:
注:
此功能目前适用于虚拟化平台。
∙
自动化的备机切换(此功能目前为Cisco独有)。
UCS采用了serviceprofile和无状态计算概念,所有刀片服务器在没有配置前均可视为裸机,因此,刀片服务器的物理位置或者说插入那个机箱已经不再重要,这样,就为跨机箱的服务器冗余做好物理上的准备。
当用户设置了serverpool,并将某个配置文件关联到此serverpool,该配置文件会自动寻找第一个可用的服务器资源,并和它做关联。
当该服务器损坏,配置文件会继续寻找第二个可用服务器资源并自动与之关联。
由于配置文件中规定了服务器的物理参数如MAC地址,WWN地址,VLAN和VSAN的连接,bootorder等各项参数,新的服务器也即备机就会具有和老服务器一样的物理参数,由此,无需在网络和SAN设备上做任何重新设置,备机就具有老服务器的所有特性,如果采用bootfromSAN的模式,OS和用户应用就可自动重启,完全无需人工干预。
传统冷备模式需要大量的人工干预,并且需要事先准备好所有的介质,而UCS的自动备机技术则完全避免了类似的情况,实现了备机的自动切换。
∙
UCS系统中6120XP的超高性能。
UCS中的统一交换平台6120XP是目前业界符合DCE(DateCenterEthernet)标准的交换设备。
6120XP是一款全万兆接口,线性速率,低延时,不丢包的交换设备,且支持FCoE协议。
此款高性能交换设备可以帮助用户实现以前只有采用专有设备才能实现的性能,如大规模并行数据库和高性能计算。
如果用户希望实现大规模并行数据库,一般只能限制在2个节点,如果不采用专有设备如infinband,超过2节点就会导致性能下降,而不是提高。
原因在于并行数据库需要做到内存同步,虽然同步的数据量不是很大,但是,一台服务器的内存改变需要同步到所有服务器上,一旦节点数上升,则同步开销就对大大增加,而内存同步的一个关键指标就是交换设备的延时。
普通万兆交换机的端口延时在毫秒级,一些产品虽然采用万兆端口,但是延时会在20微秒左右,在大型TCP帧时甚至回到300微秒。
采用这样的设备,并行数据库的性能无法随节点数的增加而提高,只会下降。
即使用户试图采用多网卡绑定等方式,也无济于事,这是由设备的物理参数决定的。
6120XP的端口延时在3.2微秒左右。
相对于传统交换机有10倍以上的提高!
只有在采用这种交换设备的前提下,才能充分利用并行数据库的架构优势,实现性能随节点数增长而线性提高。
下图为OracleRAC的性能测试数据,可以看到,随节点数的增加,用户也接近线性增加,而响应时间甚至在下降,这是采用传统交换设备无论如何做不到的。
∙
UCS系统中M81KR虚拟网卡的独特功能和超高性能。
UCS中的M81KR虚拟网卡是Cisco的独特产品。
该虚拟网卡可以模拟出最多128个独立的设备,包括NIC和HBA,且在大多数情况下,可以达到或非常接近标称的万兆性能。
此虚拟网卡配合6120XP交换阵列,可以实现快速的网络传输,对于网络性能敏感性的应用中能大大提高系统的整体性能。
结合VMware,可以实现Cisco的VN-Link技术,可以对任意虚拟机的流量做控制,并且,在虚拟机迁徙时,所有的安全策略可以随之一起迁徙(此功能为Cisco独有)。
下图为M81KR的性能分析图,显示出在绝大多数条件下,此虚拟网卡都能快速达到或非常接近标称的性能。
∙
UCS系统中内存扩展技术(此功能目前为Cisco独有)。
CiscoUCS的扩展内存技术。
从处理器的内存通道角度来看,该项技术将四个物理上独立的DIMM映射为单一逻辑DIMM(图1)。
这一映射支持拥有48个DIMM插槽的扩展内存服务器,而采用相同处理器的传统服务器和刀片系统最多只能配备12个最高性能插槽,或18个较低性能插槽。
大型内存配置方式选项能够为某些需要特大容量内存的工作负载提供支持。
CiscoUCSB250和UCSC250服务器在使用8-GBDIMM时内存高达384GB,这一容量相当于目前的四路x86架构服务器,且相对于较为昂贵、大型的四路服务器来说,这种双路解决方案选择比较经济。
相比而言,提高每服务器内存容量是一种成效显著、经济高效且便于扩展的方法,与其他方法相比,能提供更好的投资回报(ROI)且TCO较低,使IT部门能通过更少投入完成更多任务。
采用内存扩展技术,在虚拟环境中能为每个虚拟机分配大型固定内存,而无需使用两层内存分页。
通过允许一次性将整个数据集加载到主内存,能够改进数据库管理系统、业务逻辑应用和电子设计自动化(EDA)模拟。
同样,基于内存的工作负载,例如内存数据库和cache服务器,均能通过扩大内存来提高性能。
下图为Cisco内存扩展技术的示意图。
∙总结
下表给出了CiscoUCS系统和普通刀片服务器之间的区别,标识为红字的部分为传统设备无法实现的功能或性能。
交换设备
DCE标准
速率
端口延时
FCoE
不丢包设计
End-Host模式
双活链路
是否需要OS介入故障切换
故障切换是否引起应用中断
一条链路上任意设备故障是否能实现切换
CiscoUCS6120XP
支持
线性万兆
3.2微秒,下一版本1.6微秒
支持
支持
支持
支持,服务器上2块网卡均活跃,简单配置
不需要,完全硬件功能
不会
能
传统刀片交换机
N/A
支持,但不是全部型号
20-200微秒级,根据包的大小不同
不支持
不支持
不支持
不支持,只能做网卡绑定,同一时间只有一块网卡工作
需要,故障时由OS做切换
会
不能,仅在机箱内交换机损坏时才切换
刀片管理
管理软件所在位置
全局管理
刀片服务器跨机箱调用
网络设置
SAN设置
刀片配置文件
自动备机
自动firmware升级
状态监测
设置监测阀值
开放API供第三方软件使用
模拟实现组织架构,或按应用将服务器分类
CiscoUCS
内置并冗余
支持,单一域可管理到最多320台
支持,刀片的物理位置无关,可随意调用
支持,
支持
支持,并可全局使用
支持
支持,无需OS参与,新刀片插入机箱能自动更新firmware
全部设备,包括刀片,机箱,网络
支持,用户可自定义阀值,包括服务器,网络和SAN的各项参数
支持,并提供各式模板,软件开发商简单编码即可实现诸如根据CPU温度阀值来远程开关机
支持,独特的组织架构模型可方便用户管理大型数据中心
传统刀片系统
需要另设管理服务器,冗余需要第二台服务器
以刀片机箱为单位管理
不支持。
不在一个管理域里的无法跨机箱调用
不支持,需进入单独的网络管理软件
不支持,需进入单独的SAN管理软件
部分支持,超过4个刀片机箱即无法调用
不支持
不支持,需要在OS上装agent,新刀片无法自动更新firmware
仅刀片和机箱,网络需单独软件检测
不支持
不支持,只能使用各厂商的管理软件
不支持
刀片机箱及刀片
系统全冗余规模
电源风扇冗余
管理模块
远程KVM等
扩容
刀片服务器内存
刀片服务器网卡
硬盘
SANboot
RAID卡
RAID卡缓存
CiscoUCS
2台6120XP即可实现全系统的冗余
支持
无需,所有管理功能由6120XP实现
支持,由6120XP实现并支持冗余,无需KVM模块
新刀片机箱直接联入6120XP即可
2路刀片最多支持384G内存
支持虚拟网卡,支持CNA融合网卡
2块或4块,热插拔,可在serviceprofile里统一设置RAID模式
支持,serviceprofile里简单配置
集成
最大1G
传统刀片系统
需在每个刀片机箱实现LAN和SAN的设备冗余,还需要机箱外LAN和SAN设备的冗余
支持
标配一个,冗余需再配一个
支持,冗余需要第二个KVM模块,一旦损坏就无法访问服务器
新刀片机箱需做复杂设置,并需参考以前的设置
2路刀片最多支持144G内存
传统网卡加HBA卡的方式,无虚拟网卡
2块或4块,热插拔,需在每台机器BIOS里设置RAID模式
需进入每台刀片服务器的BIOS里设置
集成
最大512M
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- UCS 优势 简述