某云计算项目技术方案Word格式.docx
- 文档编号:19457345
- 上传时间:2023-01-06
- 格式:DOCX
- 页数:19
- 大小:493.92KB
某云计算项目技术方案Word格式.docx
《某云计算项目技术方案Word格式.docx》由会员分享,可在线阅读,更多相关《某云计算项目技术方案Word格式.docx(19页珍藏版)》请在冰豆网上搜索。
XXX云计算平台作为承载交通业务的重要IT基础设施,承担着稳定运行的重任,云计算平台的建设应从云资源池(计算、存储、网络)、虚拟化平台、云平台等多个层面充分考虑高可用性,保证业务的连续性。
3.可扩展性
XXX云计算平台可通过简单的硬件扩容达到系统动态扩容的目的,可动态增加云计算资源,满足应用和用户不断增长的需要。
4.易管理
XXX云平台要实现私有云IaaS服务,云计算资源(计算、存储、网络)要实现动态调度和分配,从云计算资源的申请、审批到分配部署实现自动化和统一管理。
5.开放性
XXX云计算平台建设采用开放性原则,保证符合云计算标准的不同厂商云设备能很好兼容,所以设备的选型应充分考虑对已有的云计算相关标准的支持(如EVB/802.1Qbg等)。
2.3XXX云计算平台建设方案
2.3.1XXX云计算平台总体架构
根据XXX云计算平台的建设目标和建设原则,云计算总体架构如上图所示,整个云计算平台由以下4部分组成:
1、网络资源池
2、计算资源池
3、存储资源池
4、云管理中心
2.3.2网络资源池建设方案
如上图所示,XXX原有数据中心网络采用“扁平化、大二层”等云网络技术进行改造,核心层交换机直接下联接入层交换机,省去了中间汇聚层交换机,扁平化大二层云网络架构更容易实现VLAN的大二层互通,满足虚拟机的部署和迁移,相比传统三层架构,扁平化二层架构可以大大简化网络的运维与管理。
核心层交换机新增1台H3CS10508数据中心级交换机和原有的中兴RS8905组成双核心,避免核心网的单点故障,同时提高整网可靠性。
如上图所示,核心层交换机旁挂防火墙(FW),根据不同业务的安全需求,划分成不同的安全域,所有外部流量及跨域的横向互访流量均需通过防火墙进行安全控制,安全域划分如下:
1、外网业务域:
此域主要部署针对外网业务的VM,只允许外网用户访问
2、网业务域:
此域主要部署针对网业务的VM,只允许网用户访问
3、外部域:
与XXX广域网互联,非信任区域
4、管理域:
此域主要部署云平台管理服务器,只允许云管理人员访问
存储资源池
VLAN
10G堆叠电缆
4*10GE到核心
IRF2
Server1
千兆网卡(4*GE)
iLO
万兆网卡
(2*10GE)
管理网交换机
S5120SI
2*GE到核心
Server2
Storage
2*10GE
管理接口
计算资源池
图例:
业务流
存储流
管理流
如上图所示,核心层交换机与接入层交换机之间采用二层协议进行互联,实现云计算大二层组网,接入层交换机负责连接计算资源池和存储资源池,满足资源池虚拟机可在任意位置的物理服务器上迁移。
资源池接入:
采用两台5820V2云接入交换建,划分成不同的VLAN接入区(业务VLAN、存储VLAN、管理VLAN)负责计算资源池服务器、管理服务器、IP存储的网络接入,服务器配置4个千兆接口和2个万兆接口,其中两个千兆接口捆绑做业务流接口,双网卡采用捆绑双活模式;
另外两个千兆接口捆绑做虚拟机管理流接口,双网卡采用捆绑双活模式,另外2个万兆网口连接万兆IP存储。
两台5820V2部署IRF2虚拟化技术,通过跨设备链路捆绑消除二层环路、简化管理,同时大大缩短设备及链路出现故障快速切换,避免网络震荡。
IRF2互联链路采用2*10GE捆绑,保证高可靠及横向互访高带宽。
设备型号
单台设备端口配置
备注
H3C5820V2-54QS,2台
固定48个GE端口,4个SFP+端口,2个QSFP+端口
云计算接入
2.3.3计算资源池建设方案
如上图所示,XXX计算资源池由物理主机和虚拟机系统构成:
虚拟机系统是由在X86服务器上部署服务器虚拟化软件架设形成虚拟主机系统,服务器虚拟化软件技术参数如下表:
指标项
技术参数要求
服务器虚拟化软件
支持裸金属架构,支持高性能物理器(最多支持256CPU核),支持大容量虚拟机VM(每虚拟机最大支持32CPU核、1TB虚拟存),支持硬件辅助虚拟化,支持高级存管理,支持虚拟机高级资源管理,vSwitch支持VEPA虚拟机云网络标准协议(支持QoS、VLAN、IPv6、虚拟网卡等功能)。
物理主机主要是X86服务器,IBM小型机的虚拟化不考虑,物理主机可以利旧原有服务器或新购高性能服务器:
利旧原有服务器(方案1):
XXX原有的22台物理服务器可以利旧(共30个CPU),但原有服务器intelcpu型号(XEONX5500系列)不支持IntelEPT存虚拟化技术,所以做虚拟化服务器时性能较差;
同时原有服务器存较少(2~4G),至少扩展到8G才能支持虚拟化软件的运行,原有服务器型号较多,存扩容实施复杂。
同时本方案需要长时间中断业务,物理服务器需长时间停机,才能把服务器上的应用迁移到计算资源池上,具体实施的风险较大。
新购服务器(方案2):
新增4台高性能物理服务器(每台配置2个8核CPU和64G存),每台服务器可以支持10多个虚拟机(每虚拟机2个CPU核和4G存,该虚拟机和原有的多数物理服务器性能一样),由4台高性能服务器组成的计算资源池最多支持30个虚拟机,可完全把现有22台X86物理服务器上应用迁移到计算资源池上。
同时本方案不需要长时间中断业务,原有物理服务器的业务可采用专业工具,在很短的时间、逐一迁移到新建的计算资源池上,原有物理服务器上应用不删除,迁移发现问题时可把应用回退到原有物理服务器上,具体实施时风险较小。
4台高性能X86服务器技术参数如下表:
类型
PC服务器
机箱形态
2U机架式
处理器
IntelC600芯片组,配置2颗IntelXeonE52650QPICPU(8核2.0GHz,20MB共享三级缓存,95W)
存
最大支持存≥700GB,大于24个DIMM存插槽,配置64GBDDR3-1600存
硬盘
最大部硬盘容量≥8TB,最大支持8个SFF硬盘插槽。
配置2个300GB6GSAS10KrpmSFF(2.5-inch)硬盘
阵列控制器
最大支持2GB非易失性阵列缓存,配置1GB非易失性阵列缓存,支持DynamicSmart技术:
备盘预先激活、ADM、逻辑盘高级迁移、阵列修复、在线分割;
支持RAID0,1,5
网卡
支持主板板载千兆和万兆网卡灵活选配,配置4端口千兆网络适配器和2端口万兆网络适配器
I/O插槽
支持≥6个PCIe插槽,可以支持扩展到≥6个网卡
硬件集成管理
硬件集成1个独立管理GE端口,实现虚拟介质、远程控制台、虚拟KVM功能、集成所有系统软件及驱动在主板上,无需启动光盘即可直接部署安装服务器
电源
支持1+1通用接口热插拔高效电源模块,配置2个电源模块;
服务
配置原厂3年维保,7*24*4服务
机柜导轨
配置球轴承导轨
利旧服务器和新购服务器方案比较:
服务器价格
虚拟化软件价格
实施风险
利旧服务器(方案1)
4万(存等硬件扩容)
60万(30个CPULicense)
高
新增服务器(方案2)
28万(4台高性能服务器)
16万(8个CPULicense)
低
如上表所示,新增服务器服务器(方案2)实施风险低,同时总体价格(44万:
服务器+虚拟化软件)也比利旧服务器方案1低(64万:
服务器+虚拟化软件),所以建议计算资源池采用新增高性能物理服务器方案进行构建!
2.3.4存储资源池建设方案
如上图所示,采用VM影像文件存储和数据库数据存储2套存储构建XXX存储资源池:
数据库数据存储:
主要用来进行数据库数据的存放,数据库业务是实时在线业务,对存储的性能要求较高,本项目可利旧原有的IBMFC存储。
VM影像文件存储:
主要用来保存云计算平台中的分配的虚拟机的映像数据文件,这些映像是在云计算平台是透明且可见的,以确保云计算平台中每个运行的业务都具FailOver(失败切换)功能和按需在线迁移功能。
VM影像文件存储对性能要求一般,建议新增1套性价比优的IP存储系统,统一存放新增的虚拟机影像文件,原有IBM存储系统只存放数据库数据无需扩容,避免原有IBM存储扩容和连接VM时业务的中断。
2套存储系统可分别满足VM影像文件存储(性能要求一般)和数据库数据存储(高性能)的不同性能需求,该存储资源池建设方案性价比最优,也避免了原有IBM存储扩容时的风险,同时2套存储系统可以互为备份大大提高了存储资源池的可靠性:
影像文件IP存储技术参数如下表:
存储架构
采用IPSAN存储架构
存储接口
配置2个10GEiSCSI
可用性特性
支持热插拔冗余电源;
冗余风扇;
热插拔冗余硬盘、集成存储控制器(带电池支持的DDR2缓存)、RAID5、6和10、超冗余集群存储、网络RAID(每卷)0、5、6、10、10+1和10+2(最多可提供四份数据拷贝,允许在发生电源、网络、磁盘、控制器或节点故障的情况下,保持数据可用性;
集群存储
支持超冗余集群化存储,同一集群最多支持32个控制器,实现跨硬件设备的网络Raid阵列,共享存储资源
集群容量
≥230TB
实配容量
配置12块600GBSAS硬盘,12GB高速存
可管理特性
集中化管理控制台,集成远程管理;
精简配置
支持SAN精简配置;
快照
支持SAN应用集成快照;
智能克隆
支持SANSmartClone;
存储复制
支持远程复制、具有带宽限制的异步复制、带同步复制的多站点/灾难恢复解决方案包;
操作系统
支持UNIX/Linux和Windows操作系统;
硬件可靠性
配置冗余电源,冗余风扇。
维保服务
提供3年维保服务
软件配置
配置SAN集群软件许可、网络RAID许可、精简配置许可、snapshot快照许可、异步远程复制许可、同步多站点备份/容灾许可。
2.3.5云管理中心
利旧现有的2台物理服务器,分别部署H3CiMC网管系统(含VCM组件)和H3CloudCAS云管理软件(含CVM和CIC组件),H3CCASCVM实现对云计算资源池的统一管理和H3CCASCIC实现私有云业务服务,具体技术参数如下表:
云计算资源池管理
由BS架构WEB管理平台来统一管理。
支持虚拟机生命周期管理(必须提供创建/修改/删除/启动/关闭/暂停/恢复/重启/下电/查询虚拟机功能),支持灵活创建虚拟机,支持虚拟资源调整,支持虚拟机快照管理,可本机克隆虚拟机、主机间克隆虚拟机,支持虚拟机迁移,支持虚拟机克隆或转化为虚拟机模板,支持网络策略模板(包括VLAN、QoS),支持虚拟机性能监管,支持直接通过控制台登录到虚拟机系统,支持虚拟机远程桌面,支持虚拟机授权,支持虚拟机操作日志,提供P2V迁移工具,支持虚拟机模板管理,支持虚拟机灾备管理、支持虚拟机集群管理(支持高可靠性HA,动态资源调整DRS(为了在DRS过程中保障关键业务的运行,可以指定运行于一台物理服务器上的多台虚拟机中的一台虚拟机固定运行于该物理服务器上,不会因任何原因自动迁移该虚拟机。
而主机上的其他虚拟机可以自动迁移来降低虚拟机对该物理服务器的资源占用)等功能),提供系统管理功能
私有云管理平台
提供私有云多租户组织管理,提供虚拟机资源池管理,提供云业务工作流管理(系统管理员对云资源的整合与分配、组织管理员对组织资源的管理、最终用户对虚拟资源的使用等云业务工作流程),云计算用户自助服务管理(支持云计算门户首页布局、显示云用户专属的虚拟机、显示云用户的操作日志、向云计算组织管理员提交虚拟机申请电子流、查看云用户申请的电子流状态,管理员还可审批电子流
配置30个VM授权许可,提供7X24维保服务
2.3.6应用迁移规划
针对XXXIT现状,本次方案建议分以下三个步骤将现有业务应用逐步迁移至云计算平台中,如下图所示:
第一步:
搭建云计算基础资源池及管理平台:
保证云计算IaaS平台的最小工作环境,构建网络、计算、存储资源池。
第二步:
业务的P2V迁移:
主要针对交通厅现有应用系统进行逐步迁移,保证迁移过程中不影响其它业务应用,如下表所示把各种业务迁移到不同的安全域。
应用系统名称
外网
建设时间
使用频度
迁移到
厅
外
2006年10月
中
外网域
厅机关病毒
2007年1月
管理域
厅办档案管理
网域
信用评价
2007年5月
高
信用评价短信服务器
CA正式服务器
二级局及应用系统
职称申报
2007年6月
科教子站及发布系统
2007年10月
XX交通电子报
2008年6月
XX交通财会通讯电子版
GIS综合查询系统
2008年8月
灾害系统
2009年5月
桥管系统
2009年10月
webSCAN、IPS、IDS管理应用
科技项目的ESB
SVN版本管理服务器端
备用厅
2010年1月
教育培训管理系统
2010年6月
人事专家库
人事教育管理平台
文档管理器
单点登录系统
2010年8月
科技项目管理系统
执法车辆管理系统
2010年12月
法规处执法系统
不迁移
OA行政许可
2011年7月
OA公文交换
OA电子印章
OA移动办公
OA行政办公
OA档案管理
临时电子监察系统
第三步:
资源池的整合与扩展:
将已迁移到云平台中的业务应用之前所采用的物理服务器、存储资源逐步整合到云计算资源池中,实现对现有设备的利旧,最大化的保证投资,同时进一步扩大云计算资源池。
2.4XXX云计算平台分期建设方案
以“统一规化、分步建设”思想为指导,分三年建成XXX私有云数据中心和灾备数据中心:
2.4.12013年建设方案:
云计算平台建设阶段
新建云计算共享资源池(含网络、计算、存储资源池的建设)和私有云管理平台,实现云计算IaaS平台服务,把省数据中心现有X86物理服务器上的业务逐步迁移到云计算平台上。
(具体方案见2.3节)
2013年建设方案预算如下表(合计43万):
序号
名称
产品配置
单价(万)
数量
总价(万)
1
服务器
配置2路8核CPU,64G存,4个GE口
5
4
20
2
虚拟化软件
配置H3CCASCVM服务器虚拟化(8个CPULicense)
14
6
IP存储
配置12TBIP存储(含12块1TBSAS盘)
7
实施服务
配置私有云和云存储实施服务费
2.4.22014年建设方案:
私有云数据中心建设阶段
如上图所示,按云数据中心架构对现有的XXX数据中心进行彻底的改造,建设XX交通厅私有云数据中心,在XXX开展私有云业务,把各分支单位的业务系统也迁移到私有云数据中心中,实现数据的大集中,IT建设和管理的大集中,最终大大降低IT建设和运维的总成本(TCO)。
2014年建设方案预算如下表(合计120万):
核心交换机
H3CS10508(含FW、LB模块)
50
100
新增2台核心交换机替换旧的网络安全设备
私有云平台
配置H3CCASCIC私有云管理平台
建设XXX私有云
2.4.32015年建设方案:
云灾备数据中心建设阶段
如上图所示,在2014年建成XXX云计算数据中心后,省交通厅所有的业务系统都会部署到云计算中心,省交通厅的所有数据也会实现大集中,当灾难或故障发生时,省交通厅云计算中心的瘫痪会造成全省交通业务的瘫痪,这时建设容灾备份中心成为当务之急。
XXX灾备数据中心在XXX合适地点进行建设,建议采用云灾备数据中心技术进行建设,实现应用级灾备切换,当省厅云计算中心灾难或故障发生时,交通关键应用可在线迁移到灾备中心,实现交通关键业务的在线访问和数据的零丢失。
交通非关键业务在灾难和故障时采用云迁移灾备技术,及时恢复非关键业务的访问和极少数据的丢失。
XXX灾备数据中心建设的同时,也必须进行灾备网络的建设,省厅主数据中心和灾备数据中心采用2条冗余的高速网络进行互联,保证主数据中心和灾备数据中心关键业务数据的实时同步;
同时各分支单位增加到灾备数据中心的广域网冗余链路,实现在主数据中心灾难和故障时各分支单位能在线访问灾备中心的容灾业务系统。
第3章XXX云计算平台优势
XXX云计算平台相对现有IT系统有如下优势:
1、大大降低IT建设和运维的总成本(TCO降低30~60%)
通过将整合多个物理服务器到一个物理服务器降低40%软件硬件成本;
每个服务器的平均利用率从5%-15%提高到60%-80%;
降低70-80%运营成本,包括数据中心空间、机柜、网线,耗电量,冷气空调和人力成本。
2、大大提高IT系统的运营效率
新业务部署时间从小时级到分钟级,服务器重建和应用加载时间从原有IT系统的20-40hrs缩短到云计算平台的15-30min,每年节省10,00人/小时(30台服务器);
以前硬件维护需要之前的数天/周的变更管理准备和1-3小时维护窗口,现在可以进行零宕机硬件维护和升级。
3、实现IT资源的动态分配
将所有IT资源做为云计算资源统一进行管理,实现云计算资源的高度共享,并按需自动进行动态云计算资源的调配,同时无需中断现有的业务可在线进行IT硬件资源的扩容。
4、大大提高IT系统的可靠性:
云计算管理平台对数据中心IT基础设施进行基于虚拟机集群的集中化管理,虚拟机集群不仅降低了管理的复杂度,而且具有很高的可用性。
5、私有云实现IT服务的自动化
XXX交通云计算平台为用户提供了一个安全的、多租户的、可自助服务的私有云IaaS服务,通过云计算管理平台提供的虚拟化资源池功能,使IT部门能够将计算、存储和网络等IT资源抽象成按需提供的弹性虚拟资源池,以消费单元(即组织或虚拟数据中心)的形式对外提供服务,IT部门能够通过完全自动化的自助服务访问,为用户提供这些消费单元以及其它包括虚拟机和操作系统镜像等在的基础架构和应用服务模板。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 计算 项目 技术 方案