系统运维管理备份与恢复管理ⅡWord文件下载.docx
- 文档编号:22835457
- 上传时间:2023-02-05
- 格式:DOCX
- 页数:18
- 大小:460.51KB
系统运维管理备份与恢复管理ⅡWord文件下载.docx
《系统运维管理备份与恢复管理ⅡWord文件下载.docx》由会员分享,可在线阅读,更多相关《系统运维管理备份与恢复管理ⅡWord文件下载.docx(18页珍藏版)》请在冰豆网上搜索。
当人事变动、业务变化、IT设施变化以及其他可能引起恢复规划文档失效的变化发生时,应及时更新各恢复规划文档,并在必要时启动模拟测试或演习,确保业务连续性系统的工作能力。
第六,技术方案选择要遵循成熟稳定、高可靠性、可扩展性、透明性的原则。
目前,国际上比较成熟的容灾技术包括:
SAN/NAS技术、远程镜像技术、虚拟存储、基于IP的SAN互连技术以及快照技术等。
其中基于IP的SAN远程数据容灾备份技术应用比较广泛,其是利用基于IP的SAN的互连协议,将主数据中心SAN中的信息通过现有的TCP/IP网络,远程复制到备份中心的SAN中的。
当备份中心存储的数据量过大时,可利用快照技术将其备份到磁带库或光盘库。
这种基于IP的SAN远程容灾备份,可以跨越LAN、MAN和WAN,成本低、可扩展性好。
基于IP的互连协议主要包括FCIP、iFCP、InfiniBand、iSCSI等。
第七,构建系统方案可以选择多种技术组合方式。
目前,业内应用较多的容灾方案是基于智能存储系统的远程数据复制技术,它是由智能存储系统自身实现的数据远程复制和同步,即智能存储系统将对该系统中的存储器I/O操作请求复制到远端的存储系统中并执行。
由于在这种方式下,数据复制软件运行在存储系统内,因此较容易实现主中心和容灾备份中心的操作系统、数据库、系统库和目录的实时拷贝及维护能力,且不会影响主中心主机系统的性能。
如果在系统恢复场具备了实时数据,那么就可以做到在灾难发生时,及时开始应用处理过程的恢复。
但这种方案也有开放性差(不同厂家的存储设备系统一般不能配合使用)、对于主、备中心之间的网络条件(稳定性、带宽、链路空间距离)要求较苛刻等缺点。
1.2灾备解决方案设计需要考虑的因素
1.2.1RTO和RPO
RTO(RecoveryTimeObject):
是指灾难发生后,从IT系统宕机导致业务停顿之刻开始,到IT系统恢复至可以支持各部门运作,业务恢复运营之时,此两点之间的时间段成为RTO。
RTO是反映业务恢复及时性的指标,表示业务从中断到回复正常所需要的时间。
RTO值越小,代表容灾系统的数据恢复能力越强。
各种容灾解决方案的RTO有较大差别,基于光通道技术的同步数据复制,配合异地备用的业务系统和跨业务中心与备份中心的高可用管理,这种容灾解决方案具有最小的RTO。
RPO(RecoveryPointObjective),是指从系统和应用数据而言,要实现能够恢复至可以支持各部门业务运作,系统及生产数据应恢复到怎样的更新程度。
RPO是反映恢复数据完整性的指标,在同步数据复制方式下,RPO等于数据传输延迟的时间;
在异步数据复制下,RPO基本为异步传输数据排队的时间。
在实际应用中,考虑导数据传输的因素,业务数据库与容灾备份数据库的一致性(SCN)是不同的,RPO表示业务数据库与容灾备份数据库SCN的时间差。
发生灾难后,启动容灾系统完成数据恢复,RPO就是新恢复业务系统的数据损失量。
设计容灾系统不能只看RTO和RPO,对于不同的业务系统和用户特殊的要求,其它一些指标有可能成为选择容灾解决方案的主要因素。
例如,某些地区为了防范一些特定自然灾害的风险,要求容灾备份中心与业务中心保持足够的距离,在这种情况下,容灾备份中心与业务中心的距离要求就是容灾系统的重要指标。
1.2.2数据安全
数据的完整性,一致性是保证业务连续的关键。
在本地,数据安全需要使用RAID技术来保证。
在灾备方案的设计中,数据复制方案的设计是整个设计的基础。
目前业界主流的数据复制技术有:
基于数据库本身的复制技术,基于操作系统的数据复制,基于虚拟存储的复制技术和基于存储的复制技术。
在方案所用技术的选择时,应当根据客户的预算,现场的条件,综合来进行考量。
后续在1.6.1数据同步章节,将会有这4类数据复制技术的综合对比,可以作为选择的参考。
1.2.3网络安全
通信网络是容灾系统的组成部分,通信线路的质量也是容灾系统的性能指标之一,其中包括网络的数据传输带宽、网络传输通道的冗余和网络服务商的服务水平(网络年中断率)。
如果容灾系统使用的通信网络是确定的,为了比较不同容灾解决方案,可以用单位存储容量的数据库在同一通信网络上的数据完全恢复时间作为一项设计指标。
1.2.4业务连续性
业务连续性是灾备方案的最终目标,是方案的价值所在。
为了保证业务的连续,首先需要数据的连续,之前我们讨论了数据安全相关的内容。
其次,在数据连续的基础上,出现灾难时,系统需要能够满足
(1)网络切换
(2)应用切换。
以此,来保证系统能够顺利切换到灾备地,继续安全运营,最大化保证客户利益。
1.3国标系统灾备等级划分及应对措施
国家《信息系统灾难恢复规范》(GB/T20988-2007)规定了六个级别的容灾,下表分别针对每个级别给出了相应的应对措施。
级别
内容
措施
Level6
数据零丢失和远程集群支持
实现远程数据实时备份,实现零丢失;
应用软件可以实现实时无缝切换;
远程集群系统的实时监控和自动切换能力;
Level5
实时数据传输及完整设备支持
实现远程数据复制技术;
备用网络也具备字哦那个或集中切换能力;
Level4
电子传输及完整设备支持
配置所需要的全部数据和通讯线路及网络设备,并处于就绪状态;
7*24运行;
更高的技术支持和运维管理;
Level3
电子传输和部分设备支持
配置部分数据,通信线路和网络设备;
每天实现多次的数据电子传输;
备用场地配置专制的运行管理人员;
Level2
备用场地支持
预定时间调配数据,通信线路和网络设备;
备用场地管理制度;
设备及网络紧急供货协议;
Level1
基本支持
每周至少做一次完全数据备份;
制定介质存取/验证和转储的管理制度;
完整测试和演练的灾难恢复计划;
1.4容灾技术分析
1.4.1备份方式
(1)冷备份
备份系统未安装或未配置成与当前使用的系统相同或相似的运行环境,应用系统数据没有及时装入备份系统。
一旦发生灾难,需安装配置所需的运行环境,用数据备份介质(磁带或光盘)恢复应用数据,手工逐笔或自动批量追补孤立数据,将终端用户通过通讯线路切换到备份系统,恢复业务运行。
优点:
设备投资较少,节省通信费用,通信环境要求不高。
缺点:
恢复时间较长,一般要数天至1周,数据完整性与一致性较差。
(2)温备份
将备份系统已安装配置成与当前使用的系统相同或相似的系统和网络运行环境,安装了应用系统业务定期备份数据。
一旦发生灾难,直接使用定期备份数据,手工逐笔或自动批量追补孤立数据或将终端用户通过通讯线路切换到备份系统,恢复业务运行。
设备投资较少,通信环境要求不高。
恢复时间长,一般要十几个小时至数天,数据完整性与一致性较差。
(3)热备份
备份处于联机状态,当前应用系统通过高速通信线路将数据实时传送到备份系统,保持备份系统与当前应用系统数据的同步;
也可定时在备份系统上恢复应用系统的数据。
一旦发生灾难,不用追补或只需追补很少的孤立数据,备份系统可快速接替生产系统运行,恢复营业。
恢复时间短,一般几十分钟到数小时,数据完整性与一致性最好,数据丢失可能性最小。
设备投资大,通信费用高,通信环境要求高,平时运行管理较复杂。
在计算机服务器备份和恢复中,冷备份服务器(coldserver)是在主服务器丢失的情况下才使用的备份服务器。
冷备份服务器基本上只在软件安装和配置的情况下打开,然后关闭直到需要时再打开。
温备份服务器(warmserver)一般都是周期性开机,根据主服务器内容进行更新,然后关机。
经常用温备份服务器来进行复制和镜像操作。
热备份服务器(hotserver)时刻处于开机状态,同主机保持同步。
当主机失灵时,可以随时启用热备份服务器来代替。
对于关键的业务,Primeton建议采用同城热备+异地热备的方式进行部署,对于一般性的业务,建议采用同城热备+异地温备(应用不启动,数据保持异步复制)的方式进行部署。
1.4.2数据复制技术
目前数据复制技术主要有如下表所列4种,基于红色字体部分的要求,结合客户的需要,Primeton推荐采用基于存储或者基于应用程序的数据复制技术来进行数据同步。
存储系统数据复制
操作系统层数据复制
应用程序层数据复制
基于存储的
数据复制
虚拟存储技术
基本原理
数据的复制过程通过本地的存储系统和远端的存储系统之间的通信完成。
复制技术是伴随着存储局域网的出现引入的,通过构建虚拟存储上实现数据复制。
通过操作系统或者数据卷管理器来实现对数据的远程复制。
数据库的异地复制技术,通常采用日志复制功能,依靠本地和远程主机间的日志归档与传递来实现两端的数据一致。
平台要求
同构存储
与平台无关,
需要增加专有的复制服务器或带有复制功能的SAN交换机
同构主机、异构存储
与平台无关
复制性能
高
较高
资源占用
对生产系统存储性能有影响
对网络要求高
对生产系统主机性能有影响
占用部分生产系统数据库资源
技术成熟度
成熟
成熟度有待提高,非主流复制技术。
投入成本
高,需要同构存储
较高,需要专有设备
较高,需要同构主机
一般
部分软件免费,如DataGuard
复制软件
IBMPPRC
EMCSRDF
HPCA(ContinuesAccess)
HDSTrueCopy
BrocadeTapestryDMM
UITSVM
EMCVSM
原厂技术:
IBMAIXLVM
HP-UINXMirrorDisk
SunSolarisSVM
专业的复制软件:
SymantecSF/VVR
OracleDataGuard
OracleGoldenGate
DNTIDR
DSGRealSync
QuestSharePlex
1.4.3重复数据删除技术
重复数据删除技术是指将存储系统中存在的大量内容相同的数据删除,只保留其中一份,从而缩减存储空间的技术。
在云灾备中,该技术既能大幅减少灾备中心存储的数据量,降低灾备中心的建设和运维成本,又能大幅减少数据备份和恢复过程中用户和灾备提供商间的数据传输量,提高备份和恢复的性能,是一项十分重要的技术。
随着灾备中心的规模不断增大,存储的数据量和访问量不断增加,单一节点上的重复数据删除方法已不能满足性能和容量的需求。
除上述基本重复数据删除技术外,一些优化和改进技术对云灾备是至关重要的,包括高性能、可扩展的、分布式的重复数据删除技术,以及为提高灾备中心数据可靠性的高可靠重复数据删除技术。
1.4.4操作系统虚拟化技术
除了数据级的灾备,还应提供系统级的灾备。
即在将数据复制到云端的同时,也将受保护的应用程序的状态复制到云端,当灾难发生时可以立即切换到云端的应用程序运行,保证业务连续性。
系统级灾备是通过操作系统虚拟化和检查点实现的。
检查点用来捕获进程某一时刻的运行状态,从而实现进程迁移。
进程迁移既可以是用户应用程序进程到云灾备中心的迁移,也可以是云灾备中心内部的虚拟机池间进程迁移,以实现根据前端用户的需求自动地调节灾备服务提供商有限的硬件与软件资源,动态地、弹性的反应前端业务对灾备的需求。
当程序因故障中断,如果不能保留其中间运行状态,恢复后从头运行将会带来极大的消耗。
检查点技术能够解决这个问题。
通过保留各个进程的运行状态,恢复时能够复原到最近一次保留的数据映像。
传统的检查员机制是基于库的检查点机制。
例如以静态库的形式实现,或通过加载动态链接库来追踪程序运行过程中的数据变化。
也有一些检查点机制实现于内核级别甚至硬件级别。
例如通过在文件系统层之上引入一个中间层来实现保留文件系统状态的检查点机制;
或者借助Fuse内核模块实现的支持检查点机制的文件系统,通过Fuse侦测、拦截内核级别的文件系统操作并将控制权传递给用户,从而能够在用户空间对文件系统状态进行保留。
随着操作系统虚拟化技术的发展,基于虚拟容器的检查点技术也得到了很好的应用。
虚拟容器是通过系统虚拟化技术构建出来的一个进程运行的较独立的上下文环境。
虚拟容器检查点技术能够有效保护容器内运行的应用程序和服务而不需要对应用进行修改。
1.5总体架构设计
1.5.1Primeton“两地三中心”容灾解决方案架构设计
结合近年国内出现的大范围自然灾害,以同城双中心加异地灾备中心的“两地三中心”的灾备模式也随之出现,这一方案兼具高可用性和灾难备份的能力。
1.5.1.1“两地三中心”本地高可用和容灾保护策略
(1)本地保护策略:
•本地高可用
•本地clone
•持续数据保护
•B2D/BVTL
•磁带备份
•ArchiveLog备份
(2)容灾保护策略
•应用级或者数据级容灾
•同级容灾、降级容灾
•同步数据保护/异步数据保护
•容灾数据复制技术
•主备中心运营方式/双主中心运营方式/多中心运营方式
•短、中、远期容灾策略
1.5.1.2“两地三中心”功能定位
生产中心
同城备份中心
异地灾备中心
生产
生产(双活或热备)
备份
灾备
开发
监控
测试
管理
同城双中心是指在同城或邻近城市建立两个可独立承担关键系统运行的数据中心,双中心具备基本等同的业务处理能力并通过高速链路实时同步数据,日常情况下可同时分担业务及管理系统的运行,并可切换运行;
灾难情况下可在基本不丢失数据的情况下进行灾备应急切换,保持业务连续运行。
与异地灾备模式相比较,同城双中心具有投资成本低、建设速度快、运维管理相对简单、可靠性更高等优点。
异地灾备中心是指在异地的城市建立一个备份的灾备中心,用于双中心的数据备份,当双中心出现自然灾害等原因而发生故障时,异地灾备中心可以用备份数据进行业务的恢复。
1.5.1.3“两地三中心”容灾架构设计
逻辑架构模型设计:
物理架构设计:
方案特点:
•同城范围有效保证了数据的安全性和业务连续性;
•异地复制数据根据灾难情形,尽可能降低数据丢失机率;
•同城双中心为同步复制,数据实时同步,RPO=0;
•异地无距离限制,保证数据一致性,保证了数据的有效保护;
•异地容灾带宽要求低,先进的复制机制提高带宽利用率。
对于本地本级备份,应建立在线、近线、离线等多级存储备份系统,充分利用先进的备份手段和备份策略,形成完整的本地备份管理解决方案;
备份的数据包括操作系统、数据文件以及应用服务环境等多个方面;
日常访问的重要数据采用磁盘或者虚拟带库方式备份,归档数据和非重要数据采用磁带库方式备份;
重要数据应至少保证每周做一个全量备份,平时做增量备份。
对于数据级异地灾备中心,选址上,应进行风险分析,避免异地备份中心与主中心同时遭受同类风险;
网络备用系统上,必须在核心网络层面实现热备,保证灾备中心区域内通信的可靠性;
数据备份系统上,主中心与备份中心的备份链路应有冗余,并确保2小时内将主中心的增量数据复制或备份到灾备中心;
数据处理备用系统上,配备灾难恢复所需的全部数据处理设备,并处于就绪状态或运行状态,与主中心共同承担部分核心应用的查询服务功能。
对于同城应用级灾备中心,选址上,主中心与同城灾备中心距离应小于100KM;
网络备用系统上,在核心网络层面实现热备,主中心与应用级灾备中心间通过裸光纤互联或VPLS互联,部署TRILL构建大二层网络,满足虚拟化需求;
网络负载均衡上,主中心网络与灾备中心网络的负载均衡,提高灾备网络利用率与灾备网络可用性,正常情况下数据流同时使用两个中心的网络,主中心网络出现故障时,则全部数据流向灾备网络;
应用集群切换上,关键业务系统集群实现手动切换,主中心与同城灾备中心之间建立高可用性监控技术,实现灾备中心应用服务器集群与主中心生产服务器集群之间的高可用性切换;
云计算技术采用上,采用虚拟化技术对同城灾备中心进行规划建设,同时,根据业务关键程度、对性能的要求,系统平台选择不同档次和不同平台的主机资源池、存储资源池。
1.5.2基于不同服务需求选择不同可靠性“两地三中心”架构
1.5.2.1服务等级划分的可靠性
服务级别
tier1
tier2
tier3
tier4
服务内容
关键任务服务,需要最高级别的可靠性。
高端技术和工具将会被用来满足最高级别的可靠性。
如果丢失一个组件,如服务器,一块存储,或者一个通信链接,都将会导致服务不可靠。
每个应用和基础服务都会制定性能指标。
这些指标都将会被监控,并会通过业务支持的流程以特定格式输出。
这个site不仅仅包含基础架构组件。
关键业务服务的运维和tier1一样,但是某些限制非可靠级别的服务可以容忍短时间的不可恢复的影响。
高端技术和工具将会尽量(略低于tier1)被用来满足最高级别的可靠性。
系统设计和指导里面必须包含——没有单点故障。
高端技术和工具将会尽量(略低于tier1和tier2)被用来满足最高级别的可靠性。
允许有多个单点故障。
仅仅在计划上有一些伸缩性。
没有关键服务运行,运维和支撑只要能够在一个可以接受的范围内即可。
关键指标
99.99%的可靠性,数据中性能够切换,厂家支持(小于2小时的响应时间),硬件容错性,没有单点故障,N+1,数据中心的切换选择,硬件冗余
99.5%的可靠性,数据中性能够切换,厂家支持(小于4小时的响应时间),硬件具备容错性,没有单点故障,N+1
95%的可靠性,数据中性能够切换,厂家支持(小于24小时的响应时间)
没有可靠性保证,最低级别的支持
分钟宕机/月
4.32
216.00
2160.00
1.5.2.2Primeton通用的基于服务的“两地三中心”架构
1.5.2.3Primeton基于不同的服务质量,达到不同级别的整体可靠性(tier)
(1)场景1
主环境如图中A所示,包含了数据库,应用,Web三层服务结构,本地高可用环境P作为同城备份站点,复制100%A中的Web服务,100%的A中的应用在线服务,100%的A中的OLTP事务,异地在数据库/应用/Web层均复制75%A中的服务。
那么这套方案整体的可靠性将会达到99.999%。
(2)场景2
主环境如图中A所示,本地高可用环境P复制100%的A中的Web服务,100%的A中的应用在线服务,异地在数据库/应用/Web层均复制75%的A。
那么这套方案整体的可靠性将会达到99.99%。
(3)场景3
主环境如图中A所示,本地高可用环境没有即没有同城备份站点,异地在数据库/应用/Web层均有一个可以接受的备份(非和A环境100%相同)。
那么这套方案整体的可靠性将会达到99.70%。
(4)场景4
主环境如图中A所示,本地高可用环境没有即没有同城备份站点,异地采用冷备的方式,仅仅在发生灾难的时候采取措施。
那么这套方案整体的可靠性只有99.00%。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 系统 管理 备份 恢复