Linux 软raid 1如何规划与灾难恢复方案.docx
- 文档编号:2866963
- 上传时间:2022-11-16
- 格式:DOCX
- 页数:24
- 大小:1,012.53KB
Linux 软raid 1如何规划与灾难恢复方案.docx
《Linux 软raid 1如何规划与灾难恢复方案.docx》由会员分享,可在线阅读,更多相关《Linux 软raid 1如何规划与灾难恢复方案.docx(24页珍藏版)》请在冰豆网上搜索。
Linux软raid1如何规划与灾难恢复方案
Linux软raid1如何规划与灾难恢复方案
2009-10-1312:
47
原文地址如下:
之前一直都十分恨有一台硬件的raid服务器来学习,大家都知道作为一个IT人不可能不懂硬件吧?
可是自己的工作没有机会碰到硬件的维护。
1.为何是软raid呢?
Linux十分适合在中小企业应用,因为价格、系统的稳定性、硬件的成本比起其它操作系统都是十分有优势的,但是管理Linux的人才比较缺,或者这么说吧中小企业要请个Linux管理员不好找。
(当然是薪金的问题)其实软raid对于CPU的性能要求比较厉害,但以现在的硬件发展速度,软raid绝对有优势。
2.软raid的优点
我总结了软raid的一些优点:
廉洁的数据安全方案、适合各种硬件设备、Linux核心自带功能,不像硬raid重新安装启动程序,不用当心是否支持操作系统、有管理工具查看软raid的状态。
3.软raid的缺点
CPU占用率高、读写速度不如硬raid、灾难恢复复杂、灾难恢复速度不如硬raid。
一以软raid1方式安装EMOS1.5(内部版本)
先看看这篇文章,我觉得还不错哦~~
看看我的分区
我在VirtualBox下虚拟了两个10G硬盘打算安装Extmail邮件系统,划分如下。
/dev/sda1 /boot
/dev/sdb4 /boot1
/dev/md0 (swap) [/dev/sda2(512MB)][/dev/sdb3(512MB)]
/dev/md1 (/) [/dev/sda3(2GB)] [/dev/sdb2(2GB)]
/dev/md2 (/home)[/dev/sda4(7.2GB)] [/dev/sdb1(7.2GB)]
DeviceBoot Start End Blocks IdSystem
/dev/sda1 * 1293 1305 104422+83Linux
/dev/sda2 1228 1292 522112+fdLinuxraidautodetect
/dev/sda3 967 1227 2096482+fdLinuxraidautodetect
/dev/sda4 1 966 7759363+fdLinuxraidautodetect
DeviceBoot Start End Blocks IdSystem
/dev/sdb1 1 966 7759363+fdLinuxraidautodetect
/dev/sdb2 967 1227 2096482+fdLinuxraidautodetect
/dev/sdb3 1228 1292 522112+fdLinuxraidautodetect
/dev/sdb4 * 1293 1305 104422+83Linux
二备份bootloder
#ddif=/dev/sda1of=/dev/sdb4
三模拟磁盘故障
这里我们模拟第一支硬盘故障坏掉了,我们的“/""/home"都制作了raid1所以如果第一支硬盘故障坏掉对于操作系统是没有特别影响。
mdadm--manage/dev/md1-f/dev/sda3
mdadm--manage/dev/md1-r/dev/sda3
mdadm--manage/dev/md2-f/dev/sda4
mdadm--manage/dev/md2-r/dev/sda4
umount/boot
哈哈~~彻底把第一只硬盘搞死了,然后做的是改变grub启动
#groub
>root(hd1,3)
>setup(hd1)
>quit
#shutdown-hnow
把坏掉的第一只硬盘拔掉,然后把后备的硬盘(同样是10G的)安装上去。
这时候磁盘如下
/dev/sda(全新的硬盘)
/dev/sdb(原来的硬盘)
启动服务器,进入bios选择由第二块硬盘/dev/sdb启动系统
在开机菜单中把root(hd0,0)=>root(hd1,3)
但你会发现系统出现错误:
(原因是刚刚挂上的新硬盘还未进行分区,固然没有/dev/sda1给你报错啦~)
输入root密码进入单人维护
#mount-n-oremount,rw/
#vi/etc/fstab
/dev/md1 / ext3 defaults 11
/dev/md2 /home ext3 defaults 12
/dev/sda1 /boot ext3 defaults 12
/dev/sdb4 /boot1 ext3 defaults 12
改为
/dev/md1 / ext3 defaults 11
/dev/md2 /home ext3 defaults 12
/dev/sdb4 /boot ext3 defaults 12
#然后重启服务器
#这时你可以完全正常地进入操作系统
发现现在的raid状态如下:
Personalities:
[raid1][raid0]
md2:
activeraid1sdb1[1]
7759296blocks[2/1][_U]
md0:
inactivesdb3[1]
522048blocks
md1:
activeraid1sdb2[1]
2096384blocks[2/1][_U]
unuseddevices:
md1md2都再缺硬盘的状态
md0已经挂掉了“inactive”
把新挂上的硬盘安装之前的顺序分区,然后重新rebuidraid
fdisk/dev/sda
DeviceBoot Start End Blocks IdSystem
/dev/sda1 * 1293 1305 104422+83Linux
/dev/sda2 1228 1292 522112+fdLinuxraidautodetect
/dev/sda3 967 1227 2096482+fdLinuxraidautodetect
/dev/sda4 1 966 7759363+fdLinuxraidautodetect
#partprobe
1.把rebuidraid"/"/dev/md1
#mdadm--manage/dev/md1-a/dev/sda3
#mdadm-D/dev/md1
RebuildStatus:
26%complete
Number Major Minor RaidDeviceState
2 8 3 0 sparerebuilding /dev/sda3
1 8 18 1 activesync /dev/sdb2
2.把rebuidraid"/home"/dev/md2
#mdadm--manage/dev/md2-a/dev/sda4
#mdadm-D/dev/md1
RebuildStatus:
4%complete
Number Major Minor RaidDeviceState
2 8 4 0 sparerebuilding /dev/sda4
1 8 17 1 activesync /dev/sdb1
3.重新建立"swap"raid
#mdadm-S/dev/md0
#mdadm-Cv/dev/md0--level=0--raid-devices=2/dev/sda2/dev/sdb3
#mkswap/dev/md0
#swapon/dev/md0
#free-m
total used free shared buffers cached
Mem:
4054 354 3700 0 3 106
-/+buffers/cache:
244 3810
Swap:
1019 0 1019
4.同步"/boot"分区
#ddif=/dev/sdb4of=/dev/sda1
#vi/etc/fstab 转回由第一只硬盘启动
/dev/sdb4 /boot=>/dev/sda1 /boot
#grub
>root(hd0,0)
>setup(hd0)
>quit
5.Reboot看看~~!
所有都十分正常~~~
以下文章转自:
1,明确一下raid的概念,详细内容参考:
http:
//zh.wikipedia.org/wiki/RAID
2,在RedFlagLinu
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- Linux 软raid 1如何规划与灾难恢复方案 raid 如何 规划 灾难 恢复 方案