suncluster培训笔记Word文档下载推荐.docx
- 文档编号:20335593
- 上传时间:2023-01-22
- 格式:DOCX
- 页数:12
- 大小:21.95KB
suncluster培训笔记Word文档下载推荐.docx
《suncluster培训笔记Word文档下载推荐.docx》由会员分享,可在线阅读,更多相关《suncluster培训笔记Word文档下载推荐.docx(12页珍藏版)》请在冰豆网上搜索。
终端集线器通过使用TCP/IP网络实现对每一节点上ttya的访问。
这样就可从网络上的任一远程工作站对每一节点进行控制台级别的访问。
3.设备标识(DID)
SunCluster通过一种叫做设备标识(DID)伪驱动程序的结构来管理全局设备。
此驱动程序可自动给群集中的每个设备分配唯一的标识,包括多主机磁盘、磁带驱动器和CD-ROM。
设执行对全局设备的访问时使用的是DID驱动程序分配的唯一设备标识,而非传统的Solaris设备ID(如某一磁盘的标识c0t0d0)。
这一措施可保证任何使用磁盘设备的应用程序(如卷管理器或使用原始设备的应用程序)都可使用一致的路径访问设备。
例如,节点1可能将一个多主机磁盘看作c1t2d0,而节点2可能会完全不同,将同一磁盘看作是c3t2d0。
DID驱动程序则会分配一个全局名称,如d10,供节点使用,这样就为每个节点提供了到多主机磁盘的一致映射。
设备
SunCluster配置使用quorum设备维护数据和资源的完整性。
如果群集暂时丢失与节点的连接,则quorum设备阻止在群集节点试图重新连接群集时出现健忘或使人头疼的问题。
通过使用scsetup(1M)实用程序来指定quorum设备。
规划quorum设备时请考虑以下几点。
_最小值–两个节点的群集必须至少有一个分配为quorum设备的共享磁盘。
对于其他拓扑,quorum设备是可选的。
_奇数规则–如果在直接与quorum设备连接的两个节点的群集或一对节点中配置多个quorum设备,则配置奇数个quorum设备,以便这些设备有完全独立的失败通道。
_连接–quorum设备不能与两个以上的节点连接。
二、准备工作:
1.安装TC(可选)
a.两台节点机的串口A分别接到TC的2、3号端口,管理机的串口A连接到TC的1号端口
b.在管理机上修改文件如下:
#vi/etc/remote
hardware:
dv=/dev/term/a:
br#9600:
el=^C^S^Q^U^D:
ie=%$:
oe=^D
c.执行#tiphardwire,按下TC面板上的test键,直到Power灯闪放开
d.在按一下TC面板上的test键(2s)
e.管理机的屏幕上显示monitor:
:
用addr修改TC的IP地址,按“~.退出”,重起TC
f.telnet到TC,执行
annex:
su
passwd:
<
tcipaddress>
annex#admin
g.配置串口模式:
admin:
setport=1-8typedial_inimask_7bitsY
setport=2-8modeslaveps_history_buffer32767
quit
annex#boot
2.配置管理机:
(可选)
a.用root用户登陆管理机,修改/etc/hosts,将所有节点机的主机名和对应地址写入
b.添加clusterconsolesoftware
#pkgadd–
c.修改/.profile文件
PATH=$PATH:
/opt/SUNWcluster/bin
MANPATH=$MANPATH:
/opt/SUNWcluster/man
ExportPATHMANPATH
d.使profile生效#./.profile
e.编辑/etc/clusters
cluster-namenode1-namenode2-name
f.编辑/etc/serialports
node1-nameTC-address5002(在TC上的端口号)
node2-nameTC-address5003
g.执行#ccpcluster-name&
,使用clogin或cconsole/ctelnet工具
3.修改SCSIInitiatorId
在独立服务器中,服务器节点通过将此服务器连接到特定SCSI总线的SCSI主机适配器线路,来控制SCSI总线活动。
该SCSI主机适配器线路称作SCSIinitiator。
它启动此SCSI总线的全部总线活动。
Sun系统中SCSI主机适配器的缺省SCSI地址是7。
群集配置共享多个服务器节点间的存储器。
当群集存储器由单端或差分SCSI设备组成时,这样的配置称作多启动器SCSI。
正如此术语的字面含义那样,SCSI总线上存在多个SCSI启动器。
SCSI规格需要SCSI总线上的每个设备都具有唯一的SCSI地址。
(主机适配器也是SCSI总线上的设备。
)因为所有SCSI主机适配器的缺省SCSI地址均为7,所以多启动器环境中的缺省硬件配置会导致冲突。
要解决这一冲突,请在每个SCSI总线上将一个SCSI主机适配器的SCSI地址保留为7,在第二个主机适配器的SCSI地址改为6。
a.okshow-disks记下控制器的路径
b.创建一个nvramrc脚本设置scsi-initiator-id
oknvedit
0:
probe-allinstall-consolebanner
1:
cd/pci@6,4000/scsi@3
2:
6"
scsi-initiator-id"
integer-property
3:
device-end
4:
cd/pci@6,4000/scsi@2,1
5:
integer-property
6:
7:
banner(ControlC)
oknvstore
oksetenvuse-nvramrcTrue
oksetenvauto-boottrue
okreset-all
okboot
4.在两个节点机上安装操作系统solaris(至少选用最终用户模式安装),打上推荐补丁。
/:
最小100M
swap:
最小750M,是内存的2倍
/globaldevices:
100M
起码保留一个100M的未用分区供卷管理软件存储卷信息使用。
5.确认local-mac-address值为false
#eeprom|grepmac
三、SunCluster软件安装:
1.在每个节点机上编辑/.profile文件
/usr/cluster/bin
/usr/cluster/man:
/usr/share/man
2.在每个节点机上编辑.rhosts
+
3.在每个节点机上编辑/etc/default/login文件
#CONSOLE=/dev/console
4.在每个节点机上编辑/etc/hosts文件,将对方节点,逻辑主机名的对应ip写入
5.建立一个全新的cluster节点
a.运行Tools/scinstall
b.Establishanewcluster
c.输入集群名字
d.输入集群中另一台节点的机器名
e.不使用DES认证
f.使用默认的集群传输私网地址
g.接受默认的全局设备文件系统
h.接受装完后自动重起
6.向集群中添加另一个节点
a.运行Tools/scinstall
b.Addthismachineasanodeinanestablishedcluster
c.输入主节点的机器名
d.接受默认的全局设备文件系统
e.接受装完后自动重起
7.打上cluster的补丁
8.配置Quorum设备
a.运行scdidadm–L选择准备作为Quorumdisk的磁盘号,该磁盘必须在两个节点都能访问的共享磁盘
b.运行scsetup,输入前面选定的DID设备号
c.在两个节点的集群中不需再添加Quorum设备
d.接受安装
9.配置网络时钟同步协议
修改每个节点机的/etc/inet/,将不存在的节点删除,即将以下行删除
peerclusternode3-priv
peerclusternode4-priv
peerclusternode5-priv
peerclusternode6-priv
peerclusternode7-priv
peerclusternode8-priv
此时,运行scstat–q,可以看到一共有3票;
运行scdidadm–L,可以看到所有的DID设备;
运行scconf–p,可以看到集群状态、节点名、网卡配置、quorum设备状态。
运行scshutdown–y–g15,以后关的机器先启为原则测试cluster时候能正常启动。
可以运行scheck检查cluster安装是否有错
四、卷管理:
1.使用veritas作为卷管理软件
a.停止veritasvolumemanagerdynamicmultipathing功能,防止它和cluster功能冲突
#mkdir/dev/vx
#ln–s/dev/dsk/dev/vx/dmp
#ln–s/dev/rdsk/dev/vx/rdmp
b.安装veritasvolumemanager软件,并打上veritas的补丁
pkgadd–
c.修改两台节点机的vxio号为一致,并不与其他设备冲突。
修改时必须把cluster软件停止
#grepvxio/etc/name_to_major
d.封装rootdg
#vxconfigd–mdisable
#vxdctlinit
#vxdginitrootdg
#vxdctladddiskc0t0d0sX(未用分区)type=simple
#vxdisk–finitc0t0d0sXtype=simple
#vxdgadddiskc0t0d0sX
#vxdctlenable
#rm/etc/vx/install-db(该文件不删除,系统不会启动vm软件)
你也可以使用/usr/sbin/vxinstall对整个系统盘进行封装,形成rootdg,但你必须事先保留两个未用分区,一般为slice3和slice4。
e.重起节点1,看vm是否正常启动
VxVMstartinginbootmode…
VxVMgeneralstartup…
可以使用vxprint察看已配diskgroup状况
f.在另一台节点机上安以上步骤安装veritas软件并配置rootdg,重起。
g.在新建的dg上建立卷
#vxassist–gxxxmakevolname200mlayout=mirror
e.注册diskgrups
#scconf–a–Dtype=vxvm,name=xxxx,nodelist=node1:
node2
如果再已注册的dg上添加vol,需运行scsetup同步注册信息。
f.使用已建vol
#newfs/dev/vx/rdsk/dg-name/volname
#mkdir/global/xxx(两节点同时做)
#vi/etv/vfstab(两节点同时做)
/dev/vx/dsk/dgname/volname/dev/vx/rdsk/dgname/bolname/global/xxxufs2yesglobal,logging
#mount/global/xxx
五、资源配置:
1.配置nafo
#pnmset
输入nafo组号及改组包含的网卡名称
2.配置资源组
1).Sun支持两种资源类型:
a.数据资源类型(Dataserviceresource):
oracle、iplanet、netscape、apache、dns、nfs
b.预注册资源类型(PreregisteredResource):
、(供failover数据资源使用)、
(供scalable数据资源使用)
2).配置failover数据资源,以SunClusterHAforNFS为例:
a.添加NFS数据资源包(两个节点机),可用pkgadd命令,也可用scinstall交互界面
b.建立NFS目录
#mkdir–p/global/nfs/admin/
#mkdir–p/global/nfs/data
#chmod777/global/nfs/data
c.编辑NFS参数文件
#vi/global/nfs/admin/
share–Fnfs–o–rw–d”HomeDirs”/global/nfs/data
d.注册数据资源(资源必须注册后才能使用)
#scrgadm–a–t
e.建立failover资源组
#scrgadm–a–gnfs-rg–hnode1,node2–yPathprefix=/global/nfs/admin
f.往资源组中添加资源
#scrgadm–a–L–gnfs-rg–lclustername-nfs(注:
clustername-nfs在两台节点机的/etc/hosts中有相应记录)
#scrgadm–a–jhas-res–gnfs-rg–t–xServicePaths=/global/nfs–xAffinityOn=True(AffinityOn=True:
应用切换,磁盘存贮也跟随切换)
#scrgadm–a–jnfs-res–gnfs-rg–t–yResource_dependencies=has-res
g.初始化资源组,是之生效
#scswitch–Z–gnfs-rg
h.检测cluster状态
#scstat–g
#scswitch–z–hdest-node–gnfs-rg
3)配置scalable数据资源组,以SunClusterScalableServiceforApache为例
a.添加Apache数据资源包(两个节点机),可用pkgadd命令,也可用scinstall交互界面
b.关闭apache自动启动和关闭功能
#mv/etc/K16apache/etc/k16apache
#mv/etc/S16apache/etc/s16apache
c.在两个节点机的/etc/hosts种都加入clustername-web的相应内容
clustername-webIP_address
d.编辑控制文件,建立相应的服务目录
#cp/etc/apache建立html和cgi目录文件
#mkdir/global/web/htdocs
#mkdir/global/web/cgi-bin
#cp–rp/var/apache/htdocs/global/web
#cp–rp/var/apache/cgi-bin/global/web
f.注册数据资源(资源必须注册后才能使用)
g.建立资源组
#scrgadm–a–gsa-rg–hnode1,node2
h.往资源组里添加sclable资源
#scrgadm–a–S–gsa-rg–lclustername-web
#scrgadm–a–gweb-rg–yMaximum_primaries=2–yDesired_primaries=2–yRG_dependencies=sa-rg
#scrgadm–a–japache-res–gweb-rg–t–x\
Confdir_list=/etc/apache–xBin_dir=/usr/apache/bin\
–yScalable=TRUE–yNetwork_resources_used=clustername-web
i.初始化资源组,是之生效
#scswitch–Z–gsa-rg
#scswitch–Z–gweb-rg
j.检测cluster状态
k.调整节点负载,默认为1:
1
#scrgadm–c–jweb-res–yLoad_balance_weights=5@node1,2@node2
六、SunCluster的日常维护和管理:
1.显示suncluster发行版本
#scinstall–pv
2.显示已配置的资源类型、资源组和资源
#scrgadm–p
3.检查集群组件状态及配置
#scstat–p
#scconf–p
#scrgadm–pv(v)
4.关闭集群
#scshutdown–g0–y
此命令将每个节点都关闭到OK状态,可用boot命令启动,然后用scstat–n状态件则节点状态。
5.关闭单个节点
#scswitch–s–hnode2
#shutdown–g0–y
6.将某一节点置为维护状态
#scconf–c–qglobaldev=quorumdivice(dx),maintstate
7.手工修改节点quoroum的投票数
a.ok>
boot–x
b.#cd/etc/cluster/ccr
c.#viinfrastructure
torrey
3
d.#cd/etc/cluster/ccr
e.#/usr/cluster/lib/sc/ccradm–I/etc/cluster/ccr/infrastructure–o
f.#reboot
8.删资源组和diskgroup
a.停资源:
scswitch–n–jresourcename
b.删资源:
scrgadm–r–jresourcename
c.删资源组:
scrgadm–r–gresourcegroup
d.删dg:
vxdgdestroydgname
9.删除cluster软件
g.ok>
h.#pkgrmclusterpkgname
i.rm–r/var/cluster/usr/cluster/etc/cluster
j.vi/etc/vfstab,将原来所有的dis参数恢复,重建/global/devices
k.rm/etc/
l.vi/etc/,除去cluster选项
m.rm–r/dev/did
n.rm–f/devices/pseudo/did*
o.rm/etc/path_to_inst
p.reboot---ra
七、Suncluster与的比较
Suncluster
支持8个节点
支持ufs,hsfs,为实现scalable出现了global概念
clusternetworkingshareaddress
支持scalable,failover模式
于系统核心绑定很紧,只有network和resourcegroup由相关demond启动管理
使用boot–x可以只起系统,不起cluster
支持solaris8
支持千兆网卡,不支持scicard
以资源组为切换单位,资源类型有app,ip,data
sun
支持4个节点
支持ufs,没有global
logicalhostaddress
只支持failover模式
于系统核心绑定不紧,可以先起系统再手工起cluster
支持scicard(100Mbyte/s)
以逻辑机为切换单位
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- suncluster 培训 笔记