系统集成项目管理工程师课件PPTWord格式文档下载.docx
- 文档编号:17058861
- 上传时间:2022-11-28
- 格式:DOCX
- 页数:16
- 大小:35.09KB
系统集成项目管理工程师课件PPTWord格式文档下载.docx
《系统集成项目管理工程师课件PPTWord格式文档下载.docx》由会员分享,可在线阅读,更多相关《系统集成项目管理工程师课件PPTWord格式文档下载.docx(16页珍藏版)》请在冰豆网上搜索。
它是计算机网络系统的核心。
数据库服务器:
数据库服务器通常运行UNIX或NT操作系统,需要配合数据库来使用。
文件服务器:
文件服务器的处理速度必须能够满足多个用户的需要。
文件服务器的性能由其部件决定,如网络适配器、内存、CPU及总线。
一般来说,用速度较快的服务器作为文件服务器,会使网络访问速度有明显的改观。
4.1.1网络服务器的分类
(2)
按处理器类型划分
CISC服务器:
CISC(复杂指令集计算)CPU结构从1964年IBM360系统开始,基于CISC处理器的服务器大都是Intel架构(IA)的PC服务器,包括IntelX86列处理器和IA-32架构的Pentium(Pro)、PentiumⅡ、PentiumⅢ(Xeon)等。
基于CISC处理器的Intel架构(IA)PC服务器根据安装结构可以分为机座式服务器和机架式服务器。
RISC服务器:
RISC(精简指令集计算)概念是IBM在70年代提出的。
RISC技术大幅度减少指令的数量,用简单指令组合代替过去的复杂指令,通过优化指令系统来提高运行速度。
RISC技术采用了更加简单和统一的指令格式、固定的指令长度以及优化的寻址方式,使整个计算机体系更加合理。
指令系统的简化使得系统指令译码器的设计复杂程度也大大简化了,并使完全由硬件逻辑实现指令译码成为可能,而尽量减少使用内嵌微代码来完成译码操作,大大提高了指令的执行速度。
RISC处理器比同等的CISC处理器性能提高50%~75%,因此各种大中小型计算机和超级服务器都采用RISC架构的处理器,RISC处理器已经逐渐成为高性能计算机的代名词。
RISC体系结构的服务器的代表有DEC的AlphaServer系列、HP的HP9000系列、SUN的SparcCenter和UltraEnterprise系列、IBM的RS6000和AS400系列等。
小型机服务器:
由于RISC架构服务器技术和性能的进步,现在除了一些特大型的企业级服务器或特别密集的数据库应用(如机场管理、售火车票、人口普查等)外,一般难觅小型机服务器的踪影。
4.1.1网络(wǎngluò
)服务器的分类(3)
按网络应用规模(guīmó
)划分
入门级服务器:
通常只有l个CPU,适用于在几个办公室之间完成文件共享和打印服务,也可以完成简单数据库处理、Internet接入等需求。
工作组级服务器:
一般支持1~2个CPU(SMP对称多处理器结构),配置了小型服务器所必备的各种特性,如采用SCSI总线的I/O系统、可选装RAID、热插拔硬盘、热插拨电源和增强服务器管理功能的SM总线等。
功能全面、可管理性强、易于维护,具有高可用性特性。
可满足中型网络用户的数据处理、文件共享、Internet接入以及中型数据库应用的需求。
部门级服务器:
一般支持2~4个CPU(SMP对称多处理器结构),具有较高的可靠性、可用性、可扩展性和可管理性。
通常标准配置有热插拔硬盘、热插拨电源和RAID。
这类服务器的另一些普遍特点是:
具有差错检测和改正(ECC)的存储器,维护了存于磁盘和内存(nè
icú
n)RAM中数据的完整性,具有智能驱动控制器和冗余子系统;
数据处理能力较强、易于维护管理,是面向大型网络的产品。
企业级服务器:
通常支持4~16个或更多的CPU、最新CPU技术及关键部件热插拔技术,使得系统性能、系统连续运行时间均得到最大的提升。
支持无磁盘柜集群方式,拥有独立的双PCI通道和内存扩展板设计,具有高内存带宽,大容量热插拔硬盘和热插拨电源,具有超强的数据处理能力,同时系统的监控管理也得到很大简化。
这类产品具有高度的容错能力及优良的扩展性能,可作为替代传统小型机的大型企业级网络的数据库服务器。
适合运行在需要处理大量数据、高处理速度,以及对可靠性要求极高的金融、证券、交通、邮电和通信等行业中。
)服务器的分类(4)
按系统(xì
tǒng)体系结构划分
UMA体系结构:
UMA(UniformMemoryAccess,通用内存访问),即SMP(SymmetryMulti-Processor,对称多处理器)体系结构采用共享内存,所有CPU访问内存的时间是一致的,处理器与处理器之间通过总线或高速交叉开关相连,运行一个操作系统。
这种结构的优点是易于管理和资源的有效利用,但缺点是比较昂贵和扩展性差。
在SMP中,共享存储器以及存储器总线是系统性能的瓶颈。
SMP不具有高可扩展能力,因为它使用竞争总线和集中式共享存储器。
同时,单操作系统映像(SSI)及共享存储器是两个潜在的单失效点,会降低SMP的可用性。
NUMA体系结构:
NUMA(Non-UniformMemoryAccess,非通用内存访问)体系结构也称为分布式内存结构,每个处理器访问内存的时间是可变的,处理器与处理器之间通过以太网或专用网络连接,运行多个操作系统拷贝,内存和IIO都是分布式资源。
这种体系结构的优点是比较便宜、扩展性能好,但缺点是难于管理和资源使用效率低。
分布式存储器结构和高带宽交叉开关网络解决了SMP系统中通常存在的许多瓶颈问题,减轻了并行计算机程序设计的复杂度;
系统能进行灵活的多处理,从而实现较高的工作效率。
4.1.2影响服务器性能(xì
ngné
ng)和稳定的因素
影响服务器性能和稳定(wěndì
ng)的因素主要有:
中央处理器(CPU)系统(xì
tǒng)内存硬盘和硬盘控制器随机存取存储器(RAM)系统总线等
4.1.2影响(yǐngxiǎng)服务器性能和稳定的因素(续1)
中央处理器(CPU)
CPU的数据总线宽度。
数据总线的宽度决定CPU在一个处理周期内能存取的信息量,总线越宽,性能越好。
CPU的时钟速度。
高速缓冲存储器(Cache)。
高速缓冲存储器容量越大,CPU传递信息的效率越高。
多数CPU都有某种形式的Cache,内嵌在CPU中的Cache常称之为第1级高速缓存(L1Cache);
另有一些放在CPU之外的Cache,称作L2Cache或L3Cache。
在设计Cache时使用了两种新技术:
一种是总线监听规程,它使CPU在查到自己的Cache故障后可以访问保存在另一个CPUCache中的数据;
另一种是管道技术,在数据从主存取出时,可以避免CPU不必要的等待。
按工作(gōngzuò
)原理通常将Cache分为四种:
通过Cache完成写操作。
回写式Cache。
直接映射式Cache。
双向相连Cache。
4.1.2影响服务器性能和稳定的因素(续2)
系统内存
由于CPU速度的不断提高,对于高性能系统的需求也不断增加。
采用先进的内存技术如同步模式(SDRAM)、DDR技术,及采用较大的内存容量可以提高整个服务器的性能。
硬盘和硬盘控制器
硬盘是文件服务器中最容易出故障的部分。
服务器的硬盘配置对服务器的总体效率和可靠性具有关键性的影响。
选择硬盘主要从硬盘的容量、性能、价格以及硬盘的接口等几个方面考虑。
如果考虑冗错,硬盘的个数还要增加。
硬盘的性能主要由以下因素决定:
旋转速率:
服务器硬盘中的磁盘的旋转速率至少是每分钟7200转,一般为每分钟10000转或10000转以上;
平均寻道时间;
平均存取时间;
数据传输率:
数据传输率主要由硬盘驱动器与系统的接口决定,依赖于系统总线、硬盘控制器的支持和所用的数据传输模式。
服务器的硬盘控制器一般选用速度很快的SCSI(小型计算机系统接口)控制器,传输速率在10Mbit/s以上。
4.1.2影响服务器性能和稳定的因素(续3)
随机存取存储器
存储器性能:
CPU数据总线的时钟速度;
CPU数据总线的宽度;
等待状态的数目;
存储器芯片的速度。
存储器故障检验与校正(ECC)。
系统总线
服务器中的系统总线分为服务器内部I/O总线和服务器外部I/O总线。
服务器的内部I/O总线主要有ISA、EISA、VL-Bus和PCI等4种总线。
现在最常用的是PCI总线。
硬盘与主机的连接是通过外部I/O总线实现的。
目前常用的I/O总线主要有ATA/EIDE和SCSI两种。
系统总线对提高服务器传递信息的效率起重要作用,原则上是越高越好。
影响系统总线性能的因素有两个:
系统总线的宽度系统总线的时钟(shí
zhōng)频率。
ng)和稳定的因素(续4)
综上所述,Cache系统用来管理对内存的访问,以使CPU能得到充足的指令(zhǐlì
ng)或数据供应。
总线控制的I/O设备也要竞争对内存的访问,但它运行速率比CPU低得多。
高性能的服务器应该使CPU和I/O设备能同时访问内存,得到最大的并行运行和最小的竞争。
4.1.3PC服务器与台式机的区别(qūbié
)
可靠性的要求不同:
作为网络的中枢,要求服务器具有较高的可靠性。
因为,如果一台台式机出了故障,只影响到它本身,而如果一台服务器出了故障,则会造成整个网络的瘫痪。
所以,在服务器的设计上,充分考虑了对可靠性的要求,并且往往有一些监控的手段(如监控服务器内的电压、温度等),内存至少使用奇偶校验内存,甚至使用能够自动纠错的ECC内存,硬盘一般也采用可靠性比较高的热插拔硬盘。
扩展性要求不同:
由于服务器的可扩展性要求较高,因此服务器一般都是塔式机箱,能够提供(tí
gōng)的设备安装托架比台式机要多,如PC服务器一般要求有6个左右的硬盘托架,而台式机只要求2个左右。
对外设访问的速度和连接外设的数量要求不同:
由于服务器往往连接大容量的硬盘,并且需要频繁地进行硬盘的读写,所以服务器一般使用高速的SCSI接口,并且往往把SCSI控制器集成在主板上。
而台式机一般采用IDE或EIDE接口。
另外,服务器一般采用PCI+EISA的总线结构以与以前开发的一些高速EISA接口的RAID卡、网卡等兼容,而台式机一般采用PCI+ISA的总线结构。
4.1.4服务器系统中的主要技术
对称多处理技术分区技术负载均衡技术集群高可用性技术磁盘阵列和热插拔ECC内存ISC服务器控制技术EMP应急管理端口智能输入/输出(I2O)技术
对称多处理技术
对称多处理(SMP)是为了弥补单个CPU处理能力不足而引入的一种体系结构,是指在一个计算机上汇集了一组处理器(多CPU),各CPU之间共享内存子系统以及总线结构。
虽然同时使用多个CPU,但是从管理的角度来看,它们的表现就像一台单机一样。
系统将任务队列对称地分布于多个CPU之上,从而极大地提高了整个系统的数据处理能力。
内存中只需要一个操作系统的副本,任务可以在任何一个CPU上运行,对上层软件而言是透明的。
它可以利用多个CPU的并行工作来提高整体的系统性能以及系统的可靠性。
目前常见的SMP有两种结构:
共享Cache结构:
实现起来比较容易。
一般两个CPU插槽都做在主板上,但是两个CPU比一个CPU的性能提高只有20%~30%。
目前市场上声称能够支持两个CPU的服务器一般都是这种结构,如IBM的320系列、Compaq的1500系列、长城的S900/ES等。
独立Cache结构:
独立Cache的SMP结构实现起来比较复杂。
一般采用单独的CPU卡来做,但是性能提高很多,两个CPU比一个CPU性能可以提高80%~90%。
一般只有高档的服务器才采用这种结构。
这种结构下的服务器一般能够支持1~4个或更多的CPU,增加一个CPU时价格会有较大的增加。
分区(fēnqū)技术
(1)
系统分区(fēnqū)可以分为物理分区和逻辑分区。
早在上个世纪七十年代,IBM在大主机上发明了分区(Partition)技术。
随着时间的推移,技术在不断进步,分区技术经历了从物理分区到逻辑分区的进化,发展到今天已经能做到多个逻辑分区共用一个物理资源,并且能做到负载均衡。
分区(fēnqū)技术
(2)
物理分区:
物理分区是在一个大型的SMP系统中,硬件资源如CPU、内存和I/O等被组织为一个物理单元。
这样的物理单元结合在一起,运行(yù
nxí
ng)一个操作系统映像。
如图4-1所示,在三个物理单元上运行两个操作系统映像。
分区(fēnqū)技术(3)
逻辑分区:
逻辑分区是将SMP系统中的硬件资源(如CPU、内存和I/O等)逻辑的进行划分。
它不依赖于任何的物理单元。
如图42所示,8个CPU分属于三个逻辑分区中(其中一个CPU未属于任何分区)。
分区技术(4)——分区技术的优点
服务器集中。
服务器的集中管理和应用模式的集中可以减少总拥有成本(TCO)。
隔离生产环境和测试环境。
在一台物理的机器上,可以把一个分区作为生产环境;
另一个分区作为测试环境。
它们有各自独立的系统环境,互不干扰。
这是一个很诱人的工作模式。
提高硬件的使用率。
当一个较大的应用实例不能充分发挥整个机器的硬件能力时,可考虑将其划分成若干个较小的应用实例,运行在机器不同的逻辑分区上,以提高整体的处理能力。
隔离不同的应用环境。
如果应用程序需要不同的系统环境(例如时钟)时,可将其运行在不同的逻辑分区上。
提高硬件资源分配的灵活性。
在业务高峰时,为该应用分配更多的系统资源(如CPU、内存等)。
这通过调整不同逻辑分区之间的硬件资源来实现。
提高硬件资源的可靠性。
即使在某个分区内发生了不可自动修复的硬件故障,也只能造成这一分区的系统停止,而不会影响到其他分区内的系统。
已经将硬件故障造成整个系统瘫痪的可能性降到了最低点。
负载均衡技术
在多处理器、多任务应用环境和异构系统平台中,由于系统访问和数据请求频繁,对服务器的处理速度将会造成很大压力,用户的响应时间延长,从而降低整个系统的性能。
负载均衡技术指的是采用一种对访问服务器的负载进行均衡(或者说分担)的措施,使两个或两个以上的服务器为客户提供相同的服务。
随着技术的发展,负载均衡从结构上分为本地负载均衡和地域负载均衡(全局负载均衡),前一种是指对本地的服务器集群做负载均衡,后一种是指对分别放置在不同的地理位置、在不同的网络及服务器群集之间作负载均衡。
负载均衡可以通过设置多台服务器或通过软件方式实现。
负载均衡技术(续1)
多主机负载均衡:
每个主机运行一个所需服务器程序的独立拷贝,诸如Web、FTP、E-mail服务器程序。
对于某些服务(如运行在Web服务器上的那些服务)而言,程序的一个拷贝运行在群集内所有的主机上,而网络负载均衡则将工作负载在这些主机问进行分配。
对于其他服务(例如E-mail),只有一台生机处理工作负载,针对这些服务,网络负载均衡允许网络通信量流到一个主机上,并在该主机发生故障时将通信量移至其他主机。
在UNIX系统管理中,用户可以设置一台生服务器,指定一台或多台服务器作为从服务器,一方面可以分担系统访问流量,另一方面可以提高整个系统的安全可用性。
软件技术:
一些软件公司提供了专门的负载管理软件,其中包括PlatformComputing公司的LSF软件。
负载均衡(jūnhé
ng)技术(续2)
服务(fú
wù
)代理和内容分发技术
使用代理服务器,可以将请求转发给内部的服务器,使用这种加速模式显然可以提升静态网页的访问速度。
然而,也可以考虑这样一种技术,使用代理服务器将请求均匀转发给多台服务器,从而达到负载均衡的目的。
这种代理方式与普通的代理方式有所不同,标准代理方式是客户使用代理访问多个外部服务器,而这种代理方式是代理多个客户访问内部服务器,因此也被称为反向代理模式。
虽然(suīrá
n)实现这个任务并不是特别复杂,然而由于要求特别高的效率,实现起来并不简单。
使用反向代理的好处是,可以将负载均衡和代理服务器的高速缓存技术结合在一起,提供有益的性能。
然而它本身也存在一些问题,首先就是必须为每一种服务都专门开发一个反向代理服务器,这就不是一个轻松的任务。
代理服务器本身虽然可以达到很高效率,但是针对每一次代理,代理服务器就必须维护两个连接:
一个对外的连接,一个对内的连接。
因此对于特别高的连接请求,代理服务器的负载也就非常之大。
反向代理方式下能应用优化的负载均衡策略,每次访问最空闲的内部服务器来提供服务。
但是随着并发连接数量的增加,代理服务器本身的负载也变得非常大,最后反向代理服务器本身更会成为服务的瓶颈。
集群高可用性技术(jì
shù
集群技术是将一组相互独立的计算机通过高速的通信网络而组成的一个单一的计算机系统,并以单一系统的模式加以管理。
其出发点是提供高可靠性、可扩充性和抗灾难性。
一个服务器集群包含多台拥有共享数据存储空间的服务器,各服务器之间通过内部局域网进行相互通信。
在集群系统中运行的服务器并不一定是高档产品,但服务器的集群却可以提供相当高性能的不停机服务;
每一台服务器都可承担部分计算任务,并且由于群集了多台服务器的性能,整体系统的计算能力将有所提高;
同时,每台服务器还能承担一定的容错任务,当其中某台服务器出现故障时,系统可以在专用软件的支持下将这台服务器与系统隔离,并通过各服务器之间的负载转移机制实现新的负载平衡,同时向系统管理员发出报警信号。
集群系统通过功能(gōngné
ng)整合和故障过渡技术实现系统的高可用性和高可靠性,集群技术还能够提供相对低廉的总体拥有成本和强大灵活的系统扩充能力。
集群高可用性技术可用两种方法来实现:
双机容错(ró
nɡcuò
)多机集群
)技术
(1)
双机系统是由两台服务器和共享存储子系统组成的。
在双机系统中,每台主机都有自己的系统盘,安装操作系统和应用程序;
每台主机至少安装两块网卡,一块连接到网络上,对外提供服务,另一块相互(xiānghù
)与另一台主机连接,用于侦测对方的工作状况;
每台主机都连接在共享磁盘子系统上,共享磁盘子系统通常均为有容错功能的磁盘阵列,各种应用所需的数据均储存在磁盘阵列子系统上。
双机容错系统有两种工作模式:
Active/Standby模式下,两台服务器一主一备。
系统正常运行时,主服务器处于工作状态(Active),另一台服务器则处于备用(standby)状态;
当主服务器出现故障不能提供相关服务时,由各用服务器接替主服务器工作,从而实现容错功能。
在Active/Active模式下,正常运行时,两台服务器都处于工作状态,提供相同的或不同的服务:
当其中任何(rè
nhé
)一台服务器出现故障时,它所承担的工作被对方所接替,使服务不被中断。
在双机容错系统(xì
tǒng)的配置中,双机软件是必不可少的。
双机容错技术
(2)
双机容错系统物理连接图
集群技术
近年来,SMP系统常被作为一个节点构成更大的并行巨型机系统,这就是ClusterSMP(CSMP,集群SMP)系统。
在集群系统中,所有节点可一起工作,如同一个单一集成的计算资源;
每个节点都有自己的操作系统,并能通过共享磁盘来共享关系数据库管理系统。
对于CSMP系统来说,扩展能力只是增加更多的处理器、磁盘、存储器、I/O带宽或另一个节点。
CSMP虽然在技术上比传统的SMP系统更复杂,但却有很多好处,如容易编程、硬件自动容错、动态联机后备、动态批量负载平衡等,且可用性通常比其他结构高。
因此,CSMP代表了未来巨型机结构技术的重要方向。
集群技术的关键是一个结构独立的集群软件,可以是独立的软件厂家的产品,它为多台应用服务群的高可用性管理提供了解决方案。
磁盘阵列和热插拔
磁盘阵列一般指的是RAID磁盘阵列,也就是采用多余的磁盘来对信息进行冗余保存,从而提高磁盘系统的可靠性。
当某个硬盘发生故障时,可以通过保存在其他硬盘上的冗余信息把故障硬盘上的数据全部恢复出来。
热插拔是一种不停机恢复故障硬盘的技术,一般需要和磁盘阵列配合使用。
当磁盘发生故障时,可以在不停机的情况下更换故障硬盘并恢复故障硬盘中的数据,而此时系统正常工作仍在继续。
这种技术只有在发生故障时也不允许服务中断的某些关键场合才需要。
但是这种技术只解决了磁盘子系统的故障问题,当系统发生其他故障时还是需要停机处理,所以在可靠性要求更高的场合还有双机热备份等技术。
ECC内存(nè
n)
内存是一种很重要的部件,程序需要在内存中保存并运行,所有的数据也都需要在内存中处理,内存出错肯定会引起数据错误甚至造成系统死机。
在服务器上一般采用奇偶校验内存,它能够检测到内存1位的错误。
在可靠性要求较高的场合,特别(tè
bié
)是当采用的内存量较大的时候,应该采用ECC内存。
ECC内存能够检测并自动纠正错误。
一般能够检测2位错误,自动纠正任何1位错误。
ECC内存的实现在服务器上也有两种形式:
一种是内存的插槽与普通内存一样,为工业标准的SIMM插槽,内存采用特殊的ECC内存条,错误检测和纠正功能在内存条上实现,低档服务器一般都采用这种方法;
另一种方法是采用特殊的ECC内存卡,多条SIMM内存条插在内存卡上,内存卡上有电路来实现错误的检测和纠正,高档服务器一般采用这种方法。
ISC服务器控制技术
ISC(IntelServerControl)是一种网络监控技术(jì
),只适用于使用Intel架构的带有集成管理功能主权的服务器。
采用这种技术后,用户在一台普通的客户机上,就可以监测网络上所有使用Intel主板的服务器,监控和判断服务器是否正常。
一旦服务器中机箱、电源、风扇、内存、处理器、系统信息、温度、电压或第三方硬件中的任何一项出现错误,就会报警提示管理人员。
值得一提的是,监测端和服务器端之间的网
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 系统集成 项目 管理 工程师 课件 PPT