超融合技术.docx
- 文档编号:3479106
- 上传时间:2022-11-23
- 格式:DOCX
- 页数:40
- 大小:413.18KB
超融合技术.docx
《超融合技术.docx》由会员分享,可在线阅读,更多相关《超融合技术.docx(40页珍藏版)》请在冰豆网上搜索。
超融合技术
超融合基础架构
编辑
本词条缺少名片图,补充相关内容使词条更完整,还能快速升级,赶紧来编辑吧!
超融合基础架构(Hyper-ConvergedInfrastructure,或简称“HCI”)也被称为超融合架构,是指在同一套单元设备(x86服务器)中不仅仅具备计算、网络、存储和服务器虚拟化等资源和技术,而且还包括缓存加速、重复数据删除、在线数据压缩、备份软件、快照技术等元素,而多节点可以通过网络聚合起来,实现模块化的无缝横向扩展(scale-out),形成统一的资源池。
中文名
超融合基础架构
外文名
Hyper-ConvergedInfrastructure
别 名
超融合架构
特 征
统一的管理平台
目录
1.1 定义
2.2 超融合基础架构
3.3 优势
4.4 融合与超融
定义
编辑
超融合基础架构(Hyper-ConvergedInfrastructure,或简称“HCI”)是指在同一套单元设备中不仅仅具备计算、网络、存储和服务器虚拟化等资源和技术,而且还包括备份软件、快照技术、重复数据删除、在线数据压缩等元素,而多套单元设备可以通过网络聚合起来,实现模块化的无缝横向扩展(scale-out),形成统一的资源池。
超融合(甚至超超融合)在本地很容易实现:
将计算、网络和存储都集成在一个设备内,并且通过它由供应商预先配置好且差不多到手就可以使用。
[1] HCI是实现“软件定义数据中心”(SDDC)的终极技术途径。
HCI类似Google、Facebook后台的大规模基础架构模式,可以为数据中心带来最优的效率、灵活性、规模、成本和数据保护。
超融合架构起初是受到Google、Facebook等大型互联网公司通过软件定义技术构建大规模数据中心的启发,结合虚拟化技术和企业IT的场景,为企业实现可扩展的IT基础架构。
[1]
超融合架构(HyperconvergenceInfrastructure,HCI)将虚拟化计算和存储整合到同一个系统平台。
简单的说就是物理服务器上运行虚拟化软件(Hpyervisor),通过在虚拟化软件上运行分布式存储服务供虚拟机使用。
分布式存储可以运行在虚拟化软件上的虚拟机里也可以是与虚拟化软件整合的模块。
广义上,除了虚拟化计算和存储,超融合架构还可以整合网络以及其它更多的平台和服务。
当前业界普遍的共识是:
软件定义的分布式存储层和虚拟化计算是超融合架构的最小集。
[1]
软件定义分布式存储是超融合的核心。
分布式存储解决了集中式共享存储应用在虚拟化场景里的问题:
·基于传统集中式共享存储的架构:
·异构硬件,成本高,升级困难
·集中式存储架构,存单点故障风险
·存储控制器数量有限,无法扩展
·无法充分发挥SSD性能,I/O易成瓶颈
·管理运维复杂[2]
超融合平台特征
∙基于x86通用硬件平台,软件定义存储
在通用的x86架构下,借助SSD、10GbE网络等高速硬件,通过软件的方式实现存储池化、快照、克隆、分层、精简配置等企业级的数据功能。
[2]
∙按需水平扩展
Share-nothing的架构设计,通过增加节点的方式弹性水平扩展,整个集群无扩展瓶颈。
∙统一的管理平台
虚拟化计算和存储在同一个平台进行管理,管理员在同一套平台下进行性能、容量的监控,问题排查等运维工作。
[2]
∙简化交付
交付简单,通常软硬一体机能做到“插电即用”。
软件交付方式也能在内较短的时间(通常1小时内)完成集群安装和部署。
[1]
超融合厂商典型代表有Nutanix、VMware、SmartX、Maxta等,如上文所述,超融合的核心在存储,这些厂商都针对虚拟化场景实现了分布式存储,如:
Nutanix的NDFS,Vmware的vSAN、SmartX的ZBS、Maxta的MxSP。
[2-3]
超融合存储厂商抓住的是用户数据中心虚拟化规模增大后的存储痛点问题(如性能、容量、运维、易用性问题),为虚拟化数据中心构建更快、更易扩展、更易用的存储解决方案,降低数据中心的整体拥有成本。
[1-2]
超融合基础架构
编辑
超融合架构:
基于通用x86平台,成本可控
分布式架构,无单点故障
软件定义,灵活升级
智能HDD/SSD混合存储,极致I/O性能
统一管理平台,简化运维
超融合架构将围绕虚拟化计算的存储、网络集成到了同一个硬件盒子中,生态系统涵盖软件和硬件厂商,因其核心是软件,在这里我们集中讨论三类有代表意义的软件厂商,而并不展开讨论整个生态系统:
[3]
“超融合存储”厂商,作为“超融合”架构概念的来源,Nutanix、SmartX、Simplivity等超融合存储厂商通过其稳定、高性能、丰富的企业级数据保护特性的存储构建了核心竞争力,是目前“超融合”生态圈的核心玩家之一。
[1]
“VMware”,作为虚拟化领域的霸主,VMware为保卫VMware生态系统推出vSAN和EVO:
RAIL,借助vSphere的市场份额,推广其超融合存储解决方案,是目前“超融合”生态圈的第二个大玩家。
[2]
“Openstack等开源阵营”,OpenStack厂商乘风借势,借助开源项目Ceph也推出了自己的超融合解决方案,与超融合存储厂商和VMware一起,初步形成了超融合存储市场的三类玩家。
[1]
优势
编辑
以软件为核心,软件定义数据中心
通用的x86节点融合了存储、计算、网络、虚拟化平台(hypervisor)
分布式存储架构,通过增加节点的方式横向扩容
高度自动化,部署、维护简便
众多节点组成一个整体,统一管理分配资源
融合与超融
编辑
超融合基础架构的迅速发展使得管理员可以在更多的虚拟化存储解决方案当中进行选择。
尽管现在市场上已经拥有多种软件定义存储和存储虚拟化解决方案,但是存储的本质并没有发生变化。
虚拟机体积不会减小,数量也不会降低。
对于现在已经拥有超融合基础架构的企业来说,部署和管理专用超融合基础架构和网络是一种十分宝贵的经验。
尽管这种方式通常需要在硬件和人员方面进行大量投资,但是可靠性和性能表现也是非常值得称道的。
现在,超融合基础架构产品也能够提供很多相关功能,比如数据镜像、去重复化、加密和灾难恢复等。
融合基础架构
融合和超融合基础架构的出现为企业带来了存储方面的困惑:
如何为现有虚拟化环境选择理想的存储解决方案,并且保证其能够适应未来的发展趋势?
为了做出正确的决定,管理员需要理解融合和超融合基础架构之间的区别,以及传统存储硬件将继续扮演怎样的角色。
超融合基础架构。
这是一种将计算、网络和存储等资源作为基本组成元素,根据系统需求进行选择和预定义的过程。
这种方式基于现有的硬件模块,因此能够实现快速扩展,并且如果不同模块之间相互兼容,那么扩展过程将会非常简单。
超融合基础架构这种预配置产品前期会产生大量开销,因为企业不仅需要支付技术费用,还需要请厂商完成完成相关集成工作。
随着时间延长,超融合基础架构总拥有成本能够控制在合理范围之内。
用户在更改和升级基础组件方面拥有部分灵活性,但仅限于超融合基础架构厂商允许的范围之内。
在超融合基础架构当中,存储控制器仍然是硬件设备,并且由“传统”存储区域网络(SAN)或者网络附加存储(NAS)解决方案所控制。
这种方式更加类似于将传统的数据中心组件封装在一个专用容器当中。
超融合基础架构。
“超级”融合基础架构意味着既利用融合基础架构的现有优势,又增加了额外的软件层,将计算、网络和存储等资源封装在单个容器当中,而不是以基础组件的形式提供。
借助于Nutanix或者EVO:
RAIL等相关产品,超融合基础架构可以在存储硬件当中不再使用存储控制器,将这项功能加入到hypervisor层的软件服务当中。
将存储控制器转换为软件服务可以在功能方面提供更大的灵活性。
这种“分散式”超融合基础架构能够降低专用超融合基础架构和网络的复杂性。
在降低本地存储开销的同时,提供许多高级特性,比如复制和去重复化。
由于能够解决企业当中的许多存储问题,融合和超融合基础架构产品已经获得了大量关注。
如果超融合基础架构尝试在存储平台当中使用标准服务器,那么会在硬件耐用性和性能方面遇到问题。
因此可以通过在超融合基础架构当中应用软件定义存储特性来解决这些问题,因为超融合基础架构主要用途就是处理虚拟环境当中的负载。
超融合基础架构相关功能
软件定义存储和超融合基础架构化为企业提供了很多新的特性。
企业需要根据现有超融合基础架构或者将要部署的存储和虚拟化环境来决定使用哪些特性。
仍在使用超融合基础架构的企业也许不会做出巨大变化或者替换现有超融合基础架构,他们将会想要利用软件定义存储技术来添加新的超融合基础架构功能。
同样的道理还适用于想要使用企业级应用程序、需要专用带宽来共享传统SAN/NAS的情况。
在虚拟化超融合基础架构当中使用这些技术是一种可信赖的方式,但是最大的问题在于找到一种能够降低超融合基础架构的平均成本的方式。
虚拟化环境当中的超融合基础架构存储解决方案需要针对不同环境进行相应调整。
没有人会怀疑虚拟化技术的价值,但是将hypervisor存放在哪里是一个极具争议性的话题。
超融合基础架构存储还没有像计算平台那样成为一种成熟技术,企业需要评估成本、复杂性、可靠性和性能表现等多种因素。
评估超融合基础架构存储方案
从存储的角度来说,超融合基础架构更加引人关注。
从硬件角度来说,将计算、网络和存储集中到相同的平台当中是一种理想的迁移方式。
此外,将超融合基础架构存储控制器由硬件组件转变成为软件服务(可以由管理员进行控制,不需要长时间培训)也是一种合理并且受欢迎的做法。
如果预测一下数据中心的未来,虚拟化和超融合基础架构存储发展将会成为主要趋势。
Nutanix已经成为超融合基础架构领域当中的市场领导者。
推动VMwareEVO超级融合基础架构产品不断发展。
尽管尝试预测未来是一件非常复杂的事情,但是对于超融合基础架构存储来说,厂商应该实现产品在成本、灵活性和性能表现之间的最佳平衡。
作为用户,我们有多种选择,不论是在存储还是超融合基础架构领域当中。
谨慎的IT规划通常会包含多种超融合基础架构内容,但是虚拟化、云计算和存储应该成为讨论的核心。
企业希望预测这些领域未来将会发生怎样的变化,所以实际上,企业是在选择一种面向未来的超融合基础架构,也就是现在做出的选择需要为以后留出适应空间。
[2]
目前,大家可以看到来自IDC发布的《2015H1中国超融合市场厂商份额报告》,有提到一个重要的数字:
3.97千万美金,这就是中国超融合市场规模在2015年上半年的总体数字。
[2]
从这个简单的数字可以发现,超融合在中国的发展状态已经非常不错了,只是2015半年的数据就已经超过了2.4亿多人民币市场规模了。
[2]
其中,业内人士透露:
联通沃云基于OpenStack并采用SmartX超融合产品,目前是中国最大规模部署的系统了。
[1
软件定义存储vs超融合
[复制链接]
超融合系统小结
[复制链接]
发表于:
2016-9-2815:
24:
42 最新回复:
2016-10-2613:
40:
13
6937 7
今天我们不讨论SDS(如vSAN、Nexenta、ScaleIO等软硬件解耦,以及我比较认可的ViPR和DJ数据控制分离的产品)技术,也不讨论融合基础架构和超融合基础架构的概念和区别(有很多介绍的文章,大家可以谷歌或度娘一下),我们的重点是聚焦在融合基础架构的生态、主要产品和解决方案。
在讨论融合和超融合架构之前,我们首先来看看融合架构的主要应用场景。
从目前来看,绝大多数融合架构都是基于某种特定应用或场景而设计,这也是融合架构相比传统服务器、网络和存储积木搭建基础架构的优势所在。
主要应用场景包含轻负载虚拟化(VDI、资源池)、混合负载(高性能、或虚拟机租赁等)和数据库加速(以OracleExadata为典型)。
当然,此外还有之前市场上出现的OracleSPARCSuperCluster通用一体机、TeradataAster集成系统、IBMPureSystem专家集成系统、PureApplication应用一体机、PureData大数据和PureScaleDB数据库一体机、各个厂商的HANA一体机(如 HPAppSystemforHANA)等。
随着VMware主推VSANReadyNode,我们所熟知的HDS/Fujitsu/SuperMico/HP/DellSupurEVO:
Rail等产品都转向了VSANReadyNode。
接下来,我们看看目前主流的融合集成架构,主要分为融合基础架构和超融合基础架构,融合基础架构实质上就是联合验证过、并进行调优和优化过的基于积木搭建的系统,如VCE的VBlock、VxBlock、VCN联盟FlexPod等。
超融合系统顾名思义就是高度集成服务器、网络、存储、虚拟化甚至应用的融合系统,也是我们讨论的重点。
目前在市场上,超融合基础架构产品本来繁杂,再加之各自厂商鼓吹,使得客户在面对大量特性同质化产品时,经常面临或陷入选择困窘,不知道到底哪家的产品才能比较切合自己的真实诉求。
为了让大家对目前主流架构有个直观的感觉和了解,在此也对各家厂商的产品和方案进行了简述。
谈起超融合,我们就不得不提Nutanix,Nutanix除了本身基于超微服务器提供融合系统外,还把软件软件OEM给不同厂商,如Dell、联想等知名厂商。
下面我打算以Nutanix超融合系统为例,谈谈我个人对超融合系统如何选择的理解,其他系统如FusionCube、VxRail、VxRack等系统分析,将会在以后文章中陆陆续续呈现给大家。
Nutanix主要有NX-1000、NX-3000、NX-6000、NX-8000和NX-9000系列,在Nutanix的最新官网上已经将NX-7000系列去掉,该系列与NX-8000都是单节点类型,在NX-3000系列中,增加了一种节点类型硬件。
NX9000系列从原来的两节点调整为四节点。
应用场景
根据现网情况和需求匹配,识别所需融合系统是只支持纯虚拟化环境应用,还是需要同时支持物理机部署架构或者混合部署架构。
Nutanix超融合系统是专为虚拟化应用设计,具有很好的虚拟化软件兼容性(vSphere, Hyper-V,KVM),支持10GE/GE网络组网。
如何需要应用支持虚拟化和物理机混合部署,那可能需要选择其他融合系统。
如果部署的应用是明确的(如OracleOLTP),为了保证性能和可靠性,并且在商务接受范围内,我们选购Oracle一体机可能是比较合适的。
性能要求
一般情况超融合性能都是能满足应用要求。
但是决定性能的主要因素在于网络和软件堆栈,如果在10GE/GE网络组网情况下不能满足要求,或有InfiniBand网络的诉求下,Nutanix不能很好满足。
Nutanix的软件运行于VM中,基于NDFS文件系统,Nutanix内部采用文件系统,然后封装各种不同的存储协议应对不同的虚拟化平台。
在性能和时延上有一定损失,但支持SSD做Cache功能,且数据在本地存储,根据数据热点在不同磁盘或节点间迁移;也支持大规模扩展能力。
关键特性
丰富的高级特性也是需要重点考虑,如去重,压缩,自动动分级存储,备份,容灾等高级特性都是企业级存储必备的基本特性。
ScaleOut存储架构实现弹性增长和扩容,采用副本机制(支持2-3副本)、支持EC来满足数据保护要求;广泛的虚拟化兼容(vSphere,Hyper-V,KVM,另外还提供自有的基于KVM虚拟化),灵活自动化安装部署;提供工具快速安装等。
软件堆栈和架构
超融合架构目前主要有两种,一种如vSAN可以集成在Hypervisor层,而另一种如Nutanix,需要在Hypervisor上面运行一个控制虚机CVM来提供存储服务。
Nutanix在架构上分为Prism和Acropolis,Prism 是Nutanix超融合产品的管理系统,可以查看多Clusters的存储,计算资源以及状态,并提供RestAPI,CLI等接口;Acropolis是Nutanix超融合产品的虚拟化平台管理系统,对NutanixDistributedFilesystem(NDFS),AMF以及Hypervisor进行管理。
Acropolis分为分布式存储DSF、应用移动性架构AMF和虚拟化管理器VM。
Nutanix支持vSphere,Hyper-V,AcropolisHypervisor(KVM)等多种虚拟化平台,采用了统一的将存储软件部署于CVM的架构。
分布式存储软件通过Hypervisor的IntelVT-d(VM直接通路)技术特性,访问服务器的本地存储硬件,如SSD,HDD等,并通过NFS,iSCSI接口向所在节点的业务VM提供存储;支持压缩,去重以及复制容灾等高级特性。
每个节点运行着hypervisor(支持ESXi,KVM,Hyper-V)和Nutanix控制器虚机(CVM)。
NutanixCVM中运行着Nutanix核心软件,服务于所有虚机和虚机对应的I/O操作。
通过VM直接通路技术,对于运行着VMwarevSphere的Nutanix单元,SCSI控制(管理SSD和HDD设备)被直接传递到CVM。
Nuntanix通过为数据建立副本,拷贝到其他Nutanix节点存放,来对数据进行多副本保护(支持EC)。
数据从虚拟机先写入到本地Nutanix节点的SSD硬盘中划分出来的OpLog逻辑区域(相当于Cache的作用),本地节点的CVM将数据从本地的SSD的OpLog拷贝到其他节点的SSD的OpLog,拷贝份数可配置。
当其他节点CVM确定数据写入完成后给出应答写入完成。
其他考虑
设备密度高,节省机房机架空间,如2U可以配置4个节点,包含了存储与计算,比以往机架式、刀片服务器与磁盘阵列的解决方案节省了大量的空间。
简化管理运维,通过GUI管理多套设备,可以对单个Cluster内的资源如存储、VM、Hypervisor等进行监控和管理,数字化的状态显示。
7个标准看超融合系统的选择
[复制链接]
面对竞争激烈的超融合系统实现模式,IT决策者需要评估哪种超融合系统产品适合他们的环境。
下面所列的七个超融合存储系统选择标准紧密围绕着成本、可用性和适合程度,这三个基本方面是客观评价任何新技术应用的商业价值的核心。
硬件依赖性
一些超融合服务器、存储产品采用预设计(pre-engineered)的设备,或者经由特定hypervisor供应商认证的硬件平台的形式。
这会导致硬件锁定的情况。
追求一种硬件无关的方式才能使你可以根据自身需要或者新技术的可用情况,在不同时间对系统节点的不同部分进行扩展。
要问的根本问题是:
“要使产品工作,我需要什么样的硬件?
”
着眼于系统扩展性,硬件依赖性也需要被考虑到。
硬件的规格说明越严格,你能够以模块化方式扩展各种组件的能力就越低。
由于组件技术的改进速度各不相同,这使得要及时跟踪创新变得困难。
此外,被锁定在有限的硬件列表中可能会增加后续选购超融合系统产品的成本。
多节点架构
几家hypervisor供应商销售的超融合存储产品都要求系统最少配置三个(或更多)集群节点。
一个节点通常是一台带有软件许可、集群软件、闪存和存储阵列或JBOD的物理服务器。
其中的集群软件可以是hypervisor软件包的一部分,操作系统的一部分,或者是专门的第三方软件。
根据一份最近的实验报告,hypervisor供应商的超融合系统的每节点成本可能是介于8,000到11,000美元的软件许可和介于8,000到14,000美元的服务器和存储硬件。
要创建超融合基础设施,这些数字需要乘以所需节点数,即最小三节点,但建议采用四节点以符合可用性和性能方面的考虑。
相比之下,一些第三方的超融合服务器、存储产品初始可能仅需要两个物理节点,并且可以利用较廉价的硬件(例如SATA,而不是SAS磁盘)。
可管理性
领先的服务器hypervisor供应商和大多数超融合设备提供商都希望他们的软件堆栈用于管理所有连接的资源以及他们所提供的专业服务。
具体到存储,hypervisor供应商希望提供管理功能接口,实现跨节点的数据镜像和复制,存储资源精简配置,重复数据删除和压缩,以及其它在阵列控制器上执行的任务。
从本质上说,他们将从前被存储阵列厂商吹捧为差异化因素的数据增值服务整合到一个基于软件的集中化的控制器上。
你要记住的是,检查这些服务,确保该功能确实是您的基础设施中需要使用的。
例如,仅仅因为某个特定产品提供了一个令人印象深刻的压缩服务并不意味着它的广域网复制服务是最好的。
要知道,尽管超融合系统供应商普遍认为,存储软件服务需要脱离阵列软件栈来实现,现实中很多却选择了避免将存储容量管理从存储阵列控制器中抽象出来的思路。
这是在许多超融合产品里一个值得注意的限制,因为它意味着容量管理必须在每个存储设备上进行独立操作,通常需要专门的工具和技术。
硬件使用效率
选择一个对硬件进行了优化的超融合基础设施产品也很重要。
例如,虽然市场上大多数超融合产品都可以利用DRAM和闪存来创建高速缓存(caches)和缓冲(buffers)以提高应用程序的性能,但并非所有这些产品都在实际中对两者中的任何一个都进行了有效的使用,或者能够使用今天市场上不断涌现的各路产品。
DRAM比闪存更适合于写缓存。
但你可能不明白,当读到某些超融合基础设施供应商的市场资料时,很多时候,闪存用在了它们并不擅长的领域;超融合厂商限制客户使用成本更低的元器件或最佳技术以加速加快应用性能,而要求用户只能使用那些经过厂商认证的产品。
DRAM支持
DRAM加速(也许也包括闪存加速)的支持对于运行多个虚拟机的服务器是必需的。
基于内存的高速缓存和缓冲可以使应用性能得到加速,即使当导致应用性能迟缓的根本原因不是与存储I/O相关的。
理想情况下,也应该支持闪存,但不是强制的。
总体的“适合程度”
适合程度仅仅指的是技术本身与它将要进入的环境如何适应。
这包括它的噪音水平、电力/采暖通风空调的要求、对现场技术工人的要求以及与各种hypervisor的兼容性等一切方面。
当比较备选产品时,草拟一份包含相关设施,工作量和用户约束条件的列表,这是一种提倡的做法。
可用性
你正在考虑的超融合系统软件的集群/数据镜像功能必须包括内存、高速缓存和缓冲区的数据镜像,以及存储在固态硬盘或磁盘中的数据镜像。
高可用性镜像必须能够在不中断应用程序操作的情况下被测试并验证。
你也应该考虑提供的镜像故障切换功能是否作为自动功能,或是需要进行手工配置。
可用性要求双向操作:
故障切换发生后,需要继续提供功能直到故障恢复。
这通常需要镜像回写到缓冲,直到连接被重新建立。
小结
尽管这七个标准并非详尽无遗,但它们应该能够帮助您从超融合系统可选项中筛出那些长期看能够满足您的业务的产品。
如果我要购买一套超融合基础设施产品,我希望它是硬件无关,hypervisor无关,可支持任何厂商的DRAM和闪存产品,并且还带有直连的传统SAN存储的磁盘基础设施(通过后者我可以全面实现我所预期的投资回报率)。
我的最终选择也将是一个可以虚拟化所有存储容量的产品,这样我就可以从单一的软件界面对多个存储节点和异构存储设备进行管理操作,例如容量分配和特殊的存储服务。
转自
Linux命令行的艺术
熟练使用命令行是一种
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 融合 技术