大数据处理框架选型分析.docx
- 文档编号:26008088
- 上传时间:2023-06-17
- 格式:DOCX
- 页数:12
- 大小:70.28KB
大数据处理框架选型分析.docx
《大数据处理框架选型分析.docx》由会员分享,可在线阅读,更多相关《大数据处理框架选型分析.docx(12页珍藏版)》请在冰豆网上搜索。
大数据处理框架选型分析
大数据处理框架选型分析
前 言
说起大数据处理,一切都起源于Google公司的经典论文:
《MapReduce:
SimpliedDataProcessingonLargeClusters》。
在当时(2000年左右),由于网页数量急剧增加,Google公司内部平时要编写很多的程序来处理大量的原始数据:
爬虫爬到的网页、网页请求日志;计算各种类型的派生数据:
倒排索引、网页的各种图结构等等。
这些计算在概念上很容易理解,但由于输入数据量很大,单机难以处理。
所以需要利用分布式的方式完成计算,并且需要考虑如何进行并行计算、分配数据和处理失败等等问题。
针对这些复杂的问题,Google决定设计一套抽象模型来执行这些简单计算,并隐藏并发、容错、数据分布和均衡负载等方面的细节。
受到Lisp和其它函数式编程语言map、reduce思想的启发,论文的作者意识到许多计算都涉及对每条数据执行map操作,得到一批中间key/value对,然后利用reduce操作合并那些key值相同的k-v对。
这种模型能很容易实现大规模并行计算。
事实上,与很多人理解不同的是,MapReduce对大数据计算的最大贡献,其实并不是它名字直观显示的Map和Reduce思想(正如上文提到的,Map和Reduce思想在Lisp等函数式编程语言中很早就存在了),而是这个计算框架可以运行在一群廉价的PC机上。
MapReduce的伟大之处在于给大众们普及了工业界对于大数据计算的理解:
它提供了良好的横向扩展性和容错处理机制,至此大数据计算由集中式过渡至分布式。
以前,想对更多的数据进行计算就要造更快的计算机,而现在只需要添加计算节点。
话说当年的Google有三宝:
MapReduce、GFS和BigTable。
但Google三宝虽好,寻常百姓想用却用不上,原因很简单:
它们都不开源。
于是Hadoop应运而生,初代Hadoop的MapReduce和HDFS即为Google的MapReduce和GFS的开源实现(另一宝BigTable的开源实现是同样大名鼎鼎的HBase)。
自此,大数据处理框架的历史大幕正式的缓缓拉开。
一、基础
1.大数据的定义
“大数据”一词的确切定义其实是很难给出的,因为不同的人(供应商、从业者、商业公司等)对它的理解也并不完全一致。
通常来讲,大数据是:
-大数据集
-用于处理大数据集的某类技术
此处的“大数据集”是指一个数据集的数据量太大以至于无法使用传统工具或单机方式来处理和存储,而处理技术包括数据接入、数据持久化存储、数据计算和分析、数据展示(可视化)等等。
2.大数据的特征
大数据系统的基本需求与传统系统并没有本质上的不同。
但大数据系统虽然具有海量的数据规模,但是对数据的接入和处理速度上也有较高的要求,而且在每个阶段都要对数据进行处理。
这些特点还是为设计解决方案时提供了新的挑战。
在2001年,美国Gartner公司的DougLaney首先提出了“3V”模型来描述大数据处理系统与传统数据处理系统的不同:
Volume
待处理数据的规模在很大程度决定了系统是否为大数据系统。
大数据系统中的数据规模可能比传统处理系统中的数据集大几个数量级,这也为数据处理和存储带来了更多的挑战。
由于数据处理和存储等工作超出了单台计算机所能达到的性能极限,所以大数据系统通常采用集群方式。
集群方式更加考验资源的分配和协调,集群管理和任务分配算法变得越来越重要。
Velocity
大数据与其他数据系统另一个显著的差异体现在数据的“流动”速度。
在大数据系统中,数据经常从多种数据源流入系统,并且以一种近实时的方式进行处理。
数据被持续不断的接入、修改、处理和分析以便能够跟得上新数据的接入速度。
由于近实时处理可以尽早的提供有价值的信息,目前很多商业公司更加青睐于实时处理系统而不是传统的批处理系统。
Variety
大数据系统的问题通常是其他系统所不具备的,因为它所处理的数据来源广泛。
数据源可以是应用程序的日志信息,也可以是社交媒体的用户信息,甚至是物理设备传感器的采集数据。
不论何种数据,大数据系统的目标都是在海量数据中寻找有用的数据。
3.大数据处理流程
那么大数据系统实际上是如何处理数据的呢?
虽然不同公司的架构设计不尽相同,但我们可以总结出一个基本的流程。
下面介绍的流程虽然不是适用于所有情况,但它们确实被广泛使用。
大数据处理的基本流程是:
-接入数据到系统中
-将数据持久化到存储系统
-计算和分析数据
-展示结果(可视化)
4.大数据处理框架的定义
说完了大数据,我们来说说本文的重点——大数据处理框架。
大数据处理框架负责对大数据系统中的数据进行计算。
数据包括从持久存储中读取的数据或通过消息队列等方式接入到系统中的数据,而计算则是从数据中提取信息的过程。
除了大数据处理框架,有些同学可能还听到过“大数据计算框架”、“大数据框架”,这些术语没有严格的区分,但基本可以理解为是一种东西,只不过是对“bigdataprocessingframework”不同的翻译(大数据框架是“bigdataframework”的翻译)。
还有一个名词是“大数据处理引擎”,那么这个“引擎”和我们说的“框架”又有什么关系呢?
其实并没有区分他们的权威的定义,但一般来说,前者是实际负责处理操作的组件,而后者可以理解为用来完成同样工作的一系列组件。
比如ApacheHadoop可以看做是以MapReduce为默认处理引擎的处理框架。
二、数据处理框架分类
不论是系统中存在的历史数据,还是持续不断接入系统中的实时数据,只要数据是可访问的,我们就可以对数据进行处理。
按照对所处理的数据形式和得到结果的时效性分类,数据处理框架可以分为两类:
-批处理系统
-流处理系统
批处理是一种用来计算大规模数据集的方法。
批处理的过程包括将任务分解为较小的任务,分别在集群中的每个计算机上进行计算,根据中间结果重新组合数据,然后计算和组合最终结果。
当处理非常巨大的数据集时,批处理系统是最有效的。
典型的批处理系统就是ApacheHadoop。
而流处理则对由连续不断的单条数据项组成的数据流进行操作,注重数据处理结果的时效性。
典型的流处理系统有ApacheStorm,ApacheSamza。
还有一种系统,同时具备批处理与流处理的能力,这种称为混合处理系统,比如ApacheSpark,ApacheFlink。
接下来我们来详细介绍这三种处理系统。
三、批处理系统
批处理系统在大数据世界中有着悠久的历史。
批处理系统主要操作大量的、静态的数据,并且等到全部处理完成后才能得到返回的结果。
批处理系统中的数据集一般符合以下特征:
-有限:
数据集中的数据必须是有限的(无限的数据一批就处理不完了啊。
连续不断的数据一般会使用流处理系统来进行处理,我们后面会讲到)
-持久:
批处理系统处理的数据一般存储在持久存储系统上(比如硬盘上、数据库中)
-海量:
极海量的数据通常只能使用批处理系统来处理。
批处理系统在设计之初就充分的考虑了数据量巨大的问题,实际上批处理系统也是为此而生的。
由于批处理系统在处理海量的持久数据方面表现出色,所以它通常被用来处理历史数据,很多OLAP(在线分析处理)系统的底层计算框架就是使用的批处理系统。
但是由于海量数据的处理需要耗费很多时间,所以批处理系统一般不适合用于对延时要求较高的场景。
ApacheHadoop
说起大数据处理框架,永远也绕不开Hadoop。
Hadoop是首个在开源社区获得极大关注的大数据处理框架,在很长一段时间内,它几乎可以作为大数据技术的代名词。
在2.0版本以后,Hadoop由以下组件组成:
-Hadoop分布式文件系统HDFS:
HDFS是一种分布式文件系统,它具有很高的容错性,适合部署在廉价的机器集群上。
HDFS能提供高吞吐量的数据访问,非常适合在大规模数据集上使用。
它可以用于存储数据源,也可以存储计算的最终结果。
-资源管理器YARN:
YARN可以为上层应用提供统一的资源管理和调度,它可以管理服务器的资源(主要是CPU和内存),并负责调度作业的运行。
在Hadoop中,它被设计用来管理MapReduce的计算服务。
但现在很多其他的大数据处理框架也可以将YARN作为资源管理器,比如Spark。
-MapReduce:
即为Hadoop中默认的数据处理引擎,也是Google的MapReduce论文思想的开源实现。
使用HDFS作为数据源,使用YARN进行资源管理。
从今天的眼光来看,MapReduce作为Hadoop默认的数据处理引擎,存在着很多的不足。
比如:
编程模型抽象程度较低,仅支持Map和Reduce两种操作,需要手工编写大量的代码;Map的中间结果需要写入磁盘,多个MR之间需要使用HDFS交换数据,因此不适合迭代计算(机器学习、图计算);任务的启动和调度开销较大等。
随着更多高性能处理引擎的发展,目前在企业中使用MapReduce进行计算的应用已经呈下降趋势(HDFS及YARN仍然被广泛使用),但虽然如此,MapReduce作为最早的大数据处理引擎,仍然值得被我们铭记。
四、流处理系统
批处理系统好理解,那什么是流处理系统呢?
小学的时候我们都做过这么一道数学题:
一个水池有一个进水管和一个出水管,只打开进水管8个小时充满水,只打开出水管6个小时流光水,那么同时打开进水管和出水管,水池多长时间充满水?
好吧,这道题的答案是永远也充不满……因为出水管出水比较快嘛。
流处理系统就相当于这个水池,把流进来的水(数据)进行加工,比如加盐让它变成盐水,然后再把加工过的水(数据)从出水管放出去。
这样,数据就像水流一样永不停止,而且在水池中就被处理过了。
所以,这种处理永不停止的接入数据的系统就叫做流处理系统。
流处理系统与批处理系统所处理的数据不同之处在于,流处理系统并不对已经存在的数据集进行操作,而是对从外部系统接入的的数据进行处理。
流处理系统可以分为两种:
-逐项处理:
每次处理一条数据,是真正意义上的流处理。
-微批处理:
这种处理方式把一小段时间内的数据当作一个微批次,对这个微批次内的数据进行处理。
不论是哪种处理方式,其实时性都要远远好于批处理系统。
因此,流处理系统非常适合应用于对实时性要求较高的场景,比如日志分析,设备监控、网站实时流量变化等等。
由于很多情况下,我们想要尽快看到计算结果,所以近些年流处理系统的应用越来越广泛。
下面我们来了解两种流处理系统。
ApacheStorm
ApacheStorm是一种侧重于低延迟的流处理框架,它可以处理海量的接入数据,以近实时方式处理数据。
Storm延时可以达到亚秒级。
Storm含有如下关键概念:
-Topology:
Stormtopology中封装了实时应用程序的逻辑。
Stormtopology类似于MapReduce作业,但区别是MapReduce最终会完成,而topology则会一直运行(除非被强制停止)。
Topology是由spouts和bolts组成的DAG(有向无环图)。
-Stream:
Stream是一种不断被接入Storm中的无界的数据序列。
-Spout:
Spout是topology中Stream的源。
Spout从外部数据源读取数据并接入到Strom系统中
-Bolt:
Bolt用于Storm中的数据处理,它可以进行过滤、聚合、连接等操作。
将不同的bolt连接组成完整的数据处理链条,最后一个bolt用来输出(到文件系统或数据库等)。
Storm的基本思想是使用spout拉取stream(数据),并使用bolt进行处理和输出。
默认情况下Storm提供了“atleastonce”的保证,即每条数据被至少消费一次。
当一些特殊情况(比如服务器故障等)发生时,可能会导致重复消费。
为了实现“exactlyonce”(即有且仅有一次消费),Storm引入了Trident。
Trident可以将Storm的单条处理方式改变为微批处理方式,但同时也会对Storm的处理能力产生一定的影响。
值得一提的是,一些国内的公司在Storm的基础上进行了改进,为推动流处理系统的发展做出了很大贡献。
阿里巴巴的JStorm参考了Storm,并在网络IO、线程模型、资源调度及稳定性上做了改进。
而华为的StreamCQL则为Storm提供了SQL查询语义。
ApacheSamza
提到ApacheSamza,就不得不提到当前最流行的大数据消息中间件:
ApacheKafka。
ApacheKafka是一个分布式的消息中间件系统,具有高吞吐、低延时等特点,并且自带了容错机制。
以下是Kafka的关键概念:
-Broker:
由于Kafka是分布式消息中间件,所以需要多个节点来存储数据。
Broker即为Kafka集群中的单个节点。
-Topic:
用于存储写入Kafka的数据流。
如同它的字面含义——主题,不同主题的数据流最好写入不同的topic,方便后续的处理。
-Partition:
每个topic都有1到多个partition,便于分散到不同的borker中。
多个partition的数据合并在一起组成了topic完整的数据。
-Producer:
消息的生产者,用来将消息写入到Kafka集群。
-Consumer:
消息的消费者,用来读取Kafka中的消息并进行处理。
虽然Kafka被广泛应用于各种流处理系统做数据源,但Samza可以更好的发挥Kafka架构的优势。
根据官网的解释,Samza由三个层次组成:
-数据流层
-执行层
-处理层
支持三个层次的组件分别为:
-Kafka
-YARN
-SamzaAPI
也就是说,Samza使用Kafka提供了数据流,使用YARN进行资源管理,自身仅提供了操作数据流的API。
Samza对Kafka和YARN的依赖在很多方面上与MapReduce对HDFS和YARN的依赖相似。
如果已经拥有Hadoop集群和Kafka集群环境,那么使用Samza作为流处理系统无疑是一个非常好的选择。
由于可以很方便的将处理过的数据再次写入Kafka,Samza尤其适合不同团队之间合作开发,处理不同阶段的多个数据流。
五、混合处理系统:
批处理和流处理
一些处理框架既可以进行批处理,也可以进行流处理。
这些框架可以使用相同或相关的API处理历史和实时数据。
当前主流的混合处理框架主要为Spark和Flink。
虽然专注于一种处理方式可能非常适合特定场景,但是混合框架为数据处理提供了通用的解决方案。
ApacheSpark
如果说如今大数据处理框架处于一个群星闪耀的年代,那Spark无疑就是所有星星中最闪亮的那一颗。
Spark由加州大学伯克利分校AMP实验室开发,最初的设计受到了MapReduce思想的启发,但不同于MapReduce的是,Spark通过内存计算模型和执行优化大幅提高了对数据的处理能力(在不同情况下,速度可以达到MR的10-100倍,甚至更高)。
相比于MapReduce,Spark具有如下优点:
-提供了内存计算模型RDD(ResilientDistributedDataset,弹性分布式数据集),将数据读入内存中生成一个RDD,再对RDD进行计算。
并且每次计算结果可以缓存在内存中,减少了磁盘IO。
因此很适用于迭代计算。
-不同于MapReduce的MR模型,Spark采用了DAG编程模型,将不同步骤的操作串联成一个有向无环图,可以有效减少任务间的数据传递,提高了性能。
-提供了丰富的编程模型,可以轻松实现过滤、连接、聚合等操作,代码量相比MapReduce少到令人发指,因此可以提高开发人员的生产力。
-支持Java、Scala、Python和R四种编程语言,为不同语言的使用者降低了学习成本。
而Spark的流处理能力,则是由SparkStreaming模块提供的。
Spark在设计之初与MapReduce一样是用于批处理系统,为了适应于流处理模式,Spark提出了微批次(Micro-Batch)的概念,即把一小段时间内的接入数据作为一个微批次来处理。
这样做的优点是在设计SparkStreaming时可以很大程度上重用批处理模块(SparkCore)的代码,开发人员也不必学习两套编程模型。
但缺点就是,与Storm等原生的流处理系统相比,SparkStreaming的延时会相对高一些。
除了最初开发用于批处理的SparkCore和用于流处理的SparkStreaming,Spark还提供了其他编程模型用于支持图计算(GraphX)、交互式查询(SparkSQL)和机器学习(MLlib)。
但Spark也不是没有缺点。
在批处理领域,由于内存是比硬盘更昂贵的资源,所以Spark集群的成本比MapReduce集群更高。
而在流处理领域,微批次的架构使得它的延时要比Storm等流处理系统略高。
不过瑕不掩瑜,Spark依然是如今最炙手可热的数据处理框架。
ApacheFlink
有趣的是,同样作为混合处理框架,Flink的思想与Spark是完全相反的:
Spark把流拆分成若干个小批次来处理,而Flink把批处理任务当作有界的流来处理。
其本质原因是,Spark最初是被设计用来进行批处理的,而Flink最初是被设计用来进行流处理的。
这种流处理优先的方式叫做Kappa架构,与之相对的使用批处理优先的架构叫做Lambda架构。
Kappa架构会使用处理流的方式处理一切,以此来简化编程模型。
这一切是在最近流处理引擎逐渐成熟起来才有可能实现的。
Flink的流处理模型将逐项输入的数据作为真实的流处理。
Flink提供了DataStreamAPI用于处理无尽的数据流。
Flink的基本组件包括:
-Stream:
Stream是流过系统的不可变的、无界的数据集
-Operator:
Operator用来操作数据流以产生新的数据流(stream)
-Source:
Source是数据流(stream)进入系统的入口
-Sink:
Sink是数据流(stream)流出Flink系统后的位置。
它可能是数据库或到其他系统的连接器
Flink的流处理思想与Storm类似,以source接入数据,通过不同的operator进行transformation,最后输出到sink。
Flink的提供了DataSetAPI用于批处理。
Flink的批处理在很大程度上可以看作是流处理的一种扩展,它读取在持久存储系统上的数据,并把去除的数据集当成一个有边界的流来处理。
与Spark相同,Flink也提供了较为完整的数据处理方式。
除了上面介绍的流处理(DataStreamAPI)和批处理(DataSetAPI)之外,Flink还提供了类SQL查询(TableAPI)、图计算(Gelly)和机器学习库(FlinkML)。
而令人惊讶的是,在很多性能测试中,Flink甚至略优于Spark。
在目前的数据处理框架领域,Flink可谓独树一帜。
虽然Spark同样也提供了批处理和流处理的能力,但Spark流处理的微批次架构使其响应时间略长。
Flink流处理优先的方式实现了低延迟、高吞吐和真正逐条处理。
同样,Flink也并不是完美的。
Flink目前最大的缺点就是缺乏在大型公司实际生产项目中的成功应用案例。
相对于Spark来讲,它还不够成熟,社区活跃度也没有Spark那么高。
但假以时日,Flink必然会改变数据处理框架的格局。
六、大数据处理框架的选择
1.对于初学者
由于ApacheHadoop在大数据领域的广泛使用,因此仍推荐作为初学者学习数据处理框架的首选。
虽然MapReduce因为性能原因以后的应用会越来越少,但是YARN和HDFS依然作为其他框架的基础组件被大量使用(比如HBase依赖于HDFS,YARN可以为Spark、Samza等框架提供资源管理)。
学习Hadoop可以为以后的进阶打下基础。
ApacheSpark在目前的企业应用中应该是当之无愧的王者。
在批处理领域,虽然Spark与MapReduce的市场占有率不相上下,但Spark稳定上升,而MapReduce却稳定下降。
而在流处理领域,SparkStreaming与另一大流处理系统ApacheStorm共同占据了大部分市场(当然很多公司会使用内部研发的数据处理框架,但它们多数并不开源)。
伯克利的正统出身、活跃的社区以及大量的商用案例都是Spark的优势。
除了可用于批处理和流处理系统,Spark还支持交互式查询、图计算和机器学习。
Spark在未来几年内仍然会是大数据处理的主流框架,推荐同学们认真学习。
另一个作为混合处理框架的ApacheFlink则潜力无限,被称作“下一代数据处理框架”。
虽然目前存在社区活跃度不够高、商用案例较少等情况,不过“是金子总会发光”,如果Flink能在商业应用上有突出表现,则可能挑战Spark的地位。
2.对于企业应用
如果企业中只需要批处理工作,并且对时间并不敏感,那么可以使用成本较其他解决方案更低的Hadoop集群。
如果企业仅进行流处理,并且对低延迟有着较高要求,Storm更加适合,如果对延迟不非常敏感,可以使用SparkStreaming。
而如果企业内部已经存在Kafka和Hadoop集群,并且需要多团队合作开发(下游团队会使用上游团队处理过的数据作为数据源),那么Samza是一个很好的选择。
如果需要同时兼顾批处理与流处理任务,那么Spark是一个很好的选择。
混合处理框架的另一个好处是,降低了开发人员的学习成本,从而为企业节约人力成本。
Flink提供了真正的流处理能力并且同样具备批处理能力,但商用案例较少,对于初次尝试数据处理的企业来说,大规模使用Flink存在一定风险。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数据处理 框架 选型 分析