luokingfly 2019-06-02
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架。Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。
Spark 框架核心组件,以及Spark和Hadoop生态关系
Spark具有如下4个主要特点:
Spark的设计遵循“一个软件栈满足不同应用场景”的理念,逐渐形成了一套完整的生态系统,既能够提供内存计算框架,也可以支持SQL即席查询、实时流式计算、机器学习和图计算等。
Spark 专注于数据的处理分析,而数据的存储还是借助于Hadoop HDFS、Amazon S3等来实现。
Spark 可以部署在资源管理器YARN之上。
Spark 生态系统主要包含了:
Spark 运行流程如下所示。
(1)当一个Spark 应用被提交时,首先需要为这个应用构建起基本的运行环境,即由任务控制节点(Driver)创建一个SparkContext,由SparkContext 负责和集群管理器(Cluster Manager)的通信以及资源的申请、任务的分配和监控等。
(2)集群管理器为Executor 分配资源,并启动Executor 进程,Executor 运行情况将随着心跳发送给Cluster Manager上。
(3)SparkContext 根据RDD 的依赖关系构建DAG 图,DAG图提交给DAG 调度器(DAG Scheduler)进行解析,将DAG 图分解成多个阶段(Stage,每个阶段都是一个任务集),并且计算出各个阶段之间的依赖关系,然后把一个个任务集提交给底层的任务调度器(Task Scheduler)进行处理。
任务调度器将任务(Task)分发给Executor 执行,同时SparkContext 将应用程序代码发送给 Executor。
(4)任务在Executor 上运行,把执行结果反馈给任务调度器,然后反馈给DAG 调度器,运行完毕后写入数据并释放所有资源。
目前,Spark 支持3中不同类型的部署方式,包括Standalone、Spark on YARN和Spark on Mesos。
在Spark出现之前,为了能同时进行批处理和流出来,通常会采用 Hadoop+Storm架构。
在这种部署架构中,Hadoop和Storm框架部署在资源管理框架YARN/Mesos之上,接受统一的资源管理和调度,并共享底层的数据存储(HDFS、HBase、Cassandra等)。
Hadoop 负责对批量历史数据的实时查询和离线分析,而Storm 则负责对流数据的实时处理。如下图所示。
上面的架构部署布局繁琐。由于Spark同时支持批处理和流程,因此可以从上述的Hadoop+Storm 架构,转向Spark 架构。
其中Sparking Streaming的原理是将流数据分解成一系列短小的批处理作业,每个短小的批处理作业使用面向批处理的Spark Core进行处理,通过这种方式变相实现流计算,而不是真正实时的流计算,因而通常无法实现毫秒级的响应。