spark系列之基本概念

Johnson0 2020-07-28

Spark的架构图

spark系列之基本概念

1、RDD(弹性分布式数据集)

RDD是对象的分布式集合。

RDD以并行方式应用和记录数据转换

RDD也提供数据沿袭——以图形形式给出每个中间步骤的祖先树,当RDD的一个分区丢失,可以根据祖先树重建该分区。

RDD有两组操作,转换(transformation)和行动(action),RDD转换是有惰性的,宽窄依赖。

2、SparkSession

本质上是对SparkConf、SparkContext、SQLContext、SQLContext、HiveContext和StreamingContext等的组合。

SparkSession是读取数据、处理元数据、配置会话和管理集群资源的入口。

3、Dataset和DataFrame

DataSet是分布式的数据集合,Dataset提供了强类型支持,也是在RDD的每行数据加了类型约束。DataSet是在Spark1.6中添加的新的接口。

  它集中了RDD的优点(强类型和可以用强大lambda函数)以及使用了Spark SQL优化的执行引擎。DataSet可以通过JVM的对象进行构建,可以用函数式的转换(map/flatmap/filter)进行多种操作。

DataFrame开始被定义为指定到列的数据集(Dataset),DF可以生成临时表,使用SQL语言。

Dataset和DataFrame的之间可以相互转换。

4、Spark SQL

Spark SQL使用的是Catalyst优化器,基本支持大多数SQL语法。

5、Spark Streaming

Spark Streaming是一个准实时的流式处理工具,按照时间切分,批处理一个个切分后的文件。底层依然是Spark离线处理的逻辑。

相关推荐

zhixingheyitian / 0评论 2020-07-04