Spark_Spark中 Stage, Job 划分依据 , Job, Stage, Task 高阶知识

这篇具有很好参考价值的文章主要介绍了Spark_Spark中 Stage, Job 划分依据 , Job, Stage, Task 高阶知识。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

上一篇文章中 : Spark_Spark 中 Stage, Job 划分依据 , Job, Stage, Task 基础知识_spark stage job_高达一号的博客-CSDN博客

主要解读了Stage, job, task 的划分标准,这篇文章将对这些信息进行进一步解读。

一. Job、Stage、Task的概念


在讲Spark的任务的划分和调度之前,需要明确Spark中Job、Stage、Task的概念。

  • Job:Spark中的算子分为转换(transformation)算子和行动(action)算子,一个action就会触发一个Job。
  • Stage:一个Job分为一个或者多个Stage,Stage以RDD宽依赖(也就是shuffle)为界,shuffle前后的RDD属于不同的Stage,Stage的数量等于shuffle操作的数量+1,如图

Spark_Spark中 Stage, Job 划分依据 , Job, Stage, Task 高阶知识,Spark,spark,大数据,分布式

  •  Task:一个Stage包含一个或者多个Task,一个Stage包含的Task的数量等于这个Stage最后一个RDD的partition的数量。Task中包含了这个计算任务的计算逻辑以及数据位置等信息,Task是Executor执行任务的最小单位。

二. Spark任务执行的流程


在上一篇文章中,我们讲解了Spark提交任务的整个流程(Spark on Yarn提交任务过程)。以yarn cluster模式提交一个Spark任务之后,会依次做以下几件事情:

  1. 启动ApplicationMaster
  2. ApplicationMaster会启动Driver线程
  3. Driver线程进行SparkContext的初始化,SparkContext中有三个重要的组件:DAGScheduler,TaskScheduler,SchedulerBackend
  4. ApplicationMaster向yarn ResourceManager申请Container资源,申请成功后启动Executor,Executor会向Driver反向注册
  5. action行动算子触发,向Driver线程提交一个Job
  6. Job执行完毕,Spark程序执行完成

这篇文章主要就是讲解第5步。action行动算子触发后,会生成一个Job,然后向Driver提交,整个过程如何呢?

1. DAGScheduler,TaskScheduler,SchedulerBackend


DAGScheduler,TaskScheduler,SchedulerBackend是Driver中三个非常重要的组件,他们的作用如下:

  • DAGScheduler:根据RDD的依赖关系,将Job划分为一个或多个Stage,每个Stage会依据最后一个RDD的partition的数量生成一个或多个Task,同一Stage的Task属于同一TaskSet(任务集),DAGScheduler向TaskScheduler提交任务是以TaskSet为单位
  • TaskScheduler:接收来自DAGScheduler提交的TaskSet,向Executor分发Task
  • SchedulerBackend:TaskScheduler与Executor进行RPC通信的后台
     

Spark_Spark中 Stage, Job 划分依据 , Job, Stage, Task 高阶知识,Spark,spark,大数据,分布式

 

2. Job提交的流程


RDD经过一系列transformation算子,形成RDD的血缘关系图,并得到ResultRDD。ResultRDD提交给DAGScheduler,DAGScheduler能通过ResultRDD得到所有RDD的依赖关系(DAG图),并依据DAG图将Job划分得到一个或多个Stage,每一个Stage会形成一个TaskSet,DAGScheduler会依次向TaskScheduler提交这些TaskSet。TaskScheduler负责Task级别的调度,调度过程由SchedulerBackend向TaskScheduler返回可用的Executor列表,TaskScheduler依据一定的策略从TaskPool中取出TaskSet,然后将TaskSet中的Task分发给Executor执行,分发Task的命令同样由SchedulerBackend通过RPC向Executor传达。各个模块之间的交互如图所示:

Spark_Spark中 Stage, Job 划分依据 , Job, Stage, Task 高阶知识,Spark,spark,大数据,分布式

 

parititon和task的关系

来源 :spark task partition 并行度 线程 stage等的关系

Task是Spark中最新的执行单元。RDD一般是带有partitions的,每个partition的在一个executor上的执行可以任务是一个Task。
每个Task执行的结果就是生成了目标RDD的一个partiton。
每个Executor由若干core组成,每个Executor的每个core一次只能执行一个Task

三. DAGScheduler


DAGScheduler的runJob方法用来对RDD的行动算子生成一个Job,并对Job进行调度和提交,整个过程如下:

  1. 为这个Job生成一个JobId,这个JobId是全局唯一的。
  2. 生成finalStage,finalStage是RDD的DAG图中最后一个Stage。
  3. 依据DAG图,从finalStage一级一级向上找他的parent stage,直到第一级的Stage,第一级的Stage没有parent stage,即他不依赖其他的Stage。
  4. 将第一级Stage生成为一个TaskSet,TaskSet包含了一系列Task,每一个Task就是这个Stage的RDD的一个partiton的计算任务,Task中包含了这个计算任务的计算逻辑以及partiton的数据位置等信息。
  5. 将这个TaskSet提交给TaskScheduler。
  6. TaskScheduler执行完TaskSet中的所有Task,会通知DAGScheduler,DAGScheduler对这个TaskSet对应的Stage的childStage执行第4步,如此往复循环,直到执行完finalStage,整个Job就算完成了。
     

Spark_Spark中 Stage, Job 划分依据 , Job, Stage, Task 高阶知识,Spark,spark,大数据,分布式

 

四. TaskScheduler


TaskScheduler接收来自DAGScheduler提交的TaskSet,并放入任务池(Pool),通过一定的策略不断地从Pool中取出TaskSet,然后将TaskSet中的Task分发给Executor执行。整个过程如下:

  1. 将TaskSet封装为一个TaskSetManager
  2. 将TaskSetManager加入到Pool中
  3. TaskScheduler向SchedulerBackend发出一条ReviveOffers命令
  4. SchedulerBackend接收到命令,向TaskScheduler返回可用的Executor列表以及这些Executor的相关的信息
  5. TaskScheduler按照一定的策略和任务优先级从Pool中依次取出TaskSetManager,然后将TaskSetManager中的Task分发给Executor,分发的原则是尽可能地将Task均匀地分发给Executor,同时会考虑节点本地性
  6. TaskScheduler将Task->Executor的映射信息打包成TaskDescription发送给SchedulerBackend。
  7. SchedulerBackend根据TaskDescription将每个Task分发到其对应的Executor
  8. Executor执行完分发给他的Task,通知TaskScheduler
  9. 如果TaskScheduler发现TaskSet中的所有Task都已经完成了,则会通知DAGScheduler,然后DAGScheduler继续向TaskScheduler提交下一个TaskSet

Spark_Spark中 Stage, Job 划分依据 , Job, Stage, Task 高阶知识,Spark,spark,大数据,分布式

 

五. TaskScheduler的调度TaskSet和分配Task的原理

1. TaskSet的调度


TaskScheduler内部有两个调度算法:FIFO(先进先出算法)和FAIR(公平调度算法),默认是使用FIFO算法,也就是哪个TaskSet先提交,哪个TaskSet的优先级就越高。而FAIR算法则会综合考虑TaskSet的Task数量以及Task运行所需要的资源,总的来说就是,Task数越少、Task运行所需资源越少的TaskSet优先级越高。

2. Task的分配


Task的分配指的是将TaskSet中的哪个Task分配给哪个Executor,依据的原则主要是Task的节点本地性(TaskLocality)。

2.1 什么是节点本地性

Task内部有一个成员变量:
 

def preferredLocations: Seq[TaskLocation] = Nil

 preferredLocations表明了这个Task的位置偏好,这个变量的值是根据Task的数据的位置得到的,可以是一个hostName或者execotorId。例如,如果Task的数据是在192.168.5.101和192.168.5.102这两台机器上,那么:

preferredLocations=["192.168.5.101","192.168.5.102"]

然后,TaskSetManager内部有这么几个变量,用来保存他的所有的Task的节点偏好:

  // Set of pending tasks for each executor.
  val forExecutor = new HashMap[String, ArrayBuffer[Int]]
  // Set of pending tasks for each host. Similar to pendingTasksForExecutor, but at host level.
  val forHost = new HashMap[String, ArrayBuffer[Int]]
  // Set containing pending tasks with no locality preferences.
  val noPrefs = new ArrayBuffer[Int]
  // Set of pending tasks for each rack -- similar to the above.
  val forRack = new HashMap[String, ArrayBuffer[Int]]
  // Set containing all pending tasks (also used as a stack, as above).
  val all = new ArrayBuffer[Int]
  • forExecutor是一个HashMap,key为executorId,value是preferredLocations为这个executor的所有task的taskId
  • forHost是一个HashMap,key为hostName,value是preferredLocations为这个host的所有task的taskId
  • noPrefs是一个Array,保存了所有无任何preferredLocations的task的taskId
  • forRack是一个HashMap,key为rackName,value是preferredLocations为这个rack的所有task的taskId
  • all是一个Array,保存了所有task的taskId,可以理解为是上面4个集合的taskId的并集

TaskSetManager中还有一个重要的成员变量:

private[scheduler] var myLocalityLevels:Array[TaskLocality.TaskLocality]

这个变量保存了TaskSetManager的本地性级别(locality levels),这个变量是根据上述5个集合是否为空来确定的:

//伪码:
myLocalityLevels=new Array[TaskLocality.TaskLocality]
if forExecutor.isNotEmpty:
	myLocalityLevels += PROCESS_LOCAL
if forHost.isNotEmpty:
	myLocalityLevels += NODE_LOCAL
if noPrefs.isNotEmpty:
	myLocalityLevels += NO_PREF
if forRack.isNotEmpty:
	myLocalityLevels += RACK_LOCAL
myLocalityLevels += Any

举个例子:
TaskSetManager中有3个Task,他们的preferredLocations分别为:

task1:preferredLocations=["192.168.5.101"]  //task1的数据在192.168.5.101这台机器上
task2:preferredLocations=["executor 1"]     //task2的数据在executor 1这个executor上
task3:preferredLocations=["192.168.5.102"]  //task3的数据在192.168.5.102这台机器上

那么5个集合的值为:

forExecutor:["executor 1"->[2]]  //task2的preferredLocations为executor 1
forHost:["192.168.5.101"->[1],"192.168.5.102"->[3]] //task1的preferredLocations为"192.168.5.101",task3的preferredLocations为"192.168.5.102"
noPrefs:None
forRack:None
all:[1,2,3] //一共有三个task,task1,task2和task3

那么myLocalityLevels的值为:

myLocalityLevels = [PROCESS_LOCAL,NODE_LOCAL,ANY]

2.2 如何按照preferredLocations来分配Task


TaskScheduler为Executor分配Task时,会遍历myLocalityLevels,依次按照PROCESS_LOCAL、NODE_LOCAL、NO_PREF、RACK_LOCAL、Any的顺序来为Executor分配Task,如果某个Executor能找到符合当前TaskLocality的Task,那么就把这个Task分配给这个Executor。仍然以上面那个例子为例,TaskSetManager的5个集合以及myLocalityLevels为:
 

forExecutor:["executor 1"->[2]]  //task2的preferredLocations为executor 1
forHost:["192.168.5.101"->[1],"192.168.5.102"->[3]] //task1的preferredLocations为"192.168.5.101",task3的preferredLocations为"192.168.5.102"
noPrefs:None
forRack:None
all:[1,2,3] //一共有三个task,task1,task2和task3
myLocalityLevels = [PROCESS_LOCAL,NODE_LOCAL,ANY]

Executor及其所在的及其的hostname为:

"executor 1" -> "192.168.5.101" 
"executor 2" -> "192.168.5.102"
"executor 3" -> "192.168.5.103"
  1. 当前TaskLocality为PROCESS_LOCAL,遍历所有的Executor,发现 “executor 1” 在forExecutor的keySet中,并且对应的value为[2],因此将task2分配为“executor 1”
  2. 当前TaskLocality为NODE_LOCAL,遍历所有的Executor,发现 “executor 1” 所在的host为 “192.168.5.101”,且 “192.168.5.101” 在forHost的keySet中,对应的value为[1],因此将task1分配给“executor 1”;发现"executor 2" 所在的host为 “192.168.5.102”,且 “192.168.5.102” 在forHost的keySet中,对应的value为[3],因此将task3分配给“executor 2”
  3. 当前TaskLocality为ANY,但所有Task都已经分配完了,因此不进行分配
  4. 分配结束

用伪码表示这个过程:

for currentLocality <- taskSetManager.myLocalityLevels:
	for executor <- allExecutors:
		if executor in currentLocality对应的集合:
			task = 集合中executor对应的value
			if task未分配:
				将task分配给executor

2.3 一个小坑


在Standalone模式下,如果Task的数据源是HDFS,那么Task在计算他的preferredLocations时,计算出的是这个Task的数据所在机器的hostname,例如,task1的数据在HDFS集群的192.168.5.101这个节点上有一个副本,而192.168.5.101这台服务器的hostname为“hadoop1”那么他的preferredLocations为:
 

preferredLocations=["hadoop1"]

然而,Spark计算某个Executor所在的节点时,默认情况下使用的是这个节点的IP地址,如果executor 1所在的host为192.168.5.101,那么在遍历forHost集合时,会认为“192.168.5.101”不在forHost的keySet中(因为forHost的keySet保存的是服务器的hostname,而不是ip地址),而实际上“192.168.5.101”和"hadoop1"是同一台服务器,因此在按照TaskLocality分配Task的过程中,可能不会正确地将task1分配给executor 1。
那么怎么解决这个问题呢?只需要在每个节点的spark-env.sh配置文件中显示地指定这个节点的hostname:
 

export SPARK_LOCAL_HOSTNAME=*hostname of this node*

注意,这个坑只在Standalone模式下才会出现,yarn模式下是不会出现的。文章来源地址https://www.toymoban.com/news/detail-655963.html

到了这里,关于Spark_Spark中 Stage, Job 划分依据 , Job, Stage, Task 高阶知识的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 直线导轨的精密等级以及划分依据

    直线导轨的作用,是用来支撑和引导运动部件,按给定的方向做往复直线运动的,直线导轨是高精密度的传动元件,广泛使用在各行各业中。 直线导轨的精密等级是判断产品质量的一个重要指标。在众多种类的直线导轨产品中,精密等级的衡量是绕不开的。那么划分精密等级

    2024年02月14日
    浏览(28)
  • 决策树的划分依据之:信息增益率

    在上面的介绍中,我们有意忽略了\\\"编号\\\"这一列.若把\\\"编号\\\"也作为一个候选划分属性,则根据信息增益公式可计算出它的信息增益为 0.9182,远大于其他候选划分属性。 计算每个属性的信息熵过程中,我们发现,该属性的值为0, 也就是其信息增益为0.9182. 但是很明显这么分类,最后

    2024年02月14日
    浏览(32)
  • 机器学习---决策树的划分依据(熵、信息增益、信息增益率、基尼值和基尼指数)

    1. 熵 物理学上,熵 Entropy 是“混乱”程度的量度。 系统越有序,熵值越低;系统越混乱或者分散,熵值越⾼。 1948年⾹农提出了信息熵(Entropy)的概念。        从信息的完整性上进⾏的描述:当系统的有序状态⼀致时,数据越集中的地⽅熵值越⼩,数据 越分散的地⽅熵值

    2024年02月10日
    浏览(35)
  • TOOD Task-aligned One-stage Object Detection 论文学习

    目标检测通过多任务学习的方式,协同优化目标的分类和定位。分类任务会学习目标的判别特征,关注于目标的显著性或关键区域,而定位任务则学习准确地定位目标的边界。因为定位和分类的学习机制不同,这俩任务学到的特征分布也不同。当这两个分支做预测时,会产生

    2024年02月15日
    浏览(27)
  • Spark中的Driver、Executor、Stage、TaskSet、DAGScheduler等介绍

    工作流程: Driver 创建 SparkSession 并将应用程序转化为执行计划,将作业划分为多个 Stage,并创建相应的 TaskSet。 Driver 将 TaskSet 发送给 TaskScheduler 进行调度和执行。 TaskScheduler 根据资源情况将任务分发给可用的 Executor 进程执行。 Executor 加载数据并执行任务的操作,将计算结果

    2024年02月04日
    浏览(30)
  • 考研依据数学思维导图,整理出的章节知识大纲

    线性代数 | 整体写 | 第二章矩阵及其运算|整体文档|(思维导图,概念)-CSDN博客 线性代数 | 分开写 | 第二章 矩阵及其运算 | 1 线性方程组和矩阵-CSDN博客 线性代数 | 分看写 |第二章 矩阵及其运算 | 2 矩阵的运算-CSDN博客  线性代数 | 分开写 |第二章 矩阵及其运算 | 3. 逆矩阵-C

    2024年04月22日
    浏览(29)
  • ERROR Executor: Exception in task 0.0 in stage 1.0 (TID 1)Long cannot be cast to java.lang.String

    问题 尝试使用spark写入Hbase报错 这是报错行,rowkey的id这个字段是我使用sparkSQL自带的函数临时添加的,打印schema发现是long类型 原因 java Long类型好像不能getAs为String,所以报错了 解决 将这个字段转换为String再次尝试

    2024年02月12日
    浏览(63)
  • Spark SQL报错: Task failed while writing rows.

    今天运行 Spark 任务时报了一个错误,如下所示: ORC 仅在 HiveContext 中受支持,但这里使用 SQLContext。 SQLContext 存在一些问题,尝试使用 HiveContext。 使用以下配置来解决: native 和 hive 二选一, native 是基于 ORC1.4,表示使用 Spark SQL 提供的本地ORC实现方式。 hive 是基于 Hive 的

    2024年02月14日
    浏览(26)
  • Execution Error, return code 3 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Spark job faile

    hive on spark 错误Error while processing statement: FAILED: Execution Error, return code 3 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Spark job failed during runtime. Please check stacktrace for the root cause. 表明Spark任务执行失败,返回了错误代码3。这可能是由于多种原因导致的,例如内存不足、JSON数据格式错

    2024年04月11日
    浏览(41)
  • MySQL高阶知识点

    1.长度可变性 : varchar类型用于存储可变长度的字符串,比固定长度类型更加节省空间。有一种情况除外:如果MySQL表使用ROW_FORMAT=FIXED创建的话,每一行都会使用定长存储。 char类型用于存储定长字符串。 2.存储方式 varchar需要1或者2个额外字节记录字符串的长度:如果列的最

    2024年02月13日
    浏览(29)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包