当前位置: 首页 > news >正文

Spark核心概念与DAG执行原理笔记

Spark核心概念与DAG执行原理笔记

本文档基于手写笔记和学习资料,使用Mermaid图表总结Spark的核心概念、DAG执行原理和Stage划分机制,便于复习和理解。

1. Spark核心概念总览

mindmaproot((Spark核心概念))RDD弹性分布式数据集五大特性不可变性分区性依赖关系惰性计算持久化操作类型转换操作Transformations行动操作ActionsDAG有向无环图逻辑执行计划依赖关系窄依赖宽依赖共享变量广播变量Broadcast累加器Accumulator执行流程Driver程序Executor执行器Task任务Stage阶段

2. DAG构建与Stage划分流程

窄依赖
宽依赖
用户代码
RDD转换操作
构建DAG
DAGScheduler分析依赖
依赖类型判断
同一Stage内执行
Stage边界划分
生成Task
新Stage创建
TaskScheduler调度
Executor执行Task
返回结果

3. RDD依赖关系详解

宽依赖 (Wide Dependencies)
窄依赖 (Narrow Dependencies)
子RDD分区1
父RDD分区1
子RDD分区2
父RDD分区2
父RDD分区3
操作: groupByKey, reduceByKey
特点: 一对多
需要Shuffle
Stage边界
子RDD分区1
父RDD分区1
子RDD分区2
父RDD分区2
子RDD分区3
父RDD分区3
操作: map, filter, union
特点: 一对一或多对一
无需Shuffle
可管道化执行

4. Spark作业执行架构

Driver Program DAGScheduler TaskScheduler Cluster Manager Executor 1. 提交Job 2. 构建DAG 3. Stage划分 4. 提交TaskSet 5. 申请资源 6. 启动Executor 7. 分发Task 8. 执行Task 9. 返回结果 10. Stage完成通知 11. Job完成 Driver Program DAGScheduler TaskScheduler Cluster Manager Executor

5. Stage划分原理图

Stage 2
Stage 1
Stage 0
Shuffle Write
Shuffle Write
collect
sortByKey
reduceByKey
flatMap
textFile
filter
mapToPair
窄依赖操作
可在同一Stage执行
宽依赖操作
产生Stage边界
Action操作
触发Job执行

6. Task数量与分区关系

RDD分区数
Task数量
影响因素
数据源分区
Shuffle分区配置
手动设置分区
HDFS Block数量
文件数量
spark.sql.shuffle.partitions
默认200个分区
repartition()
coalesce()
每个分区对应一个Task
并行度 = 分区数

7. 共享变量使用场景

累加器 Accumulators
计数器
sc.longAccumulator()
求和操作
错误统计
调试监控
accumulator.add(value)
accumulator.value()
广播变量 Broadcast Variables
大型只读数据
sc.broadcast(data)
查找表/字典
配置信息
避免数据重复传输
broadcastVar.value()

8. Spark 4.0.0 新特性概览

mindmaproot((Spark 4.0.0))核心升级JDK 17默认Scala 2.13默认丢弃JDK 8/11支持Spark Connect轻量级Python客户端ML on Spark ConnectSwift客户端支持Spark SQLVARIANT数据类型SQL UDFs会话变量管道语法字符串排序规则PySpark增强绘图APIPython数据源APIPython UDTFs统一性能分析Structured Streaming任意状态API v2状态数据源改进的容错机制

9. 学习要点总结

Spark学习重点
理解RDD本质
掌握DAG原理
熟悉Stage划分
优化性能调优
不可变分布式数据集
血缘关系与容错
惰性计算机制
依赖关系分析
执行计划优化
任务调度理解
窄依赖vs宽依赖
Shuffle操作识别
并行度控制
分区策略优化
缓存策略选择
资源配置调优

10. 实践建议

10.1 代码优化建议

  • 优先使用DataFrame/Dataset API而非RDD
  • 合理使用缓存机制(cache/persist)
  • 避免不必要的Shuffle操作
  • 选择合适的分区策略

10.2 性能调优要点

  • 调整并行度(分区数)
  • 优化内存配置
  • 选择合适的序列化方式
  • 监控和分析Spark UI

10.3 故障排查思路

  1. 查看Spark UI中的DAG可视化
  2. 分析Stage执行时间和数据倾斜
  3. 检查Task失败原因和重试情况
  4. 监控资源使用情况(CPU、内存、网络)

注意: 本笔记结合了手写笔记中的DAG、Stage划分、Task调度等核心概念,以及Spark 4.0.0的新特性,形成了完整的知识体系图谱,便于系统性复习和理解Spark的工作原理。

http://www.xdnf.cn/news/1054909.html

相关文章:

  • Skip-Gram CBOW
  • 通达信 玄学首板 抓首版指标
  • 深入探索Joomla子模板:解决模板更新覆盖问题的终极方案​
  • 调和级数 发散 P级数判别法
  • git 开源平台网站推荐 (2025-06 更新)
  • hot100 -- 14.贪心算法
  • 土建施工安全管理难?免费AI系统 24h 监控预警
  • Android16变更
  • NodeJS哪些情况下会造成内存泄漏和避免方法
  • Unity3D仿星露谷物语开发63之NPC移动
  • 多模态大语言模型arxiv论文略读(122)
  • SAP实施服务专家——哲讯科技,赋能企业智慧升级
  • DAY 50 超大力王爱学Python
  • ROS2中,如果对rviz格式文件做了修改,都需要重新编译才可以launch出新的rviz配置对么?
  • 4,QT文件操作
  • 02-D3.js 控制横向柱图切换数据带动画效果
  • 创始人IP如何崛起:系统化打造的实践路径 | 创客匠人
  • web性能优化
  • 动态规划之斐波那契数(一)
  • 【已解决】bash: /usr/bin/perl: bad interpreter: No such file or directory
  • UI学习汇总
  • Yocto vs Buildroot:SDK(软件开发套件)创建能力全面对比
  • 快速入门多线程(一):线程生命周期详解(附流程图详解)
  • Python数字信号处理——利用块间系数相关性的DCT域鲁棒盲图像水印(PyQT5界面)
  • 【分析学】 实数
  • Spring事务传播机制深度解析
  • c++类型擦除
  • DNS递归查询步骤
  • 2. Anaconda 的安装及 Pytorch 环境安装
  • 2 Studying《Arm A715 Technical Reference Manual》