当前位置: 首页 > news >正文

DolphinScheduler 如何高效调度 AnalyticDB on Spark 作业?

DolphinScheduler是一个分布式易扩展的可视化DAG工作流任务调度开源系统,能高效地执行和管理大数据流程。用户可以在DolphinScheduler Web界面轻松创建、编辑和调度云原生数据仓库 AnalyticDB MySQL 版的Spark作业。

前提条件

  • AnalyticDB for MySQL集群的产品系列为企业版、基础版或湖仓版。

  • AnalyticDB for MySQL集群中已创建Job型资源组或Spark引擎的Interactive型资源组。

  • 已安装JDK,且JDK的版本为1.8及以上版本。

  • 已安装DolphinScheduler。

  • 已将运行DolphinScheduler的服务器IP地址添加至AnalyticDB for MySQL集群的白名单中。

调度Spark SQL作业

AnalyticDB for MySQL支持使用批处理和交互式两种方法执行Spark SQL。选择的执行方式不同,调度的操作步骤也有所不同。详细步骤如下:

批处理

  1. 安装Spark-Submit命令行工具并配置相关参数。

说明:您只需要配置keyId、secretId、regionId、clusterId和rgName这些必填参数。

  1. 创建项目。

    1. 访问DolphinScheduler Web界面,在顶部导航栏单击项目管理。

    2. 单击创建项目。

    3. 在弹出的创建项目对话框中配置项目名称、所属用户等参数。

  2. 创建工作流。

    • 单击已创建的项目名称,进入工作流定义页面。

    • 单击创建工作流,进入工作流DAG编辑页面。

    • 在页面左侧选择SHELL,并将其拖拽到右侧空白画布中。

    • 在弹出的当前节点设置对话框中配置如下参数:

    • 单击确认。

    • 单击页面右上角保存,在弹出的基本信息对话框中配置工作流名称等参数,单击确定。

说明:其他参数说明请参见DolphinScheduler任务参数。

  1. 运行工作流。
  • 单击工作流操作列的按钮,上线工作流。

  • 单击工作流操作列的按钮。

  • 在弹出的启动前请先设置参数对话框中,配置对应参数。

  • 单击确定,运行工作流。

  1. 查看工作流详细信息。
  • 在左侧导航栏单击任务实例。

  • 在操作列,单击按钮,查看工作流执行结果和日志信息。

交互式

  1. 获取Spark Interactive型资源组的连接地址。

    1. 登录云原生数据仓库AnalyticDB MySQL控制台,在左上角选择集群所在地域。在左侧导航栏,单击集群列表,在企业版、基础版或湖仓版页签下,单击目标集群ID。

    2. 在左侧导航栏,单击集群管理 > 资源管理,单击资源组管理页签。

    3. 单击对应资源组操作列的详情,查看内网连接地址和公网连接地址。您可单击端口号括号内的image按钮,复制连接地址。

    以下两种情况,您需要单击公网地址后的申请网络,手动申请公网连接地址。

    • 提交Spark SQL作业的客户端工具部署在本地。

    • 提交Spark SQL作业的客户端工具部署在ECS上,且ECS与AnalyticDB for MySQL不属于同一VPC。

  2. 创建数据源。

    1. 访问DolphinScheduler Web界面,在顶部导航栏单击数据源中心。

    2. 单击创建数据源,选择数据源类型为Spark。

    3. 在弹出的创建数据源对话框中配置如下参数:

    4. 单击测试连接,测试成功后,单击确定。

说明:其他参数为选填参数,详情请参见MySQL数据源。

  1. 创建项目。

    1. 访问DolphinScheduler Web界面,在顶部导航栏单击项目管理。

    2. 单击创建项目。

    3. 在弹出的创建项目对话框中配置项目名称、所属用户等参数。

  2. 创建工作流。

    1. 单击已创建的项目名称,进入工作流定义页面。

    2. 单击创建工作流,进入工作流DAG编辑页面。

    3. 在页面左侧选择SQL,并将其拖拽到右侧空白画布中。

    4. 在弹出的当前节点设置对话框中配置如下参数:

    5. 单击确认。

    6. 单击页面右上角保存,在弹出的基本信息对话框中配置工作流名称等参数,单击确定。

  3. 运行工作流。

    1. 单击工作流操作列的按钮,上线工作流。

    2. 单击工作流操作列的按钮。

    3. 在弹出的启动前请先设置参数对话框中,配置对应参数。

    4. 单击确定,运行工作流。

  4. 查看工作流详细信息。

    1. 在左侧导航栏单击任务实例。

    2. 在操作列,单击按钮,查看工作流执行结果和日志信息。

调度Spark Jar作业

  1. 安装Spark-Submit命令行工具并配置相关参数。

说明:您只需要配置keyId、secretId、regionId、clusterId和rgName这些必填参数。如果您的Spark Jar包在本地,还需要配置ossUploadPath等OSS相关参数。

  1. 创建项目。

    1. 访问DolphinScheduler Web界面,在顶部导航栏单击项目管理。

    2. 单击创建项目。

    3. 在弹出的创建项目对话框中配置项目名称、所属用户等参数。

  2. 创建工作流。

    1. 单击已创建的项目名称,进入工作流定义页面。

    2. 单击创建工作流,进入工作流DAG编辑页面。

    3. 在页面左侧选择SHELL,并将其拖拽到右侧空白画布中。

    4. 在弹出的当前节点设置对话框中配置如下参数:

    5. 单击确认。

    6. 单击页面右上角保存,在弹出的基本信息对话框中配置工作流名称等参数,单击确定。

说明:其他参数说明请参见DolphinScheduler任务参数。

  1. 运行工作流。

    1. 单击工作流操作列的按钮,上线工作流。

    2. 单击工作流操作列的按钮。

    3. 在弹出的启动前请先设置参数对话框中,配置对应参数。

    4. 单击确定,运行工作流。

  2. 查看工作流详细信息。

    1. 在左侧导航栏单击任务实例。

    2. 在操作列,单击按钮,查看工作流执行结果和日志信息。

http://www.xdnf.cn/news/1136683.html

相关文章:

  • Flutter在Android studio运行出现Error: Entrypoint is not a Dart file
  • SpringBoot 使用MyBatisPlus
  • web APIs(更新中)
  • 【机器学习实战【七】】机器学习特征选定与评估
  • 聚类算法原理与应用(一):K-means聚类算法原理
  • 基础算法题
  • 如何轻松玩转多线程高并发?
  • Install Docker Engine on UbuntuMySQL
  • cdh6.3.2的hive使用apache paimon格式只能创建不能写报错的问题
  • Python包测试全攻略:从单元测试到持续集成
  • ZKmall开源商城架构助力增长:多端流量聚合与用户体验
  • GitHub开源轻量级语音模型 Vui:重塑边缘智能语音交互的未来
  • Python 网络爬虫 —— 提交信息到网页
  • 音视频同步技术初剖析:原理、实现与FFmpeg分析
  • CrewAI与LangGraph:下一代智能体编排平台深度测评
  • 深度学习前置知识
  • PyTorch边界感知上下文神经网络BA-Net在医学图像分割中的应用
  • ubuntu基础搭建
  • 基于dcmtk的dicom工具 第二章 图像接受StoreSCP(2)
  • ubuntu22 npm install electron --save-dev 失败
  • LVDS系列21:Xilinx 7系ISERDESE2原语(二)
  • 一款基于PHP开发的不良事件上报系统源码,适用于医院安全管理。系统提供10类事件类别、50余种表单,支持在线填报、匿名上报及紧急报告。
  • [MRCTF2020]Ezpop
  • 直播带货与开源AI智能名片链动2+1模式S2B2C商城小程序:重塑电商营销新格局
  • SpringBoot使用ThreadLocal共享数据
  • JAVA中的Collection集合及ArrayList,LinkedLIst,HashSet,TreeSet和其它实现类的常用方法
  • #systemverilog# 关键字之 变量声明周期与静态方法关系探讨
  • SVG基础语法:绘制点线面的简单示例
  • 强化第三讲—一元函数微分学的概念
  • 网络编程-java