当前位置: 首页 > ai >正文

如何搭建spark yarn 模式的集群集群。

以下是搭建Spark YARN模式集群的一般步骤:
 
准备工作
 
- 确保集群中各节点安装了Java,并配置好 JAVA_HOME 环境变量。
 
- 各节点间能通过SSH免密登录。
 
- 安装Hadoop集群,并确保HDFS和YARN服务正常运行。
 
下载与安装Spark
 
- 在官网下载适合你系统的Spark版本,将下载的压缩包上传到集群中指定节点。
 
- 解压压缩包到指定目录,如 /opt/spark ,并配置 SPARK_HOME 环境变量,将 $SPARK_HOME/bin 添加到 PATH 环境变量。
 
配置Spark
 
- 进入 $SPARK_HOME/conf 目录,复制 spark-env.sh.template 为 spark-env.sh ,编辑该文件,添加以下内容:
 
bash   
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
export HADOOP_CONF_DIR=/etc/hadoop/conf
export SPARK_MASTER_IP=master节点IP
export SPARK_LOCAL_DIRS=/data/spark/local
export SPARK_DRIVER_MEMORY=2g
export SPARK_EXECUTOR_MEMORY=2g
 
 
- 复制 slaves.template 为 slaves ,在 slaves 文件中列出所有Worker节点的主机名或IP地址,每行一个。
 
启动集群
 
- 在Master节点上,执行 $SPARK_HOME/sbin/start-all.sh 启动Spark集群。
 
- 可以通过访问 http://Master节点IP:8080 查看Spark Master的Web界面,确认集群是否正常启动。
 
提交任务
 
- 编写Spark应用程序,将其打包成JAR文件。
 
- 使用 spark-submit 命令提交任务到YARN集群,例如:
 
bash   
spark-submit \
--class com.example.MySparkApp \
--master yarn \
--deploy-mode cluster \
/path/to/myapp.jar
 
 
以上是基本步骤,实际搭建中需根据具体环境和需求调整配置。

http://www.xdnf.cn/news/2515.html

相关文章:

  • 如何在idea中写spark程序
  • Excel处理控件Aspose.Cells for Go :通过 C++ 实现的设计概念和 API 架构讲解
  • 深入浅出限流算法(三):追求极致精确的滑动日志
  • threejs学习002-场景中添加几何体
  • Kubernetes》》k8s》》explain查 yaml 参数
  • OpenCV 图形API(67)图像与通道拼接函数-----水平拼接(横向连接)两个输入矩阵(GMat 类型)函数concatHor()
  • STM32 HAL库实现USB虚拟串口
  • 蓝桥杯算法实战分享
  • Lua 第13部分 位和字节
  • 《Science》观点解读:AI无法创造真正的智能体(AI Agent)
  • Python中的Walrus运算符分析
  • HikariCP 6.3.0 完整配置与 Keepalive 优化指南
  • 1.1 道路结构特征
  • 【博通芯片方案】调试指令详解版一(无线)
  • Docker容器跑定时任务脚本
  • 分布式一致性算法起源思考与应用
  • 4.2.2 MySQL索引原理以及SQL优化
  • Bolt.diy 一键部署,“一句话”实现全栈开发
  • GAMES202-高质量实时渲染(homework1)
  • 【Redis】初识Redis
  • Java : GUI
  • MySQL(聚合函数)
  • 动态规划算法题1
  • 如何搭建行业社区?----以装修行业为例
  • 迷你世界UGC3.0脚本Wiki角色模块管理接口 Actor
  • 函数的使用
  • 诗词软件开发实战:从零开始构建现代诗歌应用
  • 北极花深度融合DeepSeek大模型,全面助力生物多样性智能分析图片生物多样性智能分析
  • Spring的Bean和自动配置
  • linux两个特殊的宏 _RET_IP_ 和_THIS_IP_ 实现