当前位置: 首页 > news >正文

运行Spark程序-在shell中运行

Spark Shell运行程序步骤

  1. 启动Spark Shell
    根据语言选择启动命令:
  • Scala版本(默认):执行spark-shell
  • Python版本:执行pyspark
  1. 数据加载示例
    读取本地文本文件:
// Scala版本
val textData = sc.textFile("file:///path/to/file.txt")// Python版本
text_data = sc.textFile("file:///path/to/file.txt")

  1. 执行数据处理
    实现词频统计(两种语言示例):
// Scala版本
val wordCounts = textData.flatMap(_.split(" ")).map(word => (word, 1)).reduceByKey(_ + _)wordCounts.collect().foreach(println)

# Python版本
word_counts = text_data \.flatMap(lambda line: line.split(" ")) \.map(lambda word: (word, 1)) \.reduceByKey(lambda a,b: a+b)word_counts.collect()

  1. 结果输出
    保存到HDFS(两种语言通用):
wordCounts.saveAsTextFile("hdfs:///output/path")

  1. 退出环境
    输入命令:quitCtrl+D

注意事项

  1. 路径说明
  • 本地文件需加file://前缀
  • 集群文件使用hdfs://协议头
  1. 执行触发
    转换操作(如map/filter)需要执行动作(如collect/count)才会触发计算

  2. 配置调优
    启动时可添加参数:

spark-shell --master yarn --executor-memory 4g

  1. 日志控制
    在Shell中调整日志级别:
sc.setLogLevel("WARN")

验证示例

在Shell中运行快速验证:

// 创建测试RDD
val nums = sc.parallelize(1 to 100)
println(s"数据总量:${nums.count()}") 

http://www.xdnf.cn/news/432667.html

相关文章:

  • 思路解析:第一性原理解 SQL
  • 2025.5.13山东大学软件学院计算机图形学期末考试回忆版本
  • msyql8.0.xx忘记密码解决方法
  • 2025.05.11阿里云机考真题算法岗-第二题
  • 重置集群(有异常时)
  • Spring 集成 SM4(国密对称加密)
  • Springboot | 如何上传文件
  • ros2-node
  • SpringBoot--springboot简述及快速入门
  • 2025年全国青少年信息素养大赛初赛模拟测试网站崩了的原因及应对比赛流程
  • SparkSQL操作Mysql
  • 1995-2022年各省能源消费总量数据(万吨标煤)
  • UDS诊断----------$11诊断服务
  • 【YOLO模型】参数全面解读
  • JavaWeb 前端开发
  • 优化的代价(AI编码带来的反思)-来自Grok
  • 基于TouchSocket实现WebSocket自定义OpCode扩展协议
  • day19-线性表(顺序表)(链表I)
  • 操作系统:内存管理
  • JavaScript编译原理
  • 数据结构(七)——图
  • ThingsBoard3.9.1 MQTT Topic(4)
  • UDP协议详细讲解及C++代码实例
  • 数据压缩的概念和优缺点
  • 【电子科技大学主办 | 往届快至会后2个月EI检索】第六届电子通讯与人工智能国际学术会议(ICECAI 2025)
  • Gatsby知识框架
  • angular的rxjs中的操作符
  • Vitrualbox完美显示系统界面(只需三步)
  • vue2将文字转为拼音
  • Python 基础语法