当前位置: 首页 > news >正文

深入理解 Hadoop 核心组件 Yarn:架构、配置与实战

一、Hadoop 三大件概述

Hadoop 作为大数据领域的基石,其核心由三大组件构成:

HDFS(分布式文件系统):负责海量数据的分布式存储,通过数据分块和副本机制保障可靠性,是大数据存储的基础设施。

MapReduce(分布式计算框架):基于 “分而治之” 思想,将复杂计算任务拆解为 Map 和 Reduce 阶段,实现大规模数据的并行处理。

Yarn(资源管理器):作为 Hadoop 的 “操作系统”,负责集群资源(内存、CPU、带宽等)的统一管理与调度。它诞生于 Hadoop 生态,如今已演进为独立的通用资源管理系统,可支持 MapReduce、Spark 等多种计算框架运行。

二、Yarn 的核心组成部分

Yarn 采用主从架构,由四大核心组件协同工作:

1. ResourceManager(RM,资源管理器)—— 集群的 “总指挥”

角色:Yarn 集群的唯一主节点,全局管理所有资源(内存 / CPU / 网络等),协调各个应用程序对资源的请求。

关键模块

调度器(Scheduler):根据资源分配策略(如容量调度、公平调度)为应用程序分配资源,不负责监控任务状态。

应用管理器(ApplicationManager):管理所有应用程序的生命周期,包括应用程序提交、失败重试等。

2. NodeManager(NM,节点管理器)—— 单节点的 “大管家”

角色:运行在集群每个节点上,负责管理本节点的资源(CPU / 内存 / 磁盘等),监控容器状态,并与 ResourceManager 通信汇报节点健康情况。

核心职责

启动并监控 Container,

执行 ResourceManager 的资源分配指令。管理本地日志和任务运行环境。

3. Container(容器)—— 资源的 “封装载体”

定义:Yarn 中资源分配的最小单位,封装了一组具体资源(如 2GB 内存 + 1 个 CPU 核心),类似于轻量级虚拟机。

特点

每个 Container 归属于特定应用程序,资源隔离性强。

支持动态扩展,根据任务需求调整资源配置。

4. ApplicationMaster(AM,应用管理器)—— 任务的 “项目经理”

角色:每个应用程序(如 MapReduce 作业)的专属管理者,负责与 ResourceManager 协商资源、与 NodeManager 交互启动任务,并监控作业进度。

核心功能

分解作业为多个任务(如 MapTask/ReduceTask),

并为任务申请资源。处理任务失败和重试,协调任务间依赖关系。

三、Yarn 的配置与搭建实战

1. 环境准备

集群规划:假设 3 节点集群(bigdata01 为主节点,bigdata02/bigdata03 为从节点)。

配置文件路径:所有配置文件位于/opt/installs/hadoop/etc/hadoop/目录。

2. 关键配置步骤

(1)指定 MapReduce 运行平台为 Yarn
<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property>
</configuration>
(2)配置 ResourceManager 主节点
<property><name>yarn.resourcemanager.hostname</name><value>bigdata01</value> <!-- 主节点主机名 -->
</property>
(3)启用 MapReduce Shuffle 服务(用于数据传输)
<property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value>
</property>
(4)配置权限与 Classpath(避免 AppMaster 启动失败)
<!-- hadoop-env.sh中添加 -->
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root<!-- yarn-site.xml中添加 -->
<property><name>yarn.application.classpath</name><value>/opt/installs/hadoop/etc/hadoop:/opt/installs/hadoop/share/hadoop/common/lib/*:...</value> <!-- 完整路径需包含Hadoop各模块依赖 -->
</property>
(5)分发配置文件至从节点
# 在主节点执行
cd /opt/installs/hadoop/etc/hadoop/
xsync.sh mapred-site.xml yarn-site.xml  # xsync为自定义同步脚本,需提前配置

3. 启动与停止命令

服务启动命令停止命令说明
HDFSstart-dfs.shstop-dfs.sh管理 HDFS namenode/datanode
Yarnstart-yarn.shstop-yarn.sh管理 ResourceManager/NodeManager
全集群start-all.shstop-all.sh同时启动 HDFS 和 Yarn
单独启动 RMyarn --daemon start resourcemanageryarn --daemon stop resourcemanager仅操作主节点 RM
单独启动 NMyarn --daemon start nodemanageryarn --daemon stop nodemanager仅操作当前节点 NM

验证启动状态:访问 Yarn Web 界面 http://bigdata01:8088,查看集群资源使用情况和应用列表。

四、Yarn 实战:WordCount 案例

1. 准备数据

本地文件:创建wc.txt并写入内容:

hadoop spark hello hadoop
spark hello flink world
scala python python scala
hdfs dfs -mkdir /home
hdfs dfs -put /home/wc.txt /home

    2. 运行 MapReduce 作业

    # 执行Hadoop自带的WordCount示例
    hadoop jar /opt/installs/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar wordcount /home/wc.txt /home/output
    

    3. 查看结果

    hdfs dfs -cat /home/output/part-r-00000
    # 输出结果(示例):
    # hadoop    2
    # hello     2
    # spark     2
    http://www.xdnf.cn/news/523621.html

    相关文章:

  • 物联网简介:万物互联的未来图景
  • Eclipse Java 开发调优:如何让 Eclipse 运行更快?
  • Spring Cloud Seata 深度解析:原理与架构设计
  • 甘特图工具怎么选?免费/付费项目管理工具对比测评(2025最新版)
  • java中如何优雅处理多租户系统的查询?
  • Hexo的Next主题的Config文件内方便修改的参数(Chat-Gpt)
  • 多线程进阶
  • java每日精进 5.19【Excel 导入导出】
  • 使用Python将 Excel 中的图表、形状和其他元素导出为图片
  • YouTube视频字幕转成文章算重复内容吗?
  • FD+Mysql的Insert时的字段赋值乱码问题
  • ffmpeg 把一个视频复制3次
  • java配置webSocket、前端使用uniapp连接
  • 【git config --global alias | Git分支操作效率提升实践指南】
  • 开源音视频转文字工具:基于 Vosk 和 Whisper 的多语言语音识别项目
  • 数据分析与应用---数据可视化基础
  • 精益数据分析(70/126):MVP迭代中的数据驱动决策与功能取舍
  • 【three】给立方体的每个面加载不同贴图
  • 【工具】ncdu工具安装与使用指南:高效管理Linux磁盘空间
  • javaScript学习第三章(流程控制小练习)
  • 华为ODgolang后端一面面经
  • uniapp自用辅助类小记
  • Fiddler无法抓包的问题分析
  • 全新的开源监控工具CheckCle
  • 【D1,2】 贪心算法刷题
  • kotlin Android AccessibilityService 无障碍入门
  • 【电动汽车充电系统核心技术全解:从can通讯高压架构到800V超充未来】
  • 《黑马前端ajax+node.js+webpack+git教程》(笔记)——node.js教程+webpack教程(nodejs教程)
  • vscode怎么关闭自动定位文件
  • Python测试单例模式