当前位置: 首页 > web >正文

hadoop集群建立

建立Hadoop集群的步骤指南

建立Hadoop集群需要系统规划和多个步骤的配置。以下是详细的建立流程:

一、前期准备

  1. 硬件需求

    • 多台服务器(至少3台,1主2从)

    • 每台建议配置:至少4核CPU,8GB内存,100GB硬盘

    • 稳定的网络连接(千兆网络推荐)

  2. 软件需求

    • Linux操作系统(推荐CentOS或Ubuntu Server)

    • Java JDK (推荐JDK 8或11)

    • Hadoop软件包(从Apache官网下载)

二、环境设置

  1. 在所有节点上操作

    bash

    复制

    下载

    # 创建hadoop用户
    sudo useradd -m hadoop
    sudo passwd hadoop# 安装Java
    sudo apt-get install openjdk-8-jdk
    # 或
    sudo yum install java-1.8.0-openjdk# 验证Java安装
    java -version
  2. 配置SSH免密登录

    bash

    复制

    下载

    # 在主节点生成密钥
    ssh-keygen -t rsa# 将公钥复制到所有节点(包括自己)
    ssh-copy-id hadoop@master
    ssh-copy-id hadoop@slave1
    ssh-copy-id hadoop@slave2

三、Hadoop配置

  1. 解压并设置环境变量

    bash

    复制

    下载

    tar -xzf hadoop-3.x.x.tar.gz
    mv hadoop-3.x.x /usr/local/hadoop# 编辑~/.bashrc
    export HADOOP_HOME=/usr/local/hadoop
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64source ~/.bashrc
  2. 配置核心文件

    • core-site.xml

      xml

      复制

      下载

      运行

      <configuration><property><name>fs.defaultFS</name><value>hdfs://master:9000</value></property><property><name>hadoop.tmp.dir</name><value>/usr/local/hadoop/tmp</value></property>
      </configuration>
    • hdfs-site.xml

      xml

      复制

      下载

      运行

      <configuration><property><name>dfs.replication</name><value>2</value></property><property><name>dfs.namenode.name.dir</name><value>/usr/local/hadoop/hdfs/namenode</value></property><property><name>dfs.datanode.data.dir</name><value>/usr/local/hadoop/hdfs/datanode</value></property>
      </configuration>
    • mapred-site.xml

      xml

      复制

      下载

      运行

      <configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property>
      </configuration>
    • yarn-site.xml

      xml

      复制

      下载

      运行

      <configuration><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.resourcemanager.hostname</name><value>master</value></property>
      </configuration>
    • workers文件 (列出所有从节点)

      复制

      下载

      slave1
      slave2

四、分发配置到所有节点

bash

复制

下载

scp -r /usr/local/hadoop hadoop@slave1:/usr/local/
scp -r /usr/local/hadoop hadoop@slave2:/usr/local/
scp ~/.bashrc hadoop@slave1:~/
scp ~/.bashrc hadoop@slave2:~/

五、启动集群

  1. 在主节点格式化HDFS

    bash

    复制

    下载

    hdfs namenode -format
  2. 启动HDFS

    bash

    复制

    下载

    start-dfs.sh
  3. 启动YARN

    bash

    复制

    下载

    start-yarn.sh
  4. 验证集群状态

    bash

    复制

    下载

    jps  # 查看Java进程
    hdfs dfsadmin -report  # 查看HDFS状态
http://www.xdnf.cn/news/3326.html

相关文章:

  • 【keil使用】无法打开keil工程,只有空白界面的解决方法
  • rk3568安全启动功能实践
  • 介绍一下Files类的常用方法
  • 车辆检测新突破:VFM-Det 如何用大模型提升识别精度
  • LVGL -按键介绍 上
  • Nginx 重写与重定向配置
  • SpringBoot集成Druid启动报错testWhileIdle is true, validationQuery not set
  • 【功能】根据时区获取开服天数
  • 4:机器人目标识别无序抓取程序二次开发
  • 深度学习正则化:原理、方法与应用深度解析
  • 【Linux服务器安装杀毒软件】
  • 利用v0与Cursor优化开发流程和效率
  • Unity 粒子同步,FishNet
  • 高等数学-第七版-下册 选做记录 习题9-6
  • 2025年4月AI科技领域周报(4.21-4.27):大模型生态加速演进 通用AI开启产业融合新范式
  • Java批量数据处理唯一ID生成优化
  • 如何用AI生成假期旅行照?
  • CUDA编程 - 如何使用 CUDA 流在 GPU 设备上并发执行多个内核 - 如何应用到自己的项目中 - concurrentKernels
  • 希尔伯特第十问题:是一个伪命题
  • 【android bluetooth 案例分析 03】【PTS 测试 】【PBAP/PCE/SSM/BV-10-C】
  • 用.net动态创建类的实例指南方案
  • MoonBit支持国产芯片开发--性能媲美C
  • 从零开始学Python游戏编程47-二维数组1
  • 一种基于光源评估并加权平均的自动白平衡方法(一)
  • 系统分析师-第十五章
  • nacos和redis本地启动
  • 小米MiMo推理大模型开源:7B参数规模超越更大规模模型
  • flutter开发音乐APP(简单的音乐播放demo)
  • StarRocks存算一体集群资源预估
  • 国产工业软件突破路径