当前位置: 首页 > news >正文

mapreduce-wordcount程序2

WordCount案例分析

给定一个路径,统计这个路径下所有的文件中的每一个单词的出现次数。

其中,需要我们去实现代码的部分是:map函数和reduce函数。它们各自的作用是:

map函数的入参是kv结构,k是偏移量,v是一行的具体内容。map函数的返回值格式也是kv结构,k是每个单词,v是数字1。

uce函数的入参是kv结构,k是单词,v是集合,每个元素值都是1。reduce函数的返回值格式也是kv结构,k是每个单词,v是汇总之后的数字。

WordCount案例实操-编码实现

准备maven工程,具体要求和之前的一致。具体操作如下:

1.新建一个空白项目

2.配置maven

3.创建三个类。

每个类的具体内容如下。

1.编写Mapper类

核心要点是:

  1. 继承Mapper类。约定泛型<keyIn,ValueIn,KeyOut,ValueOut>
  2. 重写map方法(keyIn, ValueIn,Content<KeyOut, Key>)

我们来看下代码。

package com.example.mapreduce;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Mapper;

import java.io.IOException;

// 继承Mapper

public class WordCountMapper extends Mapper<LongWritable, Text, Text, LongWritable> {

    @Override

    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {

        // 获取一行数据,用空格拆分为一个个单词

        String[] words = value.toString().split(" ");

        // 遍历单词,设置键值对,值为1

        for (String word : words) {

            context.write(new Text(word), new LongWritable(1));

        }

    }

}

代码说明:

  1. LongWritable是固定写法。它表示读取到一行的偏移量。
  2. LongWritable, Text是hadoop的数据类型。

编写Reducer类

核心要点是:

  1. 继承Reducer类。约定泛型<keyIn,ValueIn,KeyOut,ValueOut>
  2. 重写reduce方法(keyIn, Iterable<ValueIn>,Content<KeyOut, Key>)

代码如下:

package com.example.mapreduce;

import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;

import java.io.IOException;

// 继承 reducer类
public class WordCountReducer extends Reducer<Text, LongWritable, Text, LongWritable> {
    @Override
    protected void reduce(Text key, Iterable<LongWritable> values, Context context) throws IOException, InterruptedException {
        // 对 values中的值进行累加求和
        long sum = 0;
        for (LongWritable value : values) {
            sum += value.get();
        }
        // 输出结果
        context.write(key, new LongWritable(sum));
    }
}

请注意Mapper的来源,它是mapreduce.Mapper,而不是mapred.Mapper。后者是hadoop的老版本用法。

编写Driver驱动类

Driver类负责提交job。它的核心代码有7个步骤,属于固定写法。这七个步骤分别如下:

  1. 获取job对象
  2. 关联本地Driver类的jar
  3. 关联map和reduce
  4. 设置map的输出kv类型
  5. 设置reduce的输出kv类型
  6. 设置输入数据和输出结果的地址
  7. 提交job。

下面我们一起来编写这份代码。

参考代码如下。

package com.example.mapreduce;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.LongWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Job;

import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import java.io.IOException;

public class WordCountDriver {

    // mapreduce的Driver

    // 提交job

    public static void main(String[] args) throws IOException, InterruptedException, ClassNotFoundException {

        // 1. 获取配置信息以及获取job对象

        Configuration conf = new Configuration();

        Job job = Job.getInstance(conf);

        // 2. 关联本地的jar

        job.setJarByClass(WordCountDriver.class);

        // 3. 关联Mapper和Reducer

        job.setMapperClass(WordCountMapper.class);

        job.setReducerClass(WordCountReducer.class);

        // 4. 设置Mapper输出的KV类型

        job.setMapOutputKeyClass(Text.class);

        job.setMapOutputValueClass(LongWritable.class);

        // 5. 设置最终输出KV类型

        job.setOutputKeyClass(Text.class);

        job.setOutputValueClass(LongWritable.class);

        // 6. 设置输入和输出路径。请确保wcinput是存在的,并且下面有待统计词频的单词文件。
        //                         output1会自动被创建,如果它已经存在,程序会报错!

        FileInputFormat.setInputPaths(job, new Path("D://vm//wcinput"));

        FileOutputFormat.setOutputPath(job, new Path("D://vm//output1"));

        // 7. 提交job

        boolean b = job.waitForCompletion(true);

        System.exit(b ? 0 : 1);

    }

}

WordCount代码运行

在本地运行代码,在本地查看效果。此时要注意,我们的程序并没有使用集群中的资源,在yarn中看不到运行的任务,我们也没有把结果保存在hdfs中。

http://www.xdnf.cn/news/404785.html

相关文章:

  • PostgreSQL 中的序列(Sequence)
  • 力扣HOT100之二叉树:226. 翻转二叉树
  • WSL-Ubuntu 中安装 Git LFS 记录
  • 网络编程epoll和udp
  • 华为防火墙配置与网络协议实战指南:从基础到高阶排查
  • 破局智算瓶颈:400G光模块如何重构AI时代的网络神经脉络
  • 大模型的实践应用41-天气预测与分析决策系统:Qwen3(32B)+langchain框架+MCP(大模型上下文协议)+RAG+传统算法
  • RabbitMQ高并发秒杀、抢购系统、预约系统底层实现逻辑
  • ArcGIS+InVEST+RUSLE:水土流失模拟与流域管理的高效解决方案;水土保持专题地图制作
  • 《Python星球日记》 第63天:文本方向综合项目(新闻分类)
  • 危化品安全员职业发展方向的优劣对比
  • 人工智能时代:解锁职业新身份,从“认证师”到“工程师”的进阶之路
  • 图灵爬虫练习平台第九题js逆向
  • 电力系统静态安全因素与动态安全因素的区别及具体分类
  • matlab计算天线的近场和远场
  • ThreadLocal原理分析--结合Spring事务
  • 产品设计基石--用户体验要素--实战4
  • 【课题推荐】基于改进遗传算法的公交车调度排班优化研究与实现方案
  • PID与模糊PID系统设计——基于模糊PID的水下航行器运动控制研究Simulink仿真(包含设计报告)
  • 在Web应用中集成Google AI NLP服务的完整指南:从Dialogflow配置到高并发优化
  • Codeforces Round 1024 (Div. 2)(A-D)
  • 1.8 梯度
  • FanControl(电脑风扇转速控制软件) v224 中文版
  • Blueprints - Gameplay Message Subsystem
  • js 字符串中的特殊字符全部替换成定义对象里面key对应的value值(基础篇)
  • C++ string比较、string随机访问、string字符插入、string数据删除
  • vue-pdf-embed预览PDF
  • mac M2能安装的虚拟机和linux系统系统
  • 寻找远程桌面管理器的5个关键功能
  • Spring Boot 使用Itext绘制并导出PDF