使用Eclipse创建MapReduce工程

这篇具有很好参考价值的文章主要介绍了使用Eclipse创建MapReduce工程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1.实训目标

(1)掌握以Exlipse创建MapReduce工程

2.实训环境

(1)使用CentOS的Linux操作系统搭建的3个节点

(2)使用Eclipse软件作为编程软件

(3)使用插件hadoop-eclipse-plugin-2.x.x.jar

3.实训内容

(1)配置MapReduce环境

(2)新建MapReduce工程

4.实训步骤

4.1配置MapReduce环境

(1)添加Hadoop插件
使用Eclipse创建MapReduce工程

找到eclipse的安装路径,然后将插件移动到这个路径下

使用Eclipse创建MapReduce工程
(2)增加Map/Reduce功能区

打开eclipse进行以下操作

使用Eclipse创建MapReduce工程
使用Eclipse创建MapReduce工程
(3)增加Hadoop集群的连接

单击下图所示界面右下方的蓝色小象图标(其右上方右+号),就会弹出连接Hadoop集群的配置窗口。

使用Eclipse创建MapReduce工程

在VMware的Hadoop集群里输入以下代码,查看hdfs端口号(先启动集群)

hdfs getconf -confKey fs.default.name

使用Eclipse创建MapReduce工程

配置namenode节点的ip(自己的虚拟机IP)地址及端口。

使用Eclipse创建MapReduce工程

相关的Hadoop集群的连接信息有以下各项。

Location name:命名新建的Hadoop连接名称,如Hadoop Cluster。

Map/Reduce Master:填写Hadoop集群的ResourceManager的IP和端口。

DFS Master:填写Hadoop集群的NameNode的IP地址和连接端口。

填写完以上信息后,单击“Finish”按钮。

(4)浏览HDFS上的目录及文件

在配置完Hadoop集群连接后,确认Hadoop集群已经启动,就可以在Eclipse界面浏览HDFS上的目录及文件,如下图所示。还可以通过鼠标来执行文件操作,例如文件的上传和删除等。需要注意的事,每次执行操作后,需要刷新HDFS列表,从而获得文件目录的最新状态。

使用Eclipse创建MapReduce工程

4.2新建MapReduce工程

(1)导入MapReduce运行依赖的相关JAR包

在主菜单上单击“Window”并选择“Preferences”,例如下图所示Preference界面中,选择“Hadoop Map/Reduce”,单击“Browse...”按钮,再选中Hadoop的安装文件夹路径(相应版本的Hadoop安装包需要预先解压再本地电脑上)。最后单击“Apply”按钮并单击确定。

使用Eclipse创建MapReduce工程
使用Eclipse创建MapReduce工程
(2)创建MapReduce工程

从菜单栏开始,单击“File”菜单,选择“New”命令,在出现的选项中单击“Project”项,再选择“Map/Reduce Project”选项。

使用Eclipse创建MapReduce工程
使用Eclipse创建MapReduce工程

在"MapReduce Project"的创建界面中,填写工程名“MemberCount”,然后单击“Finish”按钮。

使用Eclipse创建MapReduce工程

在主界面左侧的“Project Explorer”栏,可以看到已经创建好的工程MemberCount,Map Reduce编程所需要的JAR包已经全部自动导入。新工程已创建完成,接下来就可以正式进行MapReduce编程工作了。

使用Eclipse创建MapReduce工程

创建完成MapReduce工程

(3)在Hadoop上完成词频统计实例
1.VMware里面启动集群,在根目录下面创建一个文本,里面填写一些文本
使用Eclipse创建MapReduce工程
2.在集群里面创建一个input文件夹
使用Eclipse创建MapReduce工程
3.然后把本地的a.txt文本上传到集群上的input文件夹里面
hdfs dfs -put /a.txt /input/a.txt
4.输入命令进行词频统计
hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jar wordcount /input /output
使用Eclipse创建MapReduce工程
5.然后就会在集群里面产生一个output文件,里面有两个文本
使用Eclipse创建MapReduce工程
6.执行命令查看词频统计结果
hdfs dfs -cat /output/part-r-00000

注意:误删了output里面的文本的话的不能恢复的,可以删掉原来的output文件,重新创建一个,重新进行词频统计即可。

8.如果想要做另一个文本的词频统计,需要把后面的output改个名字,就是从新统计的意思
hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jar wordcount /input /output1
使用Eclipse创建MapReduce工程
使用Eclipse创建MapReduce工程

5.解析wordcount的代码 ,描述他是怎么工作的。并且上传到集群完成一次完整的Wordcount

/**
 * Licensed to the Apache Software Foundation (ASF) under one
 * or more contributor license agreements.  See the NOTICE file
 * distributed with this work for additional information
 * regarding copyright ownership.  The ASF licenses this file
 * to you under the Apache License, Version 2.0 (the
 * "License"); you may not use this file except in compliance
 * with the License.  You may obtain a copy of the License at
 *
 *     http://www.apache.org/licenses/LICENSE-2.0
 *
 * Unless required by applicable law or agreed to in writing, software
 * distributed under the License is distributed on an "AS IS" BASIS,
 * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
 * See the License for the specific language governing permissions and
 * limitations under the License.
 */
package org.apache.hadoop.examples;      //包
​
import java.io.IOException;               //数据的输入与输出
import java.util.StringTokenizer;           //对String字符处理
​
import org.apache.hadoop.conf.Configuration;     //基础conf
import org.apache.hadoop.fs.Path;              //文件系统
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;              //数据输入输出(IO)
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;     //MapReduce(对数据的拆分,对数据的归类)
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;
​
public class WordCount {
​
  public static class TokenizerMapper 
       extends Mapper  /*泛型类*/
<Object, Text, Text, IntWritable>{
    
​
    private final static IntWritable one = new IntWritable(1); //写整型的时候,初值为1
    private Text word = new Text();  //文本对象word
      
    public void map(Object key, Text value, Context context
                    ) throws IOException, InterruptedException {
      StringTokenizer itr = new StringTokenizer(value.toString());
​
/*字符串分隔,把单词拆出来
Hello   Hadoop  Hello   world
​
hello 1 hadoop 1 hello 1 world 1
(用空格替换逗号跟句号)或者重写Tokenizer,把逗号句号替换添加进去
*/
      while (itr.hasMoreTokens()) {   //做一个循环判断,是否还有Token(分隔符)
        word.set(itr.nextToken());      //如果有,就再读一个,从当前分隔符读到下一个分//隔符,实际就是读了一个单词
        context.write(word, one);   //输出这个单词
      }
    }
  }
  
  public static class IntSumReducer 
       extends Reducer<Text,IntWritable,Text,IntWritable> {
    private IntWritable result = new IntWritable();
​
    public void reduce(Text key, Iterable<IntWritable> values, 
                       Context context
                       ) throws IOException, InterruptedException {
      int sum = 0;
      for (IntWritable val : values) {   
        sum += val.get();
      }
      result.set(sum);
      context.write(key, result);   //输出结果   hello 2 hadoop 1 world 1
    }
  }
​
  public static void main(String[] args) throws Exception {
    Configuration conf = new Configuration();      //实例化conf(读取命令行的命令,以数组的方式返回路径)
    String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
    if (otherArgs.length < 2) {
      System.err.println("Usage: wordcount <in> [<in>...] <out>");
      System.exit(2);
    }      //判断IO的路径,如果只有一个路径,长度是小于2的,你的输出(1)包含两//个(输入和输出IO),防止出现读取的异常。
    Job job = new Job(conf, "word count");  //所有的工作都是用Job来完成的,实例化Job
job.setJarByClass(WordCount.class);    //打jar包 
    job.setMapperClass(TokenizerMapper.class);     //指定Map类型
    job.setCombinerClass(IntSumReducer.class);     //指定Combiner 
    job.setReducerClass(IntSumReducer.class);      //指定Reduce的类型
    job.setOutputKeyClass(Text.class);             //设置最终key的类型
    job.setOutputValueClass(IntWritable.class);     //设置最终value的类型
    for (int i = 0; i < otherArgs.length - 1; ++i) {
      FileInputFormat.addInputPath(job, new Path(otherArgs[i]));
    }
    FileOutputFormat.setOutputPath(job,
      new Path(otherArgs[otherArgs.length - 1]));
    System.exit(job.waitForCompletion(true) ? 0 : 1);
  }     //任务提交
}
使用Eclipse创建MapReduce工程
使用Eclipse创建MapReduce工程
/***
 *             ,%%%%%%%%,
 *           ,%%/\%%%%/\%%
 *          ,%%%\c "" J/%%%
 * %.       %%%%/ o  o \%%%
 * `%%.     %%%%    _  |%%%
 *  `%%     `%%%%(__Y__)%%'
 *  //       ;%%%%`\-/%%%'
 * ((       /  `%%%%%%%'
 *  \\    .'          |
 *   \\  /       \  | |
 *    \\/         ) | |
 *     \         /_ | |__
 *     (___________))))))) 攻城湿
 */

文章来源地址https://www.toymoban.com/news/detail-497749.html

到了这里,关于使用Eclipse创建MapReduce工程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 使用Eclipse创建一个简单的servlet项目

      再找个位置配置你下载的Tomcat的版本   点击next    Tomcat存放的位置 本地JRE  点击finish结束   新建完成    三、实现一个表单提交验证 1.在Java Resources下的src下通过new创建一个包,并在该包下创建一个servlet类    点击next (输入描述后点击next)  (初学的话,不需要更改)

    2023年04月20日
    浏览(44)
  • 10.Eclipse配置Tomcat详细教程、如何使用Eclipse+tomcat创建并运行web项目

    一、Tomcat的下载官网  -  进入官网显示如图所示的界面,在下下载的是Tomcat9.0版本,你可以自己选一款 点击然后进入下面这个界面   最好是在你的D盘建立一个文件夹,把它解压在里面,文件夹名自己来吧,自己能知道里面装的是什么就行。在下的解压文件大概如图所示:

    2024年02月13日
    浏览(40)
  • 使用eclipse创建一个图书管理系统(1)-----搭建架构

    目录 思维导图: 图书管理系统的创建: 第一步:搭建框架-------使用者 第二步:搭建框架------被使用者 第三步:操作方法 第四步:main函数  前言: 昨天学了一下使用Java语言来写一个图书管理系统,于是今天写一篇博客作为一个小笔记巩固一下自己学到的知识!博主也是刚

    2024年02月02日
    浏览(34)
  • 使用eclipse创建一个图书管理系统(2)---------逻辑的实现

    就像使用C语言写代码一样。比如要用 ​​​​​​ C语言写一个小游戏的代码,我们的逻辑实现是在哪里实现的啊?是不是在一个test.c源文件里面啊?没错,就是的!在之前的文章里,我说过我定义的Main函数就像C语言里的test.c文件一样!所以,为了不打自己的脸。那我便在

    2024年02月02日
    浏览(35)
  • Tomcat的介绍和安装配置、eclipse中动态web项目的创建和运行、使用IDEA创建web项目并运行

    一、Tomcat的介绍和安装配置 安装tomcat:                                      环境变量的配置: 配置之后重启cmd,执行startup命令,启动tomcat 在localhost:8080,能进入tomcat主界面,说明配置成功 二、eclipse中动态web项目的创建和运行 tomcat可以在面板上配,可以去windows中pr

    2024年02月14日
    浏览(49)
  • linux:掌握systemctl命令控制软件的启动和关闭、掌握使用ln命令创建软连接

    一:systemctl命令: Linux系统很多软件(内置或第三方)均支持使用systemctl命令控制:启动停止、开机自启 能够被systemctl管理的软件一般也称之为:服务 语法: systemctl | start | stop | status | enable | disable 服务名 1、start 启动  2、stop 关闭 3、status 查看状态 4、enable 开启开机自启 5、dis

    2024年02月03日
    浏览(39)
  • 软件工程实训——第一天

    前后分离 前端:android 后端:springboot+mbatis-plus 高心星 软件工程的思维来开发项目 问题定义 可行性研究 需求分析 概要设计 详细设计 编码 测试 维护 需求分析 1.用户的信息管理 2.新增支出 3.新增收入 4.支出统计 5.收入统计 6.收支管理 概要设计 功能模块图 [外链图片转存失败

    2024年02月09日
    浏览(40)
  • 使用Maven创建父子工程

    选择空项目: 设置:项目名称,组件名称,版本号等 创建完成后的工程 因为我们需要设置这个工程为父工程所以不需要src下的所有文件 在pom.xml中设置打包方式: 打包方式使用pom父工程本身不会被打包成可执行的JAR或WAR文件,而是作为一个用于管理和配置子模块的上层项目

    2024年02月09日
    浏览(35)
  • 网络工程实训——ENSP学习笔记

    目录 实验一 虚拟局域网配置 1 基础设备与理论知识 2 单台二层交换机划分静态 VLAN 3 跨交换机划分静态 VLAN 4 交换机之间的链路聚合 4 单臂路由 5 三层汇聚交换 实验二 路由协议配置 6 动态路由的配置——OSPF 实验三 访问控制和网络地址转换 7 访问控制列表ACL 8 网络地址转换

    2024年02月11日
    浏览(35)
  • 在Eclipse中创建javaweb工程

     点击project或other之后,如何快速找到Dynamic Web Project   也许会出现下面的对话框  

    2024年02月11日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包