数据挖掘实验:使用 Hadoop 实现 WordCount 应用

这篇具有很好参考价值的文章主要介绍了数据挖掘实验:使用 Hadoop 实现 WordCount 应用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、实验内容

使用 Hadoop 实现WordCount 应用。

WordCount 是一个最简单的分布式应用实例,主要功能是统计输入目录中所有单词出现的总次数,如文本文件中有如下内容:

Hello world

则统计结果应为:

Hello 1

world 1

WordCount 可以使用多种方式实现,本次实验内容选择使用 Hadoop 实现 WordCount 程序,并完成对应实验报告。

二、平台及版本

  • Windows10
  • JDK1.8.0_192
  • Hadoop2.7.3

三、实验原理

3.1 安装 Java1.8,并配置环境变量

路径:C:\Program Files\Java\jdk1.8.0_192

环境变量:JAVA_HOME,值:C:\Program Files\Java\jdk1.8.0_192

数据挖掘实验:使用 Hadoop 实现 WordCount 应用

3.2 安装Hadoop2.7.3

  1. 从hadoop-2.7.3下载hadoop-2.7.3.tar.gz,解压后放到C盘根目录下:

数据挖掘实验:使用 Hadoop 实现 WordCount 应用

  1. 原版的Hadoop不支持Windows系统,我们需要修改一些配置方便在Windows上运行,需要从网上搜索下载hadoop对应版本的windows运行包hadooponwindows-master.zip()。解压后,复制解压开的bin文件和etc文件到hadoop-2.7.3文件中,并替换原有的bin和etc文件。

  2. 配置Java环境变量:

    数据挖掘实验:使用 Hadoop 实现 WordCount 应用

    并在Path系统变量中加上:%JAVA_HOME%\bin;

  3. 配置Hadoop环境变量:

    数据挖掘实验:使用 Hadoop 实现 WordCount 应用

    并在Path系统变量中加上:%HADOOP_HOME%\bin;

  4. 使用编辑器打开C:\hadoop-2.7.3\etc\hadoop\hadoop-env.cmd,找到set JAVA_HOME,将等号右边的值改成自己Java jdk的路径(如果路径中有Program Files,则将Program Files改为 PROGRA~1)。

    数据挖掘实验:使用 Hadoop 实现 WordCount 应用

  5. 配置好上面所有操作后,win+R 输入cmd 打开命令提示符,然后输入hadoop version,按回车,如果出现如图所示结果,则说明安装成功:

    数据挖掘实验:使用 Hadoop 实现 WordCount 应用

3.3 Hadoop核心配置文件

在hadoop-2.7.3根目录下新建data文件夹和tmp文件夹,再在data文件夹里面新建datanote和namenote文件夹:

数据挖掘实验:使用 Hadoop 实现 WordCount 应用

在hadoop-2.7.3\etc\hadoop中找到以下几个文件用文本编辑器打开。

  1. 打开 hadoop-2.7.3/etc/hadoop/core-site.xml, 复制下面内容粘贴到最后并保存:

    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://localhost:9000</value>
        </property>
    </configuration>
    
  2. 打开hadoop-2.7.3/etc/hadoop/mapred-site.xml, 复制下面内容粘贴到最后并保存:

    <configuration>
        <property>
           <name>mapreduce.framework.name</name>
           <value>yarn</value>
        </property>
    </configuration>
    
  3. 打开hadoop-2.7.3/etc/hadoop/hdfs-site.xml, 复制下面内容粘贴到最后并保存:

    <configuration>
     <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>file:/C:/hadoop-2.7.3/data/namenode</value>
        </property>
        <property>
            <name>dfs.datanode.data.dir</name>
            <value>file:/C:/hadoop-2.7.3/data/datanode</value>
        </property>
    </configuration>
    
  4. 打开hadoop-2.7.3/etc/hadoop/yarn-site.xml,复制下面内容粘贴到最后并保存:

    <configuration>
        <property>
           <name>yarn.nodemanager.aux-services</name>
           <value>mapreduce_shuffle</value>
        </property>
        <property>
           <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
           <value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
    </configuration>
    

从C:\hadoop-2.7.3\bin下拷贝hadoop.dll到 C:\Windows\System32 ,不然在window平台使用MapReduce测试时报错:

数据挖掘实验:使用 Hadoop 实现 WordCount 应用

3.4 启动Hadoop服务

到C:\hadoop-2.7.3\bin下,按下Win+R进入命令行窗口,输入hdfs namenode -format,执行结果如下图所示:

数据挖掘实验:使用 Hadoop 实现 WordCount 应用

格式化之后,namenode文件夹里会自动生成一个current文件,说明格式化成功:

数据挖掘实验:使用 Hadoop 实现 WordCount 应用

到C:\hadoop-2.7.3\sbin下,按下Win+R进入命令行窗口,输入start-all,启动Hadoop集群:

数据挖掘实验:使用 Hadoop 实现 WordCount 应用

出现下面四个窗口表示启动Hadoop集群成功:

数据挖掘实验:使用 Hadoop 实现 WordCount 应用

在同命令行窗口下输入start-all(或运行start-all.cmd),启动Hadoop服务,等待他启动完成。

完成之后,输入jps,可以查看运行的所有服务:

数据挖掘实验:使用 Hadoop 实现 WordCount 应用

访问http://localhost:50070,这是Hadoop的管理页面:

数据挖掘实验:使用 Hadoop 实现 WordCount 应用

访问http://localhost:8088,这是yarn的Web界面:

数据挖掘实验:使用 Hadoop 实现 WordCount 应用

在同命令行窗口下输入stop-all(或运行stop-all.cmd),关闭Hadoop服务。

四、WordCount实现

到C:\hadoop-2.7.3\sbin下,按下Win+R进入命令行窗口,输入start-all(或运行start-all.cmd),启动Hadoop服务。

  1. 按Win+R输入cmd打开命令行窗口,键入hadoop fs -mkdir /wordcount命令,在hdfs中创建一个wordcount文件夹。

    数据挖掘实验:使用 Hadoop 实现 WordCount 应用

    可以在http://localhost:8088/中查看。

  2. 键入hadoop fs -mkdir /wordcount/input命令,在wordcount文件夹下创建input文件夹。

  3. 再次键入hdfs dfs -ls /wordcount命令,显示wordcount文件夹里的内容:

数据挖掘实验:使用 Hadoop 实现 WordCount 应用

  1. 键入hadoop fs -put C:/Users/81228/Desktop/input.txt /wordcount/input命令,将桌面的input.txt放入hdfs中的input内。

  2. 键入hdfs dfs -ls /wordcount/input命令,显示wordcount/input文件夹里的内容,可以看到input.txt已经在input中:

    数据挖掘实验:使用 Hadoop 实现 WordCount 应用

  3. 键入hadoop dfs -cat /wordcount/input/input.txt命令,查看上传文件中的内容:

    数据挖掘实验:使用 Hadoop 实现 WordCount 应用

    这是taylor swift的歌——《Love Story》的歌词 😃

  4. 键入hadoop jar C:/hadoop-2.7.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar wordcount /wordcount/input/input.txt /wordcount/output命令,运行C:/hadoop-2.7.3/share/hadoop/mapreduce文件夹中hadoop-mapreduce-examples-2.7.3.jar这个Java程序,调用wordcount方法,输入为/wordcount/input/input.txt,输出结果存储在/wordcount/output里。以下是运行细节:

    数据挖掘实验:使用 Hadoop 实现 WordCount 应用

    报错信息:Diagnostics: Failed to setup local dir /tmp/hadoop-81228/nm-local-dir, which was marked as good.

    解决方法:使用管理员身份命令行启动Hadoop集群,然后使用普通用户身份命令行提交作业。

  5. 以管理员身份打开命令行窗口,cd定位到C:\hadoop-2.7.3\sbin下,再次启动Hadoop集群:

    数据挖掘实验:使用 Hadoop 实现 WordCount 应用

  6. 再次运行7中的命令,可以看到,成功运行:

    数据挖掘实验:使用 Hadoop 实现 WordCount 应用

  7. 键入hdfs dfs -ls /wordcount命令,显示wordcount文件夹里的内容,可以看到output文件夹:

    数据挖掘实验:使用 Hadoop 实现 WordCount 应用

  8. 键入hadoop dfs -cat /wordcount/output命令,output文件夹下有两个文件:

    数据挖掘实验:使用 Hadoop 实现 WordCount 应用

    在工作的顺利完成,MapReduce的运行时创建的输出目录中的文件_SUCCESS。

  9. 键入hadoop dfs -cat /wordcount/output/part-r-00000命令,查看part-r-00000文件,里面就是我们要的结果:

    数据挖掘实验:使用 Hadoop 实现 WordCount 应用

    完整的MapReduce结果如下所示:文章来源地址https://www.toymoban.com/news/detail-415856.html

'Cause  1
And     8
Baby    4
Begging 1
But     1
Cause   1
Don't   1
Escape  1
Go      1
He      1
I       18
I'll    4
I'm     1
I've    1
Is      1
It's    4
Juliet  3
Little  1
Marry   1
My      1
Oh      4
On      1
Romeo   6
See     1
So      2
That    1
They're 1
This    1
We      2
When    1
Wondering       1
You'll  2
a       9
afraid  1
air     1
all     3
alone   4
and     5
around  1
away    2
balcony 1
ball    1
be      10
been    1
begging 1
both    2
but     2
can     2
cause   1
close   2
come    1
coming  1
crowd   1
crying  1
dad     1
daddy   2
dead    1
did     1
difficult       1
do      2
don't   3
dress   1
ever    1
everything      1
eyes    2
fading  1
faith   1
feel    1
feeling 1
first   2
flashback       1
for     2
from    2
garden  1
go      2
got     1
gowns   1
ground  1
have    1
head    1
hello   1
how     1
if      2
in      3
is      3
it      1
it's    1
just    4
keep    2
knelt   1
knew    1
know    3
left    2
letter  1
lights  1
little  1
love    6
make    2
me      7
mess    1
met     1
my      4
never   2
of      3
oh      7
on      2
out     4
outskirts       1
party   1
pebbles 1
pick    1
please  2
prince  2
princess        2
pulled  1
quiet   1
real    1
really  1
ring    1
run     2
said    6
save    2
saw     2
say     5
scarlet 1
see     3
sneak   1
so      1
somewhere       2
staircase       1
standing        1
starts  1
stay    2
story   4
summer  1
take    2
talked  1
tell    1
that's  1
the     13
there   1
there's 2
they    1
think   1
this    3
through 1
throwing        1
tired   1
to      11
town    2
trying  1
waiting 4
was     4
way     1
we      3
we'll   1
we're   1
were    7
what    1
when    2
while   1
white   1
yes     4
you     16
you'll  1
young   2
your    3

到了这里,关于数据挖掘实验:使用 Hadoop 实现 WordCount 应用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【手写数字识别】数据挖掘实验二

    用PyTorch实现MNIST手写数字识别(最新,非常详细) 图像识别 (Image Recognition)是指利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对象的技术。 图像识别的发展经历了三个阶段:文字识别、数字图像处理与识别、物体识别。机器学习领域一般将此类

    2024年02月07日
    浏览(33)
  • 数据挖掘实验(Apriori,fpgrowth)

    Apriori:这里做了个小优化,比如 abcde 和 adcef 自连接出的新项集 abcdef ,可以用 abcde 的位置和 f 的位置取交集,这样第 n 项集的计算可以用 n-1 项集的信息和数字本身的位置信息计算出来,只需要保存第 n-1 项集的位置信息就可以提速 Fpgrowth的算法,我没有递归建树,只建了一

    2024年04月23日
    浏览(30)
  • HNU-数据挖掘-实验1-实验平台及环境安装

    计科210X 甘晴void 202108010XXX Python 是一个高层次的结合了解释性、编译性、互动性和面向对象的脚本语言。Python 是 FLOSS(自由/开放源码软件)之一。Python 的设计具有很强的可读性,相比其他语言经常使用英文,其他语言的一些标点符号,它具有比其他语言更有特色语法

    2024年01月22日
    浏览(37)
  • 数据挖掘 | 实验一 数据的清洗与预处理

    1)了解数据质量问题、掌握常用解决方法; 2)熟练掌握数据预处理方法,并使用Python语言实现; PC机 + Python3.7环境(pycharm、anaconda或其它都可以) 清洗与预处理的必要性 在实际数据挖掘过程中,我们拿到的初始数据,往往存在缺失值、重复值、异常值或者错误值,通常这

    2023年04月08日
    浏览(35)
  • HNU-数据挖掘-实验4-链接预测

    计科210X 甘晴void 202108010XXX 节点分类(Node Classification)是图/图谱数据上常被采用的一个学习任务,既是用模型预测图中每个节点的类别。链接预测(Link Prediction)一般指的是,对存在多对象的总体中,每个对象之间的相互作用和相互依赖关系的推断过程。 利用已经掌握的深

    2024年01月22日
    浏览(41)
  • HNU-数据挖掘-实验3-图深度学习

    计科210X 甘晴void 202108010XXX 深度学习(Deep Learning, DL),由Hinton等人于2006年提出,是机器学习(MachineLearning, ML)的一个新领域。深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字、图像和声音等数据的解释有很大的帮助。它的最终目标是让机器

    2024年01月22日
    浏览(42)
  • 信息检索与数据挖掘 | 【实验】排名检索模型

    在Experiment1的基础上实现最基本的Ranked retrieval model Input :a query (like Ron Weasley birthday) Output : Return the top K (e.g., K = 100) relevant tweets. Use SMART notation: lnc.ltn Document: logarithmic tf (l as first character), no idf and cosine normalization Query: logarithmic tf (l in leftmost column), idf (t in second column), no norma

    2024年02月08日
    浏览(32)
  • HNU-数据挖掘-实验2-数据降维与可视化

    计科210X 甘晴void 202108010XXX 数据降维是指将高维数据映射到低维空间的过程。在现实生活中,很多数据集都是高维的,每个样本包含着大量特征。然而,高维数据不仅对计算资源要求较高,而且容易造成“维数灾难”,即在高维空间中,数据样本的稀疏性和分布规律难以理解

    2024年01月22日
    浏览(40)
  • 数据挖掘实验-主成分分析与类特征化

    数据集代码 https://www.aliyundrive.com/s/Jtcuion5iNC 1.实验目的 了解主成分分析的目的,内容以及流程。 掌握主成分分析,能够进行编程实现。 2.实验原理 主成分分析的目的 主成分分析就是把原有的多个指标转化成少数几个代表性较好的综合指标,这少数几个指标能够反映原来指标

    2024年02月07日
    浏览(33)
  • 数据挖掘实验(二)数据预处理【等深分箱与等宽分箱】

    在分箱前,一定要先排序数据,再将它们分到等深(等宽)的箱中。 常见的有两种分箱方法:等深分箱和等宽分箱。 等深分箱:按记录数进行分箱,每箱具有相同的记录数,每箱的记录数称为箱的权重,也称箱子的深度。 等宽分箱:在整个属性值的区间上平均分布,即每个

    2024年02月07日
    浏览(30)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包