Hadoop集群搭建--集群启动

这篇具有很好参考价值的文章主要介绍了Hadoop集群搭建--集群启动。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

关注微信公共号:小程在线

Hadoop集群搭建--集群启动

Hadoop集群搭建--集群启动

关注CSDN博客:程志伟的博客

一、配置workers

[atguigu@hadoop102 hadoop]$ vim /opt/module/hadoop-3.1.3/etc/hadoop/workers

增加以下内容:

hadoop102

hadoop103

hadoop104

[atguigu@hadoop102 hadoop]$ xsync /opt/module/hadoop-3.1.3/etc
Hadoop集群搭建--集群启动

二、启动集群

2.1 第一启动,需要在hadoop102节点格式化NameNode。

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs namenode -format

2.2 启动HDFS

[atguigu@hadoop102 hadoop-3.1.3]$ sbin/start-dfs.sh

Starting namenodes on [hadoop102]
Starting datanodes
hadoop104: WARNING: /opt/module/hadoop-3.1.3/logs does not exist. Creating.
hadoop103: WARNING: /opt/module/hadoop-3.1.3/logs does not exist. Creating.
Starting secondary namenodes [hadoop104]

 

2.3 在配置了ResourceManager的节点(hadoop103)启动YARN

[atguigu@hadoop103 hadoop-3.1.3]$ sbin/start-yarn.sh

Starting resourcemanager
Starting nodemanagers

2.4 查看进程

[atguigu@hadoop102 hadoop-3.1.3]$ jps
3765 NameNode
4350 Jps
3999 NodeManager
3871 DataNode

[atguigu@hadoop103 hadoop-3.1.3]$ jps
3490 DataNode
3677 ResourceManager
4462 Jps
3807 NodeManager

[atguigu@hadoop104 hadoop]$ jps
3588 SecondaryNameNode
3957 Jps
3431 NodeManager
3324 DataNode

2.5 Web端查看HDFS的NameNode

浏览器中输入:http://hadoop102:9870
Hadoop集群搭建--集群启动

2.6 Web端查看YARN的ResourceManager

浏览器中输入:http://hadoop103:8088

Hadoop集群搭建--集群启动

三、测试

3.1 创建word.txt

[atguigu@hadoop102 hadoop-3.1.3]$ mkdir wcinput

[atguigu@hadoop102 hadoop-3.1.3]$ cd wcinput

[atguigu@hadoop102 wcinput]$ vim word.txt

hadoop yarn

hadoop mapreduce

atguigu

atguigu

3.2 上传文件

[atguigu@hadoop102 wcinput]$ hadoop fs -put $HADOOP_HOME/wcinput/word.txt /input

Hadoop集群搭建--集群启动

Hadoop集群搭建--集群启动

 Hadoop集群搭建--集群启动

[atguigu@hadoop102 wcinput]$ hadoop fs -put  /opt/software/jdk-8u212-linux-x64.tar.gz  /

Hadoop集群搭建--集群启动

3.3 上传文件后查看文件存放在什么位置

  • 查看HDFS文件存储路径

红色字体表示每个人的位置不一样,需要根据自己的目录调整:pwd

/opt/module/hadoop-3.1.3/data/dfs/data/current/BP-406943879-192.168.10.102-1652083415701/current/finalized/subdir0/subdir0

Hadoop集群搭建--集群启动

 查看HDFS在磁盘存储文件内容,和上面word.txt文件内容一致

[atguigu@hadoop102 subdir0]$ cat blk_1073741825
hadoop yarn
hadoop mapreduce
atguigu
atguigu

查看JDK

[atguigu@hadoop102 subdir0]$ cat blk_1073741826 >> tmp.tar.gz

[atguigu@hadoop102 subdir0]$ cat blk_1073741827 >> tmp.tar.gz

[atguigu@hadoop102 subdir0]$ tar -zxvf tmp.tar.gz

Hadoop集群搭建--集群启动

执行wordcount程序

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output

这个界面就可以显示有个任务在执行:

Hadoop集群搭建--集群启动

Hadoop集群搭建--集群启动文章来源地址https://www.toymoban.com/news/detail-486234.html

到了这里,关于Hadoop集群搭建--集群启动的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Linux修改hadoop配置文件及启动hadoop集群详细步骤

    目录 一、配置Hadoop环境 1.查看Hadoop解压位置 2.配置环境变量 3.编辑环境变量 4.重启环境变量 5.查看Hadoop版本,查看成功就表示Hadoop安装成功了 二、修改配置文件 1.检查三台虚拟机: 2.切换到配置文件目录 3.修改 hadoop-env.sh 文件 4.修改 core-site.xml 文件 5.修改 mapred-site.xml 文件

    2024年02月03日
    浏览(62)
  • 【Hadoop】执行start-dfs.sh启动hadoop集群时,datenode没有启动怎么办

    执行start-dfs.sh后,datenode没有启动,很大一部分原因是因为在第一次格式化dfs后又重新执行了格式化命令(hdfs namenode -format),这时主节点namenode的clusterID会重新生成,而从节点datanode的clusterID 保持不变。 在主节点也就是namenode那个节点上的hdfs-site.xml文件下找到这两个文件路径

    2024年02月04日
    浏览(54)
  • Hadoop入门详解以及Hadoop集群搭建

    hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。hadoop充分利用了集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统(Distributed File System),其中一个组件是HDFS(Hadoop Distributed File System),

    2024年02月04日
    浏览(43)
  • Hadoop集群搭建(hadoop-3.3.5)

    1、配置环境变量 2、修改host映射 1、core-site.xml 2、hdfs-site.xml 3、hadoop-env.sh 4、works 1、格式化集群 2、启动集群 3、进程查看 4、浏览器查看

    2024年02月11日
    浏览(32)
  • hadoop集群搭建、spark集群搭建、pyspark搭建(linux+window)

    本文记录学习过程中Hadoop、zookeeper、spark集群搭建,主要为pyspark库服务(具体为window上pyspark环境和pyspark库,linux上spark框架、pyspark应用程序、pyspark环境和pyspark库)。pyspark环境是用anaconda3搭建的环境。pyspark应用程序,是安装spark集群里面自带的,提供一个python解释器环境来执

    2024年01月22日
    浏览(46)
  • 格式化文件系统和启动和关闭Hadoop集群

    初次启动HDFS集群时,须对主节点进行格式化处理,执行:hdfs   namenode  -format 格式化成功信息: 1. 一起启动hdfs和yarn服务 ,执行:start-all.sh 1. 单独启动hdfs服务 ,执行:start-dfs.sh 题外:关于jdk版本太高,启动hdfs和yarn会有警报这种,可以降低jdk版本,进行解决 具体可以参照

    2024年02月07日
    浏览(48)
  • Hadoop集群启动后利用Web界面管理HDFS

           Hadoop集群启动后,可以通过自带的浏览器Web界面查看HDFS集群的状态信息,访问IP为NameNode所在服务器的IP地址, hadoop版本为3.0以前访问端口默认为9870 , hadoop版本为3.0以后访问端口默认为50070 。( 下面测试版本为Hadoop3.0以后的 ) 一、利用ifconfig命令查看NameNode所在服

    2024年02月11日
    浏览(51)
  • 搭建hadoop集群,从安装虚拟机开始直到hadoop成功搭建

    搭建Hadoop集群   一、实验目的与要求 学习和掌握Hadoop的相关应用,首先必须得学会搭建Hadoop集群。本次实验将针对Hadoop集群的搭建内容进行演练。学会虚拟机的安装和克隆,Linux系统的网络配置和SSH配置,Hadoop集群的搭建和配置,Hadoop集群测试,熟悉Hadoop集群基本的操作。

    2023年04月08日
    浏览(42)
  • hadoop完全分布式集群搭建(超详细)-大数据集群搭建

    本次搭建完全分布式集群用到的环境有: jdk1.8.0 hadoop-2.7.7 本次搭建集群所需环境也给大家准备了,下载链接地址:https://share.weiyun.com/dk7WgaVk 密码:553ubk 本次完全分布式集群搭建需要提前建立好三台虚拟机,我分别把它们的主机名命名为:master,slave1,slave2 一.配置免密登陆 首先

    2024年02月10日
    浏览(52)
  • uni-app启动小程序篇(字节,微信)

    uni-app启动小程序篇 uni-app在字节工具小程序启动 1.1 在Hbuild X点击运行, 进入运行设置 1.2 进入运行设置后,设置字节小程序的运行位置   1.3 以上配置完成后,点击运行到小程序   1.4 启动成功后 复制该地址   1.5 打开字节小程序,选小程序,点击新建   1.6 进入后点击导入项目,将刚

    2024年02月11日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包