【非常重要】Hadoop成功启动的验证与集群的基本应用

这篇具有很好参考价值的文章主要介绍了【非常重要】Hadoop成功启动的验证与集群的基本应用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. 终端执行JPS命令验证

  • master上
Last login: Sun Oct  9 08:44:41 2022 from master
[wangguowei@master ~]$ jps
3616 ResourceManager
4888 Jps
3384 SecondaryNameNode
3163 NameNode

  • slave上
Last login: Sun Oct  9 08:44:56 2022 from master
[wangguowei@slave0 ~]$ jps
2529 DataNode
2657 NodeManager
3498 Jps

2. WEB页面监测运行状况

  • master:9870
    这是Hadoop自带的web监测软件,提供丰富的系统状态信息

自己理解:9870端口用来查看Hadoop中的hdfs运行状态

【非常重要】Hadoop成功启动的验证与集群的基本应用

  • master:18088
    监测yarn的运行状况

自己理解:18088端口用来查看Hadoop中的yarn运行状态

【非常重要】Hadoop成功启动的验证与集群的基本应用

这个只能看maser的,但是可以在master和slave真机中的浏览器来看

3. 运行MapReduce程序来对hadoop进行最终验证

这个程序是验证hadoop最重要的一环,虽然在1和2的验证中都通过,但也并不意味着系统可以正常工作

[wangguowei@master mapreduce]$ pwd
/home/wangguowei/hadoop-3.1.0/share/hadoop/mapreduce
[wangguowei@master mapreduce]$ ll
总用量 5572
-rw-r--r--. 1 wangguowei wangguowei  610607 9月  30 16:04 hadoop-mapreduce-client-app-3.1.0.jar
-rw-r--r--. 1 wangguowei wangguowei  803660 9月  30 16:04 hadoop-mapreduce-client-common-3.1.0.jar
-rw-r--r--. 1 wangguowei wangguowei 1654130 9月  30 16:04 hadoop-mapreduce-client-core-3.1.0.jar
-rw-r--r--. 1 wangguowei wangguowei  215596 9月  30 16:04 hadoop-mapreduce-client-hs-3.1.0.jar
-rw-r--r--. 1 wangguowei wangguowei   45330 9月  30 16:04 hadoop-mapreduce-client-hs-plugins-3.1.0.jar
-rw-r--r--. 1 wangguowei wangguowei   85388 9月  30 16:04 hadoop-mapreduce-client-jobclient-3.1.0.jar
-rw-r--r--. 1 wangguowei wangguowei 1658663 9月  30 16:04 hadoop-mapreduce-client-jobclient-3.1.0-tests.jar
-rw-r--r--. 1 wangguowei wangguowei  126141 9月  30 16:04 hadoop-mapreduce-client-nativetask-3.1.0.jar
-rw-r--r--. 1 wangguowei wangguowei   98337 9月  30 16:04 hadoop-mapreduce-client-shuffle-3.1.0.jar
-rw-r--r--. 1 wangguowei wangguowei   56745 9月  30 16:04 hadoop-mapreduce-client-uploader-3.1.0.jar
-rw-r--r--. 1 wangguowei wangguowei  316222 9月  30 16:04 hadoop-mapreduce-examples-3.1.0.jar
drwxr-xr-x. 2 wangguowei wangguowei    4096 3月  30 2018 jdiff
drwxr-xr-x. 2 wangguowei wangguowei    4096 3月  30 2018 lib-examples
drwxr-xr-x. 2 wangguowei wangguowei    4096 3月  30 2018 sources
[wangguowei@master mapreduce]$ 

运行MapReduce的jar包来进行验证

【非常重要】Hadoop成功启动的验证与集群的基本应用


Hadoop集群的基本命令

命令格式
hadoop fs -xx [option]

  • 创建目录
  • 查看文件列表
  • 文件上传
  • 文件下载
  • 查看hdfs中文件的内容
  • 删除hdfs中的文件

写在最后

hadoop是一种开源系统,且处于不断地进化中,出现各类问题是很正常的。从某种意义上来说,开发和应用Hadoop大数据生态系统,就是一个不断面对各种问题,需要持续努力和耐心去应对的过程。

【非常重要】Hadoop成功启动的验证与集群的基本应用

从9月26日开始到2022年10月9日,14天的时间,最后一个pi程序的成功运行,标志着前4章内容的学习彻底完成,感慨万分,心情也非常地激动。这一路学习走来,遇到了各种困难,一路走来,真的是只有自己才知道这个过程有多么的艰辛,自己的计算机水平也更上了一层楼,真的是挑战了对自己很生疏的东西,感谢自己。相信自己通过这一段内容的学习,对自己以后的学习工作生活上都会有巨大帮助。继续努力,加油!

最后一个PI程序运行的成功,我也就变强了
写于2022年10月9日11:34:53文章来源地址https://www.toymoban.com/news/detail-408611.html

到了这里,关于【非常重要】Hadoop成功启动的验证与集群的基本应用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • hadoop集群启动后datanode没有启动

    今天启动hadoop集群后,查看进程发现名称节点的NameNode进程启动了,但是数据节点的DataNode进程没有启动,如下: 这个问题是个常见问题,对于自学的初学者来说,真的是个很头大的问题,一时不知道该怎么弄,我就是其中一个。但遇到问题不要慌,认真看错并查找解决办法

    2023年04月27日
    浏览(30)
  • Hadoop集群的启动

    在首次启动Hadoop之前还需要进行一些配置工作 我们是在Linux集群上安装Hadoop集群 注意,一说Linux操作系统的环境变量 配置文件就在/home/wangguowei下的.bash.profile中 将hadoop的家目录写好 并引入到path路径中即可 在普通用户的家目录下创建hadoopdata目录,这个目录要与核心组件中的

    2024年02月06日
    浏览(30)
  • hadoop集群配置与启动(三)

    1 集群部署规划 NameNode 和 SecondaryNameNode 不要安装在同一台服务器 。 (它们两个都需要耗内存,分开减少集群的压力) ResourceManager 也很消耗内存,不要和 NameNode、SecondaryNameNode 配置在同一台机器上 2配置文件说明 Hadoop 配置文件分两类:默认配置文件和自定义配置文件,只有

    2024年02月03日
    浏览(29)
  • 任务6:启动Hadoop集群并测试

    任务描述 知识点 : 掌握Hadoop集群的启动 重  点 : Hadoop集群的格式化流程 Hadoop集群的启动流程 内  容 : 格式化Hadoop集群 启动测试Hadoop集群 任务指导 启动Hadoop集群并测试,过程如下: 初始化HDFS; 在master服务器启动Hadoop集群; 使用jps命令查看相应的守护进程是否正常启

    2024年01月19日
    浏览(34)
  • Zookeeper集群单节点启动成功但未同步其他节点数据

    首先排查节点启动是否正常: 在zookeeper的bin目录下执行:sh zkServer.sh status 判断当前节点数据leader 还是follower  节点都启动正常,但某一个zookeeper集群节点(下面简称“异常节点”)不同步其他节点数据,解决步骤: 1、查看异常节点的配置文件(**/zookeeper/conf/zoo.cfg) 2、找到

    2024年02月11日
    浏览(31)
  • Linux修改hadoop配置文件及启动hadoop集群详细步骤

    目录 一、配置Hadoop环境 1.查看Hadoop解压位置 2.配置环境变量 3.编辑环境变量 4.重启环境变量 5.查看Hadoop版本,查看成功就表示Hadoop安装成功了 二、修改配置文件 1.检查三台虚拟机: 2.切换到配置文件目录 3.修改 hadoop-env.sh 文件 4.修改 core-site.xml 文件 5.修改 mapred-site.xml 文件

    2024年02月03日
    浏览(41)
  • hadoop集群中增加新节点服务器(DataNode + NodeManager)方案及验证

    现根据业务需要,需要在原有的3台完全分布式的集群(hadoop1、hadoop2、hadoop3仨节点)增设一台新的服务器节点(hadoop4),以下是在原有的完全分布式hadoop集群中增设新节点( DataNode + NodeManager )的部署步骤。 基础服务配置 hadoop4上依次执行以下步骤: 1)用户:重置root用户密

    2024年01月19日
    浏览(34)
  • 【Hadoop】执行start-dfs.sh启动hadoop集群时,datenode没有启动怎么办

    执行start-dfs.sh后,datenode没有启动,很大一部分原因是因为在第一次格式化dfs后又重新执行了格式化命令(hdfs namenode -format),这时主节点namenode的clusterID会重新生成,而从节点datanode的clusterID 保持不变。 在主节点也就是namenode那个节点上的hdfs-site.xml文件下找到这两个文件路径

    2024年02月04日
    浏览(39)
  • Hadoop集群启动后利用Web界面管理HDFS

           Hadoop集群启动后,可以通过自带的浏览器Web界面查看HDFS集群的状态信息,访问IP为NameNode所在服务器的IP地址, hadoop版本为3.0以前访问端口默认为9870 , hadoop版本为3.0以后访问端口默认为50070 。( 下面测试版本为Hadoop3.0以后的 ) 一、利用ifconfig命令查看NameNode所在服

    2024年02月11日
    浏览(41)
  • 格式化文件系统和启动和关闭Hadoop集群

    初次启动HDFS集群时,须对主节点进行格式化处理,执行:hdfs   namenode  -format 格式化成功信息: 1. 一起启动hdfs和yarn服务 ,执行:start-all.sh 1. 单独启动hdfs服务 ,执行:start-dfs.sh 题外:关于jdk版本太高,启动hdfs和yarn会有警报这种,可以降低jdk版本,进行解决 具体可以参照

    2024年02月07日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包