启动hadoop并测试问题合集

这篇具有很好参考价值的文章主要介绍了启动hadoop并测试问题合集。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

首先hadoop和jdk都已经装好了的,如下:

启动hadoop并测试问题合集,存档处,hadoop,java

启动hadoop并测试问题合集,存档处,hadoop,java

然后相应的这五个配置文件也配好了:

启动hadoop并测试问题合集,存档处,hadoop,java

然后格式化了:

cd /opt/hadoop/bin/

sudo ./hdfs namenode -format

启动hadoop并测试问题合集,存档处,hadoop,java

(显示这个就为成功,很长的,慢慢找)

==========以上为前提,然后开始遇见问题===========


问题1:输入jps的时候说找不到?按理来说有jdk应该就能够使用这个命令的,找了很久都没找到。

报错如下:

Command 'jps' not found, but can be installed with:

apt install openjdk-11-jdk-headless # version 11.0.20+8-1ubuntu1~20.04, or

apt install openjdk-13-jdk-headless # version 13.0.7+5-0ubuntu1~20.04

apt install openjdk-16-jdk-headless # version 16.0.1+9-1~20.04

apt install openjdk-17-jdk-headless # version 17.0.8+7-1~20.04.2

apt install openjdk-8-jdk-headless # version 8u382-ga-1~20.04.1

解决方案:按照报错提示我下了一个openjdk-11-jdk-headless,然后再使用jps就没问题了


问题2:start-all.sh的时候,我发现我少了两个,于是我重新格式化看看能不能行,不仅不能行,还导致我原先有namenode的,然后jps又不见namenode了?

原因:找了许多原因,最后我认为是因为多次格式化后所导致的。

解决方案参考:hadoop 多次格式化format namenode 导致节点不能启动解决_hadoop多次格式化导致节点缺失_qq_41059374的博客-CSDN博客1. 具体配置 我用的是vmware配的虚拟机,一个master,2个slave2. 遇到的问题hadoop 多次格式化format namenode 导致节点不能启动,出现这个问题的原因是多次格式化会导致节点的clusterID不一致3. 解决方法 我是参考的stackoverflow的方法,有一些不同 https://stackoverflow.com/qu..._hadoop多次格式化导致节点缺失https://blog.csdn.net/qq_41059374/article/details/80695581?spm=1001.2014.3001.5502

实际步骤(顺序真的很重要):

①把haadoop停掉:stop-all.sh

②把/opt/haadoop/tmp删掉:rm-rf

③删掉之后再重新格式化,再重新启动start-all.sh就有了

启动hadoop并测试问题合集,存档处,hadoop,java


问题3:我真的快烦躁死了(小声bb),跟上述图一样,缺了两个有关yarn的。

原因:看了日志文件,大概是java版本不兼容的原因。

解决方案参考:yarn启动后用jps查看没有resourcemanager_jps没有resourcemanager_川川菜鸟的博客-CSDN博客yarn启动后用jps查看没有resourcemanager_jps没有resourcemanagerhttps://blog.csdn.net/weixin_46211269/article/details/126558775

实际步骤:

在/opt/Hadoop/etc/Hadoop/yarn-env.sh中添加

export YARN_RESOURCEMANAGER_OPTS="--add-opens java.base/java.lang=ALL-UNNAMED"
export YARN_NODEMANAGER_OPTS="--add-opens java.base/java.lang=ALL-UNNAMED"

重新启动就好啦然后就终于能看到我想要的了(除jps以为的五个进程)

启动hadoop并测试问题合集,存档处,hadoop,java

最后打开一下网址验证一下:

localhost:9870

启动hadoop并测试问题合集,存档处,hadoop,java

localhost:8088

启动hadoop并测试问题合集,存档处,hadoop,java


一晚上在解决问题出现新的问题之间来回捣鼓,最后总算搞好了!不容易!记录一下!文章来源地址https://www.toymoban.com/news/detail-708492.html

到了这里,关于启动hadoop并测试问题合集的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 解决hadoop启动后没有namenode节点问题(三)

    前景回顾:上一篇文章中我们安装配置完hadoop后启动发现没有namenode节点,而且无法访问对应网站,该篇中将解决上篇的问题 针对前篇没有namenode节点解决方案: 先关闭hadoop:sbin/./stop-all.sh 删除文件夹 (hadoop2.7.3/下)的tmp/文件夹里边所有的东西 删除日志 : 删除 logs文件夹

    2024年02月11日
    浏览(48)
  • 【Hadoop】关于Hadoop集群HDFS启动问题:DataNode启动报错ERROR: Cannot set priority of namenode process

    出了问题第一步一定要先看日志!看日志!看日志! DataNode日志文件在Hadoop目录下的logs文件夹 以下列举两种问题的解决方法: 1.最常见的就是对NameNode进行了多次格式化操作,格式化NameNode,会产生新的集群id,导致NameNode和DataNode的集群id不一致,集群找不到已往数据。如果

    2024年02月06日
    浏览(50)
  • 解决“无法启动此程序,因为计算机中丢失VCRUNTIME140.dll,尝试重新安装此程序以解决此问题”方案合集

    今天装配mysql的时候,系统出现了报错。 .dll文件是动态链接库文件,是一种可执行文件,很多时候系统会通过调用一些vc的dll文件来运行一些程序。 查阅资料以后发现有几个解决方案,笔者通过第二种解决方案解决该问题。 方案1 : 通过下载 VCRUNTIME140_1.dll文件后直接复制到

    2024年01月16日
    浏览(64)
  • Hadoop集群/Zookeeper服务启动失败(Unable to write in /tmp等问题)----虚拟机内存问题导致

    一、问题描述:1.输入命令start-all.sh正常启动集群时 出现以下图片报错: 2.或在正常启动zookeeper服务时zkServer.sh start后发现内存不足报错,导致zookeeper服务启动失败。 以上两个问题都是因为根目录内存不足所导致服务启动失败 二、问题查找分析: 查看分区状况 根目录在/de

    2024年04月14日
    浏览(51)
  • 启动Hadoop集群,出现Cannot set priority of nodemanager(resourcemanager) process xxx问题

    (不感兴趣可以跳过背景介绍) 配置 在安装hive的过程中,初始化数据库成功后(mysql),输入 命令: ./bin/hive 启动hive时出错(忘记截图了)。后发现原因是hive3.x仅支持JDK 1.8,并不支持openJDK 11,尽管hadoop3.3.x是支持JDK 1.8和openJDK 11的。当降低JDK版本后启动集群,便出现启动

    2024年02月01日
    浏览(47)
  • 幻兽帕鲁转移/迁移游戏存档之后,无法迁移角色存档,进入游戏需要重新建角色问题(已解决),服务器到服务器之间的存档转移

    很多朋友在迁移幻兽帕鲁游戏存档到服务器的时候,可能会遇到一个问题,就是迁移完成后,进入到游戏会发现又需要从头开始,重新新建角色。 其实这个问题也很好解决,因为Palworld服务端有两种,一种是有APPID,还有一种是没有APPID。   如果迁移的前后服务器版本不一致

    2024年02月20日
    浏览(46)
  • 企业微信会话存档详细搭建以及问题处理

    由于公司业务需求,需要开发企业微信的会话存档,从开始阅读文档到获取解密数据,中间趟过了不少坑,在此记录一下。 登录企业微信后台,获取企业配置参数,企业微信后台登录地址:企业微信登录地址 生成一对公私钥,保存好密钥对生成地址 获取企业编码 设置企业后

    2024年02月16日
    浏览(39)
  • HADOOP启动集群报错JAVA_HOME is not set and could not be found.

    首先确保配置好 JAVA_HOME的环境变量 并在普通用户和Root用户下都输入   Java -version  确认配置成功 注意:如果普通用户输入命令成功显示jdk版本,root用户输入命令却显示找不到 Java命令。其中一种可能的解决办法是:修改环境变量的配置文件, 先查找 JAVA_HOME/bin 再查找PATH

    2024年04月26日
    浏览(32)
  • 启动Hadoop报错(Error: JAVA_HOME is not set and could not be found.)

    JAVA_HOME is not set and could not be found 首先确定JDK是否安装配置:通过 java -version查看JDK版本信息。 如果查询不到版本信息,需下载JDK并配置环境变量。 在JDK配置无错的情况下,可能是没有配置hadoop-env.sh文件。这个文件里写的是hadoop的环境变量,主要修改hadoop的JAVA_HOME路径。 切换

    2024年02月12日
    浏览(62)
  • 启动Hadoop报错【Error: JAVA_HOME is not set and could not be found.】

    当用了一下午从0安装上Hadoop兴奋的启动的时候! Error: JAVA_HOME is not set and could not be found. 他告诉我JAVA_HOME 没被找到? 我明明安装了java的,为什么找不到? java -version看了下发现是没问题的 解决: 后来发现是Hadoop上的java路径并没有配置,也就是Hadoop的环境变量没有配置 进入

    2024年02月09日
    浏览(61)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包