Hadoop启动时出现错误:Cannot execute /home/hadoop/libexec/hadoop-config.sh.

这篇具有很好参考价值的文章主要介绍了Hadoop启动时出现错误:Cannot execute /home/hadoop/libexec/hadoop-config.sh.。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

出现错误:

Hadoop启动时出现错误:Cannot execute /home/hadoop/libexec/hadoop-config.sh.
Hadoop启动时出现错误:Cannot execute /home/hadoop/libexec/hadoop-config.sh.,hadoop,大数据,分布式

原因分析

'ERROR: Cannot execute /usr/local/Hadoop/libexec/hdfs-config.sh'表示无法执行指定路径下的 hdfs-config.sh 文件。

可能是环境变量配置错误导致的,所以要检查 Hadoop 的环境变量配置是否正确。确保 Hadoop 的相关路径正确设置。具体解决方法如下:

解决方法:

输入运行:

source /etc/profile #重新加载/etc/profile文件
vim ~/.bashrc 

Hadoop启动时出现错误:Cannot execute /home/hadoop/libexec/hadoop-config.sh.,hadoop,大数据,分布式

检查.bashrc文件中的HADOOP_HOME是否有错,HADOOP_HOME需要被配置成你机器上Hadoop的安装路径,比如这里是安装在/usr/local./hadoop目录。
Hadoop启动时出现错误:Cannot execute /home/hadoop/libexec/hadoop-config.sh.,hadoop,大数据,分布式
保存退出后,运行如下命令使配置立即生效:

source ~/.bashrc

此时再次启动Hadoop显示启动成功:

./sbin/start-dfs.sh

Hadoop启动时出现错误:Cannot execute /home/hadoop/libexec/hadoop-config.sh.,hadoop,大数据,分布式

搞定!

❗注:

输入命令source /etc/profile时,会重新加载/etc/profile文件,这个文件包含了系统范围的环境变量和配置。这个命令通常用于在当前会话中更新环境变量。
如果想要恢复到之前的环境,可以关闭当前终端会话,并重新打开一个新的终端会话。这将重新加载默认的环境变量和配置文件。
如果想在当前终端会话中恢复到之前的环境,可以使用以下命令:

exec bash

这将重新启动当前shell会话,并重新加载~/.bashrc文件,其中包含用户特定的环境变量和配置。文章来源地址https://www.toymoban.com/news/detail-757852.html

到了这里,关于Hadoop启动时出现错误:Cannot execute /home/hadoop/libexec/hadoop-config.sh.的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【错误记录】安装 Hadoop 运行环境报错 ( Error: JAVA_HOME is incorrectly set. Please update xxx\hadoop-env.cmd )

    总结 : 报错 : Error: JAVA_HOME is incorrectly set. Please update xxxhadoop-env.cmd JDK 安装在了 C:Program Files 目录下 , 安装目录 Program Files 有空格 , 太坑了 ; 换一个没有空格的 JDK 目录 ; 安装 Hadoop 运行环境 , 完成上述安装步骤后 , 运行 hadoop 命令报错 ; C:Windowssystem32hadoop -version The system ca

    2024年02月08日
    浏览(32)
  • 【Hadoop】关于Hadoop集群HDFS启动问题:DataNode启动报错ERROR: Cannot set priority of namenode process

    出了问题第一步一定要先看日志!看日志!看日志! DataNode日志文件在Hadoop目录下的logs文件夹 以下列举两种问题的解决方法: 1.最常见的就是对NameNode进行了多次格式化操作,格式化NameNode,会产生新的集群id,导致NameNode和DataNode的集群id不一致,集群找不到已往数据。如果

    2024年02月06日
    浏览(40)
  • 启动Hadoop报错【Error: JAVA_HOME is not set and could not be found.】

    当用了一下午从0安装上Hadoop兴奋的启动的时候! Error: JAVA_HOME is not set and could not be found. 他告诉我JAVA_HOME 没被找到? 我明明安装了java的,为什么找不到? java -version看了下发现是没问题的 解决: 后来发现是Hadoop上的java路径并没有配置,也就是Hadoop的环境变量没有配置 进入

    2024年02月09日
    浏览(44)
  • HADOOP启动集群报错JAVA_HOME is not set and could not be found.

    首先确保配置好 JAVA_HOME的环境变量 并在普通用户和Root用户下都输入   Java -version  确认配置成功 注意:如果普通用户输入命令成功显示jdk版本,root用户输入命令却显示找不到 Java命令。其中一种可能的解决办法是:修改环境变量的配置文件, 先查找 JAVA_HOME/bin 再查找PATH

    2024年04月26日
    浏览(23)
  • 启动Hadoop报错(Error: JAVA_HOME is not set and could not be found.)

    JAVA_HOME is not set and could not be found 首先确定JDK是否安装配置:通过 java -version查看JDK版本信息。 如果查询不到版本信息,需下载JDK并配置环境变量。 在JDK配置无错的情况下,可能是没有配置hadoop-env.sh文件。这个文件里写的是hadoop的环境变量,主要修改hadoop的JAVA_HOME路径。 切换

    2024年02月12日
    浏览(43)
  • Hadoop在启动yarn时报错:Cannot set priority of resourcemanager process xxxxx

    着急看解决方法的请直接奔文末。 今天刚开始弄Hadoop,启动完namenode和hadoop之后,开始启动yarn,结果直接报错了: Cannot set priority of resourcemanager process 93826 翻译过来就是说:无法设置resourcemanager进程的优先级(大概)。 然后就开始百度,stackOverflow上有说是没有设置ssh免密登

    2023年04月12日
    浏览(28)
  • 启动Hadoop集群,出现Cannot set priority of nodemanager(resourcemanager) process xxx问题

    (不感兴趣可以跳过背景介绍) 配置 在安装hive的过程中,初始化数据库成功后(mysql),输入 命令: ./bin/hive 启动hive时出错(忘记截图了)。后发现原因是hive3.x仅支持JDK 1.8,并不支持openJDK 11,尽管hadoop3.3.x是支持JDK 1.8和openJDK 11的。当降低JDK版本后启动集群,便出现启动

    2024年02月01日
    浏览(37)
  • hadoop namenode格式化错误以及启动不了解决方案

    重启虚拟机,启动Zookeeper和journalnode 启动三台机器的zookeeper 和 journalnode 第一次格式化namenode时报错,namennode可能会自动进入了安全模式,所以需要关闭安全模式 重新格式化 需要先关闭所有服务 查看配置文件是否有错误 然后删除tmp文件,并重新格式化namenode,tmp文件查看co

    2024年02月11日
    浏览(37)
  • Hive表字段类型转换错误解决:Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask.

    假设某有数据的Hive表temp_table的字段状况如下,需要将A字段由string类型转为int类型: 字段名称 字段类型 是否为分区字段 A string 否 B int 否 C bigint 否 D string 是 在Hdfs数据库中,该表的数据是以Parquet文件格式存储的,包含多个分区。 原本在该表中的字段A的类型为int 。然而笔者

    2024年02月02日
    浏览(71)
  • windows搭建hadoop环境(解决HADOOP_HOME and hadoop.home.dir are unset)

    一、软件安装 1、JDK1.8 链接:https://pan.baidu.com/s/1jqqWb-3JNMDW3DbvibYlJQ?pwd=agoi 提取码:agoi 2、hadoop-3.1.3版本 链接:https://pan.baidu.com/s/1cRkMc7LHPpza7n2oWqyLGw?pwd=ecid 提取码:ecid 3、winutils-master 3.1.1版本下载(windows下运行hadoop必须要下载这个!这个版本可以适用于hadoop3.1.x) 链接:http

    2024年02月09日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包