hadoop运行jar遇到的一个报错

这篇具有很好参考价值的文章主要介绍了hadoop运行jar遇到的一个报错。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

报错信息:

2023-12-19 14:28:25,893 INFO mapreduce.Job: Job job_1702967272525_0001 failed with state FAILED due to: Application application_1702967272525_0001 failed 2 times due to AM Container for appattempt_1702967272525_0001_000002 exited with  exitCode: 127
Failing this attempt.Diagnostics: [2023-12-19 14:28:25.741]Exception from container-launch.
Container id: container_1702967272525_0001_02_000001
Exit code: 127

[2023-12-19 14:28:25.784]Container exited with a non-zero exit code 127. Error file: prelaunch.err.
Last 4096 bytes of prelaunch.err :
Last 4096 bytes of stderr :
/bin/bash: /bin/java: No such file or directory


[2023-12-19 14:28:25.785]Container exited with a non-zero exit code 127. Error file: prelaunch.err.
Last 4096 bytes of prelaunch.err :
Last 4096 bytes of stderr :
/bin/bash: /bin/java: No such file or directory

问题分析:

从报错信息字面上看是找不到java执行目录,但是我在hadoop-env.sh  yarn-env.sh等配置文件中已经配置好了java的环境变量。接着想到既然说找不到/bin/java,那就直接把安装的jdk目录下的/bin/java执行文件直接链接到/bin/java

解决方案:

在hadoop集群的各节点都执行命令  ln -s  /usr/local/jdk/jdk1.8.0_161/bin/java /bin/java   

其中 /usr/local/jdk/jdk1.8.0_161/为你的jdk安装目录,也就是配置到环境变量中的JAVA_HOME的路径文章来源地址https://www.toymoban.com/news/detail-770555.html

到了这里,关于hadoop运行jar遇到的一个报错的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 打成jar包运行之后报错,java.io.FileNotFoundException:(已解决)

    今天项目测试时,遇到一个问题,因为第一次遇到,所以记录一下: 1、问题情况如下:         存放在项目resources目录下的静态资源文件,需要在接口调用时,将其copy到其他文件位置,但是打包后运行,调用时报错FileNotFoundException。         开发中代码调试没有问题,但

    2024年02月15日
    浏览(56)
  • 【Linux】linux下使用命令修改jar包内某一个文件中的内容并重新运行jar程序

    需求:发现线上的 iotp-irsb-server-v1.0.0.2.jar 包中配置文件的日志级别配置错误,需要在线修改jar包中文件的application-prod.yml的日志级别配置,修改完成后并重启该jar包。 进入到该jar包所在的目录,使用 vi 命令打开 jar 包内文件列表。 1、vi iotp-irsb-server-V1.0.0.2.jar 如下图所示:

    2024年02月08日
    浏览(49)
  • 四、Dockerfile应用案例教程(将一个或多个jar包部署到docker容器中运行)

    现有环境如下: 1.工作目录下有若干个可执行的jar包:在工作目录下打开命令行进行操作(Windows和Linux版的docker均可,这里以Windows为例) 2.拉取任意一个能运行jar包的jdk镜像:我的是adoptopenjdk/openjdk12 3.已具备jar包所需的基本组件:例如mysql、redis、nacos等 假如我只想将nettys

    2024年02月04日
    浏览(51)
  • 从GitHub上新拉一个项目并在mac系统下运行遇到的种种问题

    如果项目已经被拉下来,现在我们要启动项目。 step1、需要了解该项目是什么,它的作用是什么,以及它可以解决的问题。阅读项目的介绍、文档和示例,确保对项目有一个基本的认识。 step2、设置开发环境:确保您的开发环境中安装了所需的工具和软件,例如文本编辑器(

    2024年02月11日
    浏览(51)
  • pycharm中导入selenium库包运行报错;在调用selenium的Chrome过程中遇到错误(已解决)

           在控制台下载好了,在运行时仍然报错。没有selenium这个库 。于是打开settingspython interpreter 没有对应的package。在此界面添加库包,再次运行(解决)。出现了新的报错 下载与chrome浏览器对应库包。一系列操作后,最终  此为安装python的路径。在win中搜索python为快捷方

    2024年02月07日
    浏览(42)
  • pycharm中导入selenium库包运行报错;在调用selenium的Chrome过程中遇到错误(已解决) 2.

           在控制台下载好了,在运行时仍然报错。没有selenium这个库 。于是打开settingspython interpreter 没有对应的package。在此界面添加库包,再次运行(解决)。出现了新的报错 下载与chrome浏览器对应库包。一系列操作后,最终  此为安装python的路径。在win中搜索python为快捷方

    2024年02月14日
    浏览(43)
  • 【日常Exception】第三十三回:Flink运行jar包报错NoSuchMethodError: org.apache.flink.api.common.functions.Runtime....

    主要报错内容: java.lang.NoSuchMethodError: org.apache.flink.api.common.functions.RuntimeContext.getMetricGroup()Lorg/apache/flink/metrics/MetricGroup; 报错全量信息: 原因: 升级后使用的flink安装版本是1.14.5,而我的jar包中是使用的1.13.2 解决: 将jar包中的pom中flink的依赖版本,也换成1.14.5,与服务器上

    2024年02月16日
    浏览(46)
  • 【错误记录】PySpark 运行报错 ( Did not find winutils.exe | HADOOP_HOME and hadoop.home.dir are unset )

    核心报错信息 : WARN Shell: Did not find winutils.exe: java.io.FileNotFoundException: java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset. 在 PyCharm 中 , 调用 PySpark 执行 计算任务 , 会报如下错误 : 核心报错信息 : WARN Shell: Did not find winutils.exe: java.io.FileNotFoundException: java.io.FileNotFoundExceptio

    2024年02月08日
    浏览(49)
  • idea运行spark项目报错:org.apache.hadoop.io.nativeio.NativeIO$Windows.createDirectoryWithMode0

    使用idea运行spark项目wordcount出现此类错误:org.apache.hadoop.io.nativeio.NativeIO$Windows.createDirectoryWithMode0 解决方法如下: 1.确保安装了hadoop。我使用的spark和hadoop版本都是3.3.2,配置环境变量HADOOP_HOME=D:hadoop-3.3.2,还要注意Path变量要加入%HADOOP_HOME%bin。 2.还要安装hadoop windows的winuti

    2024年02月12日
    浏览(36)
  • 【大数据】Hadoop运行环境搭建

    使用VMware虚拟机搭建基于CentOS7的Hadoop环境: cpu核数(需要搭建3台Hadoop组成集群,加上Windows本机,所以可以分配的数量为本机的cpu核数除以4) 内存至少4G 硬盘最少50G 创建虚拟机: 新建虚拟机,选择自定义(高级)—硬件兼容性默认—选择稍后安装操作系统 —客户机操作系统

    2024年02月08日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包