【Hadoop】关于Hadoop集群HDFS启动问题:DataNode启动报错ERROR: Cannot set priority of namenode process

这篇具有很好参考价值的文章主要介绍了【Hadoop】关于Hadoop集群HDFS启动问题:DataNode启动报错ERROR: Cannot set priority of namenode process。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

关于Hadoop集群HDFS启动问题:NameNode启动正常,DataNode启动报错ERROR: Cannot set priority of namenode process 19826

出了问题第一步一定要先看日志!看日志!看日志!
DataNode日志文件在Hadoop目录下的logs文件夹

[root@hadoopb ~]$ cat $HADOOP_HOME/logs/hadoop-root-datanode-hadoopb.log

以下列举两种问题的解决方法:
1.最常见的就是对NameNode进行了多次格式化操作,格式化NameNode,会产生新的集群id,导致NameNode和DataNode的集群id不一致,集群找不到已往数据。如果集群在运行过程中报错,需要重新格式化NameNode的话,一定要先停止namenode和datanode进程,并且要删除集群中所有机器的data和logs目录(格式化之前需要重新创建一个logs目录,不然会提示找不到logs目录,导致失败)然后再进行格式化。文章来源地址https://www.toymoban.com/news/detail-455799.html

[root@hadoopb hadoop]$ rm -rf data logs
[root@hadoopb hadoop]$ mkdir logs
[root@hadoopc hadoop]$ rm -rf data logs
[root@hadoopc hadoop]$ mkdir logs
[root@hadoopd had

到了这里,关于【Hadoop】关于Hadoop集群HDFS启动问题:DataNode启动报错ERROR: Cannot set priority of namenode process的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 解决Hadoop伪分布式集群jps没有datanode节点问题

    在启动Hadoop时,通过jps目录发现没有datanode进程。

    2024年02月13日
    浏览(57)
  • 解决Hadoop完全分布式集群中从节点jps没有datanode节点问题

    当用start-dfs.sh和start-yarn.sh后,在slave节点(从节点)中用jps命令查看进程 正常情况: 有时候可能发现没有Datanode,即只有两项(第一项和最后一项)。原因可能是 重复格式化 namenode 后,导致 datanode 的 clusterID 和 namenode 的 clusterID 不一致。 解决方法: 在master节点(namenode): 找到你

    2024年02月06日
    浏览(58)
  • Hadoop集群启动后利用Web界面管理HDFS

           Hadoop集群启动后,可以通过自带的浏览器Web界面查看HDFS集群的状态信息,访问IP为NameNode所在服务器的IP地址, hadoop版本为3.0以前访问端口默认为9870 , hadoop版本为3.0以后访问端口默认为50070 。( 下面测试版本为Hadoop3.0以后的 ) 一、利用ifconfig命令查看NameNode所在服

    2024年02月11日
    浏览(51)
  • Hadoop理论及实践-HDFS的Namenode及Datanode(参考Hadoop官网)

            Hadoop分布式文件系统(HDFS)被设计成适合运行在通用硬件(commodity hardware)上的分布式文件系统。有一下几个特点:         HDFS是一个高度容错性的系统,具有高容错、高可靠性、高扩展性的特点,适合部署在廉价的机器上。          HDFS能提供对应用程序数据

    2024年02月14日
    浏览(48)
  • 解决ZooKeeper集群的启动报错,出现Error contacting service. It is probably not running问题

    输入ZooKeeper启动命令zkServer.sh start之后,显示STARTED 我们使用jps查看状态: 这里面看起来好像是启动了,但是我们用上面的再用命令zkServer.sh status查看状态时,出现报错: 报错显示:JMX enabled by default Using config: /usr/ocal/soft/zookeeper-3.4.6/bin/…/conf/zoo.cfgError contacting service. It is

    2024年02月05日
    浏览(54)
  • hadoop datanode无法启动

    查看日志文件,显示报错: 错误原因:datanode和namenode的clusterID不同,导致无法启动datanode。通常是多次格式化导致的这个问题. 注:找到datanode和namenode数据存储文件中current文件夹,查看VERSION文件,可以发现他们的clusterID不同(数据存储路径可在hdfs-site.xml文件中查看,以个人实际为准

    2024年02月06日
    浏览(50)
  • 关于unbuntu启动hadoop时报错org.apache.hadoop.hdfs.BlockMissingException: Could not obtain block的解决方案

    虚拟机安装 Hadoop 3.1.3,并运行了 HDFS 将网上查询到的资料的所有解决方法都试了一遍,下面这个解决方案成功解决了我的问题。 启动HDFS后,执行统计词频实例wordcount时,显示Block受损。 异常信息 查看受损模块 运行代码: hadoop fsck /你的path 将报错中file后面的路径粘贴过来即

    2024年02月08日
    浏览(42)
  • Hadoop源码阅读(二):DataNode启动

    说明: 1.Hadoop版本:3.1.3 2.阅读工具:IDEA 2023.1.2 3.源码获取:Index of /dist/hadoop/core/hadoop-3.1.3 (apache.org) 4.工程导入:下载源码之后得到 hadoop-3.1.3-src.tar.gz 压缩包,在当前目录打开PowerShell,使用 tar -zxvf 指令解压即可,然后使用IDEA打开 hadoop-3.1.3-src 文件夹,要注意配置好Maven或

    2024年02月07日
    浏览(50)
  • 启动 Hadoop 后没有 dataNode 进程

    原因:进行 hadoop 格式化的时候没有事先结束所有进程,或者多次进行了 format 导致的 datanode 的 clusterID 和 namenode 的 clusterID 不匹配,从而在启动后没有 datanode 进程。 解决办法1: 删除hadoop下的日志文件logs 重新格式化 解决办法2(成功率更高): 重新安装,或者恢复快照 重

    2024年02月05日
    浏览(52)
  • HADOOP 启动后没有datanode解决办法(适用于所有节点datanode)

    解决方法: 1.首先停止集群 stop-dfs.sh stop-yarn.sh  2.切换到各节点hadoop解压包目录下的tmp目录,删除目录下所有文件 rm -rf * 3.格式化文件 在主节点hadoop01主节点上进行格式化操作,命令如下: hdfs namenode -format 4.测试集群datanode是否启动  

    2024年02月11日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包