【Hadoop】执行start-dfs.sh启动hadoop集群时,datenode没有启动怎么办

这篇具有很好参考价值的文章主要介绍了【Hadoop】执行start-dfs.sh启动hadoop集群时,datenode没有启动怎么办。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

执行start-dfs.sh后,datenode没有启动,很大一部分原因是因为在第一次格式化dfs后又重新执行了格式化命令(hdfs namenode -format),这时主节点namenode的clusterID会重新生成,而从节点datanode的clusterID 保持不变。

在主节点也就是namenode那个节点上的hdfs-site.xml文件下找到这两个文件路径start-dfs.sh datanode没有启动,hadoop,大数据,分布式

打开name目录中current下面的VERSION文件,然后用这个clusterID替换掉datanode节点上的data/current/VERSION里的clusterID

start-dfs.sh datanode没有启动,hadoop,大数据,分布式

参考http://t.csdnimg.cn/Gk4cg文章来源地址https://www.toymoban.com/news/detail-764588.html

到了这里,关于【Hadoop】执行start-dfs.sh启动hadoop集群时,datenode没有启动怎么办的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Hadoop集群的启动

    在首次启动Hadoop之前还需要进行一些配置工作 我们是在Linux集群上安装Hadoop集群 注意,一说Linux操作系统的环境变量 配置文件就在/home/wangguowei下的.bash.profile中 将hadoop的家目录写好 并引入到path路径中即可 在普通用户的家目录下创建hadoopdata目录,这个目录要与核心组件中的

    2024年02月06日
    浏览(44)
  • hadoop集群启动后datanode没有启动

    今天启动hadoop集群后,查看进程发现名称节点的NameNode进程启动了,但是数据节点的DataNode进程没有启动,如下: 这个问题是个常见问题,对于自学的初学者来说,真的是个很头大的问题,一时不知道该怎么弄,我就是其中一个。但遇到问题不要慌,认真看错并查找解决办法

    2023年04月27日
    浏览(42)
  • Linux修改hadoop配置文件及启动hadoop集群详细步骤

    目录 一、配置Hadoop环境 1.查看Hadoop解压位置 2.配置环境变量 3.编辑环境变量 4.重启环境变量 5.查看Hadoop版本,查看成功就表示Hadoop安装成功了 二、修改配置文件 1.检查三台虚拟机: 2.切换到配置文件目录 3.修改 hadoop-env.sh 文件 4.修改 core-site.xml 文件 5.修改 mapred-site.xml 文件

    2024年02月03日
    浏览(62)
  • hadoop集群配置与启动(三)

    1 集群部署规划 NameNode 和 SecondaryNameNode 不要安装在同一台服务器 。 (它们两个都需要耗内存,分开减少集群的压力) ResourceManager 也很消耗内存,不要和 NameNode、SecondaryNameNode 配置在同一台机器上 2配置文件说明 Hadoop 配置文件分两类:默认配置文件和自定义配置文件,只有

    2024年02月03日
    浏览(42)
  • 任务6:启动Hadoop集群并测试

    任务描述 知识点 : 掌握Hadoop集群的启动 重  点 : Hadoop集群的格式化流程 Hadoop集群的启动流程 内  容 : 格式化Hadoop集群 启动测试Hadoop集群 任务指导 启动Hadoop集群并测试,过程如下: 初始化HDFS; 在master服务器启动Hadoop集群; 使用jps命令查看相应的守护进程是否正常启

    2024年01月19日
    浏览(45)
  • 格式化文件系统和启动和关闭Hadoop集群

    初次启动HDFS集群时,须对主节点进行格式化处理,执行:hdfs   namenode  -format 格式化成功信息: 1. 一起启动hdfs和yarn服务 ,执行:start-all.sh 1. 单独启动hdfs服务 ,执行:start-dfs.sh 题外:关于jdk版本太高,启动hdfs和yarn会有警报这种,可以降低jdk版本,进行解决 具体可以参照

    2024年02月07日
    浏览(48)
  • Hadoop集群启动后利用Web界面管理HDFS

           Hadoop集群启动后,可以通过自带的浏览器Web界面查看HDFS集群的状态信息,访问IP为NameNode所在服务器的IP地址, hadoop版本为3.0以前访问端口默认为9870 , hadoop版本为3.0以后访问端口默认为50070 。( 下面测试版本为Hadoop3.0以后的 ) 一、利用ifconfig命令查看NameNode所在服

    2024年02月11日
    浏览(51)
  • 【Hadoop】关于Hadoop集群HDFS启动问题:DataNode启动报错ERROR: Cannot set priority of namenode process

    出了问题第一步一定要先看日志!看日志!看日志! DataNode日志文件在Hadoop目录下的logs文件夹 以下列举两种问题的解决方法: 1.最常见的就是对NameNode进行了多次格式化操作,格式化NameNode,会产生新的集群id,导致NameNode和DataNode的集群id不一致,集群找不到已往数据。如果

    2024年02月06日
    浏览(50)
  • 【非常重要】Hadoop成功启动的验证与集群的基本应用

    master上 slave上 master:9870 这是Hadoop自带的web监测软件,提供丰富的系统状态信息 自己理解:9870端口用来查看Hadoop中的hdfs运行状态 master:18088 监测yarn的运行状况 自己理解:18088端口用来查看Hadoop中的yarn运行状态 这个程序是验证hadoop最重要的一环,虽然在1和2的验证中都通过,

    2023年04月09日
    浏览(36)
  • Hadoop集群当中主节点的NameNode进程启动不成功

    原因: 是因为多次格式化NameNode的原因,每次格式化NameNode的时候,hadoop集群就会产生一个新的集群ID,导致了NameNode和DataNode的集群ID不一致,所以导致运行start-all.sh后,hadoop的NameNode进程启动不起来。 现在作者附上两种解决方法,我是使用了第二种方法成功的。 在hadoop集群

    2024年02月08日
    浏览(49)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包