关于HBase集群中的Hmaster节点刚启动就挂掉的解决方法

这篇具有很好参考价值的文章主要介绍了关于HBase集群中的Hmaster节点刚启动就挂掉的解决方法。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、问题分析

1、版本分析
我的hadoop版本3.1.3,hbase版本2.0.5

首先hdfs端口号要明确,hadoop3.x中HDFS NameNode 内部通常端口:8020/9000/9820,hadoop2.x则是8020/9000,这里9000端口不能使用,换成8020便在hdfs上成功创建目录。

注意:这里的端口号和core-site.xml里面的配置的端口号保持一致。

2、查看HBase的log日志
hbasemaster启动后挂掉,大数据hadoop生态组件,hbase,hadoop,大数据
由此可以看出,可能是版本之间的不兼容问题,需要添加配置。

二、解决方法

hbase-site.xml增加配置,如下所示:

 <property>
    <name>hbase.unsafe.stream.capability.enforce</name>
    <value>false</value>
  </property>

之后重新启动HBase集群,发现问题解决了,HMaster节点不会挂掉了
hbasemaster启动后挂掉,大数据hadoop生态组件,hbase,hadoop,大数据
查看HBase管理页面
hbasemaster启动后挂掉,大数据hadoop生态组件,hbase,hadoop,大数据文章来源地址https://www.toymoban.com/news/detail-535851.html

到了这里,关于关于HBase集群中的Hmaster节点刚启动就挂掉的解决方法的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 线上宝塔部署的springboot项目在执行elasticsearchRepository.saveAll后就挂掉的解决方法

    当mysql数据库中数据更新后,可以使用 elasticsearchRepository.saveAll() 方法来将新增的数据保存到elasticsearch文档库中。 在我所在的场景下,大概每个月会一下往数据库写入几千条数据,然后一股脑得将之前的数据和新增的数据全部实体交给 saveAll() 方法,那么就会占用大量的内存

    2024年02月14日
    浏览(26)
  • 【Hadoop】创建Hadoop集群(3个节点)—— 安装部署一个3个节点构成的hbase集群

    前言 此实验搭建3个虚拟节点,一个mater,一个slave1,一个slave2 集群简介 HADOOP集群具体来说包含两个集群:HDFS集群和YARN集群,两者逻辑上分离,但在物理上常在一起。 HDFS集群负责海量数据的存储,集群中的角色主要有: NameNode、DataNode、SecondaryNode YARN集群负责海量数据运算

    2024年02月08日
    浏览(35)
  • HBASE集群主节点迁移割接手动操作步骤

    HBASE集群主节点指的是包含zk、nn、HM和rm服务的节点,一般这类服务都是一起复用在同一批节点上,我把这一类节点统称为HBASE集群主节点。 本文中使用了rsync、pssh等工具,这类是开源的,自己可以下载安装。还有一类是我自己写的环境变量,xcgraceful_stopRegionserver是用于优雅的

    2024年02月07日
    浏览(30)
  • Hbase regionserver频繁突然挂掉的问题处理

    系统:linux centos7.4 Hbase:2.1.0-cdh6.3.2 (CDH版本) 1、应用方报错: 2、查看cdh页面 发现HBase的regionserver有4个节点,全部挂掉 登录机器查看日志,发现两个明显错误和一个奇怪的情况: 1、snapshot超时 2、内存频繁超过高水位watermark 3、奇怪的情况:没有正常关闭的日志 每个节点

    2023年04月10日
    浏览(26)
  • Zookeeper集群单节点启动成功但未同步其他节点数据

    首先排查节点启动是否正常: 在zookeeper的bin目录下执行:sh zkServer.sh status 判断当前节点数据leader 还是follower  节点都启动正常,但某一个zookeeper集群节点(下面简称“异常节点”)不同步其他节点数据,解决步骤: 1、查看异常节点的配置文件(**/zookeeper/conf/zoo.cfg) 2、找到

    2024年02月11日
    浏览(26)
  • Hadoop集群当中主节点的NameNode进程启动不成功

    原因: 是因为多次格式化NameNode的原因,每次格式化NameNode的时候,hadoop集群就会产生一个新的集群ID,导致了NameNode和DataNode的集群ID不一致,所以导致运行start-all.sh后,hadoop的NameNode进程启动不起来。 现在作者附上两种解决方法,我是使用了第二种方法成功的。 在hadoop集群

    2024年02月08日
    浏览(28)
  • 关于K8S集群中maste节点r和worker节点的20道面试题

    Kubernetes(通常简称为K8S)是一种 开源的容器编排平台 ,用于自动化部署、扩展和管理容器化应用程序。以下是Kubernetes的一些核心特性和优势: 自动化部署和扩展 :Kubernetes能够自动化地部署容器,同时根据负载情况对容器进行扩展或缩减,这种能力称为自动伸缩。 高可用

    2024年04月14日
    浏览(15)
  • Elasticsearch 集群某一节点修改 IP 后无法启动问题复盘

    集群版本:6.8.X 集群节点:5节点(三个节点为主+数据节点,另外两个独立数据节点)。 问题描述:由于IP冲突,修改了一台服务器的IP,然后5台配置改了一下一次重启,能启动,但是连不上,后台各种报错。 节点换 IP 原因探讨:宿主机服务器的IP地址和别的服务器IP 冲突,

    2024年02月16日
    浏览(24)
  • hadoop集群启动master节点jps后没有namenode解决方案

    启动集群jps后出现: 1.关闭集群 2.切换到hadoop的目录下将logs与tmp文件与内容删除并创建新的logs 3.重新格式化namenode 4.重新启动后集群

    2024年02月08日
    浏览(33)
  • 关于Pod中进程在节点中的研究

    最近研究OpenShift virtulization, 各种Pod对KVM进程的封装,引发了Pod中进程到底在Node中是什么表现形势的好奇,因为对基础知识的不扎实,还是希望找个环境能仔细看看,建立起openshift 4.12的环境后,首先列出某个节点上的所有的Pod 以prometheus-adapter-xxxx为例,登录进去查看一下Po

    2024年02月08日
    浏览(19)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包