Hadoop安装Hbase启动失败报错解决方法

这篇具有很好参考价值的文章主要介绍了Hadoop安装Hbase启动失败报错解决方法。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

先进入hbase文件目录里看日志文件看看报什么错再具体解决:

vim /opt/module/hbase-1.3.3/logs/hbase-root-master-hadoop-single.log

 1.报错org.apache.hadoop.security.AccessControlException: Permission denied: user异常解决方法

1、第一种

在hdfs的配置文件中,将dfs.permissions修改为False(不推荐)

2、第二种

执行这样的操作,使用hdfs用户(最高权限)

hadoop dfs -mkdir -p /user/root(如果路径存在可不执行)

hadoop dfs -chown root:hdfs /user/root(如果所属用户一致可不执行)
hadoop dfs -chmod 777 /user/root(如果执行上面操作已解决可不执行,我没有走)

3.第三种 

vim /etc/profile

 文章来源地址https://www.toymoban.com/news/detail-727583.html

添加:export HADOOP_USER_NAME=hdfs(hdfs为最高权限)
source /etc/profile(记得执行,以保证立即生效)

也可以执行 sed -i '$a export HADOOP_USER_NAME=hdfs' ,记得也要source一下

注意:root可以是其他的用户(路径),如报错是/user/xxx,将root换成xxx即可。

第二种与第三种区别

第二种    第三种
host    全集群的hosts都可以访问没有问题    只有做了环境变量配置的主机可用
root用户调用资源    root用户可以调用hdfs资源    root不能调用资源,如果计算是出现需要使用root用户调用的资源一样会报错
root执行hdfs命令    不能    能
 

2.FATAL [hadoop1:16000.activeMasterManager] master.HMaster: Failed to become active master java.net.ConnectException: Call From hadoop-single/192.168.136.111 to hadoop-single:9000解决方法  

错误分析:
从上面的日志可以看出,在连接hadoop-single:8020时出错,我们知道8020是hdfs的默认端口,但是我们在配置hadoop集群时在core-site.xml中将hdfs的默认端口改为了9000:

<property>
    <name>fs.defaultFS</name>
    <value>hdfs://hadoop-single:9000/</value>
</property>

再观察我们的hbase-site.xml文件:

<configuration>
    <!-- 指定hbase在HDFS上存储的路径 -->
    <property>
        <name>hbase.rootdir</name>
        <value>hdfs://hadoop-single/hbase</value>
    </property>
</configuration>

不难发现,这时候我们并没有指定hdfs的端口,因此,在hbase启动后它会去找hdfs的默认端口8020,于是就导致了上面的错误。

解决方案:
在配置hbase.rootdir属性时显式指定hdfs的端口为9000,配置文件修改如下:

<configuration>
    <!-- 指定hbase在HDFS上存储的路径 -->
    <property>
        <name>hbase.rootdir</name>
        <value>hdfs://hadoop-single:9000/hbase</value>
    </property>
</configuration>

只要你在这个节点启动了hbase,那么这个节点就默认为master节点

3.INFO org.apache.zookeeper.ClientCnxn: Opening socket connection to server sdw2/192.168.10.202:2181. Will not attempt to authenticate using SASL  

解决方法:

1、同步hbase集群和ZooKeeper集群主机的时间,确保误差在30秒以内。

2、关闭ipv6,并修改/etc/hosts,注释掉以"::1"开头的那行代码

hbase起不来,hadoop,hbase,大数据

 产生错误的原因:zookeeper 链接信息过期了

解决办法:
进入zookeeper 删除hbase (rmr /hbase )重启zookeeper即可

具体步骤: 1、停止hbase(./stop-hbase.sh)

                   2、运行如下代码

                         hbase org.apache.hadoop.hbase.util.hbck.OfflineMetaRepair

                   3、运行如下代码

                        /opt/module/hadoop/app/zookeeper/bin/zkCli.sh

                   4、使用  ls / 来扫描zookeeper中的数据

                   5、使用 rmr / hbase删除zookeeper中的hbase数据

                   6、重新启动hbase即可
 

hbase起不来,hadoop,hbase,大数据

 

 

主要错误:ERROR [main] master.HMasterCommandLine: Master exiting
java.lang.RuntimeException: Failed construction of Master: class org.apache.hadoop.hbase.master.HMaster. 

Caused by: org.apache.hadoop.hbase.ZooKeeperConnectionException: master:160000x0, quorum=hadoop1:2181,hadoop2:2181,hadoop3:2181, baseZNode=/hbase Unexpected KeeperException creating base node

Caused by: org.apache.zookeeper.KeeperException$ConnectionLossException: KeeperErrorCode = ConnectionLoss for /hbase

解决方法:说明Hbase没有连接上Zookeeper,我们知道,HBase可以使用内置的Zookeeper,也可以使用外部的Zookeeper,通过在配置文件hbase-env.sh将 export HBASE_MANAGES_ZK 属性设置为false ,设置为外部的Zookeeper(这个没有问题)

export HBASE_MANAGES_ZK=false

 所有的节点时间误差不能大于30s,需要同步,安装时hadoop和hbase应该使用同一套域名。/etc/hosts中映射必须要是自己主节点的namenode的名字与hbase和hadoop文件配置中保存一致。

 hbase起不来,hadoop,hbase,大数据

 

到了这里,关于Hadoop安装Hbase启动失败报错解决方法的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 关于HBase集群中的Hmaster节点刚启动就挂掉的解决方法

    1、版本分析 我的hadoop版本3.1.3,hbase版本2.0.5 首先hdfs端口号要明确,hadoop3.x中HDFS NameNode 内部通常端口:8020/9000/9820,hadoop2.x则是8020/9000,这里9000端口不能使用,换成8020便在hdfs上成功创建目录。 注意:这里的端口号和core-site.xml里面的配置的端口号保持一致。 2、查看HBase的

    2024年02月13日
    浏览(52)
  • hbase报错 ERROR: org.apache.hadoop.hbase.PleaseHoldException: Master is initializing

    运行环境: hadoop3.2.3(伪分布式) jdk1.8 hbase2.5.5 解决方案: 1.删除hbase内置zookeeper信息 2.删除hdfs中hbase相关信息 重启hbase即可。

    2024年02月03日
    浏览(51)
  • Hadoop安装配置HBase

    1、文件准备 http://archive.apache.org/dist/hbase/1.3.1/下载hbase-1.3.1-bin.tar.gz并上传到虚拟机/root目录下。 2、安装          切换目录 [root@hadoop00 ~]# cd /usr/local 新建文件夹 [root@hadoop00 local]# mkdir hbase 解压文件 [root@hadoop00 local]# tar zxvf /root/hbase-1.3.1-bin.tar.gz -C /usr/local/hbase 3、环境变量

    2024年01月24日
    浏览(51)
  • 启动hbase(报错:没有那个文件或目录)

    完成hbase伪分布配置后,启动hbase 然后报错 发现都是Java没有文件或目录,判断是jdk的路径错误 然后修改配置文件:hbase-env.sh(文件在hbase-conf目录) 将本机的jdk路径写正确  更改完成后再次启动hbase即可  

    2024年02月11日
    浏览(54)
  • 虚拟机安装hadoop,hbase(单机伪集群模式)

    工作中遇到了大数据方面的一些技术栈,没有退路可言,只能去学习掌握它,就像当初做爬虫一样(虽然很简单),在数据爆发的现在,传统的数据库mysql,oracle显然在处理大数据量级的数据时显得力不从心,所以有些特定的业务需要引进能够处理大数据量的数据库,hadoop提

    2024年02月04日
    浏览(40)
  • HBase安装,配置,启动,检查

    目录: 一、HBase安装,配置 1、下载HBase安装包 2、解压,配置环境变量并激活 3、hbase 配置 4、将hadoop和zookeeper的配置文件创建软连接放在hbase配置目录 5、配置 regionserver 和 backup-master 二、HBase启动与关闭,安装检验 1、启动关闭hbase的命令 2、 检验HBase是否正常启动 1、下载HBa

    2024年04月15日
    浏览(31)
  • 【hadoop】hbase的安装部署以及相关操作(图文详解)

    ​ HBase是一种基于列存储的分布式数据库系统,它能够快速地存储和处理大规模数据。与传统的关系型数据库不同,HBase采用了分布式的架构,能够实现数据的高可靠性、高可扩展性和高性能。在实际应用中,正确地安装和部署HBase集群是非常重要的。 在安装hbase之前,需要虚

    2024年02月04日
    浏览(44)
  • hbase配置及解决错误: 找不到或无法加载主类 org.apache.hadoop.hbase.util.GetJavaProperty

    如图所示 1.改一下hbase/bin/目录下的hbase文件 2.187行,在add_to_cp_if_exists “${HBASE_HOME}/hbase-server/target” 这里下面加上两行 3.把1行下面的注释

    2024年02月11日
    浏览(45)
  • Hadoop(05) HBase2.5.5安装和编程实践指南

    HBase是一个基于Apache Hadoop的 分布式、可扩展、面向列的NoSQL数据库系统 。它被设计用于处理大规模数据集,并提供快速的读写访问性能。 以下是HBase的一些关键特点和概念: 列存储结构:HBase使用列存储结构,意味着数据被组织成行和列的形式。每个表可以有灵活的列族定义

    2024年02月03日
    浏览(48)
  • Linux安装Zookeeper、Hadoop、Hive、Hbase全家桶系列

    目录 Linux安装配置Zookeeper Linux安装配置Hadoop Linux安装Hbase 新建文件夹 下载到指定文件夹 官网 Apache ZooKeeper 解压到指定文件 查看 进入目录 创建日志/数据文件夹 复制配置文件 使用vim进入zoo.cfg 修改为如下:  记录一下zookeeper的路径然后 刷新资源 运行 查看状态 创建文件夹加

    2024年02月14日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包