(十一)大数据实战——hadoop高可用之HDFS手动模式高可用

这篇具有很好参考价值的文章主要介绍了(十一)大数据实战——hadoop高可用之HDFS手动模式高可用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

本节内容我们介绍一下hadoop在手动模式下如何实现HDFS的高可用,HDFS的高可用功能是通过配置多个 NameNodes(Active/Standby)实现在集群中对 NameNode 的热备来解决上述问题。如果出现故障,如机器崩溃或机器需要升级维护,这时可通过此种方式将 NameNode很快的切换到另外一台机器,并通过JournalNode实现主备节点的数据同步。

正文

  • 集群规划

HDFS高可用集群规划

hadoop101 hadoop02 hadoop03 NameNode NameNode NameNode JournalNode JournalNode JournalNode DataNode DataNode DataNode

NameNode:控制节点

JournalNode:控制节点数据同步

DataNode:数据节点

  • 清除hadoop集群下的data和logs目录

-清除hadoop101的data和logs目录,hadoop102和hadoop103同上步骤

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

  •  在/opt/module/hadoop-3.1.3/etc/hadoop目录下修改core-site.xml配置文件

- core-site.xml配置文件

<configuration>
 <!-- 把多个 NameNode 的地址组装成一个集群 mycluster -->
 <property>
     <name>fs.defaultFS</name>
     <value>hdfs://mycluster</value>
 </property>
 <!-- 指定 hadoop 运行时产生文件的存储目录 -->
 <property>
     <name>hadoop.tmp.dir</name>
     <value>/opt/module/hadoop-3.1.3/data</value>
 </property>
</configuration>

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

  •   在/opt/module/hadoop-3.1.3/etc/hadoop目录下修改hdfs-site.xml配置文件

- 修改hdfs-site.xml配置文件

<configuration>
    <!-- NameNode 数据存储目录 -->
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file://${hadoop.tmp.dir}/nn</value>
    </property>
    <!-- DataNode 数据存储目录 -->
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file://${hadoop.tmp.dir}/dn</value>
    </property>
    <!-- JournalNode 数据存储目录 -->
    <property>
        <name>dfs.journalnode.edits.dir</name>
        <value>${hadoop.tmp.dir}/jn</value>
    </property>
    <!-- 完全分布式集群名称 -->
    <property>
        <name>dfs.nameservices</name>
        <value>mycluster</value>
    </property>
    <!-- 集群中 NameNode 节点都有哪些 -->
    <property>
        <name>dfs.ha.namenodes.mycluster</name>
        <value>nn1,nn2,nn3</value>
    </property>
    <!-- NameNode 的 RPC 通信地址 -->
    <property>
        <name>dfs.namenode.rpc-address.mycluster.nn1</name>
        <value>hadoop101:8020</value>
    </property>
    <property>
        <name>dfs.namenode.rpc-address.mycluster.nn2</name>
        <value>hadoop102:8020</value>
    </property>
    <property>
        <name>dfs.namenode.rpc-address.mycluster.nn3</name>
        <value>hadoop103:8020</value>
    </property>
    <!-- NameNode 的 http 通信地址 -->
    <property>
        <name>dfs.namenode.http-address.mycluster.nn1</name>
        <value>hadoop101:9870</value>
    </property>
    <property>
        <name>dfs.namenode.http-address.mycluster.nn2</name>
        <value>hadoop102:9870</value>
    </property>
    <property>
        <name>dfs.namenode.http-address.mycluster.nn3</name>
        <value>hadoop103:9870</value>
    </property>
    <!-- 指定 NameNode 元数据在 JournalNode 上的存放位置 -->
    <property>
        <name>dfs.namenode.shared.edits.dir</name>
        <value>qjournal://hadoop101:8485;hadoop102:8485;hadoop103:8485/mycluster</value>
    </property>
    <!-- 访问代理类:client 用于确定哪个 NameNode 为 Active -->
    <property>
        <name>dfs.client.failover.proxy.provider.mycluster</name>
        <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
    </property>
    <!-- 配置隔离机制,即同一时刻只能有一台服务器对外响应 -->
    <property>
        <name>dfs.ha.fencing.methods</name>
        <value>sshfence</value>
    </property>
    <!-- 使用隔离机制时需要 ssh 秘钥登录-->
    <property>
        <name>dfs.ha.fencing.ssh.private-key-files</name>
        <value>/home/hadoop/.ssh/id_rsa</value>
    </property>
</configuration>

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

  •  分发配置文件到其它hadoop集群服务器

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

  • 启动hadoop集群的journalnode服务,用于同步namenode数据

- 命令:hdfs --daemon start journalnode

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

  • 对hadoop101节点数据格式化并启动namenode服务 

- 数据格式化命令:hdfs namenode -format

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

- 启动namenode服务命令:hdfs --daemon start namenode

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

  • 在hadoop102与hadoop103上面执行以下命令同步hadoop101的元数据信息

命令:hdfs namenode -bootstrapStandby

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

  • 启动hadoop102与hadoop103的namenode服务

 命令:hdfs --daemon start namenode

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

  • 在所有节点开启datanode服务

 命令:hdfs --daemon start datanode

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

  • 将hadoop101激活为主节点

命令:hdfs haadmin -transitionToActive nn1

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

  • 查看节点状态 

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs(十一)大数据实战——hadoop高可用之HDFS手动模式高可用,大数据,# hadoop,大数据,hadoop,hdfs

  • 自动模式存在的问题 

- 如果namenode挂机之后,想直接故障转移,把其它节点升级为namenode主节点是不行的,必须先将挂机的namenode重新启动才行,手动模式必须保证所有namenode节点必须是存活状态

- 在有active状态下的namenode节点,是无法切换其它节点为active节点

- 集群中只有一个节点是active

结语

hadoop高可用之HDFS手动模式高可用内容到这里就结束了,我们下期见。。。。。。文章来源地址https://www.toymoban.com/news/detail-623504.html

到了这里,关于(十一)大数据实战——hadoop高可用之HDFS手动模式高可用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 大数据实战(hadoop+spark+python):淘宝电商数据分析

    虚拟机:Ubuntu 20.04.6 LTS docker容器 hadoop-3.3.4 spark-3.3.2-bin-hadoop3 python,pyspark, pandas,matplotlib mysql,mysql-connector-j-8.0.32.jar(下载不需要积分什么的) 淘宝用户数据 以上的技术积累需要自行完成 创建容器(##ubuntu的代码块,在ubuntu中运行,无特殊说明的在docker中运行) 更新软件

    2024年02月11日
    浏览(56)
  • Hadoop大数据从入门到实战(二)分布式文件系统HDFS

    头歌实践教学平台 教学课堂 大数据从入门到实战 - 第2章 分布式文件系统HDFS 任务描述 本关任务:使用 Hadoop 命令来操作分布式文件系统。 编程要求 在右侧命令行中启动 Hadoop ,进行如下操作。 在 HDFS 中创建 /usr/output/ 文件夹; 在本地创建 hello.txt 文件并添加内容:“ HDFS的

    2024年02月12日
    浏览(31)
  • 【黑马2023大数据实战教程】VMWare虚拟机部署HDFS集群详细过程

    视频:黑马2023 VMWare虚拟机部署HDFS集群 注意!这些操作的前提是完成了前置准备中的服务器创建、固定IP、防火墙关闭、Hadoop用户创建、SSH免密、JDK部署等操作!!! 操作在这里 大数据集群环境准备过程记录(3台虚拟机) 1.上传Hadoop安装包到node1节点中 rz -bey 2.解压缩安装包到

    2023年04月27日
    浏览(33)
  • 大数据:Hadoop HDFS,基础架构,去中心化,中心化模式,HDFS基础架构,虚拟机和云服务器部署HDFS

    2022找工作是学历、能力和运气的超强结合体,遇到寒冬,大厂不招人,可能很多算法学生都得去找开发,测开 测开的话,你就得学数据库,sql,oracle,尤其sql要学,当然,像很多金融企业、安全机构啥的,他们必须要用oracle数据库 这oracle比sql安全,强大多了,所以你需要学

    2024年02月17日
    浏览(40)
  • 大数据实战——基于Hadoop的Mapreduce编程实践案例的设计与实现

    图1:MaxCompute MapReduce各个阶段思路设计 设计思路分析分为六个模块:input输入数据、splitting拆分、Mapping映射、Shuffing派发、Reducing缩减、Final result输出。 输入数据:直接读入文本不进行分片,数据项本身作为单个Map Worker的输入。 Map阶段:Map处理输入,每获取一个数字,将数

    2024年02月05日
    浏览(38)
  • 部署HDFS集群(完全分布式模式、hadoop用户控制集群、hadoop-3.3.4+安装包)

    目录 前置 一、上传解压 (一 )上传 (二)解压 二、修改配置文件 (一)配置workers文件 (二)配置hadoop-env.sh文件 (三)配置core-site.xml文件 (四)配置hdfs-site.xml文件 三、分发到hp2、hp3, 并设置环境变量 (一)准备数据目录    (二)配置环境变量 四、创建数据目录,并

    2024年04月14日
    浏览(47)
  • (二十六)大数据实战——kafka集群之Kraft模式安装与部署

    本节内容主要介绍kafka3.0版本以后,一种新的kafka集群搭建模式看kraft,在该模式下,kafka高可用不在依赖于zookeeper,用 controller 节点代替 zookeeper,元数据保存在 controller 中,由 controller 直接进 行 Kafka 集群管理。 ①解压kafka安装包到/opt/module/kafka-kraft目录下 - 命令: ②修改k

    2024年02月08日
    浏览(35)
  • hadoop HA高可用集群实战

    HA(high available),即高可用(24h不中断服务) 实现高可用最关键的策略是消除单点故障。HA严格来说是应该分成各个组件的HA机制 hadoop2.0之前,在HDFS集群中NamNode存在单点故障(SPOF) NameNode主要存在以下两个方敏影响HDFS集群。 NameNode机器发生意外,如宕机,集群无法使用,

    2024年02月01日
    浏览(37)
  • HadoopHA模式(由于Hadoop的HA模式是在Hadoop完全分布式基础上,利用zookeeper等协调工具配置的高可用的Hadoop集群模式)

    目录 1.前期准备 1.1.hadoop-3.1.3.tar.gz,jdk-8u212-linux-x64.tar.gz,apache-zookeeper-3.5.7-bin.tar.gz三个包提取码:k5y6 2.解压安装包,配置环境变量 3. 将三个节点分别命名为master、slave1、slave2并做免密登录 免密在前面Hadoop完全分布式搭建说过,这里不再赘述 4.搭建zookeeper集群  根据配置的

    2024年02月04日
    浏览(32)
  • 【大数据实训】基于Hadoop的2019年11月至2020年2月宁波天气数据分析(五)

    博主介绍 : ✌ 全网粉丝6W+,csdn特邀作者、博客专家、Java领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于大数据技术领域和毕业项目实战 ✌ 🍅 文末获取项目联系 🍅 2019—2020 学年第二学期《分布式系统原理与技术》期末大作业评分表 评价内容

    2024年02月06日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包