hadoop3相关配置

这篇具有很好参考价值的文章主要介绍了hadoop3相关配置。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、hadoop部署

master slave1 slave2
namenode
secondarynamenode
datanode
resourcemanager
nodemanager
jobhistory

二、相关设置

1、主机名与ip映射:hosts文件

验证:ping master,ping slave1,ping slave2

hosts文件要传送至slave1,slave2。思考原因?(让slave1和slave2可以通过主机名ping通对方)

2、免密

与之前默认部署区别,“老大”部署位置要留意,由老大带动一群小弟,老大对小弟要有免密权限。

之前免密设置:master->master,master->slave1,master->slave2

现最好设置:master,slave1,slave2之间相互免密

master->master,master->slave1,master->slave2

slave1->master,master->slave1,master->slave2

slave2->master,master->slave1,master->slave2

3、java环境支持

master,slave1,slave2,环境变量/etc/profile设置

验证:java -version,javac

slave1,slave2可传送,并验证。

4、hadoop安装

先在master中解压安装,并设置环境变量,然后验证。

最后根据部署要求进行相关配置设置。然后分发给slave1,slave2。在master(namenode)中进行格式化。

验证:启动验证。(注意启动位置)

master中启动:start-dfs.sh。namenode部署位置

slave2中启动:start-yarn.sh。resourcemanager部署位置

slave1中启动历史服务器。jobhistory部署位置

淘汰的命令:mr-jobhistory-daemon.sh start historyserver

mapred --daemon start historyserver

三、相关配置

在hadoop安装目录下依次创建hadoopDatas/tempDatas,hadoopDatas/namenodesDatas,hadoopDatas/datanodeDatas,hadoopDatas/dfs/nn/edits,hadoopDatas/dfs/snn/name,hadoopDatas/dfs/nn/snn/edits

1、hadoop-env.sh配置。

export HDFS_NAMENODE_USER=root

export HDFS_SECONDARYNAMENODE_USER=root

export HDFS_DATANODE_USER=root

export YARN_RESOURCEMANAGER_USER=root

export YARN_NODEMANAGER_USER=root

export JAVA_HOME=/app/jdk1.8   java家目录位置

2、works

master

slave1

slave2

3、core-site.xml

<property>

<name>fs.defaultFS</name>

<value>hdfs://master:9820</value>

</property>文章来源地址https://www.toymoban.com/news/detail-836960.html

<property>

<name>hadoop.tmp.dir</name>

<value>/app/hadoop3.1/hadoopDatas/tempDatas</value>

</property>

4、hdfs-site.xml

<property>

<name>dfs.namenode.name.dir</name>

<value>/app/hadoop3.1/hadoopDatas/namenodeDatas</value>

</property>

<property>

<name>dfs.namenode.data.dir</name>

<value>/app/hadoop3.1/hadoopDatas/datanodeDatas</value>

</property>

<property>

<name>dfs.namenode.edits.dir</name>

<value>/app/hadoop3.1/hadoopDatas/dfs/nn/edits</value>

</property>

<property>

<name>dfs.namenode.checkpoint.dir</name>

<value>/app/hadoop3.1/hadoopDatas/dfs/snn/name</value>

</property>

<property>

<name>dfs.namenode.checkpoint.edits.dir</name>

<value>/app/hadoop3.1/hadoopDatas/dfs/nn/snn/edits</value>

</property>

<property>

<name>dfs.replication</name>     副本数

<value>3</value>

</property>

<property>

#secondarynamenode 节点

<name>dfs.namenode.secondary.http-address</name>

<value>slave1</value>

</property>

5、mapreduce-site.xml

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>mapreduce.jobhistory.address</name>

<value>slave2:10020</value>

</property>

<property>

<name>mapreduce.jobhistory.webapp.address</name>

<value>slave2:19888</value>

</property>

6.yarn-site.xml

<property>

<name>yarn.resourcemanager.hostname</name>

<value>slave3</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

到了这里,关于hadoop3相关配置的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Hadoop3.1.3完全分布式安装配置

    1. 将hadoop-3.1.3.tar.gz复制到虚拟机/opt/software目录下: 2.在/opt/software目录下使用tar命令解压hadoop-3.1.3.tar.gz到/opt/module目录下:  执行结果如下: 3.在/opt/module目录下修改文件夹名称: 执行结果如下:  4.打开环境变量: 执行结果如下: 5.将光标移至文件底部,按“i”键编辑并作

    2024年02月08日
    浏览(36)
  • Hadoop3.1.3安装教程_单机/伪分布式配置_Hadoop3.1.3/Ubuntu18.04(16.04)

    目录 前言: 一、VMware Workstation 二、Ubuntu系统安装 新建虚拟机 三、Ubuntu系统的配置 四、更新apt 五、安装SSH、配置SSH无密码登陆  六、安装Java环境 七、安装 Hadoop3.1.3 八、Hadoop单机配置(非分布式) 九、Hadoop伪分布式配置 前言:         本篇教程由作者本人进行修改,原教

    2024年02月03日
    浏览(33)
  • CentOS7 Hadoop3.3.0 安装与配置

    一、安装JDK 1、创建文件夹tools和training用于存放压缩包和解压使用,tools存放压缩包,training用于解压后安装jdk和hadoop的路径。 1)回到路径为 / 的位置 2) 创建 tools 和 training 3) 进入tools文件夹 4) 左边mobaxterm里面点击进入/tools文件夹,将发给大家的 压缩包直接鼠标拖入进去,拖

    2024年02月09日
    浏览(29)
  • Hadoop3.1.3安装教程单机伪分布式配置

    本教程使用 Ubuntu 18.04 64位 作为系统环境(或者Ubuntu 14.04,Ubuntu16.04 也行,32位、64位均可),请自行安装系统。装好了 Ubuntu 系统之后,在安装 Hadoop 前还需要做一些必备工作。 创建hadoop用户 如果你安装 Ubuntu 的时候不是用的 “hadoop” 用户,那么需要增加一个名为 hadoop 的用

    2024年02月04日
    浏览(42)
  • Hadoop3教程(二十四):Yarn的常用命令与参数配置实例

    本章我是仅做了解,所以很多地方并没有深入去探究,用处估计不大,可酌情参考。 列出所有Application : yarn application -list 根据Application状态过滤出指定Application ,如过滤出已完成的Application: yarn application -list -appStates FINISHED Application的状态有:ALL、NEW、NEW_SAVING、SUBMITTED、

    2024年02月08日
    浏览(69)
  • 基于CentOS 7 的 Hadoop3版本分布式环境配置搭建

    以下是在VMware虚拟机中安装centos 7去配置hadoop。所以要准备的包 centos 7:Index of /apache/hadoop/common/hadoop-3.3.5 hadoop3.3.5:Index of /apache/hadoop/common/hadoop-3.3.5 查看原本的jdk版本   其实原来的openjdk版本也是可用的,但是hadoop3.x不支持较低版本的jdk,所以这里卸载重新安装新版本jdk文件

    2024年02月01日
    浏览(44)
  • hadoop2的集群数据将副本存储在hadoop3

    在 Hadoop 集群中,HDFS 副本是分布式存储的,会存储在不同的节点上。因此,如果您的 HDFS 所在路径是在 Hadoop2 集群中,您可以在 Hadoop3 集群上添加新的节点,并向 Hadoop3 集群中添加这些新节点上的数据副本。 以下是一些常见的方法: 1.添加新节点 首先,在 Hadoop3 集群中添加

    2024年02月12日
    浏览(35)
  • Ubuntu22.04 Hadoop3.3.4 jdk18.02 安装配置

    阅读推荐(105条消息) 大数据安装之hadoop-3.3.4_x_y_z423的博客-CSDN博客 (112条消息) hadoop3.3.4集群安装部署_hwbays的博客-CSDN博客 加倍推荐,Hadoop集群配置内容讲的及其详细 基于docker的hadoop集群搭建 xshell Windows 10 Pro, 64-bit VMware® Workstation 16 Pro Ubuntu22.04 * 3 2、VMware tools安装 apt install

    2023年04月11日
    浏览(34)
  • Ubuntu 20.0.4 Hadoop3.3.2 安装与配置全流程保姆教程

    准备工作 我下载的压缩包是基于 Windows 系统 x86 指令集的,如果你是苹果电脑可能需要选择 ARM 版本 3.21 更新:hadoop 某些功能不支持 JDK11 及以上版本(如网页管理无法查看文件系统),所以下载时选择 JDK8,官网需要登陆甲骨文账号下载 全新的 ubuntu 虚拟机 https://ubuntu.com/downl

    2024年02月07日
    浏览(30)
  • 【大数据基础】Hadoop3.1.3安装教程

    来源: https://dblab.xmu.edu.cn/blog/2441/ 前言:重装解决一切bug!事实上,问题中的绝大部分衍生问题都可以通过重装解决。 创建Hadoop用户 首先按 ctrl+alt+t 打开终端窗口,输入如下命令创建新用户 : 接着使用如下命令设置密码,可简单设置为 hadoop,按提示输入两次密码: 可为

    2024年02月09日
    浏览(54)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包