Hadoop完全分布式部署3.1.3

这篇具有很好参考价值的文章主要介绍了Hadoop完全分布式部署3.1.3。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

提示:个人学习所用,仅供参考

目录

前言

一、前提条件

二、安装Java1.8

1.使用wget将安装包下载到虚拟机中

2.将下载好的jdk安装包解压到local目录下

3.配置java环境变量

4.使环境变量生效:

5.测试java 是否安装成功:

6.如图即为安装成功:

7.将环境变量跟jdk安装包分发到子节点(此操作需要配置免密登录和本地主机名):

8.分发完之后使环境变量生效即可(每个节点都需要):

三、Hadoop3.1.3安装部署

1.将Hadoop安装包解压到local目录下

2.配置Hadoop环境变量

3.进入hadoop中的etc/hadoop目录下修改六个配置文件

1)workers添加两个子节点的主机名

2)输入vi core-stie.xml 添加以下内容:

3)输入vi hadoo-env.sh 添加以下内容:

4)输入vi mapred-site.xml,添加以下内容:

5)输入vi hdfs-site.xml 添加以下内容:

6)输入vi yarn-site.xml,添加以下内容:

4.将配置文件分发到子节点

5.将hadoop的配置文件修改完成后,在主节点上进行namenode格式化

6.到hadoop的bin目录下修改,在start-dfs.sh 和stop-dfs.sh添加以下内容

7.到hadoop的bin目录下修改,在start-yarn.sh 和 stop-yarn.sh添加以下内容

8.输入jps测试节点是否运行

总结


前言

本节文章讲述了如何安装Hadoop完全分布式部署,配置文件很多默认的端口并没有开放,可以自行去官网上参考配置文档进行配置


提示:以下是本篇文章正文内容,下面案例可供参考

一、前提条件

  1. 准备三台虚拟机:master、slave1、slave2,设置他们的静态ip分别为192.168.147.201、192.168.147.202、192.168.147.203.(可参考自己本地的虚拟机网段来设置)
主机名 静态ip
master 192.168.147.201
slave1 192.168.147.202
slave2 192.168.147.203

二、安装Java1.8

1.使用wget将安装包下载到虚拟机中

使用命令如下(使用的是华为的镜像云网站,可自行修改其他镜像网站的安装包):

 wget https://repo.huaweicloud.com/java/jdk/8u151-b12/jdk-8u151-linux-i586.tar.gz

2.将下载好的jdk安装包解压到local目录下

代码如下(解压完成之后可以将他重命名为java,方便配置环境变量):
tar -zxvf jdk-8u151-linux-i586.tar.gz -C /usr/local

3.配置java环境变量

输入vi /etc/profile配置java环境变量,添加以下内容:

export JAVA_HOME=/usr/local/java

export PATH=$PATH:$JAVA_HOME/bin

4.使环境变量生效:

source /etc/profile

5.测试java 是否安装成功:

java -version

6.如图即为安装成功:

Hadoop完全分布式部署3.1.3

7.将环境变量跟jdk安装包分发到子节点(此操作需要配置免密登录和本地主机名):

scp -r /etc/profile slave1:/etc/   #分发环境变量

scp -r /etc/profile slave2:/etc/   #分发环境变量

scp -r /usr/local/java/ slave1:/usr/local/  #分发jdk安装包

scp -r /usr/local/java/ slave2:/usr/local/    #分发jdk安装包

8.分发完之后使环境变量生效即可(每个节点都需要):

source /etc/profile

三、Hadoop3.1.3安装部署

1.将Hadoop安装包解压到local目录下

tar -zxvf hadoop-3.1.3.tar.gz -C /usr/local/

2.配置Hadoop环境变量

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export HADOOP_HOME=/usr/local/Hadoop

3.进入hadoop中的etc/hadoop目录下修改六个配置文件

1)workers添加两个子节点的主机名

slave1

slave2

2)输入vi core-stie.xml 添加以下内容:

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://master</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/Hadoop/tmp</value>

</property>

</configuration>

3)输入vi hadoo-env.sh 添加以下内容:

export JAVA_HOME=/usr/local/java

4)输入vi mapred-site.xml,添加以下内容:

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>yarn.app.mapreduce.am.env</name>

<value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value>

</property>

<property>

<name>mapreduce.map.env</name>

<value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value>

</property>

<property>

<name>mapreduce.reduce.env</name>

<value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value>

</property>

</configuration>

5)输入vi hdfs-site.xml 添加以下内容:

<configuration>

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>/usr/local/hadoop/dfs/tmp/namenode</value>

</property>

<property>

<name>dfs.datanode.dir</name>

<value>/usr/local/hadoop/datanode</value>

</property>

</configuration>

6)输入vi yarn-site.xml,添加以下内容:

<configuration>

<!-- Site specific YARN configuration properties -->

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.resourcemanager.hostname</name>

<value>master</value>

</property>

</configuration>

将Hadoop安装包分发到子节点 

scp -r /usr/local/hadoop/ slave1:/usr/local/

scp -r /usr/local/hadoop/ slave2:/usr/local/

4.将配置文件分发到子节点

scp -r /etc/profile slave1:/etc/

scp -r /etc/profile slave2:/etc/

5.将hadoop的配置文件修改完成后,在主节点上进行namenode格式化

hdfs namenode -format

Hadoop完全分布式部署3.1.3

6.到hadoop的bin目录下修改,在start-dfs.sh 和stop-dfs.sh添加以下内容

HDFS_DATANODE_USER=root

HDFS_DATANODE_SECURE_USER=hdfs

HDFS_NAMENODE_USER=root

HDFS_SECONDARYNAMENODE_USER=root

7.到hadoop的bin目录下修改,在 和 stop-yarn.sh添加以下内容

YARN_RESOURCEMANAGER_USER=root

HADOOP_SECURE_DN_USER=yarn

YARN_NODEMANAGER_USER=root

8.输入jps测试节点是否运行

Hadoop完全分布式部署3.1.3

总结

本章内容讲述了如何部署hadoop的基本步骤,前置条件需要靠自己完成,思路清晰,简单明了。文章来源地址https://www.toymoban.com/news/detail-450842.html

到了这里,关于Hadoop完全分布式部署3.1.3的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 部署HDFS集群(完全分布式模式、hadoop用户控制集群、hadoop-3.3.4+安装包)

    目录 前置 一、上传解压 (一 )上传 (二)解压 二、修改配置文件 (一)配置workers文件 (二)配置hadoop-env.sh文件 (三)配置core-site.xml文件 (四)配置hdfs-site.xml文件 三、分发到hp2、hp3, 并设置环境变量 (一)准备数据目录    (二)配置环境变量 四、创建数据目录,并

    2024年04月14日
    浏览(58)
  • 大数据技术栈-Hadoop3.3.4-完全分布式集群搭建部署-centos7(完全超详细-小白注释版)虚拟机安装+平台部署

    目录 环境条件: 1、安装虚拟机(已安装好虚拟机的可跳转至  二、安装JDK与Hadoop) (1)直接新建一台虚拟机 (2)首次启用虚拟机,进行安装 一、集群前置环境搭建(三台机器分别设置hostname、网卡(ip)配置、ssh免密登录) 1、查看一下本机与虚拟机的网卡和ip信息 (1)

    2024年02月06日
    浏览(49)
  • hadoop完全分布式

    三台虚拟机,关闭防火墙,关闭selinux 查看防火状态 systemctl status firewalld 暂时关闭防火墙 systemctl stop firewalld 永久关闭防火墙 systemctl disable firewalld 查看 selinux状态 getenforce 暂时关闭 selinux setenforce 0 永久关闭 selinux 在/etc/selinux/config文件中将SELINUX改为disabled 修改主机名: hostn

    2023年04月12日
    浏览(46)
  • Hadoop完全分布式搭建

    1.下载VM 2.下载Centos镜像 3.下载hadoop 4.下载FinalShell 5.下载jdk文件  6.下载hive,数据仓库学习大数据专业的用的到     注:开启虚拟机把鼠标放入屏幕点击后消失,使用键盘上下键进行选择   注:点击之后,什么都不动,再点击完成(因为它自动帮我们分区了) 注:我们配置

    2024年02月04日
    浏览(48)
  • 搭建完全分布式Hadoop

    登录三个虚拟机 执行命令: vim /etc/hosts 1、上传安装包 上传hadoop安装包 查看hadoop安装包 2、解压缩安装包 执行命令: tar -zxvf hadoop-3.3.4.tar.gz -C /usr/local 查看解压后的目录 3、配置环境变量 执行命令: vim /etc/profile 存盘退出,执行命令: source /etc/profile ,让配置生效 查看had

    2024年02月04日
    浏览(54)
  • 大数据学习02-Hadoop分布式集群部署

    操作系统:centos7 软件环境:jdk8、hadoop-2.8.5 1.下载VMware,建议支持正版 2.安装到Widows目录下任意位置即可,安装目录自定义。打开VMware,界面如下: 3.创建虚拟机 创建虚拟机—选择自定义 这一步按照默认的配置就好 选择系统,安装程序光盘映像文件iso,这里需要下载cenos镜像

    2024年02月16日
    浏览(63)
  • Hadoop完全分布式集群搭建

    1.在虚拟机关机的状态下选择克隆 2.开始克隆 3.选择从当前状态创建 4.创建一个完整的克隆 5.选择新的虚拟机存储位置(选择内存充足的磁盘) 6.开始克隆 7.克隆完成 8.同样的方法克隆第二台虚拟机 9.在计算机中存在三台虚拟机 将第一台虚拟机更名为hadoop01 修改hadoop01的主机

    2024年02月02日
    浏览(47)
  • 【Hadoop】完全分布式集群搭建

    大家好,我是向阳花花花花,这篇文章是我历时三天,推翻重做两小时进行搭建的Hadoop集群(完全分布式)个人笔记和感想,收录于初心的《大数据》专栏。 🏠 个人主页:初心%个人主页 🧑 个人简介:大家好,我是初心,一名正在努力的双非二本院校计算机专业学生 💕

    2024年02月15日
    浏览(41)
  • Hadoop的完全分布式搭建

    主机名 Hadoop10 Hadoop11 Hadoop12 网络 192.168.10.10 192.168.10.11 192.168.10.12 用户 hadoop root hadoop root hadoop root HDFS NameNode DateNode DateNode Secondary NameNode DataNode YARN NodeManager NodeManager ResourceManager NodeManager 安装虚拟机系统,省略 第一步:网卡配置 使用 vi 编辑器编辑系统的网卡配置文件,配置以下

    2024年02月08日
    浏览(42)
  • hadoop平台完全分布式搭建

    安装前准备 一、设置ssh免密登录 1.编辑hosts文件,添加主机名映射内容 vim  /etc/hosts 添加内容: 172.17.0.2      master 172.17.0.3      slave1 172.17.0.4      slave2 2.生成公钥和私钥 ssh-keygen –t rsa 然后按三次回车 3.复制公钥到其他容器(包括自己) ssh-copy-id master ssh-copy-id slav

    2024年03月17日
    浏览(48)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包