Hadoop分布式集群搭建(三台虚拟机)

这篇具有很好参考价值的文章主要介绍了Hadoop分布式集群搭建(三台虚拟机)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一.准备工作

搭建好VMware Workstation Pro(我这里装的版本是16)

二.新建虚拟机hadoop01

搭建hadoop集群需要三台虚拟机

1.新建虚拟机——>自定义(高级)

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 2.不用改动,点击下一步 虚拟机hadoop集群搭建,hadoop,大数据,分布式

3.映像文件稍后再加入

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 4.选择Linux——>CentOS 7 64位

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 5.可以在存放虚拟机的文件内新建一个文件夹,专门放hadoop集群需要的虚拟机(有三个)

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 6.处理器数量设置一个就好

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 7.内存不够的选2048就足够了的,我这里设置4096

虚拟机hadoop集群搭建,hadoop,大数据,分布式

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 虚拟机hadoop集群搭建,hadoop,大数据,分布式

虚拟机hadoop集群搭建,hadoop,大数据,分布式 虚拟机hadoop集群搭建,hadoop,大数据,分布式

 虚拟机hadoop集群搭建,hadoop,大数据,分布式

我的存储磁盘文件的位置改了一下

虚拟机hadoop集群搭建,hadoop,大数据,分布式 虚拟机hadoop集群搭建,hadoop,大数据,分布式

编辑虚拟机设置,将装好的映像文件放进来

(映像文件可以在官网下载:Index of /7.6.1810/isos/x86_64)

虚拟机hadoop集群搭建,hadoop,大数据,分布式

打开虚拟机,选择完语言后,点击安装位置,然后选择我要配置分区

虚拟机hadoop集群搭建,hadoop,大数据,分布式点击左下角的加号

虚拟机hadoop集群搭建,hadoop,大数据,分布式点击添加挂载点 

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 虚拟机hadoop集群搭建,hadoop,大数据,分布式

 /根目录直接添加挂载点即可虚拟机hadoop集群搭建,hadoop,大数据,分布式

 完成虚拟机hadoop集群搭建,hadoop,大数据,分布式

 虚拟机hadoop集群搭建,hadoop,大数据,分布式

 接受更改即可

8.点击软件选择 

虚拟机hadoop集群搭建,hadoop,大数据,分布式虚拟机hadoop集群搭建,hadoop,大数据,分布式

9.点击网络和主机名

虚拟机hadoop集群搭建,hadoop,大数据,分布式

以太网 打开即可

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 开始安装虚拟机hadoop集群搭建,hadoop,大数据,分布式

 设置一下root的登录密码(尽量设置简单一些,方便每次登陆)虚拟机hadoop集群搭建,hadoop,大数据,分布式虚拟机hadoop集群搭建,hadoop,大数据,分布式

 然后等待安装

 虚拟机hadoop集群搭建,hadoop,大数据,分布式

右下角重启 

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 现在还未接受许可证,点击进去

虚拟机hadoop集群搭建,hadoop,大数据,分布式

勾选我同意,然后完成

 虚拟机hadoop集群搭建,hadoop,大数据,分布式

 完成配置

虚拟机hadoop集群搭建,hadoop,大数据,分布式

选择语言,一直前进 

地区时间选择中国上海即可

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 设置一下账户密码(不过后续主要用的是root用户)

10.关闭hadoop01,然后如下图拍摄快照

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 虚拟机hadoop集群搭建,hadoop,大数据,分布式

三.克隆虚拟机

1.卸载系统自带的jdk (我们这里要卸载系统自带的jdk)

开启hadoop01虚拟机,登录时用户点击未列出,用户名为root,密码是自己设的;

打开终端,输入 rpm -qa | grep java

有七个包

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 使用rpm命令卸载这系统自带的七个包

使用命令:rpm -e --nodeps [包名] ,七个包都需要使用一次命令,

卸载完以后,使用 rpm -qa | grep java查看一下包是否卸载干净

虚拟机hadoop集群搭建,hadoop,大数据,分布式

2.关闭虚拟机,准备克隆虚拟机 

右键hadoop01——>管理——>克隆

虚拟机hadoop集群搭建,hadoop,大数据,分布式

虚拟机hadoop集群搭建,hadoop,大数据,分布式

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 虚拟机hadoop集群搭建,hadoop,大数据,分布式

将虚拟机名称改为hadoop02

虚拟机hadoop集群搭建,hadoop,大数据,分布式

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 完成后,等待一下

虚拟机hadoop集群搭建,hadoop,大数据,分布式

然后跟hadoop02克隆的步骤一样,克隆hadoop03

克隆好以后,这里就有三台虚拟机:hadoop01,hadoop02,hadoop03

 虚拟机hadoop集群搭建,hadoop,大数据,分布式

四.虚拟机的网络配置

1.配置静态ip

(ip地址的设计要跟主机IPV4的相对应,但是最后三位数需要在128-255这个区间)

win+R打开cmd,输入命令:ipconfig

查看VMware Network Adapter VMnet8主机ip 地址

我这里IPV4是192.168.124.1

虚拟机hadoop集群搭建,hadoop,大数据,分布式

集群部署规划:

主机名 HDFS YARN IP地址
hadoop01

NameNode

DataNode

ResourceManager

NodeManager

192.168.124.128
hadoop02

SecondaryNameNode

DataNode

NodeManager 192.168.124.129
hadoop03 DataNode NodeManager 192.168.124.130

这边IP地址就是设置主机地址,除了后三位,其他都跟前面查询到的IPV4是一样的,

后三位要在128-255之间。

打开虚拟机hadoop01,以这一台做示范

打开虚拟机后,进入终端 ,

输入   vi /etc/sysconfig/network-scripts/ifcfg-ens33 编辑

虚拟机hadoop集群搭建,hadoop,大数据,分布式

按i进入insert模式,下图是原来的

虚拟机hadoop集群搭建,hadoop,大数据,分布式

修改:

BOOTPROTO="static"

ONBOOT="yes"
IPADDR=192.168.124.128
NETMAST=255.255.255.0
GATWAY=192.168.124.2
DNS1=8.8.8.8
DNS2=114.114.114.114

虚拟机hadoop集群搭建,hadoop,大数据,分布式

(按Esc退出编辑模式,然后:wq退出编辑并保存)

 注意:IPADDR每台主机是不同的,根据自己的来设定,GATWAY网关我这边是192.168.124.2

虚拟机hadoop集群搭建,hadoop,大数据,分布式

hadoop02和hadoop03也同上设置

 *在开启第三台虚拟机时,有如下报错

虚拟机hadoop集群搭建,hadoop,大数据,分布式

虚拟机hadoop集群搭建,hadoop,大数据,分布式

编辑虚拟机设置,将内存改为上述报错建议的大小即可虚拟机hadoop集群搭建,hadoop,大数据,分布式

 重新开启虚拟机就可以了。

hadoop02:

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 hadoop03:

虚拟机hadoop集群搭建,hadoop,大数据,分布式

五.关闭防火墙 

 1.查看一下防火墙状态:systemctl status firewalld.service虚拟机hadoop集群搭建,hadoop,大数据,分布式
 2.永久关闭防火墙:systemctl disable firewalld.service

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 三台虚拟机都需要关闭防火墙

虚拟机hadoop集群搭建,hadoop,大数据,分布式

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 

六.修改主机名

现在三台主机名都为localhost,为了方便后续与服务器连接,要把三台主机分别对应修改为hadoop01、hadoop02和hadoop03

用命令:vim /etc/hostname

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 虚拟机hadoop集群搭建,hadoop,大数据,分布式

 虚拟机hadoop集群搭建,hadoop,大数据,分布式

 

七.配置主机名与IP映射

配置主机名与IP映射主要是方便主机名和静态ip映射 

终端输入:vim /etc/hosts

加入如下三行:

192.168.124.128 hadoop01
192.168.124.129 hadoop02
192.168.124.130 hadoop03

虚拟机hadoop集群搭建,hadoop,大数据,分布式

三台虚拟机都要配置,配置好以后,执行 ping hadoop02 看看是否能够ping通

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 如果出现如上图情况,证明设置成功。

可以将三台虚拟机都互相ping一下。

八.设置SSH免密登录

每个节点之间ssh连接要不断输入密码,为了防止这些操作,就得设置一下ssh免密登录。

在终端输入 ssh-keygen -t rsa 生成秘钥 ,然后一直回车

虚拟机hadoop集群搭建,hadoop,大数据,分布式

另外两台虚拟机也需要如上一样生成秘钥

然后,互相复制公钥到每一台虚拟机

ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop01

ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop02

ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop03 

回车后——>yes——>输root的登录密码

三台虚拟机都需要输,然后用ssh hadoop01,ssh hadoop02,ssh hadoop03验证,如下图时,免密配置成功。

虚拟机hadoop集群搭建,hadoop,大数据,分布式

九.安装远程工具Xshell和Xftp

在官网下载,家庭/学校免费 - NetSarang Website

新建会话

虚拟机hadoop集群搭建,hadoop,大数据,分布式

虚拟机hadoop集群搭建,hadoop,大数据,分布式

将hadoop01、hadoop02、hadoop03都连接上 

虚拟机hadoop集群搭建,hadoop,大数据,分布式

十.安装和配置Java

1.创建目录,用来放置压缩包以及解压缩后的内容

打开Xftp进行新建目录,也可以在Xshell中使用命令

mkdir -p /export/software

mkdir -p /export/servers

mkdir -p /export/data

虚拟机hadoop集群搭建,hadoop,大数据,分布式

2.将hadoop和jdk的安装包用Xftp上传

(安装包可以到官网下载)

虚拟机hadoop集群搭建,hadoop,大数据,分布式

在Xshell中用ls命令查看software下的压缩包

 虚拟机hadoop集群搭建,hadoop,大数据,分布式

 3.解压jdk

将jdk解压到前面创建好的目录:/export/servers/中

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 解压完成

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 4.配置JDK环境变量

输入 vim /etc/profile 进入编辑环境变量,

加上下面三行

虚拟机hadoop集群搭建,hadoop,大数据,分布式

保存退出后,用 source /etc/profile 将环境变量生效,

java -version查看jdk是否安装和配置成功 ,下图就是安装成功了。

虚拟机hadoop集群搭建,hadoop,大数据,分布式

十一.安装和配置Hadoop

1.解压Hadoop的压缩包

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 解压完毕

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 2.配置环境变量

vim /etc/profile 打开环境变量进行编辑

添加如下两行

export HADOOP_HOME=/export/servers/hadoop-2.7.4
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

虚拟机hadoop集群搭建,hadoop,大数据,分布式

将环境生效

然后用 hadoop verison 检查是否安装成功

虚拟机hadoop集群搭建,hadoop,大数据,分布式

十二.配置Hadoop集群

配置Hadoop集群主要需要修改六个配置文件,分别为hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml、slaves这六个。

cd /export/servers/hadoop-2.7.4/etc/hadoop/ 切换到这个目录下,可以看到需要修改增加配置的文件都在这个目录下

1.修改 hadoop-env.sh 文件

 进入编辑:vim hadoop-env.sh

(路径太长了不想切换出去再粘贴进来,可以vim进入编辑以后按Esc,然后输入“:”,输入cd /export/servers/jdk1.8.0_161/    ——>  这里可以按tab键补全,例如输入ex,然后按tab键,就会补全export)如下图:

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 回到编辑模式:按Esc,然后按i,就能回到编辑模式

将JAVA_HOME路径添加进来

虚拟机hadoop集群搭建,hadoop,大数据,分布式

2.修改 core-site.sh 文件

进入编辑:vim core-site.xml

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 <configuration>
         <!--用于设置 Hadoop 的文件系统,由 URL 指定-->
         <property>
                 <name>fs.defaultFS</name>
 <!--用于指定 namenode 地址在 hadoop01 上-->
                 <value>hdfs://hadoop01:9000</value>
         </property>
         <property>
                 <name>hadoop.tmp.dir</name>
                 <value>/export/servers/hadoop-2.7.4/tmp</value>
         </property>
</configuration>

最好对其一下

虚拟机hadoop集群搭建,hadoop,大数据,分布式

保存退出编辑

(这是配置了NameNode的运行主机的位置以及存放临时数据的目录)

3.修改 hdfs-site.sh 文件

vim hdfs-site.sh 进入编辑

虚拟机hadoop集群搭建,hadoop,大数据,分布式 保存并退出编辑

<configuration>
        <property>
                <name>dfs.replication</name>
                <value>3</value>
        </property>
        <property>
                <name>dfs.namenode.secondary.http-address</name>
                <value>hadoop02:50090</value>
        </property>
</configuration>

这里设置了副本的数量以及SecondaryNameNode所在节点位置
 

4.添加mapred-site.xml 文件

这里是指定mapreduce的运行框架,指定为yarn

目录中没有该文件,需要将mapred-site.xml.template复制改名为mapred-site.xml

cp mapred-site.xml.template mapred-site.xml

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 进入编辑:vim mapred-site.xml

虚拟机hadoop集群搭建,hadoop,大数据,分布式

保存并退出编辑 

<configuration>
<!-- 指定 MapReduce 运行时框架,这里指定在 Yarn 上,默认是 local -->
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
</configuration>

5.修改yarn-site.xml文件

虚拟机hadoop集群搭建,hadoop,大数据,分布式

保存并退出编辑

 <configuration>
        <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>hadoop01</value>
        </property>
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>
</configuration>

6.修改slaves文件

还在当前目录中,编辑slaves文件:vim slaves

将localhost 删掉,改成如下图:

虚拟机hadoop集群搭建,hadoop,大数据,分布式

保存退出

7.将主节点配置好的文件分配到其他节点

分发系统文件:

scp -r /etc/profile hadoop02:/etc/profile

scp -r /etc/profile hadoop03:/etc/profile

虚拟机hadoop集群搭建,hadoop,大数据,分布式

分发配置文件:

scp -r /export/ hadoop02:/

scp -r /export/ hadoop03:/

需要一点时间,等待一下

十三.Hadoop集群测试

第一次启动NameNode时,必须对主节点,也就是NameNode这个节点进行格式化

hdfs namenode -formathadoop namenode -format

出现下面划红线这两行,就代表格式化成功 

虚拟机hadoop集群搭建,hadoop,大数据,分布式

只有第一次启动时需要格式化,后续都不需要,之间启动即可

十四.启动Hadoop集群

1.在hadoop01中,启动所有服务进程:

start-dfs.sh

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 2.启动YARN服务进程

输入:start-yarn.sh

虚拟机hadoop集群搭建,hadoop,大数据,分布式

 文章来源地址https://www.toymoban.com/news/detail-718579.html

3.查看进程

 三个节点均使用 jps 查看进程

虚拟机hadoop集群搭建,hadoop,大数据,分布式

虚拟机hadoop集群搭建,hadoop,大数据,分布式

虚拟机hadoop集群搭建,hadoop,大数据,分布式

Hadoop集群启动正常

接下来可以在浏览器中输入:

192.168.124.128:8088

192.168.124.128:50070

虚拟机hadoop集群搭建,hadoop,大数据,分布式

虚拟机hadoop集群搭建,hadoop,大数据,分布式 

Hadoop集群配置完成 

 

 

到了这里,关于Hadoop分布式集群搭建(三台虚拟机)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • Hadoop分布式集群搭建

    Hadoop分布式集群搭建

    集群以三台电脑搭建,每台电脑创建一个UbuntuKylin虚拟机,集群以三台UbuntuKylin虚拟机为基础搭建,虚拟机主机名分别为hadoop101、hadoop111和hadoop121。IP地址分别为192.168.214.101、192.168.214.111和192.168.214.121。 主机名 IP地址: hadoop101 192.168.214.101 hadoop111 192.168.214.111 hadoop121 192.168.214

    2024年02月03日
    浏览(10)
  • Hadoop分布式集群搭建教程

    Hadoop分布式集群搭建教程

    大数据课程需要搭建Hadoop分布式集群,在这里记录一下搭建过程 搭建Haoop分布式集群所需环境: VMware:VMware-workstation-full-17.0.2-21581411 CentOS:CentOS-7-x86_64-DVD-2003, Hadoop:hadoop-3.1.3.tar JDK:jdk-8u212-linux-x64.tar.gz 新建虚拟机 设置用户 命名虚拟机 自定义硬件,完成虚拟机创建 开始

    2024年02月08日
    浏览(8)
  • Hadoop完全分布式集群搭建

    Hadoop完全分布式集群搭建

    1.在虚拟机关机的状态下选择克隆 2.开始克隆 3.选择从当前状态创建 4.创建一个完整的克隆 5.选择新的虚拟机存储位置(选择内存充足的磁盘) 6.开始克隆 7.克隆完成 8.同样的方法克隆第二台虚拟机 9.在计算机中存在三台虚拟机 将第一台虚拟机更名为hadoop01 修改hadoop01的主机

    2024年02月02日
    浏览(5)
  • 【Hadoop】完全分布式集群搭建

    【Hadoop】完全分布式集群搭建

    大家好,我是向阳花花花花,这篇文章是我历时三天,推翻重做两小时进行搭建的Hadoop集群(完全分布式)个人笔记和感想,收录于初心的《大数据》专栏。 🏠 个人主页:初心%个人主页 🧑 个人简介:大家好,我是初心,一名正在努力的双非二本院校计算机专业学生 💕

    2024年02月15日
    浏览(10)
  • HADOOP 伪分布式集群搭建

    HADOOP 伪分布式集群搭建

    由于笔者这里使用的是vmware 虚拟机 采用centos7 linux 操作系统进行搭建,所以一下示例均以centos7进行示例 1.  搭建vmware 虚拟机 (1)创建好虚拟机后采用linux ISO镜像文件启动安装centos7操作系统 (其 它方式也可以) (2)完成之后设置网络模式,笔者采用桥接模式进行设置  

    2024年02月01日
    浏览(6)
  • Hadoop 完全分布式集群搭建

    Hadoop 完全分布式集群搭建

    部署前可以先了解下 Hadoop运行模式及目录结构-CSDN博客 服务 hadoop102 hadoop103 hadoop104 NameNode √ DataNode √ √ √ Secondary NameNode √ ResourceManager √ NodeManager √ √ √ JobHistoryServer √ IPv4 192.168.88.102 192.168.88.103 192.168.88.104 NodeObject master worker1 worker2 最小化安装 Neokylin7.0 用于搭建 Had

    2024年02月04日
    浏览(20)
  • 分布式集群——搭建Hadoop环境以及相关的Hadoop介绍

    分布式集群——搭建Hadoop环境以及相关的Hadoop介绍

    分布式集群——jdk配置与zookeeper环境搭建 分布式集群——搭建Hadoop环境以及相关的Hadoop介绍 文章目录 前言 一 hadoop的相关概念 1.1 Hadoop概念 补充:块的存储 1.2 HDFS是什么 1.3 三种节点的功能 I、NameNode节点 II、fsimage与edits文件存放的内容介绍 III、DataNode节点 IV、SecondaryNameNod

    2024年02月10日
    浏览(7)
  • 大数据技术栈-Hadoop3.3.4-完全分布式集群搭建部署-centos7(完全超详细-小白注释版)虚拟机安装+平台部署

    目录 环境条件: 1、安装虚拟机(已安装好虚拟机的可跳转至  二、安装JDK与Hadoop) (1)直接新建一台虚拟机 (2)首次启用虚拟机,进行安装 一、集群前置环境搭建(三台机器分别设置hostname、网卡(ip)配置、ssh免密登录) 1、查看一下本机与虚拟机的网卡和ip信息 (1)

    2024年02月06日
    浏览(11)
  • hadoop完全分布式集群搭建(超详细)-大数据集群搭建

    hadoop完全分布式集群搭建(超详细)-大数据集群搭建

    本次搭建完全分布式集群用到的环境有: jdk1.8.0 hadoop-2.7.7 本次搭建集群所需环境也给大家准备了,下载链接地址:https://share.weiyun.com/dk7WgaVk 密码:553ubk 本次完全分布式集群搭建需要提前建立好三台虚拟机,我分别把它们的主机名命名为:master,slave1,slave2 一.配置免密登陆 首先

    2024年02月10日
    浏览(15)
  • hadoop-3.3.3完全分布式集群搭建

    hadoop-3.3.3完全分布式集群搭建

    随着大数据的不断发展,hadoop在前段时间就已经更新到了3.x版本,与2.x版本存在着一些差异,在某大数据竞赛中也是使用的hadoop3.x的版本,本文就介绍hadoop3.x版本的完全分布式集群搭建。 jdk:1.8 hadoop:3.3.3 操作系统:centos7 需要的所有安装包都放在master节点的/opt目录下,安

    2024年02月09日
    浏览(11)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包