Hadoop集群部署-(完全分布式模式,hadoop-2.7.4)

这篇具有很好参考价值的文章主要介绍了Hadoop集群部署-(完全分布式模式,hadoop-2.7.4)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


一、Linux环境准备

1.1 虚拟机安装

相关软件下载准备:(推荐)

  • 虚拟机运行环境:VMware 16.1.1
  • 映像文件:CentOS-7-x86_64-DVD-1810.iso
  • 远程登录工具:Xshell-7.0.0090.exe
  • Xftp传输工具:Xftp-7.0.0111p.exe
    首先掌握VMware的下载与安装,有linux学习基础的同学可以略看。
    参考链接:https://mp.weixin.qq.com/s/CUiauodcjCFPIXEFEx8fOw
    【软件名称】: VMware 16.1.1
    【软件大小】:568MB
    【系统要求】:win7/win8\win10/win11或以上
    【下载链接】:https://pan.baidu.com/s/1bY1swCAxWjTIpOROlXaqnQ?pwd=1234
    【提取码】:1234
    1.对下载的压缩包进行解压缩
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    2.打开解压后的压缩包,进行如下步骤
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    3.下一步
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    4.接受许可,下一步
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    5.更改软件安装目录(自己在某个盘新建一个干净的文件夹),下一步
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    6. 取消红框内的勾选框,点下一步
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    7. 点下一步
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    8.点击安装
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    9.输入许可证激活
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    输入以下三个中任意一个即可,输入后,点完成即可。
    ZF3R0-FHED2-M80TY-8QYGC-NPKYF
    YF390-0HF8P-M81RQ-2DXQE-M2UT6
    ZF71R-DMX85-08DQY-8YMNC-PPHV8
    10.安装成功,桌面显示图标。
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    11.打开WMware16虚拟机,右键以管理员身份运行。
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    12.首页创建新的虚拟机,接下来按照截图步骤创建虚拟机。
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    13
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    14 关于硬件兼容性,根据安装时系统自动选择的版本项,不用变
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    15
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    16
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    17.
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    18.
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    19
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    20
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    21
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    22
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    23
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    24
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    25
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    26
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    27,找到Centos的iso镜像文件保存位置,并选择它。
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    28
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    29
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    30
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    31
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    32
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    33
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    34
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    35
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    36
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    37.设置root用户的密码为123456;设置普通用户的用户名(~自定义)和密码(123456)
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    38
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    39
mkdir -p /export/data
mkdir -p /export/servers
mkdir -p /export/software

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据

1.2 Linux系统网络配置

详细步骤如下:

  1. 虚拟机首页菜单栏,找到【编辑】右键,选择【虚拟网络编辑器】
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    2.修改子网IP
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    3.选择【NAT设置】Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    4.将网关IP改为:192.168.121.2
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    5. DHCP设置Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    ip信息修改为红色框内的内容
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    之后点击【应用】,【确定】
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    6.查看IP配置文件并修改ip配置信息
vim /etc/sysconfig/network-scripts/ifcfg-ens33

修改配置文件时:
• 将DHCP自动分配模式改为static
• 添加ip地址,网络类型、网络范围和网络位(即ip地址前三部分)必须和虚拟网络编辑器中相同,主机位(最后一部分)自定义,这里hadoop01用的IP为 192.168.121.134。
• 添加网关和域名解析器,和虚拟网络编辑器中相同。
执行过程:(提醒,网络配置信息不能出错,出错了后面网络会不通)
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
7.配置好后,输入如下命令,重启网络。

service network restart

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
8. 重启后,请再次查看网络ip,确定ip地址修改成功,之后测试是否能够上网。
终端输入命令:

ipconfig

出现如下信息,表示网络配置成功。
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
Ping百度看是否能ping通。
输入命令:

ping www.baidu.com

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
9. 接下来修改主机名和hosts映射文件
&查看主机名
输入如下命令:

hostname

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
显示出当前虚拟机的主机名为:hadoop01
&修改hadoop01的hosts映射文件
注:后续在hadoop搭建阶段虚拟机比较多,每次访问类似192.168.121.134的ip地址比较麻烦,通常会采用主机名的方式进行配置。
输入如下命令:

vi /etc/hosts

添加下面三条:(其实就是三台虚拟机IP及各自对应的主机名)

192.168.121.134 hadoop01
192.168.121.135 hadoop02
192.168.121.136 hadoop03

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
&修改Windows的hosts文件
提醒!!!Windows的hosts文件一般保存在C:\Windows\System32\drivers\etc下,打开hosts文件添加如下内容并保存。
因为C盘里面的文件,修改一些文件需要权限比较高,如果无法保存成功,建议怎么做呢?首先,可以复制hosts文件到桌面,在桌面打开hosts文件修改并保存,之后覆盖原文件。Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
将hosts文件复制到桌面一份。
添加如下三行映射内容

192.168.121.134 hadoop01
192.168.121.135 hadoop02
192.168.121.136 hadoop03

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
将桌面保存后的hosts文件复制到此路径下,C:\Windows\System32\drivers\etc,覆盖掉原来的hosts文件。
.。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。

接下来打开Windows的命令提示符窗口,进行测试,直接ping主机名,如果成功,说明修改完成。如下图:Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
10. 关闭防火墙,防止防火墙开机自启动
hadoop01虚拟机下分别执行下面两条命令:

systemctl stop firewalld
systemctl disable firewalld.service

11. 创建一个普通用户,方便后期登录普通用户加sudo命令执行root权限
• 执行下面命令创建普通用户并修改其密码,用户名为user,密码为123456

useradd user
passwd user

• 执行如下命令,修改相应的配置文件,提高user用户权限,使其具有root对等权限

vim /etc/sudoers

添加如下内容:(缩进根据文本内容自主调整)

user         ALL=(ALL)         NOPASSWD:ALL

注意!!!!user这一行必须放在%wheel这一行下面Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
• 创建在/opt下创建两个文件夹并修改所属主和所属组

】首先创建module和software文件夹

mkdir /opt/module
mkdir /opt/software

】其次修改新创建的文件夹所属主和所属组为user用户

chown user:user /opt/module
chown user:user /opt/software

】最后输入命令ll:查看module和software的所属主和所属组

ll

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
12.安装epel-release,相当于是一个软件仓库

yum install -y epel-release

13.重启虚拟机

reboot

1.3 虚拟机克隆

克隆过程如下:
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
hadoop02克隆完成;

接下来克隆hadoop03。(和克隆hadoop02一样的操作)Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
注意!!!hadoop03文件夹就是前面提前在E盘建好的。选择此路径即可。
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据

到此,三台虚拟机克隆完成;
有时候为了方便管理,我们进行如下步骤;

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
将三台虚拟机拖进新建的文件夹中,并排好顺序即可。
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
到此虚拟机克隆完成。------------------------------------------------------------------------------

hadoop02和hadoop03克隆完成以后需要参照虚拟机hadoop01的执行过程,配置一些信息。
首先,对于hadoop02,hadoop03:修改其ip配置文件:

vim /etc/sysconfig/network-scripts/ifcfg-ens33

hadoop02主机
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
hadoop03主机
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据

其次****修改主机名为hadoop02,【因为】hadoop02是克隆来的,所以对与hadoop02来说,主机名现在依然是hadoop01,所以需要修改为hadoop02。hadoop03也同样如此。

vi etc/hostname

hadoop02主机
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
hadoop03主机
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据

再次,由于hosts映射文件已经在hadoop01中修改过,即IP与主机名的映射关系,所以在hadoop02,hadoop03这里就不用修改了。
最后,查看网络IP,确定各个主机IP对应是否正确,并测试能否连接外网

  1. hadoop01的IP为192.168.121.134
  2. hadoop02的IP为192.168.121.135
  3. hadoop03的IP为192.168.121.136

注意:一定确保各个主机IP配置正确,且能正常连网。

1.4 SSH服务配置

1. 查看虚拟机是否已经安装了ssh服务。

ps -e | grep sshd

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
已经安装有了,因此不需要额外的操作就可以做一个远程连接。
如果没有安装,则执行如下命令:

yum install openssh-server
  1. 在这里借助一款虚拟机远程连接工具【Xshell】,
    版本Xftp-7.0.0134p.exe和Xshell-7.0.0134p.exe的软件安装过程,这里不再详述。
    远程连接过程如下:Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    3. 接下来:
    输入相应的用户名:root
    输入相应的密码:123456

    三台虚拟机连接后的效果:
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    利用xftp,方面Window和虚拟机之间传输文件。
    1.新建连接。
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    2. 输入【名称】,【主机名】
    确定后,输入相应的用户名root和密码123456
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    三台虚拟机连接完成后如下:
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    3. 三台主机之间的免密登录。
    第一台:hadoop01:
    输入命令生成密钥对:
ssh-keygen -t rsa

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
输入以下命令,查看生成的公私钥对:

cd .ssh
ls

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
同样在hadoop02、hadoop03执行上述同样的操作生成密钥对。
确保三台虚拟机中,都生成了各种的公私钥对。
接下来:
将三台虚拟机的公钥拷贝到一台机器上

  • 对于hadoop01机器:执行命令:ssh-copy-id hadoop01
  • 对于hadoop02机器:执行命令:ssh-copy-id hadoop01
  • 对于hadoop03机器:执行命令:ssh-copy-id hadoop01

在hadoop01虚拟机中,定位到目录.ssh下面,输入ls,可以查看到出现一个文件authorized_keys,此文件保存的就是三台机器的公钥
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
再接下来
将此文件authorized_keys发送给其它机器。

scp /root/.ssh/authorized_keys hadoop02:/root/.ssh
scp /root/.ssh/authorized_keys hadoop03:/root/.ssh

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
最后试试免密登录是否成功。
即利用ssh+【主机名】,无需输入密码,即可实现对应主机登录,方便后续操作。
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据

二、JDK的安装配置

安装JDK。
1. 利用xftp软件,将下载好的压缩包上传到虚拟机中。,直接选中【目标文件】左右拖拽即可实现文件快速传输。因此将Windows下保存的jdk的压缩包拖入到右侧的虚拟机下,路径为:/export/software(提前在虚拟机中建好的文件路径)
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
2. 先定位到/export/software/目录下,然后ll查看压缩包是否存在,之后利用下面的tar命令进行解压缩

cd /export/software/
tar -zxvf jdk-8u161-linux-x64.tar.gz -C /export/servers/

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
3. 查看解压缩后的jdk文件夹,并利用mv命令对文件夹进行重命名。

cd /export/servers/
ls
mv jdk1.8.0_161/ jdk

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
4. 配置JDK环境变量

vim /etc/profile

添加如下内容:

#JAVA_HOME
export JAVA_HOME=/export/servers/jdk
export PATH=$PATH:$JAVA_HOME/bin

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
5.编辑保存好后,重启使配置文件生效。

source /etc/profile

6. jdk的环境验证

java -version

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据

三、Hadoop安装及配置

  1. 将hadoop2.7.4的安装包拖入到hadoop01的路径/export/software下。
    Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
    2.在xshell下的hadoop01节点,定位到此目录/export/software
cd /export/software

之后解压hadoop压缩包。解压后的目标路径为/export/servers

tar -zxvf hadoop-2.7.4.tar.gz -C /export/servers/

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
解压成功后,进入到/export/servers目录下

cd /export/servers
ls
#查看解压后的hadoop文件。

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
3. 配置Hadoop系统环境变量

 vim /etc/profile

添加如下内容:

export HADOOP_HOME=/export/servers/hadoop-2.7.4
export PATH=:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据

#输入如下命令,使配置文件生效
source /etc/profile
#查看hadoop版本
hadoop version

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
4. 接下俩可以随意查看一下hadoop压缩包里面都有哪一些文件
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
查看一些重要的配置文件,如下:
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
接下来hadoop集群的搭建需要用到这些文件。
5. 配置Hadoop集群主节点。

(1).修改hadoop-env.sh文件。
命令:
vim hadoop-env.sh
添加如下内容:
export JAVA_HOME=/export/servers/jdk

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据

(2).修改core-site.xml文件
命令:
vim core-site.xml
添加内容如下:
<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://hadoop01:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/export/servers/hadoop-2.7.4/tmp</value>
        </property>
</configuration>

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据

  (3). 修改hdfs-site.xml文件
 命令:
  vim hdfs-site.xml
  添加如下内容:
<configuration>
        <property>
                <name>dfs.replication</name>
                <value>3</value>
        </property>
        <property>
                <name>dfs.namenode.secondary.http-address</name>
                <value>hadoop02:50090</value>
        </property>
</configuration>

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据

(4). 修改mapred-site.xml
#这里我们首先需要拷贝下mapred-site.xml.template文件,命名为mapred-site.xml
命令如下:
cp mapred-site.xml.template mapred-site.xml
接下来编辑此文件
命令:
vim mapred-site.xml
添加的内容如下:(指定MapReduce运行时的框架,这里指定在Yarn上)
<configuration>
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
</configuration>

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据

(5).修改yarn-site.xml   
#Yarn 分布式资源调度系统。
命令:
vim yarn-site.xml
添加的内容如下:
<configuration>
        <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>hadoop01</value>
        </property>
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>
</configuration>

Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据

(6)修改slaves文件,打开该配置文件,先删除里面的内容(默认是localhost)。
命令:
vim slaves
然后添加如下内容:
hadoop01
hadoop02
hadoop03

到此一些集群主节点hadoop01中一些配置配置文件配置完成。
接下来将配置好的文件分发到另外两个节点下hadoop02和hadoop03。

#执行如下四条命令进行分发
> scp /etc/profile hadoop02:/etc/profile
> scp /etc/profile hadoop03:/etc/profile
> scp -r /export/ hadoop02:/ 
> scp -r /export/ hadoop03:/

执行结束后:还需要在hadoop02和hadoop03上执行命令:

source /etc/profile

到此整个hadoop集群的配置就结束了。
还没结束,,,

6.格式化文件系统(在主节点上执行。即hadoop01这台虚拟机上执行)

hdfs namenode -format

注意!!!格式化文件系统这个操作只能在第一次启动hdfs集群时来操作,后面不能再进行格式化)
成功被格式化:
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
7. 启动和关闭Hadoop集群
包含HDFS集群和YARN两个集群框架
启动有两种方式:

  • 1 单节点逐个启动
  • 2. 使用脚本一键启动

这里使用第二种方式,第一种方式自主学习。
使用脚本一键启动

start-dfs.sh或stop-dfs.sh #启动或关闭所有HDFS服务进程
start-yarn.sh或stop-yarn.sh #启动或关闭所有YARN服务进程

对于hadoop01:
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
对于hadoop02:
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
对于hadoop03:
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
注:jps命令是查看开启的进程。
确保:
hadoop01有5个,hadoop02有4个,hadoop03有3个
8.最后,查看HDFS和YARN集群状态
在浏览器访问hadoop01:50070或者192.168.121.134:50070(格式为:主机名或IP地址+端口号)查看HDFS集群状态
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
浏览器搜索hadoop01:8088或者192.168.121.134:8088(格式为:主机名或IP地址+端口号)可查看YARN集群管理页面.
Hadoop集群部署-(完全分布式模式,hadoop-2.7.4),分布式,hadoop,大数据
至此,hadoop集群搭建成功!!!文章来源地址https://www.toymoban.com/news/detail-706128.html

到了这里,关于Hadoop集群部署-(完全分布式模式,hadoop-2.7.4)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Hadoop 完全分布式集群搭建

    部署前可以先了解下 Hadoop运行模式及目录结构-CSDN博客 服务 hadoop102 hadoop103 hadoop104 NameNode √ DataNode √ √ √ Secondary NameNode √ ResourceManager √ NodeManager √ √ √ JobHistoryServer √ IPv4 192.168.88.102 192.168.88.103 192.168.88.104 NodeObject master worker1 worker2 最小化安装 Neokylin7.0 用于搭建 Had

    2024年02月04日
    浏览(45)
  • Hadoop完全分布式集群搭建

    1.在虚拟机关机的状态下选择克隆 2.开始克隆 3.选择从当前状态创建 4.创建一个完整的克隆 5.选择新的虚拟机存储位置(选择内存充足的磁盘) 6.开始克隆 7.克隆完成 8.同样的方法克隆第二台虚拟机 9.在计算机中存在三台虚拟机 将第一台虚拟机更名为hadoop01 修改hadoop01的主机

    2024年02月02日
    浏览(35)
  • 大数据技术栈-Hadoop3.3.4-完全分布式集群搭建部署-centos7(完全超详细-小白注释版)虚拟机安装+平台部署

    目录 环境条件: 1、安装虚拟机(已安装好虚拟机的可跳转至  二、安装JDK与Hadoop) (1)直接新建一台虚拟机 (2)首次启用虚拟机,进行安装 一、集群前置环境搭建(三台机器分别设置hostname、网卡(ip)配置、ssh免密登录) 1、查看一下本机与虚拟机的网卡和ip信息 (1)

    2024年02月06日
    浏览(41)
  • 1.1完全分布式Hadoop署集群

    大家好,我是行不更名,坐不改姓的宋晓刚,下面将带领大家从基础到小白Hadoop学习,跟上我的步伐进入Hadoop的世界。 微信:15319589104 QQ: 2981345658 文章介绍: 在大数据时代,Hadoop已成为处理海量数据的必备工具。但如何从零开始搭建一个完整的Hadoop分布式集群呢?本文将为

    2024年01月23日
    浏览(34)
  • hadoop-3.3.3完全分布式集群搭建

    随着大数据的不断发展,hadoop在前段时间就已经更新到了3.x版本,与2.x版本存在着一些差异,在某大数据竞赛中也是使用的hadoop3.x的版本,本文就介绍hadoop3.x版本的完全分布式集群搭建。 jdk:1.8 hadoop:3.3.3 操作系统:centos7 需要的所有安装包都放在master节点的/opt目录下,安

    2024年02月09日
    浏览(31)
  • Hadoop 完全分布式部署

    前期准备 分析: 准备3台客户机(关闭防火墙、静态IP、主机名称) 【CentOS 7】 安装JDK 【jdk1.8】 安装Hadoop 【hadoop 3.3.4】 配置环境变量 配置ssh 配置集群 单点启动 群起并测试集群 Hadoop 集群规划: node1 node2 node3 IP 10.90.100.121 10.90.100.122 10.90.100.123 HDFS NameNode 、 DataNode DataNode D

    2024年03月23日
    浏览(37)
  • hadoop完全分布式集群搭建(超详细)-大数据集群搭建

    本次搭建完全分布式集群用到的环境有: jdk1.8.0 hadoop-2.7.7 本次搭建集群所需环境也给大家准备了,下载链接地址:https://share.weiyun.com/dk7WgaVk 密码:553ubk 本次完全分布式集群搭建需要提前建立好三台虚拟机,我分别把它们的主机名命名为:master,slave1,slave2 一.配置免密登陆 首先

    2024年02月10日
    浏览(38)
  • Linux环境搭建Hadoop及完全分布式集群

    Hadoop是一个开源的分布式计算框架,旨在处理大规模数据集和进行并行计算。核心包括两个组件:HFDS、MapReduce。 配置方案 各虚拟机的用户名分别为test0、test1、test2,主机名为hadoop100、hadoop101、hadoop102 虚拟机的分配如下: hadoop100:NameNode + ResourceManager hadoop101:DataNode + NodeM

    2024年03月23日
    浏览(33)
  • Hadoop3.1.4完全分布式集群搭建

    在Centos7中直接使用root用户执行hostnamectl命令修改,重启(reboot)后永久生效。 要求:三台主机的名字分别为:master slave1 slave2 关闭后,可查看防火墙状态,当显示disavtive(dead)的字样,说明CentOS 7防火墙已经关闭。 但要注意的是,上面的命令只是临时关闭了CentOS 7防火墙,

    2024年04月17日
    浏览(41)
  • 写给大忙人看Hadoop完全分布式集群搭建

    vi /usr/local/hadoop/hadoop-2.10.0/etc/hadoop/hdfs-site.xml 修改其内容为: dfs.replication 3 dfs.name.dir /usr/local/hadoop/hdfs/name dfs.data.dir /usr/local/hadoop/hdfs/data 复制mapred-site.xml.template为mapred-site.xml cp /usr/local/hadoop/hadoop-2.10.0/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/hadoop-2.10.0/etc/hadoop/mapred-site.xml

    2024年03月27日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包