hadoop完全分布式集群搭建(超详细)-大数据集群搭建

这篇具有很好参考价值的文章主要介绍了hadoop完全分布式集群搭建(超详细)-大数据集群搭建。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

hadoop完全分布式集群搭建

本次搭建完全分布式集群用到的环境有:
jdk1.8.0
hadoop-2.7.7
本次搭建集群所需环境也给大家准备了,下载链接地址:https://share.weiyun.com/dk7WgaVk
密码:553ubk

本次完全分布式集群搭建需要提前建立好三台虚拟机,我分别把它们的主机名命名为:master,slave1,slave2

一.配置免密登陆
首先我们要实现三台虚拟机之间相互的ssh免密登陆
在master虚拟机上进行操作:

1. 创建ssh秘钥,输入如下命令,生成公私密钥,下方三个红框内都按回车键

ssh-keygen -t rsa

hadoop完全分布式集群搭建(超详细)-大数据集群搭建
2.将公钥拷贝到本机实现免密登录,第一个红框位置输入yes,第二个红输位置输入自己虚拟机的登陆密码

ssh-copy-id master

hadoop完全分布式集群搭建(超详细)-大数据集群搭建
跟上面的操作一样,我们在master中实现master对slave1,slave2的免密登录

ssh-copy-id slave1
ssh-copy-id slave2

同理,我们分别进入到slave1,slave2虚拟机中,进行以上同样的操作

ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2

三台虚拟机一共要执行3*3=9次的免密登录操作

然后我们对master虚拟机上的/etc/hosts文件进行更改,设置IP映射

vi /etc/hosts

hadoop完全分布式集群搭建(超详细)-大数据集群搭建
我们将三台虚拟机的ip地址,主机名如图所示进行添加,并键入:wq 保存并退出
同理,我们切换到slave1,slave2虚拟机中对/etc/hosts文件进行同样的修改,保存并退出

二.配置java环境

1.我们在master主机上进行java环境的配置
hadoop完全分布式集群搭建(超详细)-大数据集群搭建
首先,先把虚拟机环境中的jdk压缩文件解压到/opt目录下

tar -zxvf  ~/ruanjian/jdk1.8.0_221.tar.gz  -C  /opt

进入/opt目录,将解压文件改名为java

cd /opt
mv jdk1.8.0_221 java

接下来修改环境变量

vi /etc/profile

进入文件按下GG进入配置文件最后一行,添加如下信息:

export JAVA_HOME=/opt/java  #你java路径是啥这里就填啥
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

:wq保存配置信息
hadoop完全分布式集群搭建(超详细)-大数据集群搭建

然后我们生效配置信息

source /etc/profile

最后验证一下java环境是否配置成功

java -version

如图所示,正确地显示了java的版本号,就配置成功啦~
hadoop完全分布式集群搭建(超详细)-大数据集群搭建
然后我们通过命令将java环境分发给slave1,slave2虚拟机中

scp /etc/profile root@slave1:/etc/profile
scp /etc/profile root@slave2:/etc/profile

hadoop完全分布式集群搭建(超详细)-大数据集群搭建
分别在slave1,slave2虚拟机中进行生效配置

ssh slave1
source /etc/profile
exit
ssh slave2
source /etc/profile
exit

hadoop完全分布式集群搭建(超详细)-大数据集群搭建

三.hadoop的安装

1. 将/root/runajian下的hadoop-2.7.7.tar.gz压缩包解压到/opt目录下,并将解压文件改名为hadoop
tar -zvxf /root/ruanjian/hadoop-2.7.7.tar.gz -C /opt
mv hadoop-2.7.7 hadoop

hadoop完全分布式集群搭建(超详细)-大数据集群搭建

2.修改环境变量
vim /etc/profile
3.按键Shift+g键定位到最后一行,按键 i 切换到输入模式下,添加如下代码:
export HADOOP_HOME=/opt/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

hadoop完全分布式集群搭建(超详细)-大数据集群搭建

4.按键ESC,按键:wq 保存并退出
5.生效刚刚的配置
source /etc/profile

6.同理将master的配置文件分发到slave1,slave2中

ssh slave1
source /etc/profile
exit
ssh slave2
source /etc/profile
exit

hadoop完全分布式集群搭建(超详细)-大数据集群搭建
四.hadoop的配置
在/opt/hadoop/etc/hadoop里面,有六个需要配置的文件,分别为:
hadoop-env.sh
core-site.xml
yarn-site.xml
hdfs-site.xml
mapred-site.xml
slaves
1.首先在master虚拟机中,对hadoop-env.sh文件进行操作

vi /opt/hadoop/etc/hadoop/hadoop-env.sh

在配置文件中,输入25gg定位到25行,修改java环境为自己配置的java环境路径,键入:wq保存并退出
hadoop完全分布式集群搭建(超详细)-大数据集群搭建
2.修改core-site.xml文件

vi /opt/hadoop/etc/hadoop/core-site.xml

进入配置文件,键入G定位到最后一行,在configuration标签内输入i命令添加以下代码:

<configuration>
 <property>
     <name>fs.defaultFS</name>
     <value>hdfs://master:9000</value>
 </property>
 <property>
     <name>hadoop.tmp.dir</name>
     <value>/opt/hadoop/tmp</value>
 </property>
</configuration>

hadoop完全分布式集群搭建(超详细)-大数据集群搭建
3.修改hdfs-site.xml文件

vi /opt/hadoop/etc/hadoop/hdfs-site.xml

进入配置文件,键入G定位到最后一行,在configuration标签内输入i命令添加以下代码:

<configuration>
 <property>
      <name>dfs.namenode.http-address</name>
      <value>master:50070</value>
 </property>
 <property>
      <name>dfs.namenode.secondary.http-address</name>
      <value>master:50090</value>
 </property>
 <property>
      <name>dfs.replication</name>
      <value>3</value>
 </property>
 <property>
      <name>dfs.namenode.name.dir</name>
      <value>/opt/hadoop/tmp/dfs/name</value>
 </property>
 <property>
      <name>dfs.datanode.data.dir</name>
      <value>/opt/hadoop/tmp/dfs/data</value>
 </property>
</configuration>

hadoop完全分布式集群搭建(超详细)-大数据集群搭建
4.修改yarn-site.xml文件

vi /opt/hadoop/etc/hadoop/yarn-site.xml

进入配置文件,键入G定位到最后一行,在configuration标签内输入i命令添加以下代码:

<configuration>
 <property>
    <name>yarn.resourcemanager.hostsname</name>
    <value>master</value>
 </property>
 <property>
    <name>yarn.resourcemanager.webapp.address</name>
    <value>master:8088</value>
 </property>
 <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
 </property>
 <property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
 </property>
 <property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
 </property>
 <property>
    <name>yarn.log-aggregation.retain-seconds</name>
    <value>106800</value>
 </property>
 <property>
    <name>yarn.nodemanager.remote-app-log-dir</name>
    <value>/user/container/logs</value>
 </property>
</configuration>

hadoop完全分布式集群搭建(超详细)-大数据集群搭建
5.在配置文件夹中,将模板文件mapred-site.xml.template复制一份为mapred-site.xml

cp /opt/haoop/etc/hadoop/mapred-site.xml.template  /opt/haoop/etc/hadoop/mapred-site.xml

修改mapred-site.xml文件

vi /opt/hadoop/etc/hadoop/mapred-site.xml

进入配置文件,键入G定位到最后一行,在configuration标签内输入i命令添加以下代码:

<configuration>
 <property>
     <name>mapreduce.framework.name</name>
     <value>yarn</value>
 </property>
 <property>
     <name>mapreduce.jobhistory.address</name>
     <value>master:10020</value>
 </property>
 <property>
     <name>mapreduce.jobhistory.webapp.address</name>
     <value>master:19888</value>
 </property>
</configuration>

hadoop完全分布式集群搭建(超详细)-大数据集群搭建
6.修改slaves文件
vi /opt/hadoop/etc/hadoop/slaves
进入配置文件后按dd删除第一行内容,再键入i进入输入模式,输入slave1,sleve2
hadoop完全分布式集群搭建(超详细)-大数据集群搭建
7.将配置好的hadoop文件分发至slave1,slave2虚拟机中的/opt文件夹下

scp /opt/hadoop root@slave1:/opt/
scp /opt/hadoop root@slave2:/opt/

8.格式化namenode,在master虚拟机中进行

hdfs namenode -format

9.格式化后开启集群

start-all.sh

我们分别在master,slave1,slave2虚拟机中,通过jps命令查询集群是否开启成功

jps

master界面:
hadoop完全分布式集群搭建(超详细)-大数据集群搭建
slave1界面:
hadoop完全分布式集群搭建(超详细)-大数据集群搭建
slave2界面:
hadoop完全分布式集群搭建(超详细)-大数据集群搭建
集群开启成功后,节点会如图显示:
Master: NameNode、ResourceManager、SecondaryNameNode
slave1: DataNode、NodeManager
slave2: DataNode、NodeManager

hadoop完全分布式集群搭建到此就完毕了,如果此篇文章对你有帮助或者喜欢,记得点赞关注收藏哦~文章来源地址https://www.toymoban.com/news/detail-496430.html

到了这里,关于hadoop完全分布式集群搭建(超详细)-大数据集群搭建的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Hadoop 完全分布式集群搭建

    部署前可以先了解下 Hadoop运行模式及目录结构-CSDN博客 服务 hadoop102 hadoop103 hadoop104 NameNode √ DataNode √ √ √ Secondary NameNode √ ResourceManager √ NodeManager √ √ √ JobHistoryServer √ IPv4 192.168.88.102 192.168.88.103 192.168.88.104 NodeObject master worker1 worker2 最小化安装 Neokylin7.0 用于搭建 Had

    2024年02月04日
    浏览(42)
  • Hadoop完全分布式集群搭建

    1.在虚拟机关机的状态下选择克隆 2.开始克隆 3.选择从当前状态创建 4.创建一个完整的克隆 5.选择新的虚拟机存储位置(选择内存充足的磁盘) 6.开始克隆 7.克隆完成 8.同样的方法克隆第二台虚拟机 9.在计算机中存在三台虚拟机 将第一台虚拟机更名为hadoop01 修改hadoop01的主机

    2024年02月02日
    浏览(33)
  • hadoop-3.3.3完全分布式集群搭建

    随着大数据的不断发展,hadoop在前段时间就已经更新到了3.x版本,与2.x版本存在着一些差异,在某大数据竞赛中也是使用的hadoop3.x的版本,本文就介绍hadoop3.x版本的完全分布式集群搭建。 jdk:1.8 hadoop:3.3.3 操作系统:centos7 需要的所有安装包都放在master节点的/opt目录下,安

    2024年02月09日
    浏览(28)
  • Zookeeper+Hadoop+Spark+Flink+Kafka+Hbase+Hive 完全分布式高可用集群搭建(保姆级超详细含图文)

    说明: 本篇将详细介绍用二进制安装包部署hadoop等组件,注意事项,各组件的使用,常用的一些命令,以及在部署中遇到的问题解决思路等等,都将详细介绍。 ip hostname 192.168.1.11 node1 192.168.1.12 node2 192.168.1.13 node3 1.2.1系统版本 1.2.2内存建议最少4g、2cpu、50G以上的磁盘容量 本次

    2024年02月12日
    浏览(34)
  • Hadoop3.1.4完全分布式集群搭建

    在Centos7中直接使用root用户执行hostnamectl命令修改,重启(reboot)后永久生效。 要求:三台主机的名字分别为:master slave1 slave2 关闭后,可查看防火墙状态,当显示disavtive(dead)的字样,说明CentOS 7防火墙已经关闭。 但要注意的是,上面的命令只是临时关闭了CentOS 7防火墙,

    2024年04月17日
    浏览(38)
  • Linux环境搭建Hadoop及完全分布式集群

    Hadoop是一个开源的分布式计算框架,旨在处理大规模数据集和进行并行计算。核心包括两个组件:HFDS、MapReduce。 配置方案 各虚拟机的用户名分别为test0、test1、test2,主机名为hadoop100、hadoop101、hadoop102 虚拟机的分配如下: hadoop100:NameNode + ResourceManager hadoop101:DataNode + NodeM

    2024年03月23日
    浏览(28)
  • 写给大忙人看Hadoop完全分布式集群搭建

    vi /usr/local/hadoop/hadoop-2.10.0/etc/hadoop/hdfs-site.xml 修改其内容为: dfs.replication 3 dfs.name.dir /usr/local/hadoop/hdfs/name dfs.data.dir /usr/local/hadoop/hdfs/data 复制mapred-site.xml.template为mapred-site.xml cp /usr/local/hadoop/hadoop-2.10.0/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/hadoop-2.10.0/etc/hadoop/mapred-site.xml

    2024年03月27日
    浏览(41)
  • 用三台云服务器搭建hadoop完全分布式集群

    本次利用云服务器搭建Hadoop集群, 在开始之前,你需要3台云服务器,可以在同一家购买也可以在不同家购买。此次教程采用百度云产品,可以换不同账号新手免费试用几个月,具体配置如下: 服务器名称 配置 磁盘容量 master 2cpu 内存4GB 40G slave1 1cpu 内存2GB 60G slave2 1cpu 内存

    2024年02月04日
    浏览(33)
  • 搭建Hadoop3.x完全分布式集群(CentOS 9)

    虚拟机相关: VMware workstation 16:虚拟机 vmware_177981.zip CentOS Stream 9:虚拟机 CentOS-Stream-9-latest-x86_64-dvd1.iso Hadoop相关 jdk1.8:JDK jdk-8u261-linux-x64.tar.gz Hadoop 3.3.6:Hadoop Hadoop 3.3.6.tar.gz 辅助工具 putty:tools putty.exe mtputty:tools mtputty.exe winscp:tools WinSCP-6.3.1-Portable.zip 本文相关资源可以

    2024年04月14日
    浏览(36)
  • 三台CentOS7.6虚拟机搭建Hadoop完全分布式集群(一)

    这个是笔者大学时期的大数据课程使用三台CentOS7.6虚拟机搭建完全分布式集群的案例,已成功搭建完全分布式集群,并测试跑实例。 1.1安装完虚拟机发现没有sudo命令和hadoop用户执行命令失败 我在安装CentOS 7.6虚拟机后,我发现不能执行sudo命令,同时hadoop用户执行命令失败。

    2024年02月03日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包