Hadoop集群环境搭建(超详细)

这篇具有很好参考价值的文章主要介绍了Hadoop集群环境搭建(超详细)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1 实验环境

  1. Oracle Linux 7.4
  2. JDK 1.8
  3. Hadoop 2.7.4

2 实验准备

1.实验准备三台机器分别为master,slave1,slave2
2.单击master机器桌面中的konsole图标
Hadoop集群环境搭建(超详细)

3 配置SSH免密登录

1.编辑/etc/hosts文件,出现如下界面
[Command 001]:

vim /etc/hosts

Hadoop集群环境搭建(超详细)
2.按i键,如下图
Hadoop集群环境搭建(超详细)
3.第一行前面添加#,如下图
Hadoop集群环境搭建(超详细)
4.按键ESC,按键:wq回车,保存退出。如下图
Hadoop集群环境搭建(超详细)
5.切换到slave1机器,重复1~4步骤
6.切换到slave2机器,重复1~4步骤
7.切换到master机器,master机器中创建ssh秘钥,输入如下命令,红框位置直接回车即
[Command 002]:

ssh-keygen -t rsa

Hadoop集群环境搭建(超详细)
8.将公钥拷贝到slave1机器,第一个红框位置输入yes,第二个红输位置输入root
[Command 003]:

ssh-copy-id slave1

Hadoop集群环境搭建(超详细)
9.将公钥拷贝到slave2机器, 第一个红框位置输入yes,第二个红输位置输入root
[Command 004]:

ssh-copy-id slave2

Hadoop集群环境搭建(超详细)
10.同样道理,将公钥拷贝到master本机
[Command 005]:

ssh-copy-id master

11.验证由master机器通过ssh方式免密登录到slave1
[Command 006]:

ssh slave1

Hadoop集群环境搭建(超详细)
12.退出slave1
[Command 007]:

exit

Hadoop集群环境搭建(超详细)
13.验证由master机器通过ssh方式免密登录到slave2
[Command 008]:

ssh slave2

Hadoop集群环境搭建(超详细)

14.退出slave2
[Command 009]:

exit

Hadoop集群环境搭建(超详细)

4 Hadoop安装与配置

1.解压hadoop压缩文件至/opt目录下
[Command 010]:

tar -zxvf ~/experiment/file/hadoop-2.7.4.tar.gz -C /opt

2.修改解压后为文件名为hadoop
[Command 011]:

mv /opt/hadoop-2.7.4 /opt/hadoop

Hadoop集群环境搭建(超详细)

3.修改环境变量
[Command 012]:

vim /etc/profile

Hadoop集群环境搭建(超详细)

4.按键Shift+g键定位到最后一行,按键 i 切换到输入模式下,添加如下代码
[Code 001]:

export HADOOP_HOME=/opt/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

Hadoop集群环境搭建(超详细)
5.按键Esc,按键:wq保存退出

6.刷新配置文件
[Command 013]:

source /etc/profile

Hadoop集群环境搭建(超详细)
7.编辑/opt/hadoop/etc/hadoop/hadoop-env.sh文件,部分截图如下
[Command 014]:

vim /opt/hadoop/etc/hadoop/hadoop-env.sh

Hadoop集群环境搭建(超详细)
8.按键:set nu回车设置行号,部分截图如下
Hadoop集群环境搭建(超详细)
9.按键25gg定位到25行,部分截图如下
Hadoop集群环境搭建(超详细)
10.按键dd删除此行,部分截图如下
Hadoop集群环境搭建(超详细)
11.按键 i 添加如下代码
[Code 002]:

export JAVA_HOME=/usr/lib/java-1.8

Hadoop集群环境搭建(超详细)
12.按键Esc,按键:wq保存退出
13.编辑/opt/hadoop/etc/hadoop/core-site.xml文件,部分截图如下
[Command 015]:

vi /opt/hadoop/etc/hadoop/core-site.xml

Hadoop集群环境搭建(超详细)
14.按键:set nu回车设置行号,部分截图如下
Hadoop集群环境搭建(超详细)
15.按键19gg定位到19行,按键o添加如下代码,部分截图如下
[Code 003]:

<property>
<name>fs.defaultFS</name>
<value>hdfs://master</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop/tmp</value>
</property>

Hadoop集群环境搭建(超详细)
16.按键Esc,按键:wq保存退出
17.编辑/opt/hadoop/etc/hadoop/hdfs-site.xml文件,部分截图如下
[Command 016]:

vi /opt/hadoop/etc/hadoop/hdfs-site.xml

Hadoop集群环境搭建(超详细)
18.按键:set nu回车,设置行号
Hadoop集群环境搭建(超详细)
19.按键20gg定位到20行,按键i添加如下代码
[Code 004]:

<property>
<name>dfs.replication</name>
<value>3</value>
</property>

Hadoop集群环境搭建(超详细)

20.按键Esc,按键:wq保存退出
21.复制/opt/hadoop/etc/hadoop/mapred-site.xml.tmplate 名为mapred-site.xml
[Command 017]:

cp /opt/hadoop/etc/hadoop/mapred-site.xml.template /opt/hadoop/etc/hadoop/mapred-site.xml

Hadoop集群环境搭建(超详细)
22.编辑/opt/hadoop/etc/hadoop/mapred-site.xml文件,部分截图如下
[Command 018]:

vi /opt/hadoop/etc/hadoop/mapred-site.xml

Hadoop集群环境搭建(超详细)
23.按键:set nu回车,设置行号
Hadoop集群环境搭建(超详细)
24.按键20gg定位到20行,按键i添加如下代码
[Code 005]:

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

Hadoop集群环境搭建(超详细)
25.按键Esc,按键:wq保存退出
26.编辑/opt/hadoop/etc/hadoop/yarn-site.xml文件,部分截图如下
[Command 019]:

vi /opt/hadoop/etc/hadoop/yarn-site.xml

Hadoop集群环境搭建(超详细)
27.按键:set nu回车,设置行号
Hadoop集群环境搭建(超详细)
28.按键18gg定位到18行,按键i添加如下代码,部分截图如下
[Code 006]:

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>512</value>
</property>

Hadoop集群环境搭建(超详细)
29.按键Esc,按键:wq保存退出
30.编辑/opt/hadoop/etc/hadoop/slaves文件
[Command 020]:

vim /opt/hadoop/etc/hadoop/slaves

Hadoop集群环境搭建(超详细)

31.按键dd删除首行,按键i添加如下内容
[Code 007]:

slave1
slave2

Hadoop集群环境搭建(超详细)
32.按键Esc,按键:wq保存退出
33.拷贝master主机/etc/profile到slave1主机/etc下
[Command 021]:

scp /etc/profile slave1:/etc

Hadoop集群环境搭建(超详细)
34.拷贝master主机/etc/profile到slave2主机/etc下
[Command 022]:

scp /etc/profile slave2:/etc

Hadoop集群环境搭建(超详细)
35.拷贝master主机/opt/hadoop到slave1主机/opt下
[Command 023]:

scp -r /opt/hadoop slave1:/opt

36.拷贝master主机/opt/hadoop到slave2主机/opt下
[Command 024]:

scp -r /opt/hadoop slave2:/opt

37.slave1机器命令行中执行如下指令
[Command 025]:

source /etc/profile

Hadoop集群环境搭建(超详细)
38.同样道理,slave2机器命令行中执行如下指令
[Command 026]:

source /etc/profile

Hadoop集群环境搭建(超详细)
39.master机器命令行中执行如下指令,格式化hdfs,部分截图如下
[Command 027]:

hdfs namenode -format

Hadoop集群环境搭建(超详细)
40.master机器命令行中执行如下指令,启动集群
[Command 028]:

start-all.sh

Hadoop集群环境搭建(超详细)
41.master机器命令行中执行如下指令,查看进程
[Command 029]:

jps

Hadoop集群环境搭建(超详细)
42.slave1机器命令行中执行如下指令,查看进程
[Command 030]:

jps

Hadoop集群环境搭建(超详细)
43…slave2机器命令行中执行如下指令,查看进程
[Command 031]:

jps

Hadoop集群环境搭建(超详细)
44.所有配置完成,进程启动完毕文章来源地址https://www.toymoban.com/news/detail-472032.html

到了这里,关于Hadoop集群环境搭建(超详细)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • Hadoop集群搭建安装教程(详细完整)

    Hadoop集群搭建安装教程(详细完整)

    大数据 :最早提出“大数据”时代到来的是全球知名咨询公司麦肯锡,大数据是当前很热的一个词。这几年来,云计算、继而大数据,成了整个社会的热点,大数据究竟是什么东西?有哪些相关技术? Hadoop是Apache旗下的一个用java语言实现开源软件框架,是一个开发和运行处理

    2024年02月08日
    浏览(9)
  • Hadoop简介以及集群搭建详细过程

    Hadoop简介以及集群搭建详细过程

    hadoop加群包括两个集群:hdfs集群,yarn集群 两个集群逻辑上分离,通常物理上在一起 两个集群都是标准的主从架构集群 逻辑上分离:两个集群相互之间没有依赖,互不影响 物理上在一起:某些角色今晚往往部署在同一台物理服务器上 MapReduce集群呢? MapReduce是计算框架、代

    2024年02月16日
    浏览(10)
  • 分布式集群——搭建Hadoop环境以及相关的Hadoop介绍

    分布式集群——搭建Hadoop环境以及相关的Hadoop介绍

    分布式集群——jdk配置与zookeeper环境搭建 分布式集群——搭建Hadoop环境以及相关的Hadoop介绍 文章目录 前言 一 hadoop的相关概念 1.1 Hadoop概念 补充:块的存储 1.2 HDFS是什么 1.3 三种节点的功能 I、NameNode节点 II、fsimage与edits文件存放的内容介绍 III、DataNode节点 IV、SecondaryNameNod

    2024年02月10日
    浏览(11)
  • 基于Hadoop搭建Flink集群详细步骤

    基于Hadoop搭建Flink集群详细步骤

    目录 1.xftp上传flink压缩包至hadoop102的/opt/software/目录下 2.解压flink压缩包至/opt/module/目录下 3. 配置flink-conf.yaml 4.配置masters 5.配置workers 6.配置环境变量my_env.sh 7.重启环境变量 8.分发/opt/module/flink-1.13.0和/etc/profile.d/my_env.sh 9.另外两台重启环境变量 10.开启hadoop集群和flink集群 11.浏

    2024年02月09日
    浏览(13)
  • Hadoop 3.2.4 集群搭建详细图文教程

    Hadoop 3.2.4 集群搭建详细图文教程

    目录 一、集群简介 二、Hadoop 集群部署方式  三、集群安装 3.1 集群角色规划  3.2 服务器基础环境准备  3.2.1 环境初始化  3.2.2 ssh 免密登录(在 hadoop01 上执行) 3.2.3 各个节点上安装 JDK 1.8 环境 3.3 安装 Hadoop 3.4 Hadoop 安装包目录结构 ​3.5 编辑 Hadoop 配置文件  3.5.1 hado

    2024年02月09日
    浏览(17)
  • Hadoop系统应用之安装---Hadoop集群安装配置和详细搭建过程

    Hadoop系统应用之安装---Hadoop集群安装配置和详细搭建过程

    实训课题 Hadoop集群安装 配置 和 详细 搭建 过程 实验步骤 : 一、虚拟机的安装部署 二、Linux系统安装部署 1.环境准备 2.系统安装 三、Centos系统安装 四、静态网络配置 五、虚拟机完整克隆配置 六、配置hosts文件和ssh免密登录 七、Hadoop集群配置 八、Hadoop集群测试 虚拟机的安装

    2024年02月06日
    浏览(8)
  • Linux环境搭建Hadoop及完全分布式集群

    Hadoop是一个开源的分布式计算框架,旨在处理大规模数据集和进行并行计算。核心包括两个组件:HFDS、MapReduce。 配置方案 各虚拟机的用户名分别为test0、test1、test2,主机名为hadoop100、hadoop101、hadoop102 虚拟机的分配如下: hadoop100:NameNode + ResourceManager hadoop101:DataNode + NodeM

    2024年03月23日
    浏览(12)
  • 头歌Hadoop 开发环境搭建及HDFS初体验(第2关:配置开发环境 - Hadoop安装与伪分布式集群搭建)

    头歌Hadoop 开发环境搭建及HDFS初体验(第2关:配置开发环境 - Hadoop安装与伪分布式集群搭建)

    注: 1 头歌《Hadoop 开发环境搭建及HDFS初体验》三关在一个实验环境下,需要三关从前往后按顺序评测,跳关或者实验环境结束后重新打开 不能单独评测通过 2 复制粘贴请用右键粘贴,CTRL+C/V不管用哦~ 第1关:配置开发环境 - JavaJDK的配置: 解压: 配置环境变量: 细节: vi

    2024年02月08日
    浏览(173)
  • 大数据Hadoop集群之超级详细的HBase搭建

    大数据Hadoop集群之超级详细的HBase搭建

    Hbase是基于Hadoop集群之上来搭建的 Hadoop有一些局限性: 做一些批量的数据处理,吞吐量比较高,但是它对随机查询、实时操作性能是不行的 HBase是NoSQL数据库的一种,它跟传统的RDBMS有很大的差别 不支持JOIN的,摒弃了关系型模型,而且在HBase中只有一种数据类型:byte[] HBase可

    2023年04月13日
    浏览(13)
  • Hadoop高可靠集群搭建步骤(手把手教学)【超级详细】

    Hadoop高可靠集群搭建步骤(手把手教学)【超级详细】

    Hadoop高可靠集群搭建步骤(手把手教学) 【超级详细】 一、用管理员身份运行虚拟机 二、创建新的虚拟机: 选择自定义→选择硬件兼容性:Workstation 15.x→选择稍后安装→选Linux(L)(选CentOS 7 64位)→编辑虚拟机名字并选择文件位置→处理器数量和内核数量均选1→选择虚拟机

    2024年02月02日
    浏览(12)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包