Hadoop集群环境搭建(超详细)

这篇具有很好参考价值的文章主要介绍了Hadoop集群环境搭建(超详细)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1 实验环境

  1. Oracle Linux 7.4
  2. JDK 1.8
  3. Hadoop 2.7.4

2 实验准备

1.实验准备三台机器分别为master,slave1,slave2
2.单击master机器桌面中的konsole图标
Hadoop集群环境搭建(超详细)

3 配置SSH免密登录

1.编辑/etc/hosts文件,出现如下界面
[Command 001]:

vim /etc/hosts

Hadoop集群环境搭建(超详细)
2.按i键,如下图
Hadoop集群环境搭建(超详细)
3.第一行前面添加#,如下图
Hadoop集群环境搭建(超详细)
4.按键ESC,按键:wq回车,保存退出。如下图
Hadoop集群环境搭建(超详细)
5.切换到slave1机器,重复1~4步骤
6.切换到slave2机器,重复1~4步骤
7.切换到master机器,master机器中创建ssh秘钥,输入如下命令,红框位置直接回车即
[Command 002]:

ssh-keygen -t rsa

Hadoop集群环境搭建(超详细)
8.将公钥拷贝到slave1机器,第一个红框位置输入yes,第二个红输位置输入root
[Command 003]:

ssh-copy-id slave1

Hadoop集群环境搭建(超详细)
9.将公钥拷贝到slave2机器, 第一个红框位置输入yes,第二个红输位置输入root
[Command 004]:

ssh-copy-id slave2

Hadoop集群环境搭建(超详细)
10.同样道理,将公钥拷贝到master本机
[Command 005]:

ssh-copy-id master

11.验证由master机器通过ssh方式免密登录到slave1
[Command 006]:

ssh slave1

Hadoop集群环境搭建(超详细)
12.退出slave1
[Command 007]:

exit

Hadoop集群环境搭建(超详细)
13.验证由master机器通过ssh方式免密登录到slave2
[Command 008]:

ssh slave2

Hadoop集群环境搭建(超详细)

14.退出slave2
[Command 009]:

exit

Hadoop集群环境搭建(超详细)

4 Hadoop安装与配置

1.解压hadoop压缩文件至/opt目录下
[Command 010]:

tar -zxvf ~/experiment/file/hadoop-2.7.4.tar.gz -C /opt

2.修改解压后为文件名为hadoop
[Command 011]:

mv /opt/hadoop-2.7.4 /opt/hadoop

Hadoop集群环境搭建(超详细)

3.修改环境变量
[Command 012]:

vim /etc/profile

Hadoop集群环境搭建(超详细)

4.按键Shift+g键定位到最后一行,按键 i 切换到输入模式下,添加如下代码
[Code 001]:

export HADOOP_HOME=/opt/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

Hadoop集群环境搭建(超详细)
5.按键Esc,按键:wq保存退出

6.刷新配置文件
[Command 013]:

source /etc/profile

Hadoop集群环境搭建(超详细)
7.编辑/opt/hadoop/etc/hadoop/hadoop-env.sh文件,部分截图如下
[Command 014]:

vim /opt/hadoop/etc/hadoop/hadoop-env.sh

Hadoop集群环境搭建(超详细)
8.按键:set nu回车设置行号,部分截图如下
Hadoop集群环境搭建(超详细)
9.按键25gg定位到25行,部分截图如下
Hadoop集群环境搭建(超详细)
10.按键dd删除此行,部分截图如下
Hadoop集群环境搭建(超详细)
11.按键 i 添加如下代码
[Code 002]:

export JAVA_HOME=/usr/lib/java-1.8

Hadoop集群环境搭建(超详细)
12.按键Esc,按键:wq保存退出
13.编辑/opt/hadoop/etc/hadoop/core-site.xml文件,部分截图如下
[Command 015]:

vi /opt/hadoop/etc/hadoop/core-site.xml

Hadoop集群环境搭建(超详细)
14.按键:set nu回车设置行号,部分截图如下
Hadoop集群环境搭建(超详细)
15.按键19gg定位到19行,按键o添加如下代码,部分截图如下
[Code 003]:

<property>
<name>fs.defaultFS</name>
<value>hdfs://master</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop/tmp</value>
</property>

Hadoop集群环境搭建(超详细)
16.按键Esc,按键:wq保存退出
17.编辑/opt/hadoop/etc/hadoop/hdfs-site.xml文件,部分截图如下
[Command 016]:

vi /opt/hadoop/etc/hadoop/hdfs-site.xml

Hadoop集群环境搭建(超详细)
18.按键:set nu回车,设置行号
Hadoop集群环境搭建(超详细)
19.按键20gg定位到20行,按键i添加如下代码
[Code 004]:

<property>
<name>dfs.replication</name>
<value>3</value>
</property>

Hadoop集群环境搭建(超详细)

20.按键Esc,按键:wq保存退出
21.复制/opt/hadoop/etc/hadoop/mapred-site.xml.tmplate 名为mapred-site.xml
[Command 017]:

cp /opt/hadoop/etc/hadoop/mapred-site.xml.template /opt/hadoop/etc/hadoop/mapred-site.xml

Hadoop集群环境搭建(超详细)
22.编辑/opt/hadoop/etc/hadoop/mapred-site.xml文件,部分截图如下
[Command 018]:

vi /opt/hadoop/etc/hadoop/mapred-site.xml

Hadoop集群环境搭建(超详细)
23.按键:set nu回车,设置行号
Hadoop集群环境搭建(超详细)
24.按键20gg定位到20行,按键i添加如下代码
[Code 005]:

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

Hadoop集群环境搭建(超详细)
25.按键Esc,按键:wq保存退出
26.编辑/opt/hadoop/etc/hadoop/yarn-site.xml文件,部分截图如下
[Command 019]:

vi /opt/hadoop/etc/hadoop/yarn-site.xml

Hadoop集群环境搭建(超详细)
27.按键:set nu回车,设置行号
Hadoop集群环境搭建(超详细)
28.按键18gg定位到18行,按键i添加如下代码,部分截图如下
[Code 006]:

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>512</value>
</property>

Hadoop集群环境搭建(超详细)
29.按键Esc,按键:wq保存退出
30.编辑/opt/hadoop/etc/hadoop/slaves文件
[Command 020]:

vim /opt/hadoop/etc/hadoop/slaves

Hadoop集群环境搭建(超详细)

31.按键dd删除首行,按键i添加如下内容
[Code 007]:

slave1
slave2

Hadoop集群环境搭建(超详细)
32.按键Esc,按键:wq保存退出
33.拷贝master主机/etc/profile到slave1主机/etc下
[Command 021]:

scp /etc/profile slave1:/etc

Hadoop集群环境搭建(超详细)
34.拷贝master主机/etc/profile到slave2主机/etc下
[Command 022]:

scp /etc/profile slave2:/etc

Hadoop集群环境搭建(超详细)
35.拷贝master主机/opt/hadoop到slave1主机/opt下
[Command 023]:

scp -r /opt/hadoop slave1:/opt

36.拷贝master主机/opt/hadoop到slave2主机/opt下
[Command 024]:

scp -r /opt/hadoop slave2:/opt

37.slave1机器命令行中执行如下指令
[Command 025]:

source /etc/profile

Hadoop集群环境搭建(超详细)
38.同样道理,slave2机器命令行中执行如下指令
[Command 026]:

source /etc/profile

Hadoop集群环境搭建(超详细)
39.master机器命令行中执行如下指令,格式化hdfs,部分截图如下
[Command 027]:

hdfs namenode -format

Hadoop集群环境搭建(超详细)
40.master机器命令行中执行如下指令,启动集群
[Command 028]:

start-all.sh

Hadoop集群环境搭建(超详细)
41.master机器命令行中执行如下指令,查看进程
[Command 029]:

jps

Hadoop集群环境搭建(超详细)
42.slave1机器命令行中执行如下指令,查看进程
[Command 030]:

jps

Hadoop集群环境搭建(超详细)
43…slave2机器命令行中执行如下指令,查看进程
[Command 031]:

jps

Hadoop集群环境搭建(超详细)
44.所有配置完成,进程启动完毕文章来源地址https://www.toymoban.com/news/detail-472032.html

到了这里,关于Hadoop集群环境搭建(超详细)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Hadoop简介以及集群搭建详细过程

    hadoop加群包括两个集群:hdfs集群,yarn集群 两个集群逻辑上分离,通常物理上在一起 两个集群都是标准的主从架构集群 逻辑上分离:两个集群相互之间没有依赖,互不影响 物理上在一起:某些角色今晚往往部署在同一台物理服务器上 MapReduce集群呢? MapReduce是计算框架、代

    2024年02月16日
    浏览(28)
  • Hadoop集群搭建安装教程(详细完整)

    大数据 :最早提出“大数据”时代到来的是全球知名咨询公司麦肯锡,大数据是当前很热的一个词。这几年来,云计算、继而大数据,成了整个社会的热点,大数据究竟是什么东西?有哪些相关技术? Hadoop是Apache旗下的一个用java语言实现开源软件框架,是一个开发和运行处理

    2024年02月08日
    浏览(56)
  • 分布式集群——搭建Hadoop环境以及相关的Hadoop介绍

    分布式集群——jdk配置与zookeeper环境搭建 分布式集群——搭建Hadoop环境以及相关的Hadoop介绍 文章目录 前言 一 hadoop的相关概念 1.1 Hadoop概念 补充:块的存储 1.2 HDFS是什么 1.3 三种节点的功能 I、NameNode节点 II、fsimage与edits文件存放的内容介绍 III、DataNode节点 IV、SecondaryNameNod

    2024年02月10日
    浏览(41)
  • 基于Hadoop搭建Flink集群详细步骤

    目录 1.xftp上传flink压缩包至hadoop102的/opt/software/目录下 2.解压flink压缩包至/opt/module/目录下 3. 配置flink-conf.yaml 4.配置masters 5.配置workers 6.配置环境变量my_env.sh 7.重启环境变量 8.分发/opt/module/flink-1.13.0和/etc/profile.d/my_env.sh 9.另外两台重启环境变量 10.开启hadoop集群和flink集群 11.浏

    2024年02月09日
    浏览(53)
  • Hadoop 3.2.4 集群搭建详细图文教程

    目录 一、集群简介 二、Hadoop 集群部署方式  三、集群安装 3.1 集群角色规划  3.2 服务器基础环境准备  3.2.1 环境初始化  3.2.2 ssh 免密登录(在 hadoop01 上执行) 3.2.3 各个节点上安装 JDK 1.8 环境 3.3 安装 Hadoop 3.4 Hadoop 安装包目录结构 ​3.5 编辑 Hadoop 配置文件  3.5.1 hado

    2024年02月09日
    浏览(38)
  • Hadoop系统应用之安装---Hadoop集群安装配置和详细搭建过程

    实训课题 Hadoop集群安装 配置 和 详细 搭建 过程 实验步骤 : 一、虚拟机的安装部署 二、Linux系统安装部署 1.环境准备 2.系统安装 三、Centos系统安装 四、静态网络配置 五、虚拟机完整克隆配置 六、配置hosts文件和ssh免密登录 七、Hadoop集群配置 八、Hadoop集群测试 虚拟机的安装

    2024年02月06日
    浏览(37)
  • Linux环境搭建Hadoop及完全分布式集群

    Hadoop是一个开源的分布式计算框架,旨在处理大规模数据集和进行并行计算。核心包括两个组件:HFDS、MapReduce。 配置方案 各虚拟机的用户名分别为test0、test1、test2,主机名为hadoop100、hadoop101、hadoop102 虚拟机的分配如下: hadoop100:NameNode + ResourceManager hadoop101:DataNode + NodeM

    2024年03月23日
    浏览(33)
  • 头歌Hadoop 开发环境搭建及HDFS初体验(第2关:配置开发环境 - Hadoop安装与伪分布式集群搭建)

    注: 1 头歌《Hadoop 开发环境搭建及HDFS初体验》三关在一个实验环境下,需要三关从前往后按顺序评测,跳关或者实验环境结束后重新打开 不能单独评测通过 2 复制粘贴请用右键粘贴,CTRL+C/V不管用哦~ 第1关:配置开发环境 - JavaJDK的配置: 解压: 配置环境变量: 细节: vi

    2024年02月08日
    浏览(118)
  • 大数据Hadoop集群之超级详细的HBase搭建

    Hbase是基于Hadoop集群之上来搭建的 Hadoop有一些局限性: 做一些批量的数据处理,吞吐量比较高,但是它对随机查询、实时操作性能是不行的 HBase是NoSQL数据库的一种,它跟传统的RDBMS有很大的差别 不支持JOIN的,摒弃了关系型模型,而且在HBase中只有一种数据类型:byte[] HBase可

    2023年04月13日
    浏览(75)
  • Hadoop高可靠集群搭建步骤(手把手教学)【超级详细】

    Hadoop高可靠集群搭建步骤(手把手教学) 【超级详细】 一、用管理员身份运行虚拟机 二、创建新的虚拟机: 选择自定义→选择硬件兼容性:Workstation 15.x→选择稍后安装→选Linux(L)(选CentOS 7 64位)→编辑虚拟机名字并选择文件位置→处理器数量和内核数量均选1→选择虚拟机

    2024年02月02日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包