Hadoop系统应用之安装---Hadoop集群安装配置和详细搭建过程

这篇具有很好参考价值的文章主要介绍了Hadoop系统应用之安装---Hadoop集群安装配置和详细搭建过程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

实训课题

Hadoop集群安装配置详细搭建过程

实验步骤:

一、虚拟机的安装部署

二、Linux系统安装部署

1.环境准备

2.系统安装

三、Centos系统安装

四、静态网络配置

五、虚拟机完整克隆配置

六、配置hosts文件和ssh免密登录

七、Hadoop集群配置

八、Hadoop集群测试

  • 虚拟机的安装

(1)虚拟软件:VMware16

(2)VMMware版本:VMware Workstation 16 Pro

(3)vmware官方下载地址:https://www.vmware.com/cn/products/workstation-pro/workstation-pro-evaluation.html

(4)安装系统环境:Windows 10

  • Linux系统安装部署

(1)配置环境准备

  1. Cento7镜像文件(尽量下载最小的版本)
  2. 资源网站:清华大学开源软件镜像站 | Tsinghua Open Source Mirror

(2)系统安装

2.1新建虚拟机并且选择安装程序光盘映像文件(iso)

hadoop的安装与配置详细过程,hadoop,linux,运维

2.2虚拟机配置如下

hadoop的安装与配置详细过程,hadoop,linux,运维

三、Centos7系统安装

3.1开启虚拟机

 hadoop的安装与配置详细过程,hadoop,linux,运维

3.2安装Centos7系统

hadoop的安装与配置详细过程,hadoop,linux,运维

3.3进行配置

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

3.4进行登录

hadoop的安装与配置详细过程,hadoop,linux,运维

四、静态网络配置

4.1 检查网络的连通性

命令:ping www.baidu.com 

hadoop的安装与配置详细过程,hadoop,linux,运维

4.2 打开ssh服务

4.2.1查看SSH是否安装 rpm -qa | grep ssh

hadoop的安装与配置详细过程,hadoop,linux,运维

Centos7 默认安装了ssh

4.2.2安装缺失的包、并配置SSH yum install openssh*

hadoop的安装与配置详细过程,hadoop,linux,运维

完成!!!!

4.2.3注册使用服务,重启SSH服务
systemctl enable sshd
service sshd restart

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

4.3配置虚拟机的网络

hadoop的安装与配置详细过程,hadoop,linux,运维

4.4修改网络配置文件(ifcfg-ens33

命令:vi /etc/sysconfig/network-scripts/ifcfg-ens33

hadoop的安装与配置详细过程,hadoop,linux,运维

Ps:如果配置完成后无法连通网络,添加centos7的mac地址到ifcfg-ens33中。

4.5 重启网络服务,查看配置是否成功

hadoop的安装与配置详细过程,hadoop,linux,运维

4.6重启虚拟机后,查看是否连通网络

命令:重启reboot ;查看ifconfig;检查ping www.baidu.com

五、虚拟机完整克隆配置

5.1克隆虚拟机

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

5.2修改主机名

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

5.3修改网络配置文件

hadoop的安装与配置详细过程,hadoop,linux,运维

5.4重新启动网络配置

hadoop的安装与配置详细过程,hadoop,linux,运维

六、配置hosts文件和ssh免密登录

1.修改hosts配置文件(所有虚拟机都需要配置此文件,此处只列举一台虚拟机

命令:vi  /etc/hosts

hadoop的安装与配置详细过程,hadoop,linux,运维

2.生成秘钥文件(四次回车)

命令:ssh-keygen -t rsa

hadoop的安装与配置详细过程,hadoop,linux,运维

3.将本机公钥文件复制到其它虚拟机上(接收方需先开机)

命令:ssh-copy-id yangjian01

ssh-copy-id yangjian02

ssh-copy-id yangjian03

ssh-copy-id yangjian00

hadoop的安装与配置详细过程,hadoop,linux,运维

4.上一步的命令在虚拟机yangjian00 yangjian01 yangjian02,yangjian03都需要执行,保证三台主机都能够免密登录

5.测试是否免密登录成功(ssh yangjian01)

hadoop的安装与配置详细过程,hadoop,linux,运维

成功!!!!

七、Hadoop集群配置

1.在所有centos7虚拟机根目录下新建文件夹export,export文件夹中新建data、servers和software文件

命令: mkdir -p /export/data

mkdir -p /export/servers

mkdir -p /export/software

2.准备安装包

hadoop的安装与配置详细过程,hadoop,linux,运维

3.下载安装软件SecureCRT和FX

4.利用FX将安装包传输到centos7虚拟机根目录下/export/software文件夹内

hadoop的安装与配置详细过程,hadoop,linux,运维

5.安装JDK(所有虚拟机都要配置)

5.1 解压JDK

cd /export/software

tar -zxvf jdk-8u144-linux-x64.tar.gz -C /export/servers/

5.2配置环境变量

编辑文件:vi /etc/profile

#tip:在配置文件末尾追加

export JAVA_HOME=/export/servers/ jdk-1.8.4-144

export PATH=$PATH:$JAVA_HOME/bin

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export JAVA_HOME PATH CLASSPATH

5.3 使配置文件生效

hadoop的安装与配置详细过程,hadoop,linux,运维

5.4 查看是否配置成功

hadoop的安装与配置详细过程,hadoop,linux,运维

6.安装Hadoop(所有虚拟机都要配置)

6.1 解压hadoop

cd /export/software

tar -zxvf hadoop-2.7.3.tar.gz -C /export/servers/

6.2 打开配置文件 vi/etc/profile

6.3 配置环境变量

#tip:在文件末尾追加

export HADOOP_HOME=/export/servers/hadoop-2.7.3

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

hadoop的安装与配置详细过程,hadoop,linux,运维

6.4 使配置文件生效

hadoop的安装与配置详细过程,hadoop,linux,运维

6.5查看是否配置成功

hadoop的安装与配置详细过程,hadoop,linux,运维

7.Hadoop集群配置

7.1 进入配置文件目录

命令:cd /export/servers/hadoop-2.7.3/etc/hadoop/

hadoop的安装与配置详细过程,hadoop,linux,运维

7.2 修改hadoop-env.sh文件

命令:vi hadoop-env.sh

#tip:找到相应位置,添加这段话

export JAVA_HOME=/export/servers/jdk-1.8.4-144

hadoop的安装与配置详细过程,hadoop,linux,运维

7.3 修改core-site.xml文件命令:vi core-site.xml

#tip:下图中乱码部分为注释代码,可以删掉,不影响

<configuration>

    <!--用于设置Hadoop的文件系统,由URI指定-->

    <property>

        <name>fs.defaultFS</name>

        <!--用于指定namenode地址在hadoop01机器上-->

        <value>hdfs://yangjian00:9000</value>

    </property>

    <!--配置Hadoop的临时目录,默认/tem/hadoop-${user.name}-->

    <property>

        <name>hadoop.tmp.dir</name>

        <value>/export/servers/hadoop-2.7.3/tmp</value>

    </property>

</configuration>

hadoop的安装与配置详细过程,hadoop,linux,运维

7.4 修改hdfs-site.xml文件(命令:vi hdfs-site.xml)

<configuration>

    <!--指定HDFS的数量-->

    <property>

        <name>dfs.replication</name>

        <value>3</value>

    </property>

    <!--secondary namenode 所在主机的IP和端口-->

    <property>

        <name>dfs.namenode.secondary.http-address</name>

        <value>yangjian01:50090</value>

    </property>

</configuration>

hadoop的安装与配置详细过程,hadoop,linux,运维

7.5 修改mapred-site.xml文件(命令:vi mapred-site.xml)

7.5.1复制模板文件(命令:cp mapred-site.xml.template  mapred-site.xml

7.5.2编辑文件

<configuration>

    <!--指定MapReduce运行时的框架,这里指定在YARN上,默认在local-->

    <property>

        <name>mapreduce.framework.name</name>

        <value>yarn</value>

    </property>

</configuration>

hadoop的安装与配置详细过程,hadoop,linux,运维

7.6 修改yarn-site.xml文件(命令:vi yarn-site.xml)

<configuration>

    <!--指定YARN集群的管理者(ResourceManager)的地址-->

    <property>

        <name>yarn.resourcemanager.hostname</name>

        <value>hadoop01</value>

    </property>

    <property>

        <name>yarn.nodemanager.aux-services</name>

        <value>mapreduce_shuffle</value>

    </property>

</configuration>

 hadoop的安装与配置详细过程,hadoop,linux,运维

7.7修改slaves文件

hadoop的安装与配置详细过程,hadoop,linux,运维

7.8将主节点中配置好的文件和hadoop目录copy给子节点

#tip:这里主节点为yangjian00,子节点为yangjian01、yangjian02、yangjian03

scp /etc/profile yangjian01:/etc/profile

scp /etc/profile yangjian02:/etc/profile

scp /etc/profile yangjian03:/etc/profile

scp -r /export/ yangjian01:/

scp -r /export/ yangjian02:/

scp -r /export/ yangjian03:/

7.9使所有子节点的配置文件

hadoop的安装与配置详细过程,hadoop,linux,运维

7.10 在主节点格式化文件系统(successfully formatted 格式化成功)

hadoop的安装与配置详细过程,hadoop,linux,运维

hadoop的安装与配置详细过程,hadoop,linux,运维

八、Hadoop集群测试

1.启动集群服务

1.1在主节点启动所有HDFS服务进程(命令:start-dfs.sh

1.2在主节点启动所有HDFS服务进程(命令:start-yarn.sh

2.打开window下的C:\Windows\System32\drivers\etc打开hosts文件,在文件末添加三行代码:

192.168.220.20 yangjian00

192.168.220.21 yangjian01

192.168.220.22 yangjian02

192.168.220.23 yangjian03

3.通过UI界面查看Hadoop运行状态,在Windows系统下,访问http://hadoop01:50070,查看HDFS集群状态

hadoop的安装与配置详细过程,hadoop,linux,运维

 hadoop的安装与配置详细过程,hadoop,linux,运维文章来源地址https://www.toymoban.com/news/detail-738508.html

到了这里,关于Hadoop系统应用之安装---Hadoop集群安装配置和详细搭建过程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Hadoop集群环境搭建(超详细)

    Oracle Linux 7.4 JDK 1.8 Hadoop 2.7.4 1.实验准备三台机器分别为master,slave1,slave2 2.单击master机器桌面中的konsole图标 1.编辑/etc/hosts文件,出现如下界面 [Command 001]: 2.按i键,如下图 3.第一行前面添加#,如下图 4.按键ESC,按键:wq回车,保存退出。如下图 5.切换到slave1机器,重复1~4步骤 6

    2024年02月07日
    浏览(27)
  • hadoop完全分布式集群搭建(超详细)-大数据集群搭建

    本次搭建完全分布式集群用到的环境有: jdk1.8.0 hadoop-2.7.7 本次搭建集群所需环境也给大家准备了,下载链接地址:https://share.weiyun.com/dk7WgaVk 密码:553ubk 本次完全分布式集群搭建需要提前建立好三台虚拟机,我分别把它们的主机名命名为:master,slave1,slave2 一.配置免密登陆 首先

    2024年02月10日
    浏览(38)
  • 大数据技术栈-Hadoop3.3.4-完全分布式集群搭建部署-centos7(完全超详细-小白注释版)虚拟机安装+平台部署

    目录 环境条件: 1、安装虚拟机(已安装好虚拟机的可跳转至  二、安装JDK与Hadoop) (1)直接新建一台虚拟机 (2)首次启用虚拟机,进行安装 一、集群前置环境搭建(三台机器分别设置hostname、网卡(ip)配置、ssh免密登录) 1、查看一下本机与虚拟机的网卡和ip信息 (1)

    2024年02月06日
    浏览(41)
  • Hadoop简介以及集群搭建详细过程

    hadoop加群包括两个集群:hdfs集群,yarn集群 两个集群逻辑上分离,通常物理上在一起 两个集群都是标准的主从架构集群 逻辑上分离:两个集群相互之间没有依赖,互不影响 物理上在一起:某些角色今晚往往部署在同一台物理服务器上 MapReduce集群呢? MapReduce是计算框架、代

    2024年02月16日
    浏览(28)
  • 基于Hadoop搭建Flink集群详细步骤

    目录 1.xftp上传flink压缩包至hadoop102的/opt/software/目录下 2.解压flink压缩包至/opt/module/目录下 3. 配置flink-conf.yaml 4.配置masters 5.配置workers 6.配置环境变量my_env.sh 7.重启环境变量 8.分发/opt/module/flink-1.13.0和/etc/profile.d/my_env.sh 9.另外两台重启环境变量 10.开启hadoop集群和flink集群 11.浏

    2024年02月09日
    浏览(53)
  • Hadoop 3.2.4 集群搭建详细图文教程

    目录 一、集群简介 二、Hadoop 集群部署方式  三、集群安装 3.1 集群角色规划  3.2 服务器基础环境准备  3.2.1 环境初始化  3.2.2 ssh 免密登录(在 hadoop01 上执行) 3.2.3 各个节点上安装 JDK 1.8 环境 3.3 安装 Hadoop 3.4 Hadoop 安装包目录结构 ​3.5 编辑 Hadoop 配置文件  3.5.1 hado

    2024年02月09日
    浏览(38)
  • Hadoop集群环境配置搭建

    Hadoop最早诞生于Cutting于1998年左右开发的一个全文文本搜索引擎 Lucene,这个搜索引擎在2001年成为Apache基金会的一个子项目,也是 ElasticSearch等重要搜索引擎的底层基础。 项目官方:https://hadoop.apache.org/ 首先准备三台Linux服务器,预装CentOS7。三台服务器之间需要网络互通。本地

    2024年02月03日
    浏览(25)
  • 大数据Hadoop集群之超级详细的HBase搭建

    Hbase是基于Hadoop集群之上来搭建的 Hadoop有一些局限性: 做一些批量的数据处理,吞吐量比较高,但是它对随机查询、实时操作性能是不行的 HBase是NoSQL数据库的一种,它跟传统的RDBMS有很大的差别 不支持JOIN的,摒弃了关系型模型,而且在HBase中只有一种数据类型:byte[] HBase可

    2023年04月13日
    浏览(74)
  • Hadoop高可靠集群搭建步骤(手把手教学)【超级详细】

    Hadoop高可靠集群搭建步骤(手把手教学) 【超级详细】 一、用管理员身份运行虚拟机 二、创建新的虚拟机: 选择自定义→选择硬件兼容性:Workstation 15.x→选择稍后安装→选Linux(L)(选CentOS 7 64位)→编辑虚拟机名字并选择文件位置→处理器数量和内核数量均选1→选择虚拟机

    2024年02月02日
    浏览(36)
  • 搭建hadoop集群,从安装虚拟机开始直到hadoop成功搭建

    搭建Hadoop集群   一、实验目的与要求 学习和掌握Hadoop的相关应用,首先必须得学会搭建Hadoop集群。本次实验将针对Hadoop集群的搭建内容进行演练。学会虚拟机的安装和克隆,Linux系统的网络配置和SSH配置,Hadoop集群的搭建和配置,Hadoop集群测试,熟悉Hadoop集群基本的操作。

    2023年04月08日
    浏览(33)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包