Hadoop大数据平台搭建(超详细步骤)

这篇具有很好参考价值的文章主要介绍了Hadoop大数据平台搭建(超详细步骤)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

相关软件下载链接:

Xshell:家庭/学校免费 - NetSarang Website

Xftp:家庭/学校免费 - NetSarang Website

Xshell与Xftp官网:XSHELL - NetSarang Website

Jdk:百度网盘 请输入提取码  提取码:jdhp

Hadoop:百度网盘 请输入提取码   提取码:jdhp

需要配置好的虚拟机与相关环境的,可以点击我的这篇文章获取:Hadoop大数据平台搭建环境 提供虚拟机相关配置_Crazy.宥思的博客-CSDN博客

1、在原来虚拟机的基础上再克隆两台虚拟机

       (1)右键点击虚拟机,点击管理,点击克隆,此步骤重复两次

Hadoop大数据平台搭建(超详细步骤)

(2)检查克隆机的ip地址是否与原虚拟机不同,若不同则要修改,我这里在克隆的时候就自动变化了ip地址,故不需要修改

Hadoop大数据平台搭建(超详细步骤)

Hadoop大数据平台搭建(超详细步骤)

2、修改机器名

       (1)在下图红箭头处输入修改名:stu2

命令:vi /etc/hostname

Hadoop大数据平台搭建(超详细步骤)

       (2)另外两台虚拟机也照此操作即可

       (3)重启这三台虚拟机

命令:reboot

              改完以后这三台虚拟机的名字分别为:stu、stu2、stu3

3、关闭防火墙

       (1)查看防火墙是否关闭

     Hadoop大数据平台搭建(超详细步骤)

              由于初始虚拟机上防火墙就已关闭,所以另外两台克隆机的防火墙也处于关闭状态

       4、配置三台主机免密登录

       (1)首先在stu(stu2、stu3)上,生成ssh密匙

              命令:ssh-keygen -t rsa  

回车,在接下来的提示中一直回车,不用输入内容

stu:

Hadoop大数据平台搭建(超详细步骤)

stu2:

Hadoop大数据平台搭建(超详细步骤)

stu3:

Hadoop大数据平台搭建(超详细步骤)

在家目录下的.ssh目录中出现以下两个密钥文件:

stu:

Hadoop大数据平台搭建(超详细步骤)

stu2:

Hadoop大数据平台搭建(超详细步骤)

stu3:

Hadoop大数据平台搭建(超详细步骤)

       (2)在stu(stu2、stu3)机器上,将目录切换到.ssh目录下

              命令:cd ~/.ssh

       (3)在.ssh目录下新建文件authorized_keys文件

              命令:touch authorized_keys

       (4)将id_rsa.pub文件内容拷贝到authorized_keys文件中

              命令:cat id_rsa.pub >> authorized_keys

       (5)查看authorized_keys文件中的内容

              命令:cat authorized_keys

       Hadoop大数据平台搭建(超详细步骤)       

       (6)将stu上.ssh目录下的authorized_keys文件发送到stu2相应的目录下

              命令:scp authorized_keys 192.168.80.129:$PWD

              在提示后面输入yes,回车

              然后输入密码,回车,完成传输

       (7)切换到stu2机器上,进入~/.ssh目录中

              命令:cd ~/.ssh

       (8)将stu2上.ssh目录中id_rsa.pub文件内容拷贝到authorized_keys文件中

命令:cat id_rsa.pub >> authorized_keys

(9)将stu2上.ssh目录中的authorized_keys文件发送到stu3相应的目录下

命令:scp authorized_keys 192.168.80.130:$PWD

在提示中输入yes,回车,然后输入密码

       (10)切换到stu3机器上,进入~/.ssh目录中

命令:cd ~/.ssh

(11)将stu3上.ssh目录中id_rsa.pub文件内容拷贝到authorized_keys文件中

命令:cat id_rsa.pub >> authorized_keys

(12)将stu3上.ssh目录中authorized_keys文件回传给stu1和stu2

命令:scp authorized_keys 192.168.80.128:$PWD

scp authorized_keys 192.168.80.129:$PWD

       (13)验证(在stu上)

命令:ssh 192.168.80.130

Hadoop大数据平台搭建(超详细步骤)              

       5、建立主机名与IP地址的映射

       (1)打开/etc/hosts文件(在stu上)

命令:vi /etc/hosts

在文件中添加:

192.168.80.128 stu

192.168.80.129 stu2

192.168.80.130 stu3

Hadoop大数据平台搭建(超详细步骤)

修改完毕后按ESC键,保存退出

       (2)将stu上/etc/hosts文件分别分发到stu2、stu3上。

命令:scp /etc/hosts 192.168.180.129:/etc/

scp /etc/hosts 192.168.180.130:/etc/

(3)验证,在stu上ping stu2和stu3

命令:ping 192.168.80.129

Hadoop大数据平台搭建(超详细步骤)

命令:ping 192.168.80.130

Hadoop大数据平台搭建(超详细步骤)

6、安装JDK(三台机器都需要安装JDK,以stu为例,其它两台操作是一样的)

(1)首先检查系统中是否自带JDK

       命令:rpm -qa | grep jdk

         Hadoop大数据平台搭建(超详细步骤)

(2)用xftp软件将jdk上传到linux的用户家目录下

Hadoop大数据平台搭建(超详细步骤)

       (3)在根目录下建服务器软件服务目录

              命令:mkdir -p /exports/servers

Hadoop大数据平台搭建(超详细步骤)

       (4)将家目录下的jdk解压到/exports/servers目录下

命令:tar -zxvf jdk-11.0.7_linux-x64_bin.tar.gz -C /exports/servers

Hadoop大数据平台搭建(超详细步骤)

       (5)查看/exports/servers目录下是否有解压后的文件

              命令:ls /exports/servers

              Hadoop大数据平台搭建(超详细步骤)

       (6)配置环境变量

              1)将JDK的根目录复制下来,将目录切换到JDK的根目录下

命令:cd /exports/servers/jdk-11.0.7/

Hadoop大数据平台搭建(超详细步骤)

2)复制出现的路径

              命令:pwd

Hadoop大数据平台搭建(超详细步骤)

3)打开环境变量配置文件

命令:vi /etc/profile

4)在文件末尾添加:

export JAVA_HOME=/exports/servers/jdk-11.0.7

export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin

Hadoop大数据平台搭建(超详细步骤)

5)保存并退出

      

(6)重启配置文件并验证环境变量是否配置成功

命令:source /etc/profile

命令:java -version

Hadoop大数据平台搭建(超详细步骤)

(7)将stu上的/exports目录的内容分别传输到stu2和stu3上

命令:scp -r /exports stu2:/

scp -r /exports stu3:/

Hadoop大数据平台搭建(超详细步骤)

Hadoop大数据平台搭建(超详细步骤)

       (8)将stu上的/etc/profile环境变量配置文件分别发送到stu2和stu3上

命令:scp /etc/profile stu2:/etc/

scp /etc/profile stu3:/etc/

(9)在stu2和stu3上分别执行 source /etc/profile 命令

(10)分别验证stu2和stu3上的环境变量是否配置成功

       stu2:

Hadoop大数据平台搭建(超详细步骤)

stu3:

Hadoop大数据平台搭建(超详细步骤)

7、安装Hadoop(三台机器都需要安装Hadoop,操作都一样,以stu操作为例)

(1)通过传输软件将hadoop-2.7.2.tar.gz上传到stu的root的家目录下

Hadoop大数据平台搭建(超详细步骤)

(2)将hadoop-2.7.2.tar.gz解压到/exports/servers目录下

命令:tar -zxvf hadoop-2.7.2.tar.gz -C /exports/servers/

(3)切换到/exports/servers/hadoop-2.7.2目录下

命令:cd /exports/servers/hadoop-2.7.2

(4)在Hadoop的根目录下新建datas目录

命令:mkdir datas

(5)配置Hadoop

进入etc/hadoop目录下,

命令:cd /exports/servers/hadoop-2.7.2/etc/hadoop/

依次修改本目录下的:hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml以及slaves文件:

  • 修改hadoop-env.sh文件,在该文件中主要就是配置JAVA_HOME

命令:vi hadoop-env.sh

Hadoop大数据平台搭建(超详细步骤)

  • 修改core-site.xml

命令:vi core-site.xml

Hadoop大数据平台搭建(超详细步骤)

  • 修改hdfs-site.xml

命令:vi hdfs-site.xml

Hadoop大数据平台搭建(超详细步骤)

  • 修改mapred-site.xml文件
  • 在hadoop下没有mapred-site.xml文件,我们需要将mapred-site.xml.template文件修改为mapred-site.xml

命令:cp mapred-site.xml.template mapred-site.xml

打开mapred-site.xml文件

命令:vi mapred-site.xml

Hadoop大数据平台搭建(超详细步骤)

  • 修改yarn-site.xml

命令:vi yarn-site.xml Hadoop大数据平台搭建(超详细步骤)

  • 配置slaves文件

命令:vi slaves

删除localhost,在文件中加入以下内容:

stu

stu2

stu3

Hadoop大数据平台搭建(超详细步骤)

  • 将hadoop根目录下的bin中命令加入系统PATH中

命令:vi /etc/profile

加入以下内容

最终文件如下:

export HADOOP_HOME=/exports/servers/hadoop-2.7.2

export PATH=$PATH:$HADOOP_HOME/bin

Hadoop大数据平台搭建(超详细步骤)

  • 验证hadoop

命令:hadoop version

出现如下界面,证明hadoop命令的环境变量配置成功

Hadoop大数据平台搭建(超详细步骤)

  • 将/exports/servers下hadoop-2.7.2目录中的内容复制到stu2和stu3上

命令:scp -r /exports/servers/ hadoop-2.7.2/ stu2:/exports/servers/

scp -r /exports/servers/ hadoop-2.7.2/ stu3:/exports/servers/

  • 将stu上的/etc/profile文件复制到stu2和stu3中

命令:scp /etc/profile stu2:/etc/

scp /etc/profile stu3:/etc/

在stu2和stu3上分别执行命令:source /etc/profile,让环境变量立即生效

8、启动和验证hadoop集群

(1)格式化namenode(stu上执行)

命令:hadoop namenode -format

Hadoop大数据平台搭建(超详细步骤)

                    

(2)启动集群(stu上执行)

将目录切换到hadoop的sbin目录下:

命令:cd /exports/servers/hadoop-2.7.2/sbin/

执行命令:./start-dfs.sh

Hadoop大数据平台搭建(超详细步骤)

(3)验证集群是否启动成功

命令:jps

stu:

Hadoop大数据平台搭建(超详细步骤)

stu2:

Hadoop大数据平台搭建(超详细步骤)

stu3:

Hadoop大数据平台搭建(超详细步骤)

(4)打开浏览器,在浏览器中输入http://192.168.80.128:50070/

Hadoop大数据平台搭建(超详细步骤)文章来源地址https://www.toymoban.com/news/detail-411745.html

到了这里,关于Hadoop大数据平台搭建(超详细步骤)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 大数据技术栈-Hadoop3.3.4-完全分布式集群搭建部署-centos7(完全超详细-小白注释版)虚拟机安装+平台部署

    目录 环境条件: 1、安装虚拟机(已安装好虚拟机的可跳转至  二、安装JDK与Hadoop) (1)直接新建一台虚拟机 (2)首次启用虚拟机,进行安装 一、集群前置环境搭建(三台机器分别设置hostname、网卡(ip)配置、ssh免密登录) 1、查看一下本机与虚拟机的网卡和ip信息 (1)

    2024年02月06日
    浏览(46)
  • Qt搭建安卓开发平台详细步骤

           因最近想学下Qt关于安卓平台的开发,特此对环境的搭建,期间遇到一些问题,在网上查询各种资料,终于是搭建完成,特此写下这篇文档,记录下,也分享给大家,共同进步!         本人实测此方法是真实有效的,能在安卓上运行Qt程序,如若哪里步骤有疑问或者

    2024年02月15日
    浏览(30)
  • Kali Linux 安装搭建 hadoop 平台 调用 wordcount 示例程序 详细教程

    目标: *安装虚拟机,在自己虚拟机上完成hadoop的伪分布式安装。(安装完成后要检查)* 安装SSH Server服务器:apt-get install openssh-server 更改默认的SSH密钥 cd /etc/ssh mkdir ssh_key_backup mv ssh_host_* ssh_key_backup 创建新密钥:dpkg-reconfigure openssh-server 允许 SSH Root 访问,修改SSH 配置文件

    2024年02月04日
    浏览(39)
  • 基于Filebeat、Kafka搭建ELK日志分析平台详细步骤

    写在前头:公司一直没有搭建一个支持实时查询日志的平台,平常看日志都得去服务器下载,大大降低开发效率,前段时间有大佬同事搭建了一款日志平台,支持sit,uat等各个环境的日志实时查询,大大提高bug定位速度。因对其感兴趣特向大佬请教,学习记录下搭建流程。 选

    2024年02月06日
    浏览(49)
  • 七、Hadoop系统应用之搭建Hadoop高可用集群(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7)

    Hadoop集群搭建前安装准备参考: 一、Hadoop系统应用之安装准备(一)(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7) 一、Hadoop系统应用之安装准备(二)(超详细步骤指导操作,WIN10,VMware Workstation 15.5 PRO,CentOS-6.7) Hadoop集群搭建过程参考: 二、Hadoop系统应

    2024年02月02日
    浏览(49)
  • 从零开始在 Linux 上搭建 Hadoop 平台:一个详细的教程和必备配置文件

    在信息时代,大数据处理是企业发展必不可少的一部分。Hadoop 是一种分布式计算平台,能够高效地处理大数据集。然而,搭建 Hadoop 集群可以相当复杂,需要正确配置和调整多个组件。本文将向您展示如何从零开始在 Linux 上搭建 Hadoop,以及如何配置 Hadoop 的必备文件。 选择

    2024年02月08日
    浏览(53)
  • 大数据平台搭建——hadoop集群(基于CentOS-7)的搭建

    目录 总序 一、下载相关软件的压缩包 二、配置虚拟机上主节点相关设置 1、修改主机用户名 2、进行ip地址映射 3、配置虚拟机网络设置   三、解压并配置java、hadoop环境 1、解压jdk、hadoop压缩文件  2、配置jdk、hadoop环境 3、修改hadoop中的相关配置文件信息(最重要) 四、克隆

    2024年02月06日
    浏览(46)
  • hadoop完全分布式集群搭建(超详细)-大数据集群搭建

    本次搭建完全分布式集群用到的环境有: jdk1.8.0 hadoop-2.7.7 本次搭建集群所需环境也给大家准备了,下载链接地址:https://share.weiyun.com/dk7WgaVk 密码:553ubk 本次完全分布式集群搭建需要提前建立好三台虚拟机,我分别把它们的主机名命名为:master,slave1,slave2 一.配置免密登陆 首先

    2024年02月10日
    浏览(48)
  • 大数据Hadoop集群之超级详细的HBase搭建

    Hbase是基于Hadoop集群之上来搭建的 Hadoop有一些局限性: 做一些批量的数据处理,吞吐量比较高,但是它对随机查询、实时操作性能是不行的 HBase是NoSQL数据库的一种,它跟传统的RDBMS有很大的差别 不支持JOIN的,摒弃了关系型模型,而且在HBase中只有一种数据类型:byte[] HBase可

    2023年04月13日
    浏览(83)
  • 基于docker搭建MySql主从数据库(详细步骤)

    在 Linux 中建立对应文件夹,用于存放MySql数据库相关,文件夹路径: /usr/local/software/mysql 。 在mysql文件下创建如下目录结构的文件:(3306为主数据库文件夹,笔者这里以对端口号来命名;3310为从数据库文件夹,3311同理,可依次往下) 上传 my.cnf 文件到 conf 文件夹下 以下是

    2024年02月09日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包