hadoop环境新手安装教程

这篇具有很好参考价值的文章主要介绍了hadoop环境新手安装教程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、资源准备:

(1)jdk安装包:我的是1.8.0_202

(2)hadoop安装包:我的是hadoop-3.3.1

hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs注意这里不要下载成下面这个安装包了,我就一开始下载错了

错误示例:hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs

 文章来源地址https://www.toymoban.com/news/detail-524306.html

2、主机网络相关参数准备

这里主要涉及hostname改写、hosts修改和ip地址改写

(1)修改hostname。这里我用了3台虚拟机,1台改为master,另外2台分别改为node1和node2

cd /etc/   // 进入配置目录
 
vi hostname  // 编程hostname 配置文件

hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs 

 

 (2)修改hosts。这里根据每台虚机的ip选择相应的hostname就行

vi /etc/hosts

hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs(3)IP地址改写,这里需要修改虚机的配置,选择NAT模式,DHCP选择想要的网段就行。

hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs

注意:以上的操作需要在每台虚机上分别执行 !!!

 3、配置ssh免密登陆

这一步在master主机上操作,一直按回车:

 ssh-keygen 

会生成以下4个文件:

hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs  

之后使用以下命令将密钥分发到node1和node2:

ssh-copy-id root@node1
ssh-copy-id root@localhost
ssh-copy-id root@node2

成功后就应该能免密登陆node1和node2了:

hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs

4、配置java环境

我将jdk安装包和hadoop安装包都放在master主机/opt目录下了,同时新建一个bigdata目录:

 hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs

(1)首先需要解压jdk安装包,并将解压后的文件夹放进bigdata目录:

tar -zxvf jdk-8u202-linux-x64.tar.gz
mv jdk1.8.0_202/ bigdata/

 (2)然后配置java环境变量:

vi /etc/profile

 hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs

配置完生效并验证是否成功: 

source /etc/profile   
java -version       #验证环境是否配置成功

 hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs

5、安装hadoop

同样是先解压然后移动到bigdata目录:

tar -zxvf hadoop-3.1.1.tar.gz
mv hadoop-3.1.1 bigdata/

 接着同样是配置环境变量:

vi /etc/profile

hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs

 配置完生效并验证是否成功: 

source profile
hadoop verison

 hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs

6、配置hadoop

这一步需要对hadoop下的 core-site.xml、hadoop-env.sh、hdfs-site.xml、mapred-site.xml、yarn-site.xml等文件进行配置。

首先进入存放文件的目录:

cd /opt/bigdata/hadoop-3.3.1/etc/hadoop/

 hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs

(1)配置hadoop-env.sh

vi命令打开文件,输入   :/export JAVA_HOME     查找需要修改的地方并修改(注意将版本号换成自己的):

hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs

(2)配置 core-site.xml

vi命令打开文件,找到一对尖括号框起来的configuration位置,插入(注意将版本号换成自己的):

<configuration>
 <property>
    <name>fs.default.name</name>
    <value>localhost:9000</value>
 </property>
 <property>
    <name>hadoop.temp.dir</name>
    <value>/opt/bigdata/hadoop-3.3.1/temp</value>
 </property>
</configuration>

修改成如下:

hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs

 (3)配置hdfs-site.xml

vi打开文件同样在configuration处插入(注意将版本号换成自己的):

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <property>
        <name>dfs.datanode.name.dir</name>
        <value>/opt/bigdata/hadoop-3.3.1/hdfs/name</value>
    </property>
     <property>
        <name>dfs.datanode.data.dir</name>
        <value>/opt/bigdata/hadoop-3.3.1/hdfs/data</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>node1:9001</value>
    </property>
    <property>
        <name>dfs.http.address</name>
        <value>0.0.0.0:50070</value>
    </property>
</configuration>

 (4)配置mapred-site.xml

同样的操作:

<configuration>
   <property>
        <name>mapred.job.tracker.http.address</name>
        <value>0.0.0.0:50030</value>
   </property>
   <property>
        <name>mapred.task.tracker.http.address</name>
        <value>0.0.0.0:50060</value>
   </property>
 

   <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
   </property>
<property>
 <name>mapreduce.application.classpath</name>
 <value>
     /opt/bigdata/hadoop-3.3.1/etc/hadoop,
     /opt/bigdata/hadoop-3.3.1/share/hadoop/common/*,
     /opt/bigdata/hadoop-3.3.1/share/hadoop/common/lib/*,
     /opt/bigdata/hadoop-3.3.1/share/hadoop/hdfs/*,
     /opt/bigdata/hadoop-3.3.1/share/hadoop/hdfs/lib/*,
     /opt/bigdata/hadoop-3.3.1/share/hadoop/mapreduce/*,
     /opt/bigdata/hadoop-3.3.1/share/hadoop/mapreduce/lib/*,
     /opt/bigdata/hadoop-3.3.1/share/hadoop/yarn/*,
     /opt/bigdata/hadoop-3.3.1/share/hadoop/yarn/lib/*
</value>
</property>
</configuration>

hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs

 (5)配置下yarn-site.xml

<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>              
</property> 
<property>
  <name>yarn.resourcemanager.webapp.address</name>
  <value>master:8099</value>
</property>

 (6)配置workers

在当前目录修改workers文件:

hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs

最后只有master、node1和node2:

hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs 

7、环境的配置已经改完了。接着还需要修改一下启动脚本的参数:

进入到sbin目录:

cd /opt/bigdata/hadoop-3.3.1/sbin

(1) 在start-dfs.sh,stop-dfs.sh两个文件顶部添加以下参数:

#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

 (2)start-yarn.sh,stop-yarn.sh顶部也需添加以下参数:

#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

 

至此,所有的配置都已经做完了,现在需要将配置文件分发到两个子节点去(子节点没有bigdata文件夹需要新建一个):

scp -r /opt/bigdata/hadoop-3.3.1  node1:/opt/bigdata
scp -r /opt/bigdata/hadoop-3.3.1  node2:/opt/bigdata

接着分别在两个子节点上执行下面命令生效配置:

source /etc/profile
source ~/.bashrc

最后就可以开始准备启动hadoop集群了。

(1)第一次启动需要初始化hdfs,在 /opt/bigdata/hadoop-3.3.1/bin目录下执行:

./hdfs namenode -format

出现如下语句表示初始化成功: 

hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs 

(2)进入/opt/bigdata/hadoop-3.3.1/sbin目录执行最后的集群启动命令:

./start-all.sh

 hadoop安装步骤简述,总结学习,hadoop,大数据,hdfshadoop安装步骤简述,总结学习,hadoop,大数据,hdfs

hadoop安装步骤简述,总结学习,hadoop,大数据,hdfs 

 参考:Hadoop 平台搭建完整步骤

 

到了这里,关于hadoop环境新手安装教程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Android开发-Mac Android开发环境搭建(Android Studio Mac环境详细安装教程,适合新手)...

    1.进入Android Studio官网 https://developer.android.google.cn/studio 2.点击下载Android Studio.  3.将说明拉到最下方,选择Mac With Apple Chip.苹果芯片选择Apple Chip,如果是Intel芯片可以选择Intel.  4.下载完成后,双击进入Android Studio.  点击打开.  5.如果是第一次安装,则直接选择不要导入设置.点击ok

    2024年02月04日
    浏览(43)
  • 超适合新手使用的教程:Python环境配置+Pycharm安装+扩展包安装(以Numpy+mkl为例)

    目录 一、Python环境配置 1.Python下载 2.python安装 3.Python验证安装  二、Pycharm环境配置 1.pycharm下载 2.pycharm配置python 3.pycharm编译器更新 三、Numpy+mkl库包的安装 1.通过Python自下载(command命令符)  2.通过下载包到本地安装 3.通过清华镜像安装(国内最好用的办法!!!) 4.检查包是否安装成

    2024年02月06日
    浏览(58)
  • Hadoop课程学习——Hadoop的windows环境安装及问题

    前言 一、使用步骤 1.jdk下载 2.eclipse下载 3.jdk与eclipse环境配置 4.Hadoop使用 二:问题展示 1.问题一:出现找不到主类(java -version运行正常,hadoop运行出错) 2.问题二:出现点击eclipse.exe不能运行 3.问题三:出现‘-Xmx512m’不是内部或外部指令 总结 关于Hadoop环境配置的过程以及出现

    2023年04月08日
    浏览(42)
  • [phpStudy2018的安装教程--dvwa环境指南]--搭建环境操作步骤

    windows7 环境 PhpStudy2018文件 dvwa文件 解压PhpStudy2018,把PhpStudy2018建议放D盘啦。 我虚拟机只有一个C盘,建议你放在D盘啦 (1)打开C盘根目录的路径:C:WindowsSystem32driversetc (2)打开hosts文件,修改相应域名的网址(提示:多个项目可添加多个域名) 若旧版一次全启动不起来

    2023年04月16日
    浏览(45)
  • Spark环境搭建安装及配置详细步骤(保姆教程)

    1 Spark-Local 模式  1.1 解压缩文件  将 spark-2.1.1-bin-hadoop3.2.tgz 文件上传到 Linux 并解压缩,放置在指定位置,路径中。  1.2 启动 Local 环境  1) 进入解压缩后的路径,执行如下指令   2) 启动成功后,可以输入网址进行 Web UI 监控页面访问   1.4 退出本地模式  按键 Ctrl+C 或输入

    2024年02月02日
    浏览(55)
  • 计算机安装Ubuntu系统(非虚拟机)步骤简述

           由于我的笔记本电脑比较古老(近10年),已经过了质保期,甚至续保时间都过了,所以本着能用则用的想法就在上面改安装Ubuntu系统。下面简单介绍下安装过程,自己留笔记,如果有碰到同样问题的能参考更好。 注意:如果是基于虚拟机安装学习请查找其它资料,

    2024年02月13日
    浏览(34)
  • 【hadoop】windows上hadoop环境的搭建步骤

    在大数据开发领域中,不得不说说传统经典的hadoop基础计算框架。一般我们都会将hadoop集群部署在服务器上,但是作为一个资深搬砖人,我们本地环境也需要一个开发hadoop的开发环境。那么,今天就安排一个在windows上搭建一个hadoop环境。 docker部署hadoop请移步 下载hadoop安装包

    2024年02月12日
    浏览(39)
  • minio 安装流程(linux) Centos7环境下搭建minio步骤详细教程

    一、下载安装文件     1、在home目录下创建minio文件夹     2、进入/home/minio 文件夹     3、下载文件 二、创建数据文件夹     三、创建日志文件 四、启动   如果想要修改超管账户名和密码 1、打开 /etc/profile 文件 2、在文件的最末尾加上以下信息(启动的时候看提示,新版

    2024年02月10日
    浏览(67)
  • hadoop伪分布式环境搭建,完整的详细步骤

    1、VMware14 2、一台ubtuntu 18 64位 3、主机名位master 4、ip 地址:192.168.136.31 5、本次实验需要的安装包 1、 查看id 地址 2、 关闭防火墙 命令来关闭防火墙 命令查看当前防火墙状态 3、 修改主机名、 添加主机映射 修改虚拟机hosts文件,将ip地址添加进来 使用 :wq 保存 测试是否修改

    2024年02月08日
    浏览(44)
  • mysql彻底卸载干净的5个步骤,超多图超详细保姆级教程最新教程新手小白轻松上手

    ✨ 原创不易,还希望各位大佬支持一下! 👍 点赞,你的认可是我创作的动力! ⭐️ 收藏,你的青睐是我努力的方向! ✏️ 评论,你的意见是我进步的财富! mysql8和mysql5的安装过程都有!!!超多图超详细保姆级教程最新教程新手小白轻松上手(点击跳转) mysql彻底卸载

    2024年02月03日
    浏览(106)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包