hadoop伪分布式环境搭建,完整的详细步骤

这篇具有很好参考价值的文章主要介绍了hadoop伪分布式环境搭建,完整的详细步骤。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

hadoop伪分布式环境搭建,完整的详细步骤

一、搭建伪分布式本次实验环境:

1、VMware14
2、一台ubtuntu 18 64位
3、主机名位master
4、ip 地址:192.168.136.31
5、本次实验需要的安装包
伪分布式安装步骤,java,java,后端

二、 伪分布式搭建前的准备

1、 查看id 地址

ip addr

伪分布式安装步骤,java,java,后端
2、 关闭防火墙
命令来关闭防火墙

ufw disable  

命令查看当前防火墙状态

ufw status   

伪分布式安装步骤,java,java,后端
3、 修改主机名、 添加主机映射

hostnamectl set-hostname master

修改虚拟机hosts文件,将ip地址添加进来

vim /etc/hosts


192.168.136.21 master

伪分布式安装步骤,java,java,后端
伪分布式安装步骤,java,java,后端
使用 :wq 保存
测试是否修改成功

Ping master

能ping通就修改成功

伪分布式安装步骤,java,java,后端
4、 设置免密(这里是伪分布式不是完全分布式,只需要能免密自己,此步骤也可以忽略)
○1打开SSH远程登录配置文件sshd_config

vim /etc/ssh/sshd_config

PermitRootLogin用来设置能不能直接以超级用户ssh登录

伪分布式安装步骤,java,java,后端
然后重启服务

service sshd restart

○2生成密钥

ssh-keygen -t rsa

回车四下
伪分布式安装步骤,java,java,后端
○3authorized_keys文件存放自己和目标的公钥,要自己手动复制文件,命令如下:
cd ~/.ssh

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

给复制的文件添加可执行权限(chmod u+x authorized_keys)
添加master的密码

ssh-copy-id master

伪分布式安装步骤,java,java,后端

三、安装jdk

回到opt目录

  cd /opt
tar -zxvf jdk-8u181-linux-x64.tar.gz

伪分布式安装步骤,java,java,后端
进行重命名

mv jdk1.8.0_181/ jdk

伪分布式安装步骤,java,java,后端
修改环境变量

vi /etc/profile

伪分布式安装步骤,java,java,后端

export JAVA_HOME=/opt/jdk       #这里是opt目录
export PATH=:$PATH:$JAVA_HOME/bin

伪分布式安装步骤,java,java,后端
使环境变量生效

source /etc/profile

伪分布式安装步骤,java,java,后端
验证是否安装成功
验证:java -version
伪分布式安装步骤,java,java,后端
到这里jdk 就安装成功了

四、搭建hadoop伪分布式

1、 解压 重命名

cd  /opt
tar -zxvf hadoop-2.7.6.tar.gz 

伪分布式安装步骤,java,java,后端

mv hadoop-2.7.6 hadoop

伪分布式安装步骤,java,java,后端
2、 修改配置文件

cd /opt/hadoop/etc/hadoop

伪分布式安装步骤,java,java,后端

a、修改 hadoop-env.sh
加上一句

export JAVA_HOME=/opt/jdk

jdk 的安装目录
伪分布式安装步骤,java,java,后端
b、修改 core-site.xml
将下面的配置参数加入进去修改成对应自己的

<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://master:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/opt/hadoop/tmp</value>
        </property>
	    <property>
                 <name>fs.trash.interval</name>
                 <value>1440</value>
        </property>
</configuration>

伪分布式安装步骤,java,java,后端
c、修改 hdfs-site.xml 将dfs.replication设置为1

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.permissions</name>
        <value>false</value>
    </property>
</configuration>

伪分布式安装步骤,java,java,后端
d、修改文件yarn-site.xml

<configuration>
 <property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
</configuration>

伪分布式安装步骤,java,java,后端
e、修改 mapred-site.xml(将mapred-site.xml.template 复制一份为 mapred-site.xml
命令:cp mapred-site.xml.template mapred-site.xml)

<configuration>
   <property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
	</property>
	<property>  
		<name>mapreduce.jobhistory.address</name>  
		<value>master:10020</value>  
	</property>  
	<property>  
		<name>mapreduce.jobhistory.webapp.address</name>  
		<value>master:19888</value>  
	</property> 
</configuration>

伪分布式安装步骤,java,java,后端
修改环境变量
Vim /etc/profile
伪分布式安装步骤,java,java,后端
使环境变量生效

source /etc/proflie

伪分布式安装步骤,java,java,后端
初始化hadoop集群

 hadoop namenode -format

伪分布式安装步骤,java,java,后端
初始化成功
到 hadoop 的sbin目录启动hadoop

cd /opt/hadoop/sbin/


./start-all.sh

伪分布式安装步骤,java,java,后端
验证

jps

伪分布式安装步骤,java,java,后端
出现以上java节点 Hadoop伪分布式就搭建成功了
HDFS节点:namenode datanode
主节点,最多可以有1个:namenode
从节点,有多个:datanode
namenode负责接收用户操作请求,是用户操作的入口。维护文件系统的目录结构,称作命名空间
datanode负责存储数据
secondaryNamenode :第二名称节点 可以理解位namenode的助理
YARN 节点 ResourceManager NodeManager
主节点,最多可以有1个:ResourceManager
从节点,有很多个: NodeManager
ResourceManager负责集群资源的分配与调度MapReduce、Storm、Spark等应用,必须实现ApplicationMaster接口,才能被RM管理。NodeManager负责单节点资源的管理

验证hdfs:
可以登录浏览器地址:192.168.136.31:50070 (ip地址是master的地址)
看到下面页面证明 hdfs装好了
伪分布式安装步骤,java,java,后端
验证yarn

http://192.168.136.21:8088/

这里写上自己配置的IP地址
伪分布式安装步骤,java,java,后端文章来源地址https://www.toymoban.com/news/detail-719825.html

到了这里,关于hadoop伪分布式环境搭建,完整的详细步骤的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【教程】Hadoop完全分布式环境搭建全过程

    保姆级入门教程:图片讲解 + 各种问题解决方案 集群服务器:hadoop102、hadoop103和hadoop104 虚拟机版本:CentOS7-1804 资源分享处(文章最后)提供CentOS7和Hadoop各组件压缩包(也可以自行下载,要注意版本兼容的问题),有需要自取~ 1, 模板虚拟机准备 2, 克隆三台虚拟机,作为

    2024年02月06日
    浏览(41)
  • 【云计算平台】Hadoop全分布式模式环境搭建

    此前搭建了hadoop的单机模式与伪分布式模式: 单机模式部署 伪分布式模式部署 中间拖得有点久了,今天索性做个了结,把hadoop的全分布式模式部署的操作也简单地记录一下,算是一个系统性的学习吧。 伪分布式模式是学习阶段最常用的模式,它可以将进程都运行在同一台机

    2023年04月08日
    浏览(37)
  • hadoop完全分布式集群搭建(超详细)-大数据集群搭建

    本次搭建完全分布式集群用到的环境有: jdk1.8.0 hadoop-2.7.7 本次搭建集群所需环境也给大家准备了,下载链接地址:https://share.weiyun.com/dk7WgaVk 密码:553ubk 本次完全分布式集群搭建需要提前建立好三台虚拟机,我分别把它们的主机名命名为:master,slave1,slave2 一.配置免密登陆 首先

    2024年02月10日
    浏览(38)
  • Zookeeper 伪分布式集群搭建详细步骤

    在同一台服务器上,部署一个 3 个 ZooKeeper 节点组成的集群,这样的集群叫伪分布式集 群,而如果集群中的 3 个节点分别部署在 3 个服务器上,那么这种集群就叫真正的分布式 集群。 这里,记录一下搭建一个 3 节点的伪分布式集群的过程,真正的分布式集群的搭建过程和 伪

    2024年02月08日
    浏览(34)
  • 伪分布式hadoop+spark+scala 超详细搭建

    目录 安装伪分布式hadoop 安装 JAVA 环境 实现免密登陆 Hadoop环境的安装与配置 安装伪分布式spark  安装伪分布式scala 步骤一:下载 JDK 安装包(jdk-8u152-linuxx64.tar.gz) 官网地址:https://www.oracle.com/java /technologies /javase-jdk8-downloads.html 步骤二:卸载自带 OpenJDK [root@master ~]# rpm -qa |

    2024年04月27日
    浏览(29)
  • Hadoop(伪分布式)+Spark(local模式)搭建Hadoop和Spark组合环境

    环境 使用 Ubuntu 14.04 64位 作为系统环境(Ubuntu 12.04,Ubuntu16.04 也行,32位、64位均可),请自行安装系统。 Hadoop版本 : Hadoop 2.7.4 创建hadoop用户 如果你安装 Ubuntu 的时候不是用的 \\\"hadoop\\\" 用户,那么需要增加一个名为 hadoop 的用户。 首先按 ctrl+alt+t 打开终端窗口,输入如下命令创

    2023年04月08日
    浏览(59)
  • (小白全过程记录)Ubuntu下伪分布式Hadoop环境搭建

    目录 0.准备 1.Hadoop伪分布式环境搭建 2.安装ssh,配置ssh无密码登录 3.通过拖拽的方式将文件从windows传到linux桌面 5.安装hadoop 6.修改hadoop环境变量 7.修改配置文件 core-site.xml 8.修改配置文件hdfs-site.xml文件 9.执行NameNode的格式化 10.开启NameNode和DataNode守护进程 11.访问web页面 12.关闭

    2024年02月03日
    浏览(34)
  • 基于CentOS 7 的 Hadoop3版本分布式环境配置搭建

    以下是在VMware虚拟机中安装centos 7去配置hadoop。所以要准备的包 centos 7:Index of /apache/hadoop/common/hadoop-3.3.5 hadoop3.3.5:Index of /apache/hadoop/common/hadoop-3.3.5 查看原本的jdk版本   其实原来的openjdk版本也是可用的,但是hadoop3.x不支持较低版本的jdk,所以这里卸载重新安装新版本jdk文件

    2024年02月01日
    浏览(44)
  • 头歌Hadoop 开发环境搭建及HDFS初体验(第2关:配置开发环境 - Hadoop安装与伪分布式集群搭建)

    注: 1 头歌《Hadoop 开发环境搭建及HDFS初体验》三关在一个实验环境下,需要三关从前往后按顺序评测,跳关或者实验环境结束后重新打开 不能单独评测通过 2 复制粘贴请用右键粘贴,CTRL+C/V不管用哦~ 第1关:配置开发环境 - JavaJDK的配置: 解压: 配置环境变量: 细节: vi

    2024年02月08日
    浏览(118)
  • 基于Linux环境下搭建Hadoop3.3.5伪分布式集群

    目录 架构设计: 一、下载hadoop安装包 二、解压及构建软连接 三、 修改配置文件 1. 配置workers文件   //hadoop02中叫slaves 2. 修改hadoop-env.sh          3. 修改core-site.xml     4. 修改hdfs-site.xml 5. 配置:mapred-site.xml文件   6. 配置yarn-site.xml文件  四、根据hdfs-site.xml的配置项,准备数

    2024年01月19日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包