Hadoop3.X集群安装

这篇具有很好参考价值的文章主要介绍了Hadoop3.X集群安装。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

服务器 运行角色
hadoop01 namenode、datanode、resourcemanager、nodemanager
hadoop02        

secondarynamenode、datanode、nodemanager

hadoop03

datanode、nodemanager

基础环境准备

安装包、源码包下载

https://archive.apache.org/dist/hadoop/common/hadoop-3.3.0/

Hadoop3.X集群安装,linux,运维,服务器

准备三台主机

Hadoop3.X集群安装,linux,运维,服务器

hosts映射

vi /etc/hosts

Hadoop3.X集群安装,linux,运维,服务器

JDK1.8安装

JDK1.8

配置ssh免密登录

ssh免密登录

上传安装包、解压安装包

创建工作目录(三台)

Hadoop3.X集群安装,linux,运维,服务器

上传、解压安装包(hadoop01)

上传到software目录下

#解压
tar zxvf hadoopXXX.tar.gz -C /export/server/

配置hadoop系统环境变量

输入命令:

vi /etc/profile


#添加以下内容
export HADOOP_HOME=/usr/software/hadoop-3.3.0
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

保存退出,刷新环境变量

source /etc/profile

hadoop安装包目录结构

目录 说明
bin Hadoop最基本的管理脚本和使用脚本的目录,这些脚本是sbin目录下管理脚本的基础实现,用户可以直接使用这些脚本管理和使用Hadoop。
etc Hadoop配置文件所在的目录
include 对外提供的编程库头文件(具体动态库和静态库在lib目录中),这些头文件均是用C++定义的,通常用于C++程序访问HDFS或者编写MapReduce程序。
lib 该目录包含了Hadoop对外提供的编程动态库和静态库,与include目录中的头文件结合使用。
sbin Hadoop各个模块编译后的jar包所在的目录。
share Hadoop各个模块编译后的jar包所在的目录。

配置hadoop集群主要的配置文件进行配置

配置文件

功能描述
hadoop-env.sh 配置Hadoop运行所需的环境变量
yarn-env.sh 配置Yarn运行所需的环境变量
core-site.xml Hadoop核心全局配置文件,可在其他配置文件中引用
hdfs-site.xml HDFS配置文件,继承core-site.xml配置文件
mapred-site.xml MapReduce配置文件,继承core-site.xml配置文件
yarn-site.xml Yarn配置文件,继承core-site.xml配置文件

编辑hadoop配置文件

hadoop-env.sh

cd /export/server/hadoop-3.3.0/etc/hadoop/
vi hadoop-env.sh

添加以下内容

#配置JAVA_HOME
export JAVA_HOME=/usr/software/jdk1.8.0_241
#设置用户以执行对应角色shell命令
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export TARN_RESOURCEMANAGER_USER=root
export TARN_NODEMANAGER_USER=root

yarn-site.xml,添加以下内容

        <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>hadoop01.itcast.cn</value>
        </property>
        <property>
                <name>yarn,nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>
        <property>
                <name>yarn.scheduler.minimum-allocation-mb</name>
                <value>512</value>
        </property>
        <property>
                <name>yarn.scheduler.maximum-allocation-mb</name>
                <value>2048</value>
        </property>
        <property>
                <name>yarn.nodemanager.vmem-pmem-ratio</name>
                <value>4</value>
        </property>

core-site.xml,添加以下内容

<configuration>
        #hdfs文件系统访问地址
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://hadoop01.itcast.cn:8020</value>
        </property>
        #hadoop本地数据存储目录 format是自动生成
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/export/data/hadoop</value>
        </property>
        #在Web UI访问HDFS使用的用户名
        <property>
                <name>hadoop.http.staticuser.user</name>
                <value>root</value>
        </property>
</configuration>

hdfs-site.xml,添加以下内容

<configuration>
        <property>
                <name>dfs.namenode.secondary.http-address</name>
                <value>hadoop02.itcast.cn:9868</value>
        </property>
</configuration>

 mapred-site.xml,添加以下内容

<configuration>
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
        <property>
                <name>yarn.app.mapreduce.am.env</name>
                <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
        </property>
        <property>
                <name>mapreduce.reduce.env</name>
                <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
        </property>
</configuration>

vi workers,添加以下内容

hadoop01.itcast.cn
hadoop02.itcast.cn
hadoop03.itcast.cn

Hadoop3.X集群安装,linux,运维,服务器

分发安装包scp同步到其他机器

cd /export/server/
scp -r hadoop-3.3.0 root@hadoop02:/export/server/
scp -r hadoop-3.3.0 root@hadoop03:/export/server/

NameNode format 初始化操作

首次启动HDFS时,必须对其进行初始化操作

format本质上是对HDFS进行清理和准备工作

命令:hdfs namenode -format

hadoop启动和关闭

每次手动启动关闭一个进程

HDFS集群:

        hdfs --daemon start namenode | datanode | secondarynamenode

        hdfs --daemon stop namenode | datanode | secondarynamenode

YARN集群:

        yarn --daemon start resourcemanager | nodemanager

        yarn --daemon stop resourcemanager | nodemanager

start-all.sh

Hadoop3.X集群安装,linux,运维,服务器

Hadoop3.X集群安装,linux,运维,服务器

Hadoop3.X集群安装,linux,运维,服务器

安装成功

或者看日志查看是否安装成功

Hadoop3.X集群安装,linux,运维,服务器

在Windows中配置hosts

C:\Windows\System32\drivers\etc

Hadoop3.X集群安装,linux,运维,服务器

Hadoop3.X集群安装,linux,运维,服务器文章来源地址https://www.toymoban.com/news/detail-806687.html

到了这里,关于Hadoop3.X集群安装的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 在公共服务器/集群上 安装Linux pycharm 并在窗口调出pycharm界面

    1.enter the web: https://www.jetbrains.com/pycharm/download/?section=linux#section=linux 2.upload software (yourself folder) 3.cd software 4.find the Compressed package: .tar.gz 5.Decompress: tar zxf pycharm-professional-2023.2.3.tar.gz 6.cd pycharm-2023.2.3/bin/ 7.excute: ./pycharm.sh 8.open the screen:

    2024年02月06日
    浏览(50)
  • 用三台云服务器搭建hadoop完全分布式集群

    本次利用云服务器搭建Hadoop集群, 在开始之前,你需要3台云服务器,可以在同一家购买也可以在不同家购买。此次教程采用百度云产品,可以换不同账号新手免费试用几个月,具体配置如下: 服务器名称 配置 磁盘容量 master 2cpu 内存4GB 40G slave1 1cpu 内存2GB 60G slave2 1cpu 内存

    2024年02月04日
    浏览(53)
  • 在阿里云和腾讯云的轻量应用服务器上搭建Hadoop集群

    本文在两台2核2g的云服务器上搭建了Hadoop集群,两台云服务器分别是阿里云(hjm)和腾讯云(gyt),集群部署规划如下: hjm gyt HDFS NameNodeSecondaryNameNodeDataNode DataNode YARN ResourceManagerNodeManager NodeManager 经实验,目前可以正常实现文件上传下载,但跑mapreduce程序还出现服务器资

    2024年02月08日
    浏览(45)
  • hadoop集群中增加新节点服务器(DataNode + NodeManager)方案及验证

    现根据业务需要,需要在原有的3台完全分布式的集群(hadoop1、hadoop2、hadoop3仨节点)增设一台新的服务器节点(hadoop4),以下是在原有的完全分布式hadoop集群中增设新节点( DataNode + NodeManager )的部署步骤。 基础服务配置 hadoop4上依次执行以下步骤: 1)用户:重置root用户密

    2024年01月19日
    浏览(41)
  • C++项目——集群聊天服务器项目(一)项目介绍、环境搭建、Boost库安装、Muduo库安装、Linux与vscode配置

    今天开始想更新一个C++项目,实现一个 支持跨服务器通信、支持负载均衡的集群聊天服务器项目 。项目会应用muduo网络库、CMake编译、MySQL数据库、JSon序列化与反序列化、Redis消息订阅模式以及Nginx负载均衡功能。 有兴趣的宝可以跟我一起实操起来,巩固自己的C++学习吧~ 本项

    2024年04月14日
    浏览(57)
  • 【超简易安装】在linux集群服务器上使用conda安装高版本cuda(cuda-11.8)和pytorch2.0

    由于项目代码要求pytorch2.0版本,而pytorch2.0版本需要cuda11.8,高于我之前的11.0的cuda版本。 因此考虑使用conda新建一个虚拟环境,在里面使用高版本的cuda和pytorch。 我使用的是lunix多人集群服务器。集群服务器需要用作业调度系统,也就是bsub命令之后才能提交作业,运行任务。

    2024年03月17日
    浏览(65)
  • 运维 | 查看 Linux 服务器 IP 地址

    大多数在操作 Linux 系统时,我们经常需要知道服务器的 IP 比便于后续的一系列操作,这时候有快速查看主机 IP 的命令行操作,能够有效的帮助我们 本章节主要记录一些常用查看服务器 IP 的命令,希望对大家有所帮助。 查看 Linux 服务器的 IP 地址的命令大体上有以下几种。

    2024年04月27日
    浏览(76)
  • 基于Linux环境下搭建Hadoop3.3.5伪分布式集群

    目录 架构设计: 一、下载hadoop安装包 二、解压及构建软连接 三、 修改配置文件 1. 配置workers文件   //hadoop02中叫slaves 2. 修改hadoop-env.sh          3. 修改core-site.xml     4. 修改hdfs-site.xml 5. 配置:mapred-site.xml文件   6. 配置yarn-site.xml文件  四、根据hdfs-site.xml的配置项,准备数

    2024年01月19日
    浏览(47)
  • Hadoop3.3.5最新版本安装分布式集群部署

    Index of /dist/hadoop/common https://archive.apache.org/dist/hadoop/common  集群规划: 注意: NameNode和SecondaryNameNode不要安装在同一台服务器 ResourceManager也很消耗内存,不要和NameNode、SecondaryNameNode配置在同一台机器上。 机器 ip 分配节点 node01 192.168.56.201 NameNode 、DataNode、NodeManager node02 192.

    2024年02月01日
    浏览(65)
  • 【运维】Linux 跨服务器复制文件文件夹

    如果是云服务 建议用内网ip scp是secure copy的简写,用于在Linux下进行远程拷贝文件的命令,和它类似的命令有cp,不过cp只是在本机进行拷贝不能跨服务器,而且scp传输是加密的。可能会稍微影响一下速度。当你服务器硬盘变为只读 read only system时,用scp可以帮你把文件移出来

    2024年02月08日
    浏览(66)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包