大数据云计算——Docker环境下部署Hadoop集群及运行集群案列

这篇具有很好参考价值的文章主要介绍了大数据云计算——Docker环境下部署Hadoop集群及运行集群案列。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列


本文着重介绍了在Docker环境下部署Hadoop集群以及实际案例中的集群运行。首先,文章详细解释了Hadoop的基本概念和其在大数据处理中的重要性,以及为何选择在Docker环境下部署Hadoop集群。接着,阐述了在Docker中配置和启动Hadoop集群所需的步骤和技术要点。
在展示部署过程中,文章包含了针对Docker容器的Hadoop组件设置,并指导读者如何通过Docker Compose或其他相关工具建立一个多节点的Hadoop集群。特别强调了节点间的通信和配置,确保集群可以有效协同工作。
进一步,本文通过案例描述了在已搭建的Hadoop集群上运行的具体应用场景。案例可能涉及到数据存储、MapReduce任务或其他Hadoop支持的数据处理方式。这些案例旨在展示Hadoop集群在实际大数据处理中的应用和价值。
通过本文,读者可以深入了解如何利用Docker环境快速搭建Hadoop集群,并通过案例展示集群的运行过程,为大数据云计算中的Hadoop应用提供了实用的指导和参考。

首先查看版本环境(docker中没有下载docker和docker-compose的可以看我上一篇博客
Linux 安装配置Docker 和Docker compose 并在docker中部署mysql和中文版portainer图形化管理界面

查看docker和docker-compose版本:

 docker version
docker-compose version

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

OK,环境没问题,我们正式开始Docker中部署hadoop

<Docker中部署Hadoop>

更新系统

sudo apt update

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

sudo apt upgrade

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

国内加速镜像下载修改仓库源

创建或修改 /etc/docker/daemon.json 文件

sudo vi /etc/docker/daemon.json
{
    "registry-mirrors": [ 
    "http://hub-mirror.c.163.com",
    "https://docker.mirrors.ustc.edu.cn",
    "https://registry.docker-cn.com",
    "https://kfp63jaj.mirror.aliyuncs.com"]
}

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

重载docker让CDN配置生效

sudo systemctl daemon-reload
sudo systemctl restart docker

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

抓取ubuntu 20.04的镜像作为基础搭建hadoop环境

sudo docker pull ubuntu:20.04

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

使用该ubuntu镜像启动,填写具体的path替代

sudo docker run -it -v <host-share-path>:<container-share-path> ubuntu

例如

sudo docker run -it -v ~/hadoop/build:/home/hadoop/build ubuntu

 大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

容器启动后,会自动进入容器的控制台

在容器的控制台安装所需软件

apt-get update

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

apt-get upgrade

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

 安装所需软件

apt-get install net-tools vim openssh-server

 大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

/etc/init.d/ssh start

让ssh服务器自动启动

vi ~/.bashrc

在文件的最末尾按O进入编辑模式,加上:

/etc/init.d/ssh start

 大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

按ESC返回命令模式,输入:wq保存并退出。

让修改即刻生效

source ~/.bashrc

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

配置ssh的无密码访问

ssh-keygen -t rsa

连续按回车

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

cd ~/.ssh
cat id_rsa.pub >> authorized_keys

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

进入docker中ubuntu里面的容器

docker start 11f9454b301f
docker exec -it clever_gauss  bash

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

安装JDK 8

hadoop 3.x目前仅支持jdk 7, 8

apt-get install openjdk-8-jdk

在环境变量中引用jdk,编辑bash命令行配置文件

vi ~/.bashrc

在文件的最末尾加上

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/

export PATH=$PATH:$JAVA_HOME/bin

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

让jdk配置即刻生效

source ~/.bashrc

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

测试jdk正常运作

java -version

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

将当前容器保存为镜像

sudo docker commit <CONTAINER ID> <IMAGE NAME> #自己起的镜像名字

 sudo docker commit 11f9454b301f  ubuntu204 #我的是ubuntu204

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

 可以看到该镜像已经创建成功,下次需要新建容器时可直接使用该镜像

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

注意!!!此过程的两个相关路径如下(不要搞混了):
<host-share-path>指的是~/hadoop/build
<container-share-path>指的是/home/hadoop/build

下载hadoop,下面以3.2.3为例

https://hadoop.apache.org/releases.html

cd  ~/hadoop/build
wget https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-3.2.3/hadoop-3.2.3.tar.gz

(这种方法能下载但是会出现下载的包大小不对,我们可以用第二种方法)

方法二:

在自己电脑浏览器输入下载https://dlcdn.apache.org/hadoop/common/hadoop-3.2.3/hadoop-3.2.3.tar.gz

下载到自己电脑上 通过winscp上传到虚拟机中

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

然后有安装包的目录打开终端, 输入

sudo mv hadoop-3.2.3.tar.gz ~/hadoop/build

移动文件到目录 ~/hadoop/build

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

在容器控制台上解压hadoop(就是之前创建的容器的控制台,不是自己的控制台!

docker start 11f9454b301f
docker exec -it clever_gauss  bash
cd /home/hadoop/build
tar -zxvf hadoop-3.2.3.tar.gz -C /usr/local

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

 大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

安装完成了,查看hadoop版本

cd /usr/local/hadoop-3.2.3
./bin/hadoop version

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

为hadoop指定jdk位置

vi etc/hadoop/hadoop-env.sh

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

查找到被注释掉的JAVA_HOME配置位置,更改为刚才设定的jdk位置

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/

hadoop联机配置

配置core-site.xml文件

vi etc/hadoop/core-site.xml

加入:

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop-3.2.3/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://master:9000</value>
        </property>
</configuration>

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

配置hdfs-site.xml文件

vi etc/hadoop/hdfs-site.xml

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

加入

<configuration>
    <!--- 配置保存Fsimage位置 -->
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop-3.2.3/namenode_dir</value>
    </property>
    <!--- 配置保存数据文件的位置 -->
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/hadoop-3.2.3/datanode_dir</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
</configuration>

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

MapReduce配置

该配置文件的定义:

https://hadoop.apache.org/docs/r<Hadoop版本号>/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml

配置mapred-site.xml文件

vi etc/hadoop/mapred-site.xml

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

加入: 

<configuration>
    <!--- mapreduce框架的名字 -->
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <! -- 设定HADOOP的位置给yarn和mapreduce程序 -->
    <property>
        <name>yarn.app.mapreduce.am.env</name>
        <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
    <property>
        <name>mapreduce.map.env</name>
        <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
    <property>
        <name>mapreduce.reduce.env</name>
        <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
</configuration>

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

配置yarn-site.xml文件

vi etc/hadoop/yarn-site.xml

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

 加入

<configuration>
<!-- Site specific YARN configuration properties -->
        <!-- 辅助服务,数据混洗 -->
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
        <property>
            <name>yarn.resourcemanager.hostname</name>
            <value>master</value>
        </property>
</configuration>

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

服务启动权限配置

配置start-dfs.sh与stop-dfs.sh文件

vi sbin/start-dfs.sh 和 vi sbin/stop-dfs.sh
vi sbin/start-dfs.sh
HDFS_DATANODE_USER=root

HADOOP_SECURE_DN_USER=hdfs

HDFS_NAMENODE_USER=root

HDFS_SECONDARYNAMENODE_USER=root

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

继续修改配置文件

vi sbin/stop-dfs.sh
HDFS_DATANODE_USER=root

HADOOP_SECURE_DN_USER=hdfs

HDFS_NAMENODE_USER=root

HDFS_SECONDARYNAMENODE_USER=root

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

配置start-yarn.sh与stop-yarn.sh文件

vi sbin/start-yarn.sh 和 vi sbin/stop-yarn.sh
vi sbin/start-yarn.sh
YARN_RESOURCEMANAGER_USER=root

HADOOP_SECURE_DN_USER=yarn

YARN_NODEMANAGER_USER=root

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

vi sbin/stop-yarn.sh
YARN_RESOURCEMANAGER_USER=root

HADOOP_SECURE_DN_USER=yarn

YARN_NODEMANAGER_USER=root

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

 核心文件一定不能配错,否则后面会出现很多问题!

配置完成,保存镜像

docker ps

docker commit 11f9454b301f ubuntu-myx

保存的镜像名为 ubuntu-myx

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

 大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

启动hadoop,并进行网络配置

打开三个宿主控制台,启动一主两从三个容器

master

打开端口映射:8088 => 8088

sudo docker run -p 8088:8088 -it -h master --name master ubuntu-myx

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

启动节点worker01

sudo docker run -it -h worker01 --name worker01 ubuntu-myx

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

节点worker02

sudo docker run -it -h worker02 --name worker02 ubuntu-myx

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

分别打开三个容器的/etc/hosts,将彼此的ip地址与主机名的映射信息补全(三个容器均需要如此配置)

vi /etc/hosts

使用以下命令查询ip

ifconfig

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

添加信息(每次容器启动该文件都需要调整)

172.17.0.3      master

172.17.0.4      worker01

172.17.0.5      worker02

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

 大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

检查配置是否有效

ssh master
ssh worker01
ssh worker02

master 连接worker01节点successfully:

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

worker01节点连接master 成功:

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

  worker02连接worker01节点successfully:

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

在master容器上配置worker容器的主机名

cd /usr/local/hadoop-3.2.3
vi etc/hadoop/workers

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

删除localhost,加入

worker01

worker02

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

网络配置完成

启动hadoop

在master主机上

cd /usr/local/hadoop-3.2.3
./bin/hdfs namenode -format

正常启动 

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

启动服务

./sbin/start-all.sh

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

效果如下表示正常

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

在hdfs上建立一个目录存放文件

假设该目录为:/home/hadoop/input

./bin/hdfs dfs -mkdir -p /home/hadoop/input
./bin/hdfs dfs -put ./etc/hadoop/*.xml /home/hadoop/input

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

查看分发复制是否正常

./bin/hdfs dfs -ls /home/hadoop/input

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

运行案例:

在hdfs上建立一个目录存放文件

例如

./bin/hdfs dfs -mkdir -p /home/hadoop/wordcount

把文本程序放进去

./bin/hdfs dfs -put hello /home/hadoop/wordcount

查看分发情况

./bin/hdfs dfs -ls /home/hadoop/wordcount

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

运行MapReduce自带wordcount的示例程序(自带的样例程序运行不出来,可能是虚拟机性能的问题,这里就换成了简单的wordcount程序)

./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.3.jar wordcount /home/hadoop/wordcount /home/hadoop/wordcount/output

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

 运行成功:

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

 大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

运行结束后,查看输出结果

./bin/hdfs dfs -ls /home/hadoop/wordcount/output
./bin/hdfs dfs -cat /home/hadoop/wordcount/output/*

大数据云计算——Docker环境下部署Hadoop集群及运行集群案列,大数据系统运维,Linux,Docker,docker,hadoop,spark,大数据,云计算,运维,容器

 至此,Docker部署hadoop成功!跟着步骤走一般都没有什么问题。文章来源地址https://www.toymoban.com/news/detail-759199.html

到了这里,关于大数据云计算——Docker环境下部署Hadoop集群及运行集群案列的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【Hadoop】-HDFS集群环境部署[2]

    目录 一、VMware虚拟机中部署 1、安装包下载 2、集群规划 3、上传解压 3.1.上传hadoop安装包到node1节点中 3.2.解压缩安装包到/export/server/中 3.3.构建软连接 4、进入hadoop安装包内 4.1Hadoop安装包目录结构 4.2修改配置文件,应用自定义设置 4.2.1.配置workers文件 4.2.2.配置hadoop-env.sh文件

    2024年04月27日
    浏览(50)
  • mac docker部署hadoop集群

    确保电脑已经安装docker docker安装过程可自行查找资料,mac下docker可以使用brew命令安装 安装之后,查看docker版本,确认安装成功 最好下载jdk-8,jdk的版本过高可能hadoop2.x不支持 jdk-8的下载地址:Java Downloads | Oracle 我下载的是hadoop3.3.4版本,下tar.gz压缩包 hadoop下载地址:Index

    2024年02月19日
    浏览(35)
  • Hadoop集群搭建记录 | 云计算[CentOS7] | 伪分布式集群 Master运行WordCount

    本系列文章索引以及一些默认好的条件在 传送门 首先需要明确eclipse安装目录,然后将hadoop-eclipse-plugin_版本号.jar插件放在安装目录的dropins下 关于插件,可以通过博主上传到csdn的免费资源获取,链接 具体版本可以自己选择: 在eclipse界面中依次选择:Window→show view→other→

    2023年04月09日
    浏览(66)
  • 【大数据】Hadoop运行模式(集群搭建)

    Hadoop 运行模式包括:本地模式、伪分布式模式以及完全分布式模式。 本地模式(Local/Standalone Mode):单台服务器,数据存储在Linux本地。生产环境几乎不会采用该模式 伪分布式模式(Pseudo-Distributed Mode):单台服务器,数据存储在HDFS上。有较少的小型公司采用该模式。 完全

    2024年02月03日
    浏览(37)
  • 23、hadoop集群中yarn运行mapreduce的内存、CPU分配调度计算与优化

    1、hadoop3.1.4简单介绍及部署、简单验证 2、HDFS操作 - shell客户端 3、HDFS的使用(读写、上传、下载、遍历、查找文件、整个目录拷贝、只拷贝文件、列出文件夹下文件、删除文件及目录、获取文件及文件夹属性等)-java 4、HDFS-java操作类HDFSUtil及junit测试(HDFS的常见操作以及H

    2024年02月07日
    浏览(53)
  • Docker快速部署Hadoop环境

    Docker安装部署Hadoop环境,通过三个容器来模拟三个节点,最后只保留Master节点实现搭建。 安装环境 Ubuntu 22.04.1 LTS 和Docker 23.0.1 安装过程 拉取镜像 在Docker中创建网络,方便通信 创建Master节点 –network hadoop :指定该容器使用创建的hadoop网络 --name Master :把该容器名称命名为

    2024年02月12日
    浏览(45)
  • 开源大数据集群部署(十一)Ranger 集成Hadoop集群

    作者:櫰木 1、节点选择 部署在两个namenode节点 cd /opt/bigdata tar -xzvf ranger-2.3.0-hdfs-plugin.tar.gz -C /opt/ cd /opt/ranger-2.3.0-hdfs-plugin vim install.properties ranger hdfs初始化 初始化完成后会在/opt/hadoop/etc/hadoop目录下生成3个文件 在rangeradmin页面上进行配置 servicename必须和install.properties中的R

    2024年02月22日
    浏览(54)
  • Docker 部署 Flink 集群环境

    Flink 部署笔记: Ubuntu 环境下部署 Flink 集群环境 Docker 部署 Flink 集群环境 kubernetes(K8S) 部署 Flink 集群环境 下面的1、2两个方法选其一即可。 创建网络 配置属性 在命令行界面直接输入。 启动jobmanager容器 启动taskmanager容器 可启动一个或多个。 准备工作 创建flink-docker文件夹,

    2024年02月02日
    浏览(39)
  • 【大数据】Hadoop运行环境搭建

    使用VMware虚拟机搭建基于CentOS7的Hadoop环境: cpu核数(需要搭建3台Hadoop组成集群,加上Windows本机,所以可以分配的数量为本机的cpu核数除以4) 内存至少4G 硬盘最少50G 创建虚拟机: 新建虚拟机,选择自定义(高级)—硬件兼容性默认—选择稍后安装操作系统 —客户机操作系统

    2024年02月08日
    浏览(43)
  • 0201hdfs集群部署-hadoop-大数据学习

    下面我们配置下单namenode节点hadoop集群,使用vmware虚拟机环境搭建。vmware虚拟机的配置,在下面链接2有,或者自行查阅文档。hadoop安装包可到官网下载,当前相关软件环境如下: 软件 版本 说明 hadoop 3.3.4 jar包 vmware 15.5 虚拟机 centos 7.6 服务器操作系统 xshell 6 远程连接 jdk 1.8

    2024年02月11日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包