hadoop集群中增加新节点服务器(DataNode + NodeManager)方案及验证

这篇具有很好参考价值的文章主要介绍了hadoop集群中增加新节点服务器(DataNode + NodeManager)方案及验证。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

现根据业务需要,需要在原有的3台完全分布式的集群(hadoop1、hadoop2、hadoop3仨节点)增设一台新的服务器节点(hadoop4),以下是在原有的完全分布式hadoop集群中增设新节点(DataNode + NodeManager)的部署步骤。

  • 基础服务配置

hadoop4上依次执行以下步骤:

1)用户:重置root用户密码,增加hadoop用户并设置密码

passwd root

useradd hadoop

passwd hadoop

2)网络:设置静态IP

修改BOOTPROTO="static"ONBOOT="yes"

IPADDR="实际IP"

NETMASK="实际掩网子码"

GATEWAY="实际网关"

DNS1="实际DNS"

       3)安全:关闭防火墙、关闭Selinux

systemctl status firewalld.service     --查看防火墙状态

systemctl stop firewalld.service        --关闭防火墙

systemctl disable firewalld.service     --禁止防火墙开机自启动

setenforce 0                                --临时关闭Selinux

/etc/selinux/config  SELINUX=disabled   --永久关闭SeLinux

       4)互信:

ssh-keygen -t rsa

ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop1

ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop2

ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop3

       5)主机:

临时设置主机名,永久修改主机名,修改hosts文件

hostnamectl set-hostname --static hadoop4

/etc/hostname

四台hadoop主机的hosts文件都需要确保修改成这样:

cat /etc/hosts

10.88.88.56   hadoop1

10.88.88.57   hadoop2

10.88.88.58   hadoop3

10.88.88.63   hadoop4

6)挂载数据盘:

格式化数据盘,整盘挂载

mkfs.xfs /dev/sdb                 创建ext4文件系统

mkdir /data                         创建数据目录

mount /dev/sdb /data             挂载

chown -R hadoop:hadoop /data     修改权限

修改/etc/fstabmount -a确认是否挂载成功,df -h查看最新挂载情况

确保所有节点的host文件都已更新。

二、服务部署

1)JDK服务

可利用hadoop1上现有的JDK目录

[hadoop@hadoop1 local] scp -r jdk  hadoop@hadoop4:/usr/local/java

[hadoop@hadoop1 local] ssh  hadoop@hadoop4

在hadoop4服务器上更新环境变量

# jdk config

export JAVA_HOME=/usr/local/java/jdk
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

以上内容追加到/etc/profile和~/.bashrc文件末尾,并且记得source更新。

使用命令java -version查看JDK版本。

[hadoop@hadoop4 ~]# java -version

java version "1.8.0_301"

Java(TM) SE Runtime Environment (build 1.8.0_301-b09)

Java HotSpot(TM) 64-Bit Server VM (build 25.301-b09, mixed mode)

2)Hadoop服务

可利用hadoop1上现有的hadoop目录

[hadoop@hadoop1 local]scp -r hadoop  hadoop@hadoop4:/usr/local/hadoop

[hadoop@hadoop1 local]ssh  hadoop@hadoop4

在hadoop4服务器上更新环境变量

# hadoop config

export HADOOP_HOME=/usr/local/hadoop/hadoop-3.3.1

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

以上内容追加到/etc/profile和~/.bashrc文件末尾,并且记得source更新。

使用命令hadoop version查看JDK版本。

[hadoop@hadoop4 ~]# hadoop version

Hadoop 3.3.1

Source code repository https://github.com/apache/hadoop.git -r a3b9c37a397ad4188041dd80621bdeefc46885f2

Compiled by ubuntu on 2021-06-15T05:13Z

Compiled with protoc 3.7.1

From source with checksum 88a4ddb2299aca054416d6b7f81ca55

This command was run using /usr/local/hadoop/hadoop-3.3.1/share/hadoop/common/hadoop-common-3.3.1.jarJava HotSpot(TM) 64-Bit Server VM (build 25.301-b09, mixed mode)

三、测试验证

  1. 在要上线的节点上启动datanode

[hadoop@hadoop4 sbin] ./hadoop-daemon.sh start datanode

数据均衡需使用以下命令

[hadoop@hadoop4 sbin] start-balancer.sh -threshold 2

执行这行命令以后,如果某个节点的数据块数量超过了其他任何节点的数据块数量超过 2 个,那么平衡器将启动并重新分配数据块,以使得各个节点的数据块数量尽可能接近。

  1. 需要启动nodemanager,则执行

[hadoop@hadoop4 sbin] ./yarn-daemon.sh start nodemanager

然后在hadoop4上查看Jps进程。

大数据集群增加计算节点,hadoop,服务器,大数据 

同时具备这两个进程,表明新节点已经同步和增加完毕了,集群新增服务器节点增设完毕!

[hadoop@hadoop4 sbin] hadoop dfsadmin -report

此命令获取 Hadoop 分布式文件系统(HDFS)的状态报告。该命令将在终端上输出有关 HDFS 集群的详细信息,包括节点的名称、状态、容量、数据块数量等。通过该命令,用户可以了解 HDFS 集群的整体状态,以便进行故障排除和性能优化等操作。

输出的状态报告包括以下主要部分:

集群 ID 和名称:HDFS 集群的 ID 和名称。

节点信息:HDFS 集群中所有节点的详细信息,包括节点名称、节点类型、节点状态、数据块数量、磁盘使用情况等。

数据块复制情况:HDFS 集群中每个数据块的复制情况,包括数据块 ID、复制数量、存储位置等。

文件系统总体情况:HDFS 集群中整个文件系统的情况,包括总容量、已使用容量、剩余容量等。

大数据集群增加计算节点,hadoop,服务器,大数据

 大数据集群增加计算节点,hadoop,服务器,大数据

查看HDFS集群总容量从2.88T扩容到3.55T。

查看YARN集群节点从3个扩容到4个,资源总量从memory 48GB vCores 24个扩容到memory 64GB vCores 32个。

  大数据集群增加计算节点,hadoop,服务器,大数据

大数据集群增加计算节点,hadoop,服务器,大数据 

hadoop4已经充当计算节点,跑任务了。

其他:数据均衡相关记录

大数据集群增加计算节点,hadoop,服务器,大数据 

数据均衡期间会极大消耗网络资源(需在非业务高峰期执行)

大数据集群增加计算节点,hadoop,服务器,大数据 

数据均衡期间也会极大消耗服务器内存资源(需在非业务高峰期执行)

大数据集群增加计算节点,hadoop,服务器,大数据

120G数据平衡花了1个小时,生产环境数据平衡时需要注意时间点。

数据平衡结束后,各节点的hdfs数据目录容量不变,内存消耗降下来,但是还有很多在buff/cache里,需要执行以下命令手动释放缓存:

[root@hadoop2 ~]# sync && echo 3 > /proc/sys/vm/drop_caches

[root@hadoop2 ~]# free -g文章来源地址https://www.toymoban.com/news/detail-805553.html

到了这里,关于hadoop集群中增加新节点服务器(DataNode + NodeManager)方案及验证的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 用三台云服务器搭建hadoop完全分布式集群

    本次利用云服务器搭建Hadoop集群, 在开始之前,你需要3台云服务器,可以在同一家购买也可以在不同家购买。此次教程采用百度云产品,可以换不同账号新手免费试用几个月,具体配置如下: 服务器名称 配置 磁盘容量 master 2cpu 内存4GB 40G slave1 1cpu 内存2GB 60G slave2 1cpu 内存

    2024年02月04日
    浏览(56)
  • 在阿里云和腾讯云的轻量应用服务器上搭建Hadoop集群

    本文在两台2核2g的云服务器上搭建了Hadoop集群,两台云服务器分别是阿里云(hjm)和腾讯云(gyt),集群部署规划如下: hjm gyt HDFS NameNodeSecondaryNameNodeDataNode DataNode YARN ResourceManagerNodeManager NodeManager 经实验,目前可以正常实现文件上传下载,但跑mapreduce程序还出现服务器资

    2024年02月08日
    浏览(47)
  • HADOOP 启动后没有datanode解决办法(适用于所有节点datanode)

    解决方法: 1.首先停止集群 stop-dfs.sh stop-yarn.sh  2.切换到各节点hadoop解压包目录下的tmp目录,删除目录下所有文件 rm -rf * 3.格式化文件 在主节点hadoop01主节点上进行格式化操作,命令如下: hdfs namenode -format 4.测试集群datanode是否启动  

    2024年02月11日
    浏览(42)
  • 三台异构服务器搭建hadoop HA集群史上最详细方案(HDFS+YARN)

     一、系统基础服务配置 主机名 IP 操作系统 CPU 内存 磁盘 Hive01 10.86.102.104 Centos 7.9.2009 Xeon 4208 X16 192G 46T Hive02 10.86.102.102 Centos 7.9.2009 Xeon 4208 X16 192G 46T Hive03 10.86.102.105 Centos 7.9.2009 Xeon 8260 X48 256G         11T 最终组成的是一个双副本56T的集群,设置YARN内存共400GB(可调) 3台服务

    2024年02月07日
    浏览(56)
  • hadoop集群启动后datanode没有启动

    今天启动hadoop集群后,查看进程发现名称节点的NameNode进程启动了,但是数据节点的DataNode进程没有启动,如下: 这个问题是个常见问题,对于自学的初学者来说,真的是个很头大的问题,一时不知道该怎么弄,我就是其中一个。但遇到问题不要慌,认真看错并查找解决办法

    2023年04月27日
    浏览(42)
  • Hadoop集群启动后命令JPS没有DataNode或者NameNode

    问题原因 1)需要检查core-site.xml 和 hdfs-site.xml这俩文件,配置没错的话再看第二条 2)可能已经执行格式化NameNode后,但是格式之前并没有停止之前的进程并删除相关数据。 解决方案(记得你的集群删除前需要停止, 每个副本都要进行一次下面操作 ) 1)删除dfs文件夹里的文

    2024年02月04日
    浏览(51)
  • Linux服务器增加虚拟交换内存

    使用dd命令创建名为swapfile 的swap交换文件(文件名和目录任意): dev/zero是Linux的一种特殊字符设备(输入设备),可以用来创建一个指定长度用于初始化的空文件,如临时交换文件,该设备无穷尽地提供0,可以提供任何你需要的数目。 bs=1024 :单位数据块(block)同时读入/输出

    2024年02月15日
    浏览(53)
  • 如何增加服务器的高并发

    随着互联网的快速发展和普及,越来越多的应用程序需要支持高并发的请求处理。在这种情况下增加服务器的高并发能力成为了一个热门的话题。下面简单的介绍如果提高服务器的高并发能力。 负载均衡 是把请求分发到多个服务器上,来实现请求的平衡和分担。负载均衡可

    2024年01月16日
    浏览(43)
  • 校园网免认证服务器大增加

    这学期搞拐了,服务器整多了,结果没有几个人来消耗带宽,监控图片为证,网速快,线路多 线路展示

    2024年02月09日
    浏览(29)
  • Linux如何给服务器增加白名单

    1、查看系统白名单配置: iptables -L -n 2、增加白名单(19.40.145.140 是需要增加的服务器IP): iptables -I INPUT -s 19.40.145.140/32 -p tcp -j ACCEPT 注:-I(I是i的大写)   3、查看防火墙状态:setenforce 0  

    2024年02月12日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包