一. 问题描述
公司的离线数仓是CDH集群,19个节点,HDFS存储空间大约400TB左右,使用量在200TB左右。
由于历史遗留的问题,数据仓库需要重构,新旧数仓在一段时间内需要并存,此时HDFS空间救不够了。
于是申请增加6个节点,每个节点挂20T的存储,累积给HDFS增加120TB左右空间。
二. 解决方案
2.1 增加节点
通过Cloudera Manager 将新增加的6台机器加入到集群。
增加完节点后
2.2 rebalance
节点间数据分布不均匀:
新增加节点与旧节点之间数据分布不均匀
(这还是HDFS rebalance执行了一天多的时候的截图)
rebalance耗时:
rebalance后节点数据分布情况:
2.3 rebalance引发的问题
rebalance引发的问题:文章来源:https://www.toymoban.com/news/detail-492289.html
retrying (13 attempts left). Error: <class 'kafka.errors.NotLeaderForPartitionError'>
Kafka出了问题,选主过程受到ZK的影响,导致生产者写的时候找不到主节点,进而导致数据丢失
文章来源地址https://www.toymoban.com/news/detail-492289.html
到了这里,关于大数据开发之Hive案例篇12:HDFS rebalance 一例的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!