一、目的
在用Flume采集Kafka中的数据写入HDFS后,发现写入HDFS的不是每天一个文件,而是一个文件夹,里面有很多小文件,浪费namenode的宝贵资源
二、Flume的配置文件优化(参考了其他博文)
(一)方法一、大多数人推荐经过测试有效的方法
在Flume任务的配置文件设置
a1.sinks.k1.hdfs.rollSize = 0
a1.sinks.k1.hdfs.rollCount = 0
而不是
a1.sinks.k1.hdfs.round=true
a1.sinks.k1.hdfs.roundValue=10
a1.sinks.k1.hdfs.roundUnit=minute
将rollSize和rollCount设置为0,表示不根据临时文件大小和event数量来滚动文件(滚动文件即指将HDFS上生成的以.tmp结尾的临时文件转换为实际存储文件)
还有说可以调大rollSize的参数,比如调至102400,表示100KB。滚动文件的单位是byte。
(二)方法二、有人推荐经过测试后似乎有效的方法
还是在Flume任务的配置文件设置
a1.sinks.k1.hdfs.minBlockReplicas=1
我测试过,本来每5分钟就会有104.54 KB和1.63 KB的两个文件,因为有两个数据源。
在配置文件里加入这个a1.sinks.k1.hdfs.minBlockReplicas=1后,那个小文件1.63 KB就消失了。
所以这个方法还是有效的,但是对我来说就有点问题,就把它给去掉了,还是用方法一文章来源:https://www.toymoban.com/news/detail-706591.html
Flume虽然安装简单,但是使用起来却非常不简单,使用过程中需要优化的配置服务很多,需要进一步研究总结!文章来源地址https://www.toymoban.com/news/detail-706591.html
到了这里,关于一百七十三、Flume——Flume写入HDFS后的诸多小文件问题的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!