Flume采集数据到HDFS配置参数详细解析

这篇具有很好参考价值的文章主要介绍了Flume采集数据到HDFS配置参数详细解析。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Flume采集数据到HDFS配置参数详细解析

配置解析:
channel:管道;一个sink只能有一个管道,但一根管道可以有多个sink
type : hdfs
path:写入hdfs的路径,需要包含文件系统标识,比如:hdfs://192.168.40.101:9000/flume/%Y-%m-%d/
(可以使用flume提供的日期及%{host}表达式)

filePrefix: 写入hdfs的文件名前缀,可以使用flume提供的日期及%{host}表达式。默认值为FlumeData
fileSuffix: 写入hdfs的文件名后缀,比如:.lzo .log .txt;
inUsePrefix: 临时文件的文件名前缀,hdfs sink会先往目标目录中写临时文件,再根据相关规则重命名成最终目标文件;(一般不用管)
inUseSuffix: 临时文件的文件名后缀。默认值:.tmp (一般不用管)

rollInterval: hdfs sink间隔多长将临时文件滚动成最终目标文件,单位:秒;默认值:30s
如果设置成0,则表示不根据时间来滚动文件;
注:滚动(roll)指的是,hdfs sink将临时文件重命名成最终目标文件,并新打开一个临时文件来写入数据; !!!!!!

rollSize: 当临时文件达到该大小(单位:bytes)时,滚动成目标文件;默认值:1024byte
如果设置成0,则表示不根据临时文件大小来滚动文件;

rollCount: 当events数据达到该数量时候,将临时文件滚动成目标文件;默认值:10
如果设置成0,则表示不根据events数据来滚动文件;

idleTimeout: 默认值:0
当目前被打开的临时文件在该参数指定的时间(秒)内,没有任何数据写入,
则将该临时文件关闭并重命名成目标文件;

batchSize: 每个批次刷新到HDFS上的events数量;默认值:100

codeC: 文件压缩格式,包括:gzip, bzip2, lzo, lzop, snappy

fileType: 文件格式,包括:SequenceFile, DataStream,CompressedStream;默认值:SequenceFile
当使用DataStream时候,文件不会被压缩,不需要设置hdfs.codeC;
当使用CompressedStream时候,必须设置一个正确的hdfs.codeC值;

maxOpenFiles: 最大允许打开的HDFS文件数,当打开的文件数达到该值,最早打开的文件将会被关闭;
默认值:5000

minBlockReplicas: 写入HDFS文件块的最小副本数。默认值:HDFS副本数(一般不修改,HDFS副本数默认为3)
该参数会影响文件的滚动配置,一般将该参数配置成1,才可以按照配置正确滚动文件。

writeFormat: 写sequence文件的格式。包含:Text, Writable(默认)

callTimeout: 执行HDFS操作的超时时间(单位:毫秒);默认值:10000 (10s)

threadsPoolSize: hdfs sink启动的操作HDFS的线程数。默认值:10

rollTimerPoolSize:hdfs sink启动的根据时间滚动文件的线程数。默认值:1

kerberosPrincipal:HDFS安全认证kerberos配置;

kerberosKeytab:HDFS安全认证kerberos配置;

proxyUser:代理用户

以下3个round相关参数设置用来控制多久生成一个文件
round:默认值:false
是否启用时间上的”舍弃”,这里的”舍弃”,类似于”四舍五入”,如果启用,则会影响除了%t的其他所有时间表达式;
roundValue: 时间上进行“舍弃”的值;默认值:1
roundUnit: 时间上进行”舍弃”的单位,包含:second,minute,hour;默认值:seconds
对round 配置的例子:
a1.sinks.k1.hdfs.path = /flume/events/%y-%m-%d/%H%M/%S
a1.sinks.k1.hdfs.round = true
a1.sinks.k1.hdfs.roundValue = 10
a1.sinks.k1.hdfs.roundUnit = minute
当时间为2022-10-16 17:38:59时候,hdfs.path依然会被解析为:
/flume/events/20221016/17:30/00
因为设置的是舍弃10分钟内的时间,因此,该目录每10分钟新生成一个。

timeZone: 时区。默认值:Local Time

useLocalTimeStamp: 是否使用当地时间。默认值:flase (一般要使用当地时间,即一般设置为true)

closeTries: hdfs sink关闭文件的尝试次数;默认值:0
如果设置为1,当一次关闭文件失败后,hdfs sink将不会再次尝试关闭文件,
这个未关闭的文件将会一直留在那,并且是打开状态。
设置为0,当一次关闭失败后,hdfs sink会继续尝试下一次关闭,直到成功。

retryInterval: hdfs sink尝试关闭文件的时间间隔,如果设置为0,表示不尝试,相当于于将hdfs.closeTries设置成1;
默认值:180s

serializer: 序列化类型。其他还有:avro_event或者是实现了EventSerializer.Builder的类名。默认值:TEXT

常用配置(从flume_sink 到 flume_source):
# Name the components on this agent
a2.sources = r1
a2.sinks = k1
a2.channels = c1
# Describe/configure the source
# source 端的 avro 是一个数据接收服务 (avro一个轻量级的RPC通信)
a2.sources.r1.type = avro
a2.sources.r1.bind =192.168.40.101   (绑定的主机)
a2.sources.r1.port = 4141   (端口)
# Describe the sink
a2.sinks.k1.type = hdfs
a2.sinks.k1.hdfs.path = hdfs://192.168.40.101:9000/flume/%Y%m%d/%H
#上传文件的前缀
#a2.sinks.k1.hdfs.filePrefix =

以下3个round相关参数设置用来控制多久生成一个文件
#是否按照时间滚动文件夹
a2.sinks.k1.hdfs.round = true
#多少时间单位创建一个新的文件夹
a2.sinks.k1.hdfs.roundValue = 1
#重新定义时间单位
a2.sinks.k1.hdfs.roundUnit = hour

#是否使用本地时间戳
a2.sinks.k1.hdfs.useLocalTimeStamp = true
#积攒多少个 Event 才 flush 到 HDFS 一次
a2.sinks.k1.hdfs.batchSize = 100
#设置文件类型,可支持压缩
a2.sinks.k1.hdfs.fileType = DataStream

#多久生成一个新的文件
a2.sinks.k1.hdfs.rollInterval = 30
#设置每个文件的滚动大小大概是 128M
a2.sinks.k1.hdfs.rollSize = 134217700
#文件的滚动与 Event 数量无关
a2.sinks.k1.hdfs.rollCount = 0
这三个条件任意一个达到都会生成一个新的文件

# Describe the channel
a2.channels.c1.type = memory (内存)
a2.channels.c1.capacity = 1000
a2.channels.c1.transactionCapacity = 100
# Bind the source and sink to the channel
a2.sources.r1.channels = c1
a2.sinks.k1.channel = c1

参考:https://blog.csdn.net/weixin_34343308/article/details/94567014文章来源地址https://www.toymoban.com/news/detail-432742.html

到了这里,关于Flume采集数据到HDFS配置参数详细解析的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Flume 数据采集

    1 . 2 . 1  集群 进程查看 脚本 (1)在/home/bigdata_admin/bin目录下创建脚本xcall.sh [bigdata_admin@hadoop102  bin]$ vim xcall.sh (2)在脚本中编写如下内容 (3)修改脚本执行权限 [bigdata_admin@hadoop102 bin ]$ chmod 777 xcall.sh (4)启动脚本 [bigdata_admin@hadoop102 bin ]$ xcall.sh jps 1 . 2.2 H adoop 安装 1)安

    2024年02月11日
    浏览(36)
  • 【数据采集与预处理】流数据采集工具Flume

    目录 一、Flume简介 (一)Flume定义 (二)Flume作用 二、Flume组成架构 三、Flume安装配置 (一)下载Flume (二)解压安装包 (三)配置环境变量 (四)查看Flume版本信息 四、Flume的运行 (一)Telnet准备工作 (二)使用Avro数据源测试Flume (三)使用netcat数据源测试Flume 五、F

    2024年01月21日
    浏览(89)
  • Flume实现Kafka数据持久化存储到HDFS

    写在前面:博主是一只经过实战开发历练后投身培训事业的“小山猪”,昵称取自动画片《狮子王》中的“彭彭”,总是以乐观、积极的心态对待周边的事物。本人的技术路线从Java全栈工程师一路奔向大数据开发、数据挖掘领域,如今终有小成,愿将昔日所获与大家交流一二

    2024年02月06日
    浏览(34)
  • Flume采集端口数据kafka消费

    1.flume单独搭建 2.Flume采集端口数据kafka消费

    2024年02月06日
    浏览(40)
  • (二十三)大数据实战——Flume数据采集之采集数据聚合案例实战

    本节内容我们主要介绍一下Flume数据采集过程中,如何把多个数据采集点的数据聚合到一个地方供分析使用。我们使用hadoop101服务器采集nc数据,hadoop102采集文件数据,将hadoop101和hadoop102服务器采集的数据聚合到hadoop103服务器输出到控制台。其整体架构如下: ①在hadoop101服务

    2024年02月09日
    浏览(39)
  • Flume学习-采集端口数据存入kafka

    启动zookeeper、kafka并创建kafka主题 2、创建flume-kafka.conf配置文件 用于采集socket数据后存入kafka 在flume文件夹中的conf下新建flume-kafka.conf配置文件 设置监听本地端口10050 netcat发送的socket数据,讲采集到的数据存入kafka的hunter主题中 3、启动flume ./bin/flume-ng :启动Flume-ng二进制文件。

    2024年02月03日
    浏览(33)
  • Flume采集数据到Kafka操作详解

    目录 一、创建一个Kafka主题 二、配置Flume 三、开启Flume 四、开启Kafka消费者 五、复制文件到Flume监控的source目录下 六、查看Flume是否能够成功采集 七、采集后查看Kafka消费者主题 八、采集数据错误解决办法 1.Ctrl+C关闭flume 2.删除出错的topic并重新创建 3.删除对应Flume文件中指定

    2024年02月09日
    浏览(50)
  • Sqoop与Flume的集成:实时数据采集

    将Sqoop与Flume集成是实现实时数据采集和传输的重要步骤之一。Sqoop用于将数据从关系型数据库导入到Hadoop生态系统中,而Flume用于数据流的实时采集、传输和处理。本文将深入探讨如何使用Sqoop与Flume集成,提供详细的步骤、示例代码和最佳实践,以确保能够成功实现实时数据

    2024年01月23日
    浏览(36)
  • 一百九十一、Flume——Flume配置文件各参数含义(持续完善中)

    在实际项目的开发过程中,不同Kafka主题的数据规模、数据频率,需要配置不同的Flume参数,而这一切的调试、配置工作,都要建立在对Flume配置文件各参数含义的基础上 1、含义:写入hdfs的文件名前缀,可以使用flume提供的日期及%{host}表达式 2、默认值为FlumeData 1、含义:写入

    2024年02月08日
    浏览(34)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包