flume采集数据到hdfs上产生的问题解决

解决Flume采集数据时在HDFS上产生大量小文件的问题

flume指定HDFS类型的Sink时,采集数据至HDFS指定目录,会产生大量小文件。
解决方案:
去掉round时间系列参数,并将rollSize和rollCount置0,
表示不根据临时文件大小和event数量来滚动文件(滚动文件即指将HDFS上生成的以.tmp结尾的临时文件转换为实际存储文件)。
当然,也可以调大rollSize参数(如调至100000000,表示100MB滚动文件,单位是bytes);

#Describe the sink  添加:

a1.sinks.k1.hdfs.rollSize=0
a1.sinks.k1.hdfs.rollCount=0


rollSize
默认值:1024,当临时文件达到该大小(单位:bytes)时,滚动成目标文件。如果设置成0,则表示不根据临时文件大小来滚动文件。
rollCount
默认值:10,当events数据达到该数量时候,将临时文件滚动成目标文件,如果设置成0,则表示不根据events数据来滚动文件。

解决Flume将kafka中的数据传到HDFS中中文有乱码问题

翻看Flume文档,发现,HdfsEventSink中,hdfs.fileType默认为SequenceFile,将其改为DataStream就可以按照采集的文件原样输入到hdfs,加一行a1.sinks.k1.hdfs.fileType=DataStream

a1.sinks.k1.hdfs.fileType=DataStream

解决Flume将kafka中的数据传到HDFS中时间不一致问题

场景描述:在23:59分时,进行采集今天的数据,数据在导入hdfs时,时间到了第二天,那么数据产生了不一致!!!

一般是在flume中加时间戳,当23:59分时可以给这批数据加时间戳,直接导入hdfs中时判断时间戳进行存储数据!!!

方法很多.....

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值