flinkx基于flink实现的数据管道
管道分reader和writer两部分,分别由不同的数据源插件实现
KafkaReader
- kafkaReader通过KafkaClient消费数据,解析数据,转化成row
HiveWriter
Reader的实现
reader通过继承2个函数,
- InputFormatSourceFunction->RichParallelSourceFunction->AbstractRichFunction:RichFunction
1 | /** |
- CheckpointedFunction
Writer的实现
file类型的writer
writerRecord()内写入.data临时目录
flink的全局checkpoint触发close后将临时目录内文件复制到实际的数据目录
flinkx的启动参数confProp中指定
flink.checkpoint.interval
开启checkpoint.