工作流程 外部数据源 -------> input ----> filter ----->output ----->外部数据源 多个Filter.output构建了数据处理的Pipeline,满足各种各样的数据处理需求,如果您熟悉SQL,也可以直接通过SQL构建数据处理的Pipeline,简单高效.
支持的插件 1.Input plugin
Kafka,mysql
2.filter
Json,Deta,sql
3.output plug
环境依赖
Spark on Yarn
Spark Standalone
Spark on Mesos