Flink的流连接器(Streaming Connectors)
预定义的Sources 和 Sinks 一些基本的数据sources 和 sinks 作为Flink的一部分,总是可用。预定义的数据源包括从文件中读取、从目录中读取、从套接字中读取以及从集合和迭代中获取,预定义的数据sink支持写到文件中,作为标准输出或者标准错误输出以及写到套接字中。 捆绑的连接器(Boundled Connectors) 这些连接器提供与第三方系统接口的代码,目前这些连接器包括: Apache Kafka (Source/Sink) Apache Cassandra (Source/Sink) Amazon Kinesis Streams (Source/Sink) Elasticsearch (Sink) Hadoop FileSystem (Sink) RabbitMQ (Source/Sink) Apache NiFi (Source/Sink) Twitter Streaming API (Source) 请记住,要在应用程序中使用这些连接器之一,通常需要额外的第三方组件,例如数据存储服务或者消息队列。还需要注意本节中所列出的流连接器是Flink项目的一部分,包括在发布的源码包中,但是并不包括在二进制发布包中,进一步的说明在相应的章节中。 Apache Bahir中的连接器 另外的Flink 流连接器通过Apache Bahir来发布,包括: