Kafka コネクター¶
Apache Kafka® と、データのプル/プッシュを行う他のシステムとの間でデータをコピーするには、コネクターを使用します。コネクターは Confluent Hub からダウンロードできます。
Kafka Connect の詳細については、無料の Kafka Connect 101 コースをご覧ください。
注釈
Confluent Cloud で利用可能なマネージド型コネクターについては、「外部システムと Confluent Cloud の接続」を参照してください。

JDBC Source および Sink
Kafka Connect JDBC Source Connector では、データが、JDBC ドライバを備えたリレーショナルデータベースから Apache Kafka® トピックにインポートされます。Kafka Connect JDBC Sink Connector では、データが、Apache Kafka® トピックから JDBC ドライバを備えたリレーショナルデータベースにエクスポートされます。

Elasticsearch Service Sink
Kafka Connect Elasticsearch Service Sink Connector では、データが Apache Kafka® から Elasticsearch に移動されます。このコネクターにより、Kafka のトピックのデータが Elasticsearch のインデックスに書き込まれます。

Amazon S3 Sink
Kafka Connect Amazon S3 Sink Connector では、Apache Kafka® のトピックのデータが、Avro、JSON、Bytes のいずれかのフォーマットで S3 オブジェクトにエクスポートされます。

HDFS 2 Sink
Kafka Connect HDFS 2 Sink Connector を使用すると、Apache Kafka® トピックから HDFS 2.x ファイルへとさまざまな形式でデータをエクスポートできます。コネクターは Hive と統合されており、データはすぐに HiveQL のクエリに使用できます。