重要

このページの日本語コンテンツは古くなっている可能性があります。最新の英語版コンテンツをご覧になるには、こちらをクリックしてください。

RabbitMQ Sink Connector for Confluent Cloud

注釈

Confluent Platform 用にコネクターをローカルにインストールする場合は、「RabbitMQ Sink Connector for Confluent Platform」を参照してください。

フルマネージド型の RabbitMQ Sink Connector は、AMQP プロトコルを使用して RabbitMQ サーバーと通信します。RabbitMQ Sink Connector では、Apache Kafka® の 1 つ以上のトピックからデータが読み込まれ、RabbitMQ エクスチェンジに送信されます。

機能

RabbitMQ Sink Connector には、以下の機能があります。

  • 少なくとも 1 回のデリバリー: コネクターによって、レコードが Kafka のトピックから RabbitMQ エクスチェンジに少なくとも 1 回は配信されることが保証されます。
  • デッドレターキュー: このコネクターは、デッドレターキュー(DLQ)機能をサポートします。DLQ へのアクセスと使用方法の詳細については、「Confluent Cloud デッドレターキュー」のドキュメントを参照してください。
  • 複数のタスクのサポート: 1 つまたは複数のタスクの実行をサポートしています。タスクが多いほどパフォーマンスが向上する可能性があります。
  • ヘッダーの転送: Kafka ヘッダーおよびメタデータを RabbitMQ メッセージにヘッダーとして転送する機能がサポートされています。Kafka メッセージキーも、RabbitMQ メッセージの correlationID として転送できます。
  • RabbitMQ エクスチェンジへのデリバリー: このコネクターでは、単一の構成済み RabbitMQ エクスチェンジへのデリバリーがサポートされています。読み取り元として Kafka のトピックが複数指定されている場合でも、メッセージの生成先は、この RabbitMQ エクスチェンジだけです。
  • ペイロードとしてのバイトのパブリッシュ: RabbitMQ メッセージで、ペイロードとしてのバイトのパブリッシュがサポートされています。org.apache.kafka.connect.converters.ByteArrayConverter に設定された value.converter を使用することで、RabbitMQ での raw 型バイトの格納がサポートされます。このコネクターでは ByteArrayConverter を使用し、Kafka レコード値のバイナリシリアル化形式(JSON、Avro、文字列など)をバイト配列として RabbitMQ に格納します。そのうえで、こうした値にアクセスするアプリケーションでこの情報を RabbitMQ から読み出し、バイトを使用可能な形式に逆シリアル化します。Kafka のデータが RabbitMQ で保持するフォーマットではない場合は、マネージド型コネクターで使用する Single Message Transforms を使用してレコードを変更してから RabbitMQ に送信することを検討してください。
  • SSL/TLS セキュリティのサポート: コネクターは、RabbitMQ サーバーと接続するために SSL/TLS セキュリティもサポートしています。
  • レコードのバッチ処理: コネクターでは、Kafka からのレコードがバッチ処理されると同時に、RabbitMQ へのパブリッシュが行われます。この動作は rabbitmq.publish.max.batch.size 構成プロパティで制御します。

Confluent Cloud API for Connect の詳細と使用例については、「Confluent Cloud API for Connect」セクションを参照してください。

制限

以下の情報を確認してください。

クイックスタート

このクイックスタートを使用して、Confluent Cloud RabbitMQ Sink Connector の利用を開始することができます。このクイックスタートでは、コネクターを選択し、Apache Kafka® トピックからデータを読み取って RabbitMQ エクスチェンジに保存するようにコネクターを構成する方法について説明します。

前提条件
  • アマゾンウェブサービス ( AWS )、Microsoft Azure ( Azure )、または Google Cloud Platform ( GCP )上の Confluent Cloud クラスターへのアクセスを許可されていること。
  • RabbitMQ ホストサーバー、エクスチェンジ、およびホストのセキュリティ情報へのアクセスが許可されていること。
  • Confluent CLI がインストールされ、クラスター用に構成されていること。「Confluent CLI のインストール」を参照してください。
  • ネットワークに関する考慮事項については、「Networking and DNS Considerations」を参照してください。静的なエグレス IP を使用する方法については、「静的なエグレス IP アドレス」を参照してください。
  • Kafka クラスターの認証情報。次のいずれかの方法で認証情報を指定できます。
    • 既存の サービスアカウント のリソース ID を入力する。
    • コネクター用の Confluent Cloud サービスアカウント を作成する。サービスアカウントのドキュメント で、必要な ACL エントリを確認してください。一部のコネクターには固有の ACL 要件があります。
    • Confluent Cloud の API キーとシークレットを作成する。キーとシークレットを作成するには、confluent api-key create を使用するか、コネクターのセットアップ時に Cloud Console で直接 API キーとシークレットを自動生成します。

詳しくは、Cloud コネクターの制限事項 を参照してください。

注釈

このシンクコネクターで使用される input.data.format 構成はありません。このコネクターのデフォルトの値が ByteArrayConverter、デフォルトのキーが StringConverter であるためです。このコネクターで、他のコンバーターは使用できません。

Confluent Cloud Console の使用

ステップ 1: Confluent Cloud クラスターを起動します。

インストール手順については、「Quick Start for Confluent Cloud」を参照してください。

ステップ 2: コネクターを追加します。

左のナビゲーションメニューの Data integration をクリックし、Connectors をクリックします。クラスター内に既にコネクターがある場合は、+ Add connector をクリックします。

ステップ 3: コネクターを選択します。

Click the RabbitMQ Sink connector card.

RabbitMQ Sink Connector Card

ステップ 4: コネクターの詳細情報を入力します。

注釈

  • すべての 前提条件 を満たしていることを確認してください。
  • アスタリスク( * )は必須項目であることを示しています。

Add RabbitMQ Sink Connector 画面で、以下を実行します。

既に Kafka トピックを用意している場合は、Topics リストから接続するトピックを選択します。

新しいトピックを作成するには、+Add new topic をクリックします。

ステップ 5: RabbitMQ の送信先を確認します。

コネクターが実行中になったら、Kafka トピックからのメッセージが構成済みの RabbitMQ エクスチェンジに取り込まれていることを確認します。

Confluent Cloud API for Connect の詳細と使用例については、「Confluent Cloud API for Connect」セクションを参照してください。

参考

フルマネージド型の Confluent Cloud コネクターが Confluent Cloud ksqlDB でどのように動作するかを示す例については、「Cloud ETL のデモ」を参照してください。この例では、Confluent CLI を使用して Confluent Cloud のリソースを管理する方法についても説明しています。

../_images/topology.ja.png

Confluent CLI の使用

以下の手順に従うと、Confluent CLI を使用してコネクターをセットアップし、実行できます。

注釈

すべての 前提条件 を満たしていることを確認してください。

ステップ 1: 使用可能なコネクターをリスト表示します。

以下のコマンドを入力して、使用可能なコネクターをリスト表示します。

confluent connect plugin list

ステップ 2: コネクターの必須の構成プロパティを表示します。

以下のコマンドを実行して、コネクターの必須プロパティを表示します。

confluent connect plugin describe <connector-catalog-name>

例:

confluent connect plugin describe RabbitMQSink

出力例:

Following are the required configs:
connector.class: RabbitMQSink
topics
name
kafka.auth.mode
kafka.api.key
kafka.api.secret
rabbitmq.host
rabbitmq.exchange
rabbitmq.routing.key
rabbitmq.delivery.mode
tasks.max

ステップ 3: コネクターの構成ファイルを作成します。

コネクター構成プロパティを含む JSON ファイルを作成します。以下の例は、コネクターの必須プロパティを示しています。

{
    "name" : "RabbitMQSinkConnector_0",
    "connector.class": "RabbitMQSink",
    "topics" : "pageviews",
    "kafka.auth.mode": "KAFKA_API_KEY",
    "kafka.api.key": "<my-kafka-api-key>",
    "kafka.api.secret": "<my-kafka-api-secret>",
    "rabbitmq.host" : "192.168.1.99",
    "rabbitmq.exchange" : "exchange_1",
    "rabbitmq.routing.key" : "routingkey_1",
    "rabbitmq.delivery.mode" : "PERSISTENT",
    "tasks.max" : "1"
}

以下のプロパティ定義に注意してください。

  • "name": 新しいコネクターの名前を設定します。
  • "connector.class": コネクターのプラグイン名を指定します。
  • "topics": Kafka トピック名を指定するか、複数のトピック名をコンマ区切りにしたリストを入力します。
  • "kafka.auth.mode": 使用するコネクターの認証モードを指定します。オプションは SERVICE_ACCOUNT または KAFKA_API_KEY (デフォルト)です。API キーとシークレットを使用するには、構成プロパティ kafka.api.keykafka.api.secret を構成例(前述)のように指定します。サービスアカウント を使用するには、プロパティ kafka.service.account.id=<service-account-resource-ID>リソース ID を指定します。使用できるサービスアカウントのリソース ID のリストを表示するには、次のコマンドを使用します。

    confluent iam service-account list
    

    例:

    confluent iam service-account list
    
       Id     | Resource ID |       Name        |    Description
    +---------+-------------+-------------------+-------------------
       123456 | sa-l1r23m   | sa-1              | Service account 1
       789101 | sa-l4d56p   | sa-2              | Service account 2
    
  • "rabbitmq.<...>": プロパティの値と定義については、RabbitMQ Sink の構成プロパティ を参照してください。コネクター構成のデフォルトではホストポートが 5672"rabbitmq.port" : "5672")になります。

  • "tasks.max": このコネクターで使用する タスク の数を入力します。コネクターは、1 つまたは複数のタスクの実行をサポートしています。タスクが多いほどパフォーマンスが向上する可能性があります。

Single Message Transforms: CLI を使用した SMT の追加の詳細については、Single Message Transforms(SMT) のドキュメントを参照してください。このシンクコネクターでサポートされていない SMT のリストについては、「サポートされない変換」を参照してください。

すべてのプロパティの値と定義については、「構成プロパティ」を参照してください。

ステップ 4: プロパティファイルを読み込み、コネクターを作成します。

以下のコマンドを入力して、構成を読み込み、コネクターを起動します。

confluent connect create --config <file-name>.json

例:

confluent connect create --config rabbitmq-sink.json

出力例:

Created connector RabbitMQSinkConnector_0 lcc-ix4dl

ステップ 5: コネクターのステータスを確認します。

以下のコマンドを入力して、コネクターのステータスを確認します。

confluent connect list

出力例:

ID          |            Name           | Status  |  Type
+-----------+---------------------------+---------+-------+
lcc-ix4dl   | RabbitMQSinkConnector_0   | RUNNING | sink

ステップ 6: RabbitMQ の送信先を確認します。

コネクターが実行中になったら、Kafka トピックから構成済みの RabbitMQ エクスチェンジにメッセージが取り込まれていることを確認します。

Confluent Cloud API for Connect の詳細と使用例については、「Confluent Cloud API for Connect」セクションを参照してください。

構成プロパティ

このコネクターでは、以下のコネクター構成プロパティを使用します。

データの取得元とするトピック(Which topics do you want to get data from?)

topics

特定のトピック名を指定するか、複数のトピック名をコンマ区切りにしたリストを指定します。

  • 型: list
  • 重要度: 高

データへの接続方法(How should we connect to your data?)

name

コネクターの名前を設定します。

  • 型: string
  • 指定可能な値: 最大 64 文字の文字列
  • 重要度: 高

Kafka クラスターの認証情報(Kafka Cluster credentials)

kafka.auth.mode

Kafka の認証モード。KAFKA_API_KEY または SERVICE_ACCOUNT を指定できます。デフォルトは KAFKA_API_KEY モードです。

  • 型: string
  • デフォルト: KAFKA_API_KEY
  • 指定可能な値: KAFKA_API_KEY、SERVICE_ACCOUNT
  • 重要度: 高
kafka.api.key
  • 型: password
  • 重要度: 高
kafka.service.account.id

Kafka クラスターとの通信用の API キーを生成するために使用されるサービスアカウント。

  • 型: string
  • 重要度: 高
kafka.api.secret
  • 型: password
  • 重要度: 高

RabbitMQ のパブリッシュ(RabbitMQ Publishing)

rabbitmq.publish.max.batch.size

確認応答の対象としてブロックされる、1 つのバッチに含まれるメッセージの最大数。指定可能な最大サイズは 10000 です。

  • 型: int
  • デフォルト: 100
  • 指定可能な値: [1,...,10000]
  • 重要度: 中
rabbitmq.publish.ack.timeout

メッセージの応答確認を待機する期間(ミリ秒)。指定可能なタイムアウトの最小値は 1 ミリ秒です。指定可能なタイムアウトの最大値は 60 秒です。

  • 型: int
  • デフォルト: 10000
  • 指定可能な値: [1,...,60000]
  • 重要度: 中
rabbitmq.publish.max.retries

未確認または否定応答のメッセージに対する再試行回数。

  • 型: int
  • デフォルト: 1
  • 指定可能な値: [0,...]
  • 重要度: 中

セキュリティ(Security)

rabbitmq.security.protocol

RabbitMQ との接続に使用するセキュリティプロトコル。値には PLAINTEXT または SSL を指定できます。

  • 型: string
  • デフォルト: PLAINTEXT
  • 重要度: 中
rabbitmq.https.ssl.key.password

キーストアファイルのプライベートキー、または ssl.keystore.key で指定された PEM キーのパスワード。これは、双方向認証が構成されている場合にのみクライアントに必要です。

  • 型: password
  • 重要度: 高
rabbitmq.https.ssl.keystorefile

サーバー証明書が含まれるキーストア。HTTPS を使用する場合にのみ必要です。

  • 型: password
  • 重要度: 高
rabbitmq.https.ssl.keystore.password

キーストアファイルのストアパスワード。クライアントでは省略可能です。ssl.keystore.location を構成した場合にのみ必要となります。キーストアのパスワードは PEM 形式ではサポートされていません。

  • 型: password
  • 重要度: 高
rabbitmq.https.ssl.truststorefile

サーバー CA 証明書情報が含まれるトラストストア。HTTPS を使用する場合にのみ必要です。

  • 型: password
  • 重要度: 高
rabbitmq.https.ssl.truststore.password

トラストストアファイルのパスワード。パスワードが設定されていなくても、構成されたトラストストアファイルを使用できますが、整合性チェックが無効になります。トラストストアのパスワードは PEM 形式ではサポートされていません。

  • 型: password
  • 重要度: 高
rabbitmq.https.ssl.keystore.type

キーストアファイルのファイルフォーマット。クライアントでは省略可能です。

  • 型: string
  • デフォルト: JKS
  • 重要度: 中
rabbitmq.https.ssl.truststore.type

トラストストアファイルのファイルフォーマットです。

  • 型: string
  • デフォルト: JKS
  • 重要度: 中

接続(Connection)

rabbitmq.host

接続先の RabbitMQ ホスト。

  • 型: string
  • 重要度: 高
rabbitmq.port

接続先の RabbitMQ ポート。

  • 型: int
  • デフォルト: 5672
  • 指定可能な値: [0,...,65535]
  • 重要度: 中
rabbitmq.username

RabbitMQ での認証に使用するユーザー名。

  • 型: string
  • 重要度: 高
rabbitmq.password

RabbitMQ での認証に使用するパスワード。

  • 型: password
  • 重要度: 高
rabbitmq.virtual.host

ブローカーとの接続で使用する仮想ホスト。

  • 型: string
  • デフォルト: /
  • 重要度: 低

RabbitMQ

rabbitmq.exchange

メッセージを配信する必要がある送信先 RabbitMQ エクスチェンジ。コネクターによる消費対象として Kafka のトピックが複数指定されている場合でも、コネクターからのメッセージのデリバリー先はこの RabbitMQ エクスチェンジだけです。

  • 型: string
  • 重要度: 高
rabbitmq.routing.key

RabbitMQ に達したメッセージの伝達経路を指定する RabbitMQ ルーティングキー。

  • 型: string
  • 重要度: 高
rabbitmq.delivery.mode

PERSISTENT または TRANSIENT です。RabbitMQ におけるメッセージの持続性を指定します。

  • 型: string
  • 重要度: 高
rabbitmq.forward.kafka.key

有効にすると、Kafka レコードキーが文字列に変換され、RabbitMQ メッセージの correlationID プロパティとして転送されます。Kafka レコードキーが null で、この値が true の場合、correlationID は送信されません。

  • 型: boolean
  • 重要度: 低
rabbitmq.forward.kafka.metadata

有効にすると、Kafka レコードのメタデータは RabbitMQ メッセージでヘッダーとして転送されます。これには、レコードのトピック、パーティション、オフセットが含まれます。トピック名は KAFKA_TOPIC という名前、パーティション値は KAFKA_PARTITION という名前、オフセット値は KAFKA_OFFSET という名前のヘッダーとしてそれぞれ適用されます。

  • 型: boolean
  • 重要度: 低
rabbitmq.forward.kafka.headers

有効にすると、Kafka レコードのヘッダーは、RabbitMQ メッセージにヘッダーとして追加されます。

  • 型: boolean
  • 重要度: 低

このコネクターのタスク数(Number of tasks for this connector)

tasks.max
  • 型: int
  • 指定可能な値: [1,...]
  • 重要度: 高

次のステップ

参考

フルマネージド型の Confluent Cloud コネクターが Confluent Cloud ksqlDB でどのように動作するかを示す例については、「Cloud ETL のデモ」を参照してください。この例では、Confluent CLI を使用して Confluent Cloud のリソースを管理する方法についても説明しています。

../_images/topology.ja.png