重要
このページの日本語コンテンツは古くなっている可能性があります。最新の英語版コンテンツをご覧になるには、こちらをクリックしてください。
RabbitMQ Sink Connector for Confluent Cloud¶
注釈
Confluent Platform 用にコネクターをローカルにインストールする場合は、「RabbitMQ Sink Connector for Confluent Platform」を参照してください。
フルマネージド型の RabbitMQ Sink Connector は、AMQP プロトコルを使用して RabbitMQ サーバーと通信します。RabbitMQ Sink Connector では、Apache Kafka® の 1 つ以上のトピックからデータが読み込まれ、RabbitMQ エクスチェンジに送信されます。
機能¶
RabbitMQ Sink Connector には、以下の機能があります。
- 少なくとも 1 回のデリバリー: コネクターによって、レコードが Kafka のトピックから RabbitMQ エクスチェンジに少なくとも 1 回は配信されることが保証されます。
- デッドレターキュー: このコネクターは、デッドレターキュー(DLQ)機能をサポートします。DLQ へのアクセスと使用方法の詳細については、「Confluent Cloud デッドレターキュー」のドキュメントを参照してください。
- 複数のタスクのサポート: 1 つまたは複数のタスクの実行をサポートしています。タスクが多いほどパフォーマンスが向上する可能性があります。
- ヘッダーの転送: Kafka ヘッダーおよびメタデータを RabbitMQ メッセージにヘッダーとして転送する機能がサポートされています。Kafka メッセージキーも、RabbitMQ メッセージの
correlationID
として転送できます。 - RabbitMQ エクスチェンジへのデリバリー: このコネクターでは、単一の構成済み RabbitMQ エクスチェンジへのデリバリーがサポートされています。読み取り元として Kafka のトピックが複数指定されている場合でも、メッセージの生成先は、この RabbitMQ エクスチェンジだけです。
- ペイロードとしてのバイトのパブリッシュ: RabbitMQ メッセージで、ペイロードとしてのバイトのパブリッシュがサポートされています。
org.apache.kafka.connect.converters.ByteArrayConverter
に設定されたvalue.converter
を使用することで、RabbitMQ での raw 型バイトの格納がサポートされます。このコネクターでは ByteArrayConverter を使用し、Kafka レコード値のバイナリシリアル化形式(JSON、Avro、文字列など)をバイト配列として RabbitMQ に格納します。そのうえで、こうした値にアクセスするアプリケーションでこの情報を RabbitMQ から読み出し、バイトを使用可能な形式に逆シリアル化します。Kafka のデータが RabbitMQ で保持するフォーマットではない場合は、マネージド型コネクターで使用する Single Message Transforms を使用してレコードを変更してから RabbitMQ に送信することを検討してください。 - SSL/TLS セキュリティのサポート: コネクターは、RabbitMQ サーバーと接続するために SSL/TLS セキュリティもサポートしています。
- レコードのバッチ処理: コネクターでは、Kafka からのレコードがバッチ処理されると同時に、RabbitMQ へのパブリッシュが行われます。この動作は
rabbitmq.publish.max.batch.size
構成プロパティで制御します。
Confluent Cloud API for Connect の詳細と使用例については、「Confluent Cloud API for Connect」セクションを参照してください。
制限¶
以下の情報を確認してください。
- コネクターの制限事項については、RabbitMQ Sink Connector の制限事項を参照してください。
- 1 つ以上の Single Message Transforms(SMT)を使用する場合は、「SMT の制限」を参照してください。
- Confluent Cloud Schema Registry を使用する場合は、「スキーマレジストリ Enabled Environments」を参照してください。
クイックスタート¶
このクイックスタートを使用して、Confluent Cloud RabbitMQ Sink Connector の利用を開始することができます。このクイックスタートでは、コネクターを選択し、Apache Kafka® トピックからデータを読み取って RabbitMQ エクスチェンジに保存するようにコネクターを構成する方法について説明します。
- 前提条件
- アマゾンウェブサービス ( AWS )、Microsoft Azure ( Azure )、または Google Cloud Platform ( GCP )上の Confluent Cloud クラスターへのアクセスを許可されていること。
- RabbitMQ ホストサーバー、エクスチェンジ、およびホストのセキュリティ情報へのアクセスが許可されていること。
- Confluent CLI がインストールされ、クラスター用に構成されていること。「Confluent CLI のインストール」を参照してください。
- ネットワークに関する考慮事項については、「Networking and DNS Considerations」を参照してください。静的なエグレス IP を使用する方法については、「静的なエグレス IP アドレス」を参照してください。
- Kafka クラスターの認証情報。次のいずれかの方法で認証情報を指定できます。
- 既存の サービスアカウント のリソース ID を入力する。
- コネクター用の Confluent Cloud サービスアカウント を作成する。サービスアカウントのドキュメント で、必要な ACL エントリを確認してください。一部のコネクターには固有の ACL 要件があります。
- Confluent Cloud の API キーとシークレットを作成する。キーとシークレットを作成するには、confluent api-key create を使用するか、コネクターのセットアップ時に Cloud Console で直接 API キーとシークレットを自動生成します。
詳しくは、Cloud コネクターの制限事項 を参照してください。
注釈
このシンクコネクターで使用される input.data.format
構成はありません。このコネクターのデフォルトの値が ByteArrayConverter
、デフォルトのキーが StringConverter
であるためです。このコネクターで、他のコンバーターは使用できません。
Confluent Cloud Console の使用¶
ステップ 1: Confluent Cloud クラスターを起動します。¶
インストール手順については、「Quick Start for Confluent Cloud」を参照してください。
ステップ 2: コネクターを追加します。¶
左のナビゲーションメニューの Data integration をクリックし、Connectors をクリックします。クラスター内に既にコネクターがある場合は、+ Add connector をクリックします。
ステップ 4: コネクターの詳細情報を入力します。¶
注釈
- すべての 前提条件 を満たしていることを確認してください。
- アスタリスク( * )は必須項目であることを示しています。
Add RabbitMQ Sink Connector 画面で、以下を実行します。
既に Kafka トピックを用意している場合は、Topics リストから接続するトピックを選択します。
新しいトピックを作成するには、+Add new topic をクリックします。
- Kafka Cluster credentials で Kafka クラスターの認証情報の指定方法を選択します。以下のいずれかのオプションを選択できます。
- Global Access: コネクターは、ユーザーがアクセス権限を持つすべての対象にアクセスできます。グローバルアクセスの場合、コネクターのアクセス権限は、ユーザーのアカウントにリンクされます。このオプションは本稼働環境では推奨されません。
- Granular access: コネクターのアクセスが制限されます。コネクターのアクセス権限は サービスアカウント から制御できます。本稼働環境にはこのオプションをお勧めします。
- Use an existing API key: 保存済みの API キーおよびシークレット部分を入力できます。API キーとシークレットを入力するか Cloud Console でこれらを生成することもできます。
- Continue をクリックします。
- Connection で、RabbitMQ の接続に関する詳細を追加します。
- RabbitMQ host: 接続先 RabbitMQ ホストサーバーのアドレス。例:
192.168.1.99
。 - RabbitMQ port: コネクターがサーバーへの接続に使用するサーバーポート。例:
5672
。 - RabbitMQ username: RabbitMQ への認証に使用するユーザー名。
- RabbitMQ password: RabbitMQ への認証に使用するパスワード。
- Security protocol: RabbitMQ との接続に使用するセキュリティプロトコル。値には PLAINTEXT または SSL を指定できます。
- RabbitMQ virtual host: RabbitMQ で作成 された仮想ホストの名前。
- SSL Key Password: キーストアファイルにあるプライベートキーのパスワード、または
ssl.keystore.key
で指定された PEM キー。これは、双方向認証が構成されている場合にのみクライアントに必要です。 - Key Store ボタン: キーストアファイルをアップロードします。
- RabbitMQ host: 接続先 RabbitMQ ホストサーバーのアドレス。例:
- Continue をクリックします。
注釈
Cloud Console に表示されない構成プロパティでは、デフォルト値が使用されます。すべてのプロパティの値と定義については、「 構成プロパティ」を参照してください。
RabbitMQ で、RabbitMQ の送信先に関する詳細情報を次のように入力します。
- RabbitMQ Destination Exchange: メッセージが配信される RabbitMQ 送信先エクスチェンジ。コネクターが複数の Kafka トピックから消費している場合でも、コネクターからのメッセージの配信先はこの RabbitMQ エクスチェンジだけです。
- RabbitMQ Message Routing Key: RabbitMQ がメッセージのルーティング方法を決定するために使用するルーティングキー。
- RabbitMQ Message Delivery Mode: RabbitMQ でのメッセージの持続性を決定するオプション。指定可能なオプションは
persistent
またはtransient
です。詳細については、RabbitMQ のドキュメント を参照してください。
Show advanced configurations
Forward Kafka Record Key: 有効にすると、Kafka レコードキーが文字列に変換され、RabbitMQ メッセージの
correlationID
プロパティとして転送されます。Kafka レコードキーがnull
で、このプロパティがtrue
に設定されている場合、correlationID
は送信されません。Forward Kafka Record Metadata:
true
に設定されている場合、コネクターは Kafka レコードのメタデータを RabbitMQ メッセージヘッダーとして転送します。これには、レコードのトピック、パーティション、オフセットが含められます。トピック名はKAFKA_TOPIC
、パーティション値はKAFKA_PARTITION
、オフセット値はKAFKA_OFFSET
という名前のヘッダーとしてそれぞれ転送されます。Forward Kafka Record Headers:
true
に設定されている場合、コネクターは Kafka レコードのヘッダーを RabbitMQ メッセージにヘッダーとして追加します。Maximum batch size for publish acknowledgments: 確認応答の対象としてブロックされる、1 つのバッチに含まれるメッセージの最大数。
Time to wait for message acknowledgments: メッセージの応答確認を待機する時間の長さ(ミリ秒)。指定可能なタイムアウトの最小値は 1 ミリ秒です。
Message publish retries: 未確認または否定応答のメッセージに対する再試行回数。
Continue をクリックします。
選択するトピックのパーティション数に基づいて、推奨タスク数が表示されます。
- 推奨されたタスク数を変更するには、Tasks フィールドに、コネクターで使用する タスク の数を入力します。
- Continue をクリックします。
- 実行中の構成をプレビューして、接続の詳細情報を確認します。
- プロパティの構成に問題がないことが確認できたら、Launch をクリックします。
ちなみに
コネクターの出力のプレビューについては、「コネクターのデータプレビュー」を参照してください。
コネクターのステータスが Provisioning から Running に変わります。ステータスが変わるまで数分かかる場合があります。
ステップ 5: RabbitMQ の送信先を確認します。¶
コネクターが実行中になったら、Kafka トピックからのメッセージが構成済みの RabbitMQ エクスチェンジに取り込まれていることを確認します。
Confluent Cloud API for Connect の詳細と使用例については、「Confluent Cloud API for Connect」セクションを参照してください。
参考
フルマネージド型の Confluent Cloud コネクターが Confluent Cloud ksqlDB でどのように動作するかを示す例については、「Cloud ETL のデモ」を参照してください。この例では、Confluent CLI を使用して Confluent Cloud のリソースを管理する方法についても説明しています。
Confluent CLI の使用¶
以下の手順に従うと、Confluent CLI を使用してコネクターをセットアップし、実行できます。
注釈
すべての 前提条件 を満たしていることを確認してください。
ステップ 2: コネクターの必須の構成プロパティを表示します。¶
以下のコマンドを実行して、コネクターの必須プロパティを表示します。
confluent connect plugin describe <connector-catalog-name>
例:
confluent connect plugin describe RabbitMQSink
出力例:
Following are the required configs:
connector.class: RabbitMQSink
topics
name
kafka.auth.mode
kafka.api.key
kafka.api.secret
rabbitmq.host
rabbitmq.exchange
rabbitmq.routing.key
rabbitmq.delivery.mode
tasks.max
ステップ 3: コネクターの構成ファイルを作成します。¶
コネクター構成プロパティを含む JSON ファイルを作成します。以下の例は、コネクターの必須プロパティを示しています。
{
"name" : "RabbitMQSinkConnector_0",
"connector.class": "RabbitMQSink",
"topics" : "pageviews",
"kafka.auth.mode": "KAFKA_API_KEY",
"kafka.api.key": "<my-kafka-api-key>",
"kafka.api.secret": "<my-kafka-api-secret>",
"rabbitmq.host" : "192.168.1.99",
"rabbitmq.exchange" : "exchange_1",
"rabbitmq.routing.key" : "routingkey_1",
"rabbitmq.delivery.mode" : "PERSISTENT",
"tasks.max" : "1"
}
以下のプロパティ定義に注意してください。
"name"
: 新しいコネクターの名前を設定します。"connector.class"
: コネクターのプラグイン名を指定します。"topics"
: Kafka トピック名を指定するか、複数のトピック名をコンマ区切りにしたリストを入力します。
"kafka.auth.mode"
: 使用するコネクターの認証モードを指定します。オプションはSERVICE_ACCOUNT
またはKAFKA_API_KEY
(デフォルト)です。API キーとシークレットを使用するには、構成プロパティkafka.api.key
とkafka.api.secret
を構成例(前述)のように指定します。サービスアカウント を使用するには、プロパティkafka.service.account.id=<service-account-resource-ID>
に リソース ID を指定します。使用できるサービスアカウントのリソース ID のリストを表示するには、次のコマンドを使用します。confluent iam service-account list
例:
confluent iam service-account list Id | Resource ID | Name | Description +---------+-------------+-------------------+------------------- 123456 | sa-l1r23m | sa-1 | Service account 1 789101 | sa-l4d56p | sa-2 | Service account 2
"rabbitmq.<...>"
: プロパティの値と定義については、RabbitMQ Sink の構成プロパティ を参照してください。コネクター構成のデフォルトではホストポートが5672
("rabbitmq.port"
:"5672"
)になります。"tasks.max"
: このコネクターで使用する タスク の数を入力します。コネクターは、1 つまたは複数のタスクの実行をサポートしています。タスクが多いほどパフォーマンスが向上する可能性があります。
Single Message Transforms: CLI を使用した SMT の追加の詳細については、Single Message Transforms(SMT) のドキュメントを参照してください。このシンクコネクターでサポートされていない SMT のリストについては、「サポートされない変換」を参照してください。
すべてのプロパティの値と定義については、「構成プロパティ」を参照してください。
ステップ 4: プロパティファイルを読み込み、コネクターを作成します。¶
以下のコマンドを入力して、構成を読み込み、コネクターを起動します。
confluent connect create --config <file-name>.json
例:
confluent connect create --config rabbitmq-sink.json
出力例:
Created connector RabbitMQSinkConnector_0 lcc-ix4dl
ステップ 5: コネクターのステータスを確認します。¶
以下のコマンドを入力して、コネクターのステータスを確認します。
confluent connect list
出力例:
ID | Name | Status | Type
+-----------+---------------------------+---------+-------+
lcc-ix4dl | RabbitMQSinkConnector_0 | RUNNING | sink
ステップ 6: RabbitMQ の送信先を確認します。¶
コネクターが実行中になったら、Kafka トピックから構成済みの RabbitMQ エクスチェンジにメッセージが取り込まれていることを確認します。
Confluent Cloud API for Connect の詳細と使用例については、「Confluent Cloud API for Connect」セクションを参照してください。
構成プロパティ¶
このコネクターでは、以下のコネクター構成プロパティを使用します。
データの取得元とするトピック(Which topics do you want to get data from?)¶
topics
特定のトピック名を指定するか、複数のトピック名をコンマ区切りにしたリストを指定します。
- 型: list
- 重要度: 高
データへの接続方法(How should we connect to your data?)¶
name
コネクターの名前を設定します。
- 型: string
- 指定可能な値: 最大 64 文字の文字列
- 重要度: 高
Kafka クラスターの認証情報(Kafka Cluster credentials)¶
kafka.auth.mode
Kafka の認証モード。KAFKA_API_KEY または SERVICE_ACCOUNT を指定できます。デフォルトは KAFKA_API_KEY モードです。
- 型: string
- デフォルト: KAFKA_API_KEY
- 指定可能な値: KAFKA_API_KEY、SERVICE_ACCOUNT
- 重要度: 高
kafka.api.key
- 型: password
- 重要度: 高
kafka.service.account.id
Kafka クラスターとの通信用の API キーを生成するために使用されるサービスアカウント。
- 型: string
- 重要度: 高
kafka.api.secret
- 型: password
- 重要度: 高
RabbitMQ のパブリッシュ(RabbitMQ Publishing)¶
rabbitmq.publish.max.batch.size
確認応答の対象としてブロックされる、1 つのバッチに含まれるメッセージの最大数。指定可能な最大サイズは 10000 です。
- 型: int
- デフォルト: 100
- 指定可能な値: [1,...,10000]
- 重要度: 中
rabbitmq.publish.ack.timeout
メッセージの応答確認を待機する期間(ミリ秒)。指定可能なタイムアウトの最小値は 1 ミリ秒です。指定可能なタイムアウトの最大値は 60 秒です。
- 型: int
- デフォルト: 10000
- 指定可能な値: [1,...,60000]
- 重要度: 中
rabbitmq.publish.max.retries
未確認または否定応答のメッセージに対する再試行回数。
- 型: int
- デフォルト: 1
- 指定可能な値: [0,...]
- 重要度: 中
セキュリティ(Security)¶
rabbitmq.security.protocol
RabbitMQ との接続に使用するセキュリティプロトコル。値には PLAINTEXT または SSL を指定できます。
- 型: string
- デフォルト: PLAINTEXT
- 重要度: 中
rabbitmq.https.ssl.key.password
キーストアファイルのプライベートキー、または
ssl.keystore.key
で指定された PEM キーのパスワード。これは、双方向認証が構成されている場合にのみクライアントに必要です。- 型: password
- 重要度: 高
rabbitmq.https.ssl.keystorefile
サーバー証明書が含まれるキーストア。HTTPS を使用する場合にのみ必要です。
- 型: password
- 重要度: 高
rabbitmq.https.ssl.keystore.password
キーストアファイルのストアパスワード。クライアントでは省略可能です。
ssl.keystore.location
を構成した場合にのみ必要となります。キーストアのパスワードは PEM 形式ではサポートされていません。- 型: password
- 重要度: 高
rabbitmq.https.ssl.truststorefile
サーバー CA 証明書情報が含まれるトラストストア。HTTPS を使用する場合にのみ必要です。
- 型: password
- 重要度: 高
rabbitmq.https.ssl.truststore.password
トラストストアファイルのパスワード。パスワードが設定されていなくても、構成されたトラストストアファイルを使用できますが、整合性チェックが無効になります。トラストストアのパスワードは PEM 形式ではサポートされていません。
- 型: password
- 重要度: 高
rabbitmq.https.ssl.keystore.type
キーストアファイルのファイルフォーマット。クライアントでは省略可能です。
- 型: string
- デフォルト: JKS
- 重要度: 中
rabbitmq.https.ssl.truststore.type
トラストストアファイルのファイルフォーマットです。
- 型: string
- デフォルト: JKS
- 重要度: 中
接続(Connection)¶
rabbitmq.host
接続先の RabbitMQ ホスト。
- 型: string
- 重要度: 高
rabbitmq.port
接続先の RabbitMQ ポート。
- 型: int
- デフォルト: 5672
- 指定可能な値: [0,...,65535]
- 重要度: 中
rabbitmq.username
RabbitMQ での認証に使用するユーザー名。
- 型: string
- 重要度: 高
rabbitmq.password
RabbitMQ での認証に使用するパスワード。
- 型: password
- 重要度: 高
rabbitmq.virtual.host
ブローカーとの接続で使用する仮想ホスト。
- 型: string
- デフォルト: /
- 重要度: 低
RabbitMQ¶
rabbitmq.exchange
メッセージを配信する必要がある送信先 RabbitMQ エクスチェンジ。コネクターによる消費対象として Kafka のトピックが複数指定されている場合でも、コネクターからのメッセージのデリバリー先はこの RabbitMQ エクスチェンジだけです。
- 型: string
- 重要度: 高
rabbitmq.routing.key
RabbitMQ に達したメッセージの伝達経路を指定する RabbitMQ ルーティングキー。
- 型: string
- 重要度: 高
rabbitmq.delivery.mode
PERSISTENT または TRANSIENT です。RabbitMQ におけるメッセージの持続性を指定します。
- 型: string
- 重要度: 高
rabbitmq.forward.kafka.key
有効にすると、Kafka レコードキーが文字列に変換され、RabbitMQ メッセージの correlationID プロパティとして転送されます。Kafka レコードキーが null で、この値が true の場合、correlationID は送信されません。
- 型: boolean
- 重要度: 低
rabbitmq.forward.kafka.metadata
有効にすると、Kafka レコードのメタデータは RabbitMQ メッセージでヘッダーとして転送されます。これには、レコードのトピック、パーティション、オフセットが含まれます。トピック名は KAFKA_TOPIC という名前、パーティション値は KAFKA_PARTITION という名前、オフセット値は KAFKA_OFFSET という名前のヘッダーとしてそれぞれ適用されます。
- 型: boolean
- 重要度: 低
rabbitmq.forward.kafka.headers
有効にすると、Kafka レコードのヘッダーは、RabbitMQ メッセージにヘッダーとして追加されます。
- 型: boolean
- 重要度: 低
このコネクターのタスク数(Number of tasks for this connector)¶
tasks.max
- 型: int
- 指定可能な値: [1,...]
- 重要度: 高
次のステップ¶
参考
フルマネージド型の Confluent Cloud コネクターが Confluent Cloud ksqlDB でどのように動作するかを示す例については、「Cloud ETL のデモ」を参照してください。この例では、Confluent CLI を使用して Confluent Cloud のリソースを管理する方法についても説明しています。