Confluent Cloud の構成に対する Confluent Replicator

概要

オンプレミスからクラウドへの移行中でも、永続的な "クラウドへのブリッジ" 戦略がある場合でも、Confluent Replicator を使用して Kafka データを Confluent Cloud にコピーできます。Replicator および Kafka Connect を構成するさまざまな方法を説明します。

../../../../_images/replicator-to-ccloud.png

サンプルの実行コスト

注意

Confluent Cloud のすべてのサンプルでは、課金される可能性のある実際の Confluent Cloud リソースを使用しています。サンプルで、新しい Confluent Cloud 環境、Kafka クラスター、トピック、ACL、サービスアカウントに加えて、コネクターや ksqlDB アプリケーションのように時間で課金されるリソースを作成する場合があります。想定外の課金を避けるために、慎重に リソースのコストを確認 してから開始してください。Confluent Cloud のサンプルの実行を終了したら、サービスへの時間単位の課金を回避するためにすべての Confluent Cloud リソースを破棄し、リソースが削除されたことを確認します。

Confluent Cloud のプロモーションコード

Confluent Cloud Console の Billing & payment セクションでプロモーションコード C50INTEG を入力すると、Confluent Cloud で $50 相当を無料で使用できます(詳細)。このプロモーションコードで、この Confluent Cloud サンプルの 1 日分の実行費用が補填されます。これを超えてサービスを利用すると、このサンプルで作成した Confluent Cloud リソースを破棄するまで、時間単位で課金されることがあります。

概念の確認

Replicator のさまざまな構成方法を説明する前に、Replicator と Kafka Connect に関するいくつかの基本的概念を確認します。これにより、Replicator の構成の論理が理解しやすくなります。Kafka Connect クラスターの構成方法により、Replicator の構成方法が決定されるためです。

Replicator は Kafka コネクターであり、Connect ワーカー上で実行されます。Replicator 実行可能ファイル にも、内部にバンドルされた Connect ワーカーがあります。

Replicator には、オリジンクラスターからデータを読み取る組み込みコンシューマーがあり、Connect ワーカーには、そのデータを送信先クラスター(この場合は Confluent Cloud)にコピーする組み込みプロデューサーがあります。オリジンクラスターと通信するために Replicator に適切な接続情報を構成するには、プレフィックス src. を使用します。Replicator には、送信先クラスターとの通信に必要な管理者クライアントもあり、このクライアントは、プレフィックス dest. で構成できます。

Connect ワーカーにも、自己管理用の Kafka トピック offset.storage.topicconfig.storage.topic、および status.storage.topic を作成するための管理者クライアントがあり、これらは、Connect ワーカーをバックアップする Kafka クラスターにあります。Kafka Connect の組み込みプロデューサーは、Connect ワーカーで直接構成するか、Replicator などの任意のコネクターでオーバーライドすることができます。

構成タイプ

最初のタイプは、Replicator が自己管理型 Connect コネクターで動作し、デスティネーション Confluent Cloud クラスターにバックアップされる構成です。これにより、ソースコネクターである Replicator が、Connect ワーカーの管理者クライアントと組み込みプロデューサーのデフォルト動作を利用できます。

../../../../_images/replicator-worker-destination.png

Replicator が デスティネーションにバックアップされる Connect クラスター で動作するこのケースについては、2 つの構成サンプルがあります。

いくつかのシナリオでは、自己管理型 Connect クラスターをデスティネーション Confluent Cloud クラスターにバックアップできません。たとえば、高度にセキュアなクラスターの一部では、着信ネットワーク接続がブロックされ、プッシュ接続のみが許可されます。この場合、送信先クラスターで動作している Replicator からオリジンクラスターへの着信接続は失敗します。このケースでは、代わりに Connect クラスターをオリジンクラスターにバックアップし、レプリケートされたデータを送信先クラスターにプッシュすることができます。次の 2 番目の構成タイプは、オーバーライドを構成する必要があるため、より複雑です。

../../../../_images/replicator-worker-origin.png

Replicator が オリジンにバックアップされる Connect クラスター で動作するこのケースについては、2 つの構成サンプルがあります。

デスティネーションにバックアップされる Connect クラスター

Replicator が デスティネーションにバックアップされる Connect クラスター で動作するこのケースについては、2 つの構成サンプルがあります。

デスティネーションにバックアップされる Connect でオンプレミスから Confluent Cloud へ

このサンプルでは、Replicator がオンプレミス Kafka クラスターから Confluent Cloud にデータをコピーします。Replicator は、デスティネーション Confluent Cloud クラスターにバックアップされる Connect クラスター上で動作します。

参考

Connect ワーカーと Replicator には、他にも多くの構成パラメーターがありますが、このサンプルでは、重要なパラメーターのみを示します。すべてのパラメーターが構成されたサンプルについては、送信先にバックアップされる Connect ワーカー の Docker 構成と、オンプレミスクラスターから読み取る Replicator の構成ファイルを参照してください。

../../../../_images/onprem-ccloud-destination.png

Kafka Connect の構成

Confluent Cloud で要求されているように、管理トピックのレプリケーション係数を 3 に設定します。

replication.factor=3
config.storage.replication.factor=3
offset.storage.replication.factor=3
status.storage.replication.factor=3

Connect ワーカーの管理者クライアントには、デスティネーション Confluent Cloud への接続情報が必要です。

# Configuration for embedded admin client
bootstrap.servers=<bootstrap-servers-destination>
sasl.mechanism=PLAIN
security.protocol=SASL_SSL
sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-destination>" password="<api-secret-destination>";

Connect ワーカーの組み込みプロデューサーには、デスティネーション Confluent Cloud への接続情報が必要です。

# Configuration for embedded producer
producer.sasl.mechanism=PLAIN
producer.security.protocol=SASL_SSL
producer.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-destination>" password="<api-secret-destination>";

Confluent Control Center を使用し、ストリームのモニタリングを行っている場合は、組み込みプロデューサーのモニタリングインターセプターに、デスティネーション Confluent Cloud への接続情報が必要です。

# Configuration for embedded producer.confluent.monitoring.interceptor
producer.confluent.monitoring.interceptor.sasl.mechanism=PLAIN
producer.confluent.monitoring.interceptor.security.protocol=SASL_SSL
producer.confluent.monitoring.interceptor.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-destination>" password="<api-secret-destination>";

Replicator の構成

この場合のオリジンクラスターは、オンプレミス Kafka クラスターであり、Replicator で、このオリジンクラスターへの接続方法を設定しておく必要があります。この接続方法は、これらの構成パラメーターにプレフィックス src. を使用して設定できます。オリジンクラスターでは、セキュリティ機能のさまざまな組み合わせを有効にすることができますが、複雑にならないように、このサンプルではセキュリティ構成を示さず、PLAINTEXT のみを示します(Replicator セキュリティ構成オプションの詳細については、このページ を参照してください)。

src.kafka.bootstrap.servers=<bootstrap-servers-origin>

送信先クラスターは Confluent Cloud クラスターであり、Replicator で、このクラスターへの接続方法を設定しておく必要があります。プレフィックス dest. を使用して、これらの構成パラメーターを設定します。

# Confluent Replicator license topic must have replication factor set to 3 for |ccloud|
confluent.topic.replication.factor=3

# New user topics that |crep-full| creates must have replication factor set to 3 for |ccloud|
dest.topic.replication.factor=3

Confluent Cloud でデータを収集するためにエンドツーエンドの Confluent Control Center ストリームモニタリングがデプロイにセットアップされている場合は、Confluent Cloud クラスターにデータを送信するために Confluent モニタリングインターセプターもセットアップする必要があります。このためには、プレフィックス src.consumer を使用して組み込みコンシューマーに設定された適切な接続情報も必要です。

src.consumer.interceptor.classes=io.confluent.monitoring.clients.interceptor.MonitoringConsumerInterceptor
src.consumer.confluent.monitoring.interceptor.bootstrap.servers=<bootstrap-servers-destination>
src.consumer.confluent.monitoring.interceptor.security.protocol=SASL_SSL
src.consumer.confluent.monitoring.interceptor.sasl.mechanism=PLAIN
src.consumer.confluent.monitoring.interceptor.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-destination>" password="<api-secret-destination>";

ACL の構成

Replicator は、オリジンクラスターから Kafka データを読み取り、デスティネーション Confluent Cloud クラスターに Kafka データを書き込むことを認可されている必要があります。Replicator は、スーパーユーザーの資格情報ではなく、Confluent Cloud サービスアカウントで動作する必要があるので、Confluent Cloud CLI を使用して、Confluent Cloud の Replicator に対応するサービスアカウント ID 用の適切な ACL を構成する必要があります。

Replicator 用にこれらの ACL を構成する方法の詳細については、「セキュリティと ACL の構成」を参照してください。

デスティネーションにバックアップされる Connect で Confluent Cloud から Confluent Cloud へ

このサンプルでは、Replicator が 1 つの Confluent Cloud クラスターから別の Confluent Cloud クラスターにデータをコピーします。Replicator は、デスティネーション Confluent Cloud クラスターにバックアップされる Connect クラスター上で動作します。

参考

Connect ワーカーと Replicator には、他にも多くの構成パラメーターがありますが、ここでは、重要なパラメーターのみを示します。すべてのパラメーターが構成されたサンプルについては、送信先にバックアップされる Connect ワーカー の Docker 構成と、Confluent Cloud から読み取る Replicator の構成ファイルを参照してください。

../../../../_images/ccloud-ccloud-destination.png

Kafka Connect の構成

Confluent Cloud で要求されているように、管理トピックのレプリケーション係数を 3 に設定します。

replication.factor=3
config.storage.replication.factor=3
offset.storage.replication.factor=3
status.storage.replication.factor=3

Connect ワーカーの管理者クライアントには、デスティネーション Confluent Cloud への接続情報が必要です。

# Configuration for embedded admin client
bootstrap.servers=<bootstrap-servers-destination>
sasl.mechanism=PLAIN
security.protocol=SASL_SSL
sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-destination>" password="<api-secret-destination>";

Connect ワーカーの組み込みプロデューサーには、デスティネーション Confluent Cloud への接続情報が必要です。

# Configuration for embedded producer
producer.sasl.mechanism=PLAIN
producer.security.protocol=SASL_SSL
producer.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-destination>" password="<api-secret-destination>";

Confluent Control Center を使用し、ストリームのモニタリングを行っている場合は、組み込みプロデューサーのモニタリングインターセプターに、デスティネーション Confluent Cloud への接続情報が必要です。

# Configuration for embedded producer.confluent.monitoring.interceptor
producer.confluent.monitoring.interceptor.sasl.mechanism=PLAIN
producer.confluent.monitoring.interceptor.security.protocol=SASL_SSL
producer.confluent.monitoring.interceptor.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-destination>" password="<api-secret-destination>";

Replicator の構成

この場合のオリジンクラスターは、Confluent Cloud クラスターであり、Replicator 管理者クライアントでは、このオリジンクラスターへの接続方法を把握できる必要があります。この接続方法は、これらの接続構成パラメーターにプレフィックス src.kafka. を使用して構成できます。

src.kafka.bootstrap.servers=<bootstrap-servers-origin>
src.kafka.security.protocol=SASL_SSL
src.kafka.sasl.mechanism=PLAIN
src.kafka.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-origin>" password="<api-secret-origin>";

送信先クラスターは Confluent Cloud クラスターであり、Replicator で、このクラスターへの接続方法を設定しておく必要があります。プレフィックス dest. を使用して、これらの構成パラメーターを設定します。

# Confluent Replicator license topic must have replication factor set to 3 for |ccloud|
confluent.topic.replication.factor=3

# New user topics that |crep-full| creates must have replication factor set to 3 for |ccloud|
dest.topic.replication.factor=3

Confluent Cloud でデータを収集するためにエンドツーエンドの Confluent Control Center ストリームモニタリングがデプロイにセットアップされている場合は、Confluent Cloud クラスターにデータを送信するために Confluent モニタリングインターセプターもセットアップする必要があります。このためには、プレフィックス src.consumer を使用して組み込みコンシューマーに設定された適切な接続情報も必要です。

src.consumer.interceptor.classes=io.confluent.monitoring.clients.interceptor.MonitoringConsumerInterceptor
src.consumer.confluent.monitoring.interceptor.bootstrap.servers=<bootstrap-servers-destination>
src.consumer.confluent.monitoring.interceptor.security.protocol=SASL_SSL
src.consumer.confluent.monitoring.interceptor.sasl.mechanism=PLAIN
src.consumer.confluent.monitoring.interceptor.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-destination>" password="<api-secret-destination>";

ACL の構成

Replicator は、オリジンクラスターから Kafka データを読み取り、デスティネーション Confluent Cloud クラスターに Kafka データを書き込むことを認可されている必要があります。Replicator は、スーパーユーザーの資格情報ではなく、Confluent Cloud サービスアカウントで動作する必要があるので、Confluent Cloud CLI を使用して、Replicator に対応するサービスアカウント ID 用の適切な ACL を構成する必要があります。このサンプルのオリジンクラスターと送信先クラスターは両方とも Confluent Cloud であるため、両方の Confluent Cloud クラスターの Replicator に対応するサービスアカウント ID 用の適切な ACL を構成する必要があります。

Replicator 用にこれらの ACL を構成する方法の詳細については、「セキュリティと ACL の構成」を参照してください。

オリジンにバックアップされる Connect クラスター

Replicator が オリジンにバックアップされる Connect クラスター で動作するこのケースについては、2 つの構成サンプルがあります。

オリジンにバックアップされる Connect でオンプレミスから Confluent Cloud へ

このサンプルでは、Replicator がオンプレミス Kafka クラスターから Confluent Cloud にデータをコピーします。Replicator は、オンプレミスのオリジンクラスターにバックアップされる Connect クラスター上で動作します。

参考

Connect ワーカーと Replicator には、他にも多くの構成パラメーターがありますが、ここでは、重要なパラメーターのみを示します。すべてのパラメーターが構成されたサンプルについては、オリジンにバックアップされる Connect ワーカー の Docker 構成と、オンプレミスクラスターから読み取る Replicator の構成ファイルを参照してください。

../../../../_images/onprem-ccloud-origin.png

Kafka Connect の構成

Connect ワーカーは、オンプレミスのオリジン Kafka クラスターにバックアップされるので、オンプレミスのオリジンクラスターに必要なレプリケーション係数を設定します。

replication.factor=<replication-factor-origin>
config.storage.replication.factor=<replication-factor-origin>
offset.storage.replication.factor=<replication-factor-origin>
status.storage.replication.factor=<replication-factor-origin>

オリジンオンプレミス Kafka クラスターでは、セキュリティ機能のさまざまな組み合わせを有効にすることができますが、複雑にならないように、このサンプルではセキュリティ構成を示さず、PLAINTEXT のみを示します(Replicator セキュリティ構成オプションの詳細については、このページ を参照してください)。Connect ワーカーの管理者クライアントには、オンプレミスクラスターへの接続情報が必要です。

bootstrap.servers=<bootstrap-servers-origin>

最後に、オーバーライドを許可するように Connect ワーカーを構成します。これは、Replicator が、Connect ワーカーの組み込みプロデューサーのデフォルト動作をオーバーライドする必要があるためです。

connector.client.config.override.policy=All

Replicator の構成

この場合のオリジンクラスターは、オンプレミス Kafka クラスターであり、Replicator で、このオリジンクラスターへの接続方法を設定しておく必要があります。この接続方法は、これらの構成パラメーターにプレフィックス src. を使用して設定できます。オリジンクラスターでは、セキュリティ機能のさまざまな組み合わせを有効にすることができますが、複雑にならないように、このサンプルではセキュリティ構成を示さず、PLAINTEXT のみを示します(Replicator セキュリティ構成オプションの詳細については、このページ を参照してください)。

src.kafka.bootstrap.servers=<bootstrap-servers-origin>

送信先クラスターは Confluent Cloud クラスターであり、Replicator で、このクラスターへの接続方法を設定しておく必要があります。プレフィックス dest. を使用して、これらの構成パラメーターを設定します。

# Confluent Replicator license topic must have replication factor set to 3 for |ccloud|
confluent.topic.replication.factor=3

# New user topics that |crep-full| creates must have replication factor set to 3 for |ccloud|
dest.topic.replication.factor=3

# Connection information to Confluent Cloud
dest.kafka.bootstrap.servers=<bootstrap-servers-destination>
dest.kafka.security.protocol=SASL_SSL
dest.kafka.sasl.mechanism=PLAIN
dest.kafka.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-destination>" password="<api-secret-destination>";

Confluent Cloud でデータを収集するためにエンドツーエンドの Confluent Control Center ストリームモニタリングがデプロイにセットアップされている場合は、Confluent Cloud クラスターにデータを送信するために Confluent モニタリングインターセプターもセットアップする必要があります。このためには、プレフィックス src.consumer を使用して組み込みコンシューマーに設定された適切な接続情報も必要です。

src.consumer.interceptor.classes=io.confluent.monitoring.clients.interceptor.MonitoringConsumerInterceptor
src.consumer.confluent.monitoring.interceptor.bootstrap.servers=<bootstrap-servers-destination>
src.consumer.confluent.monitoring.interceptor.security.protocol=SASL_SSL
src.consumer.confluent.monitoring.interceptor.sasl.mechanism=PLAIN
src.consumer.confluent.monitoring.interceptor.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-destination>" password="<api-secret-destination>";

Connect ワーカーはオリジンクラスターにバックアップされるため、その組み込みプロデューサーはオリジンクラスターに書き込みますが、これは、この場合は望ましくありません。組み込みプロデューサーをオーバーライドするには、プレフィックス producer.override. を使用して Confluent Cloud への接続情報を追加し、デスティネーション Confluent Cloud クラスターに書き込むように Replicator を構成します。

producer.override.bootstrap.servers=<bootstrap-servers-destination>
producer.override.security.protocol=SASL_SSL
producer.override.sasl.mechanism=PLAIN
producer.override.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-destination>" password="<api-secret-destination>";

ACL の構成

Replicator は、オリジンクラスターから Kafka データを読み取り、デスティネーション Confluent Cloud クラスターに Kafka データを書き込むことを認可されている必要があります。Replicator は、スーパーユーザーの資格情報ではなく、Confluent Cloud サービスアカウントで動作する必要があるので、Confluent Cloud CLI を使用して、Confluent Cloud の Replicator に対応するサービスアカウント ID 用の適切な ACL を構成する必要があります。

Replicator 用にこれらの ACL を構成する方法の詳細については、「セキュリティと ACL の構成」を参照してください。

オリジンにバックアップされる Connect で Confluent Cloud から Confluent Cloud へ

このサンプルでは、Replicator が 1 つの Confluent Cloud クラスターから別の Confluent Cloud クラスターにデータをコピーします。Replicator は、オンプレミスのオリジンクラスターにバックアップされる Connect クラスター上で動作します。

参考

Connect ワーカーと Replicator には、他にも多くの構成パラメーターがありますが、ここでは、重要なパラメーターのみを示します。すべてのパラメーターが構成されたサンプルについては、オリジンにバックアップされる Connect ワーカー の Docker 構成と、Confluent Cloud から読み取る Replicator の構成ファイルを参照してください。

../../../../_images/ccloud-ccloud-origin.png

Kafka Connect の構成

Confluent Cloud で要求されているように、管理トピックのレプリケーション係数を 3 に設定します。

replication.factor=3
config.storage.replication.factor=3
offset.storage.replication.factor=3
status.storage.replication.factor=3

Connect ワーカーの管理者クライアントには、オリジン Confluent Cloud への接続情報が必要です。

# Configuration for embedded admin client
bootstrap.servers=<bootstrap-servers-destination>
sasl.mechanism=PLAIN
security.protocol=SASL_SSL
sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-origin>" password="<api-secret-origin>";

Connect ワーカーの組み込みプロデューサーには、オリジン Confluent Cloud への接続情報が必要です。

# Configuration for embedded producer
producer.sasl.mechanism=PLAIN
producer.security.protocol=SASL_SSL
producer.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-origin>" password="<api-secret-origin>";

Confluent Control Center を使用し、ストリームのモニタリングを行っている場合は、組み込みプロデューサーのモニタリングインターセプターに、オリジン Confluent Cloud への接続情報が必要です。

# Configuration for embedded producer.confluent.monitoring.interceptor
producer.confluent.monitoring.interceptor.sasl.mechanism=PLAIN
producer.confluent.monitoring.interceptor.security.protocol=SASL_SSL
producer.confluent.monitoring.interceptor.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-origin>" password="<api-secret-origin>";

最後に、オーバーライドを許可するように Connect ワーカーを構成します。これは、Replicator が、Connect ワーカーの組み込みプロデューサーのデフォルト動作をオーバーライドする必要があるためです。

connector.client.config.override.policy=All

Replicator の構成

この場合のオリジンクラスターは、Confluent Cloud クラスターであり、Replicator 管理者クライアントでは、このオリジンクラスターへの接続方法を把握できる必要があります。この接続方法は、これらの接続構成パラメーターにプレフィックス src.kafka. を使用して構成できます。

src.kafka.bootstrap.servers=<bootstrap-servers-origin>
src.kafka.security.protocol=SASL_SSL
src.kafka.sasl.mechanism=PLAIN
src.kafka.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-origin>" password="<api-secret-origin>";

送信先クラスターは Confluent Cloud クラスターであり、Replicator で、このクラスターへの接続方法を設定しておく必要があります。プレフィックス dest. を使用して、これらの構成パラメーターを設定します。

# Confluent Replicator license topic must have replication factor set to 3 for |ccloud|
confluent.topic.replication.factor=3

# New user topics that |crep-full| creates must have replication factor set to 3 for |ccloud|
dest.topic.replication.factor=3

# Connection information to Confluent Cloud
dest.kafka.bootstrap.servers=<bootstrap-servers-destination>
dest.kafka.security.protocol=SASL_SSL
dest.kafka.sasl.mechanism=PLAIN
dest.kafka.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-destination>" password="<api-secret-destination>";

Confluent Cloud でデータを収集するためにエンドツーエンドの Confluent Control Center ストリームモニタリングがデプロイにセットアップされている場合は、Confluent Cloud クラスターにデータを送信するために Confluent モニタリングインターセプターもセットアップする必要があります。このためには、プレフィックス src.consumer を使用して組み込みコンシューマーに設定された適切な接続情報も必要です。

src.consumer.interceptor.classes=io.confluent.monitoring.clients.interceptor.MonitoringConsumerInterceptor
src.consumer.confluent.monitoring.interceptor.bootstrap.servers=<bootstrap-servers-destination>
src.consumer.confluent.monitoring.interceptor.security.protocol=SASL_SSL
src.consumer.confluent.monitoring.interceptor.sasl.mechanism=PLAIN
src.consumer.confluent.monitoring.interceptor.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-destination>" password="<api-secret-destination>";

Connect ワーカーはオリジンクラスターにバックアップされるため、その組み込みプロデューサーはオリジンクラスターに書き込みますが、これは、この場合は望ましくありません。組み込みプロデューサーをオーバーライドするには、プレフィックス producer.override. を使用して Confluent Cloud への接続情報を追加し、デスティネーション Confluent Cloud クラスターに書き込むように Replicator を構成します。

producer.override.bootstrap.servers=<bootstrap-servers-destination>
producer.override.security.protocol=SASL_SSL
producer.override.sasl.mechanism=PLAIN
producer.override.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainLoginModule required username="<api-key-destination>" password="<api-secret-destination>";

ACL の構成

Replicator は、オリジンクラスターから Kafka データを読み取り、デスティネーション Confluent Cloud クラスターに Kafka データを書き込むことを認可されている必要があります。Replicator は、スーパーユーザーの資格情報ではなく、Confluent Cloud サービスアカウントで動作する必要があるので、Confluent Cloud CLI を使用して、Replicator に対応するサービスアカウント ID 用の適切な ACL を構成する必要があります。このサンプルのオリジンクラスターと送信先クラスターは両方とも Confluent Cloud であるため、両方の Confluent Cloud クラスターの Replicator に対応するサービスアカウント ID 用の適切な ACL を構成する必要があります。

Replicator 用にこれらの ACL を構成する方法の詳細については、「セキュリティと ACL の構成」を参照してください。

Confluent Cloud のすべてのサンプルでは、実際の Confluent Cloud リソースを使用しています。Confluent Cloud のサンプルの実行を終了したら、予定外の課金を回避するために、すべての Confluent Cloud リソースが破棄されていることを直接確認してください。

その他のリソース

  • Confluent Cloud に対する Replicator の実行に関するその他の考慮事項については、「Confluent Cloud クラスターでのトピックの移行」を参照してください。
  • ローカルで実行されるセルフマネージド型 Kafka クラスターと Confluent Cloud クラスターを含むハイブリッド Kafka クラスターを紹介する Confluent Cloud のデモを実行するには、「Confluent Platform のデモ(cp-demo)」を参照してください。
  • その他の Confluent Cloud デモについては、「Confluent Cloud デモの概要」を参照してください。
  • Kafka クライアントアプリケーションの構成、モニタリング、最適化を行うための実用的なガイドが必要な場合は、「Confluent Cloud でのクライアントアプリケーションの開発」を参照してください。
  • データセンター間でデータの双方向コピーを行う Confluent Replicator の 2 つのインスタンスを含む、アクティブ-アクティブのマルチデータセンター設計の Replicator チュートリアルを実行するには、「Docker での Replicator デモ」を参照してください。