Confluent for Kubernetes リリースノート

Confluent for Kubernetes (CFK)には、Kubernetes に Confluent Platform をデプロイして管理するための、宣言型 API を主軸としたコントロールプレーンが備わっています。

以降のセクションでは、CFK 2.2.x リリースの技術的な詳細について説明します。

Confluent for Kubernetes 2.2.2 リリースノート

Confluent for Kubernetes 2.2.2 では、Confluent Platform バージョン 6.2.x および 7.0.x を Kubernetes にデプロイし、管理することができます。

注目すべき機能強化

  • LoadBalancer、Nodeport、Route サービスにラベルを追加する機能。

注目すべき修正

  • アーカイブパスに誤ったサフィックスがある場合、コネクタープラグインのインストールが正常に失敗するようになりました。
  • 移行前に設定されていなかったグローバル Telemetry は設定しないように CFK の移行が修正されました。
  • ClusterLink の CR の作成時に検証エラーの原因となっていた ClusterLink の CRD の spec.mirrorTopics.configs 内の重複スペースが修正されました。
  • セキュリティと脆弱性の問題が修正されました。

Confluent for Kubernetes 2.2.1 リリースノート

Confluent for Kubernetes 2.2.1 では、Confluent Platform バージョン 6.2.x および 7.0.x を Kubernetes にデプロイし、管理することができます。

注目すべき修正

  • CFK は、参照されている KafkaClusterRef がある場所とは異なる名前空間で作成された KafkaTopic のカスタムリソースを自動削除しません。
  • Schema Registry の依存関係を有効にしていない場合に Confluent Control Center の移行が nil ポインター参照により失敗するという問題が修正されました。
  • Connect、ksqlDB、または Schema Registry の依存関係が mTLS 認証で構成されている場合の Confluent Control Center のサーバープロパティの冗長な構成が削除されました。
  • セキュリティと脆弱性の問題が修正されました。

既知の問題

  • Red Hat の Operator Lifecycle Manager を使用して(つまり、Operator Hub を使用して)|co-long| を Red Hat OpenShift にデプロイする場合、OpenShift バージョン 4.9 を使用する必要があります。

    この OpenShift のバージョン制限は、Red Hat Operator Lifecycle Manager を使用しない標準的な方法で CFK を Red Hat OpenShift にデプロイする場合は適用されません。

  • 自動生成された証明書が ksqlDB REST エンドポイントで使用されている場合、Confluent Cloud を参照する ksqlDB デプロイは、Let's Encrypt CA を信頼する必要があります。

    これが機能するためには、(1)|ccloud| CA と(2)自己署名 CA の両方を含んだ CA バンドルを、cacerts.pem を通じて ksqlDB の CR に指定する必要があります。

  • TLS が有効で、Confluent Control Center が MDS または Confluent Cloud Schema Registry との通信に別の TLS 証明書を使用している場合、Control Center は MDS または Confluent Cloud Schema Registry との接続に自動生成された TLS 証明書を使用することができません。これを回避する方法については、トラブルシューティングのガイド を参照してください。

  • Schema Registry と Kafka の CR を同時にデプロイすると、レプリケーション係数が 3 のトピックを作成できないことが原因で、Schema Registry でエラーが発生する場合があります。これは Kafka ブローカーが完全には起動していないためです。

    これを回避するには、Schema Registry のデプロイを削除し、Kafka が完全に起動した後で再度デプロイします。

  • RBAC のメタデータを格納するために別途 "セカンダリ" Kafka が使用される集中型モードで RBAC が有効になった Kafka クラスターをデプロイすると、セカンダリ Kafka クラスターで "License Topic could not be created" というエラーが返されることがあります。

  • 警告ログを有効にすると、ZooKeeper 上の定期的な Kubernetes TCP プローブにより、警告メッセージ "client has closed socket" が頻繁に表示されます。

Confluent Platform 7.0 からの既知のギャップ

CFK 2.2.1 は、次の Confluent Platform 7.0 機能をサポートしていません。

  • Kafka の認証メカニズム: Kerberos と SASL/Scram
  • マルチリージョンクラスターデプロイ: 早期アクセスプログラムでのみサポート

Confluent for Kubernetes 2.2.0 リリースノート

Confluent for Kubernetes 2.2.0 では、Confluent Platform バージョン 6.2.x および 7.0.x を Kubernetes にデプロイし、管理することができます。

新機能

Confluent for Kubernetes 2.2.0 では、以下の新機能がサポートされています。

  • ClusterLink のカスタムリソース定義(CRD)を使用してクラスターリンクを宣言的に管理します。「cluster-link-configs」を参照してください。

  • Kafka クラスターを "縮小" するための自動化されたワークフローを提供します。

    CFK により、残りのブローカーでパーティションのバランスが調整され、削除するブローカーが正常に終了します。「Confluent Platform クラスターのスケーリングとデータのバランス調整」を参照してください。

注目すべき機能強化

  • CFK と Confluent Platform を Kubernetes 1.22 でデプロイできます。

注目すべき修正

  • Kafka ACL が有効になっていたときに、KafkaTopic のカスタムリソースを適用して Kafka のトピックを作成することができませんでした。
  • Kafka ACL が有効になっていたときに、誤った Confluent Admin REST API 構成が生成されました。
  • 外部トラフィックポリシーが外部ブローカーロードバランサーに対して、Cluster ではなく、Local に正しく設定されています。

既知の問題

  • Red Hat の Operator Lifecycle Manager を使用して(つまり、Operator Hub を使用して)|co-long| を Red Hat OpenShift にデプロイする場合、OpenShift バージョン 4.9 を使用する必要があります。

    この OpenShift のバージョン制限は、Red Hat Operator Lifecycle Manager を使用しない標準的な方法で CFK を Red Hat OpenShift にデプロイする場合は適用されません。

  • 自動生成された証明書が ksqlDB REST エンドポイントで使用されている場合、Confluent Cloud を参照する ksqlDB デプロイは、Let's Encrypt CA を信頼する必要があります。

    これが機能するためには、(1)|ccloud| CA と(2)自己署名 CA の両方を含んだ CA バンドルを、cacerts.pem を通じて ksqlDB の CR に指定する必要があります。

  • TLS が有効で、Confluent Control Center が MDS または Confluent Cloud Schema Registry との通信に別の TLS 証明書を使用している場合、Control Center は MDS または Confluent Cloud Schema Registry との接続に自動生成された TLS 証明書を使用することができません。これを回避する方法については、トラブルシューティングのガイド を参照してください。

  • Schema Registry と Kafka の CR を同時にデプロイすると、レプリケーション係数が 3 のトピックを作成できないことが原因で、Schema Registry でエラーが発生する場合があります。これは Kafka ブローカーが完全には起動していないためです。

    これを回避するには、Schema Registry のデプロイを削除し、Kafka が完全に起動した後で再度デプロイします。

  • RBAC のメタデータを格納するために別途 "セカンダリ" Kafka が使用される集中型モードで RBAC が有効になった Kafka クラスターをデプロイすると、セカンダリ Kafka クラスターで "License Topic could not be created" というエラーが返されることがあります。

  • 警告ログを有効にすると、ZooKeeper 上の定期的な Kubernetes TCP プローブにより、警告メッセージ "client has closed socket" が頻繁に表示されます。

Confluent Platform 7.0 からの既知のギャップ

CFK 2.2.0 は、次の Confluent Platform 7.0 機能をサポートしていません。

  • Kafka の認証メカニズム: Kerberos と SASL/Scram
  • マルチリージョンクラスターデプロイ: 早期アクセスプログラムでのみサポート