Portworx PX-DR:コンテナのディザスタ・リカバリ(同期レプリケーション編)

【05.21.2021 JST】Portworx のデータ保護機能のうち、コンテナのディザスタ・リカバリ機能を提供する「PX-DR」の同期レプリケーションをご紹介します。

Portworx PX-DR Synchronous Replication

昨今、大規模な本番環境で利用されるコンテナ環境が徐々に増えており、2021 年後半以降にはステートフルなデータも含めた利用が一気に加速すると予想されています。そのような状況のなか、今回は、バックアップと共に、ステートレス、ステートフルに関わらず、ミッション・クリティカルな環境の保護手段の1つとして挙げられる、コンテナのディザスタ・リカバリ機能を提供する PortworxPX-DR をご紹介します。

なお、PX-DR は 30 日間のトライアル・ライセンスには含まれません。もし、PoC をご検討いただける場合は、sales-japan@purestorage.com までお問い合わせください。

「PX-DR」でデータ保護の問題を解決

PX-DR は、Portworx のデータ保護機能として提供している単一のデータセンターやマルチ・アベイラビリティ・ゾーン内での高可用性に加えて、次のレベルで Kubernetes アプリケーションを保護します。

第 1 に、単一の大都市圏内、またはキャンパス・エリアにあるデータセンター間で、データ損失ゼロ(ゼロ RPO)のディザスタ・リカバリを提供します。これは、データが 10 ms 未満のレイテンシでサイト間で同期できることが前提となります。ゼロ RPO フェイルオーバーを有効にし、Kubernetes を使用した RTO(目標復旧時間)の向上を可能にします。

第 2 に、非同期レプリケーションによる、地理的に分散したデータセンターへのディザスタ・リカバリ機能を提供します。ある場所から別の場所へスナップショットとリソースの増分非同期レプリケーションを行うことで、これを実現します。

Kubernetes を始めるにあたり、ステートレス・アプリケーションは最も一般的な出発点です。しかし、データベースのようなステートフル・アプリケーションを Kubernetes プラットフォームで実行しようとする場合には、データ保護の問題が発生します。PX-DR は、主に同期レプリケーションと非同期レプリケーションという 2 つの方法でこれらの問題を解決します。本ブログでは、同期レプリケーションについてご紹介します。

データセンター間のゼロ RPO フェイルオーバーを実現する同期レプリケーション

同期レプリケーションは、1 つのクラスタに書き込まれたデータの全てのビットを 2 番目のクラスタにも複製することをいいます。最初のクラスタで他の書き込みを許可する前に、2 番目の環境にデータを複製する必要があるためです。

PX-DR でディザスタ・リカバリ環境を構築する際には、2 つの Kubernetes クラスタを単一の Portworx クラスタ上に構成します。Kubernetes クラスタの 1 つはアクティブなクラスタとなり、もう 1 つは別のフォールト・ドメイン、またはデータセンターのスタンバイ・クラスタとなります。同期レプリケーションにおいてレイテンシは重要な考慮事項ですので、データセンター間の往復が 10 ms 未満であることをお勧めします。

プライマリ・クラスタのアプリケーションにデータが書き込まれると、両サイトにデータが複製されます。 その後、障害が検出されると、スタンバイ・クラスタがゼロ RPO でアクティブ・クラスタとしてアプリケーションを引き継ぎます。

Portworx PX-DR - アクティブな Kubernetes サイトとスタンバイ・サイト間の同期レプリケーション
アクティブな Kubernetes サイトとスタンバイ・サイト間の同期レプリケーション
PX-DR - データセンターがダウンした際、アプリケーションはスタンバイ・サイトでデータ損失なしで起動
データセンターがダウンした際に、アプリケーションはスタンバイ・サイトでデータ損失なしで起動

PX-DR 同期レプリケーション機能のアーキテクチャ

2 つの Kubernetes クラスタに対して、Portworx が管理する同一のクラスタ ID を割り当てることで、物理的に離れていても Portworx はストレッチ・クラスタ(Stretched Cluster)として認識します。また、コンテナ向けソフトウェア定義のストレージ(SDS)でご紹介したボリュームの同期レプリケーション機能を使って、データ(Persistent Volume)をクラスタ間で同期することが可能になります。それ以外の Secret、ConfigMaps、Service といった Kubernetes オブジェクトは、アクティブ側のクラスタからスタンバイ側に定期的に同期されます。

データは常に同期しているため、アクティブなクラスタがダウンした場合にはスタンバイ側の Kubernetes の Deployment や Service を起動し、ユーザーからのトラフィックは DNS などを利用してスタンバイ側に切り替えます。

Portworx PX-DR Synchronous Replication

PX-DR 同期レプリケーションのセットアップ

ここからは同期レプリケーションのセットアップ方法をご紹介します。詳細については、こちらのマニュアルもご参照ください。

前提条件

今回用意した環境は次のとおりです。

  • Kubernetes クラスタ:2つの Kubernetes クラスタを同一の vSphere 6.5 上に準備しました。両クラスタ間通信のレイテンシは 1 ms 以内であり、同期レプリケーションの前提条件である 10 ms 以内という条件を満たしています。
    Portworx PX-DR Synchronous Replication
  • バージョン
    • Portworx バージョン:2.6.3 ※ PX-DR を含む Porworx Enterprise ライセンスを利用
    • Kubernetes バージョン:v1.19.8
    • Stork バージョン:2.6.0
  • 外部 Kvdb:PX-DR をご利用の際は、両クラスタの外部に Kvdb のセットアップが必要です。
  • クラスタ ID:クラスタ間で同じクラスタ ID とします(ストレッチ・クラスタ)。
  • ドメイン ID:同一のクラスタ ID を割り当ててストレッチ・クラスタにする代わりに、各クラスタには異なるドメインID(Portworx が内部でクラスタを識別する ID)を設定します。

手順 1. Portworx のインストール

新規に Portworx のインストールを行い、PX-DR をセットアップします。

まず、Spec Generator で、クラスタごとに異なる Spec ファイルを準備します。基本的なインストールの方法は、以前のブログ「Portworx Enterprise のインストール」で解説しておりますので、そちらをご参照ください。

PX-DR を設定する際の留意点

  • ETCD は Your etcd details を選択し、用意した etcd のアドレスを登録してください。
    Portworx PX-DR Synchronous Replication
  • 以降は、環境に沿って Spec ファイルを作成してダウンロードします。ダウンロードした Spec ファイルをアクティブ / スタンバイのそれぞれのクラスタ用にコピーします。その際、クラスタ ID と Kvdb のエンド・ポイントが同じであり、1 つの Portworx クラスタが 2 つの Kubernetes クラスタにまたがっている状態にします。cluster_domain パラメータをアクティブ / スタンバイでそれぞれ異なる名前を設定します。
    例:アクティブ側:purejp-primary01、スタンバイ側:purejp-secondary01

  • 上記のマニフェスト・ファイルをアクティブ及びスタンバイ Kubernetes クラスタそれぞれに適用します。
  • 作成した Portworx クラスタがストレッチ・クラスタ(Stretched Cluster)として認識されていることを確認します。

    ドメイン ID:purejp-primary01 の Kubernetes クラスタ
    Portworx PX-DR Synchronous Replicationドメイン ID:purejp-secondary01 の Kubernetes クラスタ
    Portworx PX-DR Synchronous ReplicationPortworx 上では 1 つのストレッチ・クラスタとして認識されていることがわかります。

    Portworx PX-DR Synchronous Replication
  • Master ノード上で storkctl コマンドを実行し、各ドメインのクラスタ上のステータスがどちらも ACTIVE であることを確認します。

手順 2. ClusterPair

ある Kubernetes クラスタで実行しているアプリケーションを別の Kubernetes クラスタにフェイルオーバーするには、クラスタ間でリソース(Deployment やConfigMap、Secret など)をマイグレーションする必要があります。Portworx では、ClusterPair と呼ばれる、他の Kubernetes クラスタと通信するために必要な Trust Object を定義します。これにより、スケジューラ(Kubernetes)間にペアリングが作成され、全ての Kubernetes リソースをスケジューラ間でマイグレーションできるようになります。

Source クラスタと Destination クラスタの概念は Kubernetes レベルでのみ適用され、ストレージには適用されません。これは、両クラスタで単一の Portworx ストレージ・ファブリック(ストレッチ・クラスタ)が実行されているためです。

  • Source クラスタ:アプリケーションを実行している Kubernetes クラスタ
  • Destination クラスタ:Source クラスタでの障害発生時の、アプリケーションのフェイルオーバー先の Kubernetes クラスタ

ClusterPair は次の方法で生成します。

  1. Destination クラスタ上で ClusterPair スペックを生成します。

    出力は次のようになります。
  2. <insert_storage_options_here>: “” の行を削除して options には何も指定せず、上記の内容を Source クラスタ上で clusterpair.yaml というファイル名で保存し、適用します。
  3. Source クラスタの Master ノード上で次のコマンドを実行し、ペアのステータスを確認します。

    上記のように出力されれば、正常に ClusterPare が生成できていることになります。

手順 3. クラスタを同期

ペアになっている Source クラスタと Destination クラスタ間で Kubernetes リソースを同期するには、それらを定期的にマイグレーションする必要があります。

ボリューム上のデータ(Persistent Volume)は、同期レプリケーションの機能を使ってクラスタ間で同期します。ここでは、それ以外の Secret、ConfigMaps、Service などの Kubernetes リソースを定期的にアクティブ側のクラスタからスタンバイ側に同期します。

スケジュール・ポリシーの生成

マイグレーションをスケジュールするには、スケジュール・ポリシーを作成します。

  1. blue という名前の名前空間上のリソースを 1 分間隔でマイグレーションするようにスケジューリングします。ここではbluepolicy.yaml というファイルにポリシーを生成します。
  2. 次のコマンドでポリシーを適用します。
  3. 生成されたスケジュール・ポリシーを表示します。

マイグレーションのスケジューリング

マイグレーション・スケジュールにより、SchedulePolicy とマイグレーションを関連付けることができます。上述の bluepolicy を使用した例を以下に示します。このマイグレーションは blue という名前空間を指し、その名前空間で remotecluster という名前の clusterPair が存在する場合、それを使用します。また、includeResourcesincludeVolumes、および startApplicationsspec の中で指定することで、マイグレーションを制御できます。

  • includeResources:Secret、ConfigMaps、Service など、ボリュームに関連付けられた Kubernetes オブジェクトを含めるかどうか。
  • includeVolumes:PVC に関連付けられた Portworx ボリュームのマイグレーションを含めるかどうか。
  • startApplications:リソースやボリュームが同期された後、Destination クラスタでアプリケーションを開始するかどうか。false に設定すると、同期した Deployment や Statefulset は Destination クラスタ上で replicas=0 と設定され、フェイルオーバー後に手動で起動します。true に設定すると、同期された Deployment や Statefulset は Destination クラスタ上で自動的に起動します。

次のコマンドで、マイグレーションが正常に行われているかを確認できます。

手順 4. アプリケーションのフェイルオーバー

Kubernetes クラスタの 1 つがダウンしてアクセスできないという災害が発生した場合は、アプリケーションは稼働中の別の Kubernetes クラスタにフェイルオーバーする必要があります。

  • ダウンした Kubernetes クラスタ
    例:cluster_domain: purejp-primary01
  • フェイルオーバー先の Kubernetes クラスタ
    例:cluster_domain: purejp-secondary01

アプリケーション(名前空間)をフェイルオーバーするには、Kubernetes クラスタの 1 つがダウンしていて非アクティブであることを Portworx に指示します。

Fail したクラスタ・ドメインの非アクティブ化

ここでは、storkctl コマンドを実行して Source クラスタを手動で非アクティブ化します。

ドメインが正常に非アクティブ化(INACTIVE)されていることを確認します。

Source クラスタ上のアプリケーションの停止(アクセス可能な場合)

Source クラスタがまだ有効でアクセス可能な場合は、アプリケーションを Destination クラスタにフェイルオーバーする前にアプリケーションを停止することをお勧めします。

Deployment と StatefulSet のレプリカ数を 0 に変更することで、アプリケーションの実行を停止できます。アプリケーション・リソースは Kubernetes に残りますが、実際のアプリケーションは実行されません。

mysql デプロイメントのレプリカは 0 に設定されているため、Source クラスタでのマイグレーション・スケジュールを一時停止する必要があります。これは、Destination クラスタ上の mysql Deployment のレプリカが 0 に更新されないようにするためです。

Destination クラスタ上のアプリケーションの起動

上述の「マイグレーションのスケジューリング」の項では、 startApplications: false に設定したため、アプリケーションは自動的には実行されません。レプリカ数を設定することで、アプリケーションをスケーリングできます。

各アプリケーションのスペックには stork.openstorage.org/migrationReplicas という Source クラスタでのレプリカ数を示すアノテーションを設定することができます。

レプリカ数が 0 から更新されると、アプリケーションは実行を開始し、フェイルオーバーが完了します。

次のコマンドを使用して、アプリケーションをスケーリングできます。

あるいは、以下のようにスペックに指定されたアノテーションを検索し、自動的に正しい数にスケーリングします。

手順 5. アプリケーションのフェイルバック

フェイルした Kubernetes クラスタがリカバリして起動した際は、そのクラスタ内のノードはすぐには Portworx クラスタに参加しません。このクラスタ・ドメインを明示的に Activate するまで、Out of Quorum の状態を維持します。

非アクティブ・クラスタ・ドメインのアクティブ化

フェイルバックを開始するには、まず、アクティブな Destination クラスタの Master ノード上で Source クラスタを Active としてマークします。

コマンドが成功したことを確認するには、次のチェックを実行します。

Destination クラスタでアプリケーションを停止

アプリケーションのフェイルオーバー先である Destination クラスタで、Source クラスタにフェイルバックするようにアプリケーションを停止します。

Deployment と StatefulSet のレプリカ数を 0 に変更することで、アプリケーションの実行を停止できます。

Source クラスタでアプリケーションを起動

Destination クラスタでアプリケーションを停止したら、Source クラスタでレプリカ数を変更してアプリケーションを再開します。

Source クラスタのマイグレーション・スケジュールを一時停止していた場合は、suspend: false に設定して解除します。

最後に storkctl を使用して、スケジュールが一時停止されていないことを確認します。

以上、PX-DR の同期レプリケーションの一連の流れをご説明しました。ここで同期レプリケーションのデモ動画をご紹介します。実際の動きをご覧いただけますので、こちらもぜひ参照ください。


Pure Storage、Pure Storage のロゴ、およびその他全ての Pure Storage のマーク、製品名、サービス名は、米国およびその他の国における Pure Storage, Inc. の商標または登録商標です。その他記載の会社名、製品名は、各社の商標または登録商標です。