目次にジャンプページナビゲーションにジャンプ: 前のページ[アクセスキーp]/次のページ[アクセスキーn]
documentation.suse.com / SUSE Enterprise Storage 7マニュアル / 運用と管理ガイド / クラスタの運用 / バックアップおよび復元
適用項目 SUSE Enterprise Storage 7

15 バックアップおよび復元

この章では、Cephクラスタの機能を復元できるようにするには、クラスタのどの部分をバックアップする必要があるかについて説明します。

15.1 クラスタ設定とデータのバックアップ

15.1.1 ceph-salt設定のバックアップ

クラスタ設定をエクスポートします。詳細情報については、5.3.2.15項 「クラスタ設定のエクスポート」を参照してください。

15.1.2 Ceph設定のバックアップ

/etc/cephディレクトリをバックアップします。ここには、重要なクラスタ設定が含まれています。たとえば、管理ノードを交換する必要がある場合、/etc/cephのバックアップが必要になります。

15.1.3 Salt設定のバックアップ

/etc/salt/ディレクトリをバックアップする必要があります。ここには、Salt Masterのキーや受け付けたクライアントキーなど、Saltの各種設定ファイルが含まれています。

管理ノードをバックアップする場合にSaltのファイルは厳密には必須ではありませんが、バックアップしておくとSaltクラスタの再展開が容易になります。これらのファイルのバックアップがないと、新しい管理ノードで再度Salt Minionを登録する必要があります。

注記
注記: Salt Masterの秘密鍵のセキュリティ

Salt Masterの秘密鍵のバックアップは必ず安全な場所に保存してください。Salt Masterのキーを使用すると、すべてのクラスタノードを操作できます。

15.1.4 カスタム設定のバックアップ

  • Prometheusのデータおよびカスタマイズ。

  • Grafanaのカスタマイズ。

  • iSCSI設定の手動変更。

  • Cephの各種キー。

  • CRUSHマップおよびCRUSHルール。次のコマンドを実行して、CRUSHルールを含む、逆コンパイルされたCRUSHマップをcrushmap-backup.txtに保存します。

    cephuser@adm > ceph osd getcrushmap | crushtool -d - -o crushmap-backup.txt
  • Samba Gatewayの設定。ゲートウェイを1つ使用している場合は、/etc/samba/smb.confをバックアップします。HAセットアップを使用している場合は、CTDB設定ファイルとPacemaker設定ファイルもバックアップします。Samba Gatewayで使用する設定の詳細については、第24章 「Sambaを介したCephデータのエクスポートを参照してください。

  • NFS Ganeshaの設定。HAセットアップの使用時にのみ必要です。NFS Ganeshaで使用する設定の詳細については、第25章 「NFS Ganeshaを参照してください。

15.2 Cephノードの復元

バックアップからノードを復元する手順では、ノードを再インストールして設定ファイルを置き換えた後、置換ノードが再度追加されるようにクラスタを再度オーケストレーションします。

管理ノードの再展開が必要な場合は、13.5項 「新しいノードへのSalt Masterの移動」を参照してください。

ミニオンについては、単に再構築と再展開を行った方が簡単な場合が多いです。

  1. ノードを再インストールします。詳細については、5.1項 「SUSE Linux Enterprise Serverのインストールと設定」を参照してください。

  2. Saltをインストールします。詳細については5.2項 「Saltの展開」を参照してください。

  3. /etc/saltディレクトリがバックアップから復元されると、関連するSaltサービスを再開できるようになります。以下に例を示します。

    root@master # systemctl enable salt-master
    root@master # systemctl start salt-master
    root@master # systemctl enable salt-minion
    root@master # systemctl start salt-minion
  4. すべてのミニオンから古いSalt Masterノード用の公開マスター鍵を削除します。

    root@master # rm /etc/salt/pki/minion/minion_master.pub
    root@master # systemctl restart salt-minion
  5. 管理ノードのローカルに置かれていたファイルをすべて復元します。

  6. 事前にエクスポートしたJSONファイルからクラスタ設定をインポートします。詳細については、5.3.2.15項 「クラスタ設定のエクスポート」を参照してください。

  7. インポートしたクラスタ設定を適用します。

    root@master # ceph-salt apply