15 バックアップおよび復元 #
この章では、Cephクラスタの機能を復元できるようにするには、クラスタのどの部分をバックアップする必要があるかについて説明します。
15.1 クラスタ設定とデータのバックアップ #
15.1.1 ceph-salt
設定のバックアップ #
クラスタ設定をエクスポートします。詳細情報については、7.2.14項 「クラスタ設定のエクスポート」を参照してください。
15.1.2 Ceph設定のバックアップ #
/etc/ceph
ディレクトリをバックアップします。ここには、重要なクラスタ設定が含まれています。たとえば、管理ノードを交換する必要がある場合、/etc/ceph
のバックアップが必要になります。
15.1.3 Salt設定のバックアップ #
/etc/salt/
ディレクトリをバックアップする必要があります。ここには、Salt Masterのキーや受け付けたクライアントキーなど、Saltの各種設定ファイルが含まれています。
管理ノードをバックアップする場合にSaltのファイルは厳密には必須ではありませんが、バックアップしておくとSaltクラスタの再展開が容易になります。これらのファイルのバックアップがないと、新しい管理ノードで再度Salt Minionを登録する必要があります。
Salt Masterの秘密鍵のバックアップは必ず安全な場所に保存してください。Salt Masterのキーを使用すると、すべてのクラスタノードを操作できます。
15.1.4 カスタム設定のバックアップ #
Prometheusのデータおよびカスタマイズ。
Grafanaのカスタマイズ。
iSCSI設定の手動変更。
Cephの各種キー。
CRUSHマップおよびCRUSHルール。次のコマンドを実行して、CRUSHルールを含む、逆コンパイルされたCRUSHマップを
crushmap-backup.txt
に保存します。cephuser@adm >
ceph osd getcrushmap | crushtool -d - -o crushmap-backup.txtSamba Gatewayの設定。ゲートウェイを1つ使用している場合は、
/etc/samba/smb.conf
をバックアップします。HAセットアップを使用している場合は、CTDB設定ファイルとPacemaker設定ファイルもバックアップします。Samba Gatewayで使用する設定の詳細については、第24章 「Sambaを介したCephデータのエクスポート」を参照してください。NFS Ganeshaの設定。HAセットアップの使用時にのみ必要です。NFS Ganeshaで使用する設定の詳細については、第25章 「NFS Ganesha」を参照してください。
15.2 Cephノードの復元 #
バックアップからノードを復元する手順では、ノードを再インストールして設定ファイルを置き換えた後、置換ノードが再度追加されるようにクラスタを再度オーケストレーションします。
管理ノードの再展開が必要な場合は、13.5項 「新しいノードへのSalt Masterの移動」を参照してください。
ミニオンについては、単に再構築と再展開を行った方が簡単な場合が多いです。
ノードを再インストールします。詳細については、第5章 「SUSE Linux Enterprise Serverのインストールと設定」を参照してください。
Saltをインストールします。詳細については第6章 「Saltの展開」を参照してください。
/etc/salt
ディレクトリがバックアップから復元されると、関連するSaltサービスを再開できるようになります。以下に例を示します。root@master #
systemctl
enable salt-masterroot@master #
systemctl
start salt-masterroot@master #
systemctl
enable salt-minionroot@master #
systemctl
start salt-minionすべてのミニオンから古いSalt Masterノード用の公開マスター鍵を削除します。
root@master #
rm
/etc/salt/pki/minion/minion_master.pubroot@master #
systemctl
restart salt-minion管理ノードのローカルに置かれていたファイルをすべて復元します。
事前にエクスポートしたJSONファイルからクラスタ設定をインポートします。詳細については、7.2.14項 「クラスタ設定のエクスポート」を参照してください。
インポートしたクラスタ設定を適用します。
root@master #
ceph-salt apply