15 备份和恢复 #
本章说明您应当备份 Ceph 集群的哪些部分才能恢复集群功能。
15.1 备份集群配置和数据 #
15.1.1 备份 ceph-salt
配置 #
导出集群配置。有关详细信息,请参见第 7.2.14 节 “导出集群配置”。
15.1.2 备份 Ceph 配置 #
备份 /etc/ceph
目录。该目录包含至关重要的集群配置。例如,当您需要替换管理节点时,就需要备份 /etc/ceph
。
15.1.3 备份 Salt 配置 #
您需要备份 /etc/salt/
目录。该目录包含 Salt 配置文件,例如 Salt 主控端密钥和已接受的客户端密钥。
从严格意义上来说,备份管理节点并不需要备份 Salt 文件,但这些文件能够简化 Salt 集群的重新部署。如果不备份这些文件,就需要在新管理节点上重新注册 Salt 受控端。
务必将 Salt 主控端私用密钥的备份存储在安全位置。Salt 主控端密钥可用于操纵所有集群节点。
15.1.4 备份自定义配置 #
Prometheus 数据和自定义。
Grafana 自定义。
手动更改 iSCSI 配置。
Ceph 密钥。
CRUSH 索引和 CRUSH 规则。通过运行以下命令将包含 CRUSH 规则的反编译 CRUSH 索引保存到
crushmap-backup.txt
中:cephuser@adm >
ceph osd getcrushmap | crushtool -d - -o crushmap-backup.txtSamba 网关配置。如果您使用的是单个网关,请备份
/etc/samba/smb.conf
。如果您使用的是 HA 设置,还需要备份 CTDB 和 Pacemaker 配置文件。有关 Samba 网关所使用配置的详细信息,请参见第 24 章 “通过 Samba 导出 Ceph 数据”。NFS Ganesha 配置。仅当使用 HA 设置时需要备份。有关 NFS Ganesha 所使用配置的详细信息,请参见第 25 章 “NFS Ganesha”。
15.2 恢复 Ceph 节点 #
从备份中恢复节点的过程就是重新安装节点,替换其配置文件,然后重新编制集群,以便重新添加替换节点。
如果您需要重新部署管理节点,请参见第 13.5 节 “将 Salt 主控端移至新节点”。
对于受控端 ,通常更容易简化重构建和重新部署。
重新安装节点。有关详细信息,请参见第 5 章 “安装和配置 SUSE Linux Enterprise Server”
安装 Salt。有关详细信息,请参见第 6 章 “部署 Salt”
从备份恢复
/etc/salt
目录后,启用并重启动适用的 Salt 服务,例如:root@master #
systemctl
enable salt-masterroot@master #
systemctl
start salt-masterroot@master #
systemctl
enable salt-minionroot@master #
systemctl
start salt-minion从所有受控端中删除旧 Salt 主控端节点的公共主控端密钥。
root@master #
rm
/etc/salt/pki/minion/minion_master.pubroot@master #
systemctl
restart salt-minion恢复管理节点的所有本地内容。
从之前导出的 JSON 文件导入集群配置。有关更多详细信息,请参见第 7.2.14 节 “导出集群配置”。
应用导入的集群配置:
root@master #
ceph-salt apply