15 备份和恢复 #
本章说明您应当备份 Ceph 集群的哪些部分才能恢复集群功能。
15.1 备份集群配置和数据 #
15.1.1 备份 ceph-salt 配置 #
导出集群配置。有关详细信息,请参见第 7.2.14 节 “导出集群配置”。
15.1.2 备份 Ceph 配置 #
    备份 /etc/ceph 目录。该目录包含至关重要的集群配置。例如,当您需要替换管理节点时,就需要备份 /etc/ceph。
   
15.1.3 备份 Salt 配置 #
    您需要备份 /etc/salt/ 目录。该目录包含 Salt 配置文件,例如 Salt 主控端密钥和已接受的客户端密钥。
   
从严格意义上来说,备份管理节点并不需要备份 Salt 文件,但这些文件能够简化 Salt 集群的重新部署。如果不备份这些文件,就需要在新管理节点上重新注册 Salt 受控端。
务必将 Salt 主控端私用密钥的备份存储在安全位置。Salt 主控端密钥可用于操纵所有集群节点。
15.1.4 备份自定义配置 #
- Prometheus 数据和自定义。 
- Grafana 自定义。 
- 手动更改 iSCSI 配置。 
- Ceph 密钥。 
- CRUSH 索引和 CRUSH 规则。通过运行以下命令将包含 CRUSH 规则的反编译 CRUSH 索引保存到 - crushmap-backup.txt中:- cephuser@adm >ceph osd getcrushmap | crushtool -d - -o crushmap-backup.txt
- Samba 网关配置。如果您使用的是单个网关,请备份 - /etc/samba/smb.conf。如果您使用的是 HA 设置,还需要备份 CTDB 和 Pacemaker 配置文件。有关 Samba 网关所使用配置的详细信息,请参见第 24 章 “通过 Samba 导出 Ceph 数据”。
- NFS Ganesha 配置。仅当使用 HA 设置时需要备份。有关 NFS Ganesha 所使用配置的详细信息,请参见第 25 章 “NFS Ganesha”。 
15.2 恢复 Ceph 节点 #
从备份中恢复节点的过程就是重新安装节点,替换其配置文件,然后重新编制集群,以便重新添加替换节点。
如果您需要重新部署管理节点,请参见第 13.5 节 “将 Salt 主控端移至新节点”。
对于受控端 ,通常更容易简化重构建和重新部署。
- 重新安装节点。有关详细信息,请参见第 5 章 “安装和配置 SUSE Linux Enterprise Server” 
- 安装 Salt。有关详细信息,请参见第 6 章 “部署 Salt” 
- 从备份恢复 - /etc/salt目录后,启用并重启动适用的 Salt 服务,例如:- root@master #- systemctlenable salt-master- root@master #- systemctlstart salt-master- root@master #- systemctlenable salt-minion- root@master #- systemctlstart salt-minion
- 从所有受控端中删除旧 Salt 主控端节点的公共主控端密钥。 - root@master #- rm/etc/salt/pki/minion/minion_master.pub- root@master #- systemctlrestart salt-minion
- 恢复管理节点的所有本地内容。 
- 从之前导出的 JSON 文件导入集群配置。有关更多详细信息,请参见第 7.2.14 节 “导出集群配置”。 
- 应用导入的集群配置: - root@master #ceph-salt apply