跳到内容跳到页面导航:上一页 [access key p]/下一页 [access key n]
documentation.suse.com / SUSE Enterprise Storage 7.1 文档 / 管理和操作指南 / 集群操作 / 备份和恢复
适用范围 SUSE Enterprise Storage 7.1

15 备份和恢复

本章说明您应当备份 Ceph 集群的哪些部分才能恢复集群功能。

15.1 备份集群配置和数据

15.1.1 备份 ceph-salt 配置

导出集群配置。有关详细信息,请参见第 7.2.14 节 “导出集群配置”

15.1.2 备份 Ceph 配置

备份 /etc/ceph 目录。该目录包含至关重要的集群配置。例如,当您需要替换管理节点时,就需要备份 /etc/ceph

15.1.3 备份 Salt 配置

您需要备份 /etc/salt/ 目录。该目录包含 Salt 配置文件,例如 Salt 主控端密钥和已接受的客户端密钥。

从严格意义上来说,备份管理节点并不需要备份 Salt 文件,但这些文件能够简化 Salt 集群的重新部署。如果不备份这些文件,就需要在新管理节点上重新注册 Salt 受控端。

注意
注意:Salt 主控端私用密钥的安全性

务必将 Salt 主控端私用密钥的备份存储在安全位置。Salt 主控端密钥可用于操纵所有集群节点。

15.1.4 备份自定义配置

  • Prometheus 数据和自定义。

  • Grafana 自定义。

  • 手动更改 iSCSI 配置。

  • Ceph 密钥。

  • CRUSH 索引和 CRUSH 规则。通过运行以下命令将包含 CRUSH 规则的反编译 CRUSH 索引保存到 crushmap-backup.txt 中:

    cephuser@adm > ceph osd getcrushmap | crushtool -d - -o crushmap-backup.txt
  • Samba 网关配置。如果您使用的是单个网关,请备份 /etc/samba/smb.conf。如果您使用的是 HA 设置,还需要备份 CTDB 和 Pacemaker 配置文件。有关 Samba 网关所使用配置的详细信息,请参见第 24 章 “通过 Samba 导出 Ceph 数据

  • NFS Ganesha 配置。仅当使用 HA 设置时需要备份。有关 NFS Ganesha 所使用配置的详细信息,请参见第 25 章 “NFS Ganesha

15.2 恢复 Ceph 节点

从备份中恢复节点的过程就是重新安装节点,替换其配置文件,然后重新编制集群,以便重新添加替换节点。

如果您需要重新部署管理节点,请参见第 13.5 节 “将 Salt 主控端移至新节点”

对于受控端 ,通常更容易简化重构建和重新部署。

  1. 重新安装节点。有关详细信息,请参见第 5 章 “安装和配置 SUSE Linux Enterprise Server

  2. 安装 Salt。有关详细信息,请参见第 6 章 “部署 Salt

  3. 从备份恢复 /etc/salt 目录后,启用并重启动适用的 Salt 服务,例如:

    root@master # systemctl enable salt-master
    root@master # systemctl start salt-master
    root@master # systemctl enable salt-minion
    root@master # systemctl start salt-minion
  4. 从所有受控端中删除旧 Salt 主控端节点的公共主控端密钥。

    root@master # rm /etc/salt/pki/minion/minion_master.pub
    root@master # systemctl restart salt-minion
  5. 恢复管理节点的所有本地内容。

  6. 从之前导出的 JSON 文件导入集群配置。有关更多详细信息,请参见第 7.2.14 节 “导出集群配置”

  7. 应用导入的集群配置:

    root@master # ceph-salt apply