适用于 SUSE Enterprise Storage 6

12 安装 NFS Ganesha

使用 NFS Ganesha 可通过 NFS 访问对象网关或 CephFS。SUSE Enterprise Storage 6 支持 NFS 版本 3 和 4。NFS Ganesha 在用户空间而不是内核空间中运行,直接与对象网关或 CephFS 交互。

警告
警告:跨协议访问

本机 CephFS 和 NFS 客户端不受通过 Samba 获取的文件锁定限制,反之亦然。如果通过其他方式访问 CephFS 支持的 Samba 共享路径,则依赖跨协议文件锁定的应用可能会出现数据损坏情况。

12.1 准备

12.1.1 一般信息

要成功部署 NFS Ganesha,需要将 role-ganesha 添加到 /srv/pillar/ceph/proposals/policy.cfg。有关详细信息,请参见第 5.5.1 节 “policy.cfg 文件”。要使用 NFS Ganesha,还需要在 policy.cfg 中指定 role-rgwrole-mds

尽管可以在现有的 Ceph 节点上安装并运行 NFS Ganesha 服务器,但建议在能够访问 Ceph 集群的专用主机上运行该服务器。客户端主机通常不是集群的一部分,但需要能够通过网络访问 NFS Ganesha 服务器。

要在完成初始安装后随时启用 NFS Ganesha 服务器,请将 role-ganesha 添加到 policy.cfg,并至少重新运行 DeepSea 阶段 2 和 4。有关详细信息,请参见第 5.3 节 “集群部署”

NFS Ganesha 是通过 NFS Ganesha 节点上的 /etc/ganesha/ganesha.conf 文件配置的。但是,每次执行 DeepSea 阶段 4,都会重写此文件。因此,建议编辑 Salt 使用的模板,即 Salt Master 上的 /srv/salt/ceph/ganesha/files/ganesha.conf.j2 文件。有关配置文件的详细信息,请参见第 21.2 节 “配置”

12.1.2 要求摘要

在执行 DeepSea 阶段 2 和 4 来安装 NFS Ganesha 之前,必须满足以下要求:

  • 至少为一个节点指定 role-ganesha

  • 对于每个 Minion,只能定义一个 role-ganesha

  • NFS Ganesha 需要对象网关或 CephFS 才能正常工作。

  • 需要禁用具有 role-ganesha 角色的 Minion 上基于内核的 NFS。

12.2 示例安装

此过程提供了一个安装示例,该示例使用 NFS Ganesha 的对象网关和 CephFS 文件系统抽象层 (FSAL)。

  1. 先执行 DeepSea 阶段 0 和 1(如果尚未这样做),然后继续执行此过程。

    root@master # salt-run state.orch ceph.stage.0
    root@master # salt-run state.orch ceph.stage.1
  2. 执行 DeepSea 的阶段 1 之后,编辑 /srv/pillar/ceph/proposals/policy.cfg 并添加下行

    role-ganesha/cluster/NODENAME

    NODENAME 替换为集群中某个节点的名称。

    另外,请确保已指定 role-mdsrole-rgw

  3. 至少执行 DeepSea 的阶段 2 和 4。建议运行中间的阶段 3。

    root@master # salt-run state.orch ceph.stage.2
    root@master # salt-run state.orch ceph.stage.3 # optional but recommended
    root@master # salt-run state.orch ceph.stage.4
  4. 检查 Minion 节点上是否正在运行 NFS Ganesha 服务,以确认 NFS Ganesha 是否在工作:

    root@master # salt -I roles:ganesha service.status nfs-ganesha
    MINION_ID:
        True

12.3 高可用性主动-被动配置

本节提供一个示例来说明如何设置 NFS Ganesha 服务器的双节点主动-被动配置。该设置需要 SUSE Linux Enterprise High Availability Extension。两个节点分别名为 earthmars

重要
重要:服务共置

自身具有容错和负载平衡能力的服务不应在已被屏蔽以执行故障转移服务的集群节点上运行。因此,请勿在高可用性设置中运行 Ceph Monitor、元数据服务器、iSCSI 或 Ceph OSD 服务。

有关 SUSE Linux Enterprise High Availability Extension 的详细信息,请参见 https://www.suse.com/documentation/sle-ha-15/

12.3.1 基本安装

在此设置中,earth 的 IP 地址为 192.168.1.1mars 的地址为 192.168.1.2

此外,使用了两个浮动虚拟 IP 地址,这样无论服务在哪个物理节点上运行,客户端都可连接到服务。192.168.1.10 用于通过 Hawk2 进行集群管理,192.168.2.1 专门用于 NFS 导出项。这样,以后便可更轻松地应用安全限制。

以下过程介绍示例安装。https://www.suse.com/documentation/sle-ha-15/book_sleha_quickstarts/data/art_sleha_install_quick.html 上提供了更多详细信息。

  1. 在 Salt Master 上准备 NFS Ganesha 节点:

    1. 运行 DeepSea 阶段 0 到 1。

      root@master # salt-run state.orch ceph.stage.0
      root@master # salt-run state.orch ceph.stage.1
    2. /srv/pillar/ceph/proposals/policy.cfg 中为节点 earthmars 指定 role-ganesha

      role-ganesha/cluster/earth*.sls
      role-ganesha/cluster/mars*.sls
    3. 运行 DeepSea 阶段 2 到 4。

      root@master # salt-run state.orch ceph.stage.2
      root@master # salt-run state.orch ceph.stage.3
      root@master # salt-run state.orch ceph.stage.4
  2. earthmars 上注册 SUSE Linux Enterprise High Availability Extension。

    root # SUSEConnect -r ACTIVATION_CODE -e E_MAIL
  3. 在两个节点上安装 ha-cluster-bootstrap

    root # zypper in ha-cluster-bootstrap
    1. earth 上初始化集群:

      root@earth # ha-cluster-init
    2. mars 加入该集群:

      root@mars # ha-cluster-join -c earth
  4. 检查集群的状态。您应该会看到两个节点都已添加到集群中:

    root@earth # crm status
  5. 在这两个节点上,禁用引导时自动启动 NFS Ganesha 服务的功能:

    root # systemctl disable nfs-ganesha
  6. earth 上启动 crm 外壳:

    root@earth # crm configure

    后续命令在 crm 外壳中执行。

  7. earth 上,运行 crm 外壳来执行以下命令,以便将 NFS Ganesha 守护进程的资源配置为 systemd 资源类型的克隆:

    crm(live)configure# primitive nfs-ganesha-server systemd:nfs-ganesha \
    op monitor interval=30s
    crm(live)configure# clone nfs-ganesha-clone nfs-ganesha-server meta interleave=true
    crm(live)configure# commit
    crm(live)configure# status
        2 nodes configured
        2 resources configured
    
        Online: [ earth mars ]
    
        Full list of resources:
             Clone Set: nfs-ganesha-clone [nfs-ganesha-server]
             Started:  [ earth mars ]
  8. 使用 crm 外壳创建一个原始 IPAddr2:

    crm(live)configure# primitive ganesha-ip IPaddr2 \
    params ip=192.168.2.1 cidr_netmask=24 nic=eth0 \
    op monitor interval=10 timeout=20
    
    crm(live)# status
    Online: [ earth mars  ]
    Full list of resources:
     Clone Set: nfs-ganesha-clone [nfs-ganesha-server]
         Started: [ earth mars ]
     ganesha-ip    (ocf::heartbeat:IPaddr2):    Started earth
  9. 为了在 NFS Ganesha 服务器与浮动虚拟 IP 之间建立关系,我们使用了共置和顺序约束。

    crm(live)configure# colocation ganesha-ip-with-nfs-ganesha-server inf: ganesha-ip nfs-ganesha-clone
    crm(live)configure# order ganesha-ip-after-nfs-ganesha-server Mandatory: nfs-ganesha-clone ganesha-ip
  10. 从客户端使用 mount 命令,以确保完成集群设置:

    root # mount -t nfs -v -o sync,nfsvers=4 192.168.2.1:/ /mnt

12.3.2 清理资源

如果其中一个节点(例如 earth)上发生 NFS Ganesha 故障,请解决问题并清理资源。如果 NFS Ganesha 在 mars 上发生故障,则只有在清理资源之后,该资源才能故障回复到 earth

要清理资源,请执行以下命令:

root@earth # crm resource cleanup nfs-ganesha-clone earth
root@earth # crm resource cleanup ganesha-ip earth

12.3.3 设置 Ping 资源

有时,服务器可能由于网络问题而无法访问客户端。Ping 资源可以检测并缓解此问题。配置此资源的操作是可选的。

  1. 定义 ping 资源:

    crm(live)configure# primitive ganesha-ping ocf:pacemaker:ping \
            params name=ping dampen=3s multiplier=100 host_list="CLIENT1 CLIENT2" \
            op monitor interval=60 timeout=60 \
            op start interval=0 timeout=60 \
            op stop interval=0 timeout=60

    host_list 是以空格分隔的 IP 地址列表。系统将会定期 ping 这些 IP 地址,以检查网络中断问题。如果某个客户端必须始终能够访问 NFS 服务器,请将该客户端添加到 host_list

  2. 创建克隆资源:

    crm(live)configure# clone ganesha-ping-clone ganesha-ping \
            meta interleave=true
  3. 以下命令会创建 NFS Ganesha 服务的约束。当 host_list 不可访问时,此约束会强制服务转移到另一节点。

    crm(live)configure# location nfs-ganesha-server-with-ganesha-ping
            nfs-ganesha-clone \
            rule -inf: not_defined ping or ping lte 0

12.3.4 NFS Ganesha HA 和 DeepSea

DeepSea 不支持配置 NFS Ganesha HA。为了防止在配置 NFS Ganesha HA 之后 DeepSea 失败,请从 DeepSea 阶段 4 中排除 NFS Ganesha 服务的启动和停止:

  1. /srv/salt/ceph/ganesha/default.sls 复制到 /srv/salt/ceph/ganesha/ha.sls

  2. /srv/salt/ceph/ganesha/ha.sls 中删除 .service 项,使文件内容如下所示:

    include:
    - .keyring
    - .install
    - .configure
  3. 将下行添加到 /srv/pillar/ceph/stack/global.yml

    ganesha_init: ha

12.4 主动-主动配置

本节提供简单的主动-主动 NFS Ganesha 设置示例。该示例的目标是部署两个放置在同一现有 CephFS 上的 NFS Ganesha 服务器。服务器是两个具有不同地址的 Ceph 集群节点。需要在这两个节点之间手动分布客户端。此配置中的故障转移指的是在客户端上手动卸载并重新装入另一个服务器。

12.4.1 先决条件

对于该示例配置,您需要拥有以下资源:

  • 运行中的 Ceph 集群。有关使用 DeepSea 部署和配置 Ceph 集群的详细信息,请参见第 5.3 节 “集群部署”

  • 至少有一个经过配置的 CephFS。有关部署和配置 CephFS 的更多详细信息,请参见第 11 章 “安装 CephFS

  • 两个部署了 NFS Ganesha 的 Ceph 集群节点。有关部署 NFS Ganesha 的更多详细信息,请参见第 12 章 “安装 NFS Ganesha

    提示
    提示:使用专用服务器

    尽管 NFS Ganesha 节点可与其他 Ceph 相关服务共享资源,我们仍建议使用专用服务器,以便提升性能。

部署 NFS Ganesha 节点之后,请确认集群是否可运作,并且存在默认的 CephFS 存储池:

cephadm@adm > rados lspools
cephfs_data
cephfs_metadata

12.4.2 配置 NFS Ganesha

检查两个 NFS Ganesha 节点是否安装了文件 /etc/ganesha/ganesha.conf。将以下段落(如果尚未存在)添加到配置文件中,以便将 RADOS 作为 NFS Ganesha 的恢复后端。

NFS_CORE_PARAM
{
    Enable_NLM = false;
    Enable_RQUOTA = false;
    Protocols = 4;
}
NFSv4
{
    RecoveryBackend = rados_cluster;
    Minor_Versions = 1,2;
}
CACHEINODE {
    Dir_Chunk = 0;
    NParts = 1;
    Cache_Size = 1;
}
RADOS_KV
{
    pool = "rados_pool";
    namespace = "pool_namespace";
    nodeid = "fqdn"
    UserId = "cephx_user_id";
    Ceph_Conf = "path_to_ceph.conf"
}

您可以检查配置格式如下的现有行,以确定 rados_poolpool_namespace 的值:

%url rados://rados_pool/pool_namespace/...

nodeid 选项的值与计算机的 FQDN 相对应,并且 UserIdCeph_Conf 选项值可在已存在的 RADOS_URLS 段落中找到。

由于旧版 NFS 不允许我们通过将宽限期提前来延长服务器重启动过程,我们在早于 4.2 的版本中禁用了 NFS 选项。此外,我们还禁用了大多数 NFS Ganesha 缓存,因为 Ceph 库已经在使用激进缓存模式。

“rados_cluster”恢复后端将其信息存储在 RADOS 对象中。尽管数据量不大,我们仍希望其具有高可用性。出于此目的,我们使用 CephFS 元数据存储池,并在其中声明一个新的“ganesha”名称空间,使其不同于 CephFS 对象。

注意
注意:集群节点 ID

两个主机的大多数配置都是相同的,不过,各节点“RADOS_KV”段落中的 nodeid 选项需要设置为不同的字符串。NFS Ganesha 默认会将 nodeid 设置为节点的主机名。

如果您需要使用主机名以外的其他固定值,可以在一个节点上设置 nodeid = 'a'(示例设置),在另一个节点上设置 nodeid = 'b'

12.4.3 填充集群宽限数据库

我们需要确认集群中的所有节点都知道彼此的存在。此目的通过在主机之间共享的 RADOS 对象来实现。NFS Ganesha 使用此对象传达与宽限期有关的当前状态。

nfs-ganesha-rados-grace 包包含一个用于查询和操作此数据库的命令行工具。如果至少有一个节点上未安装该包,请运行以下命令加以安装:

root # zypper install nfs-ganesha-rados-grace

我们将使用该命令来创建数据库并添加两个 nodeid。在本示例中,两个 NFS Ganesha 节点分别命名为 ses6min1.example.comses6min2.example.com。在其中一个 NFS Ganesha 主机上运行以下命令:

cephadm@adm > ganesha-rados-grace -p cephfs_metadata -n ganesha add ses6min1.example.com
cephadm@adm > ganesha-rados-grace -p cephfs_metadata -n ganesha add ses6min2.example.com
cephadm@adm > ganesha-rados-grace -p cephfs_metadata -n ganesha
cur=1 rec=0
======================================================
ses6min1.example.com     E
ses6min2.example.com     E

此命令会创建宽限数据库,并向其添加“ses6min1.example.com”和“ses6min2.example.com”。最后一个命令可转储当前状态。新添加的主机始终被视为将强制执行宽限期,因此会为它们设置“E”标志。“cur”和“rec”值显示当前和恢复版本号,我们通过这种方法来跟踪允许主机恢复的内容以及时间。

12.4.4 重启动 NFS Ganesha 服务

在两个 NFS Ganesha 节点上,重启动相关服务:

root # systemctl restart nfs-ganesha.service

服务重启动后,检查宽限数据库:

cephadm@adm > ganesha-rados-grace -p cephfs_metadata -n ganesha
cur=3 rec=0
======================================================
ses6min1.example.com
ses6min2.example.com
注意
注意:清除了“E”标志

请注意,两个节点均已清除其“E”标志,表示它们不再强制实施宽限期,并且现在处于正常操作模式。

12.4.5 结束

完成上述所有步骤之后,您可以装入从这两个 NFS Ganesha 服务器中的任意一个导出的 NFS,并对它们执行常规 NFS 操作。

我们的示例配置假设,如果这两个 NFS Ganesha 服务器中的其中一个变为停用状态,您将在 5 分钟内手动将其重启动。5 分钟后,元数据服务器可能会取消 NFS Ganesha 客户端拥有的会话以及与其关联的所有状态。如果在集群的其余节点进入宽限期之前取消该会话的功能,服务器的客户端可能无法恢复其所有状态。

12.5 更多信息

更多信息可以在第 21 章 “NFS Ganesha:通过 NFS 导出 Ceph 数据中找到。

打印此页