16.1 概述 #
NVM Express (NVMe) 是有关访问非易失性储存(通常是 SSD 磁盘)的接口标准。与 SATA 相比,NVMe 支持的速度要高得多,并且延迟更低。
NVMe over Fabric 是用于通过不同网络结构访问 NVMe 储存的体系结构。这些网络结构有 RDMA 或基于光纤通道的 NVMe (FC-NVMe) 等。NVMe over Fabric 的作用类似于 iSCSI。为提高容错能力,NVMe over Fabric 内置了多路径支持。
NVMe 主机是指连接到 NVMe 目标的计算机。NVMe 目标是指共享其 NVMe 块设备的计算机。
SUSE Linux Enterprise Server 12 SP5 支持 NVMe。提供了可用于 NVMe 块储存以及 NVMe over Fabric 目标和主机的内核模块。
要查看您的硬件是否有任何特殊注意事项,请参见第 16.4 节 “特殊硬件配置”。
16.2 设置 NVMe over Fabric 主机 #
要使用 NVMe over Fabric,必须在目标上使用支持的联网方法。支持的方法包括基于光纤通道的 NVMe 和 RDMA。以下几节介绍如何将主机连接到 NVMe 目标。
16.2.1 安装命令行客户端 #
要使用 NVMe over Fabric,需要安装 nvme
命令行工具。请使用 zypper
安装该工具:
tux >
sudo
zypper in nvme-cli
使用 nvme --help
可列出所有可用的子命令。我们提供了 nvme
子命令的手册页。执行 man nvme-SUBCOMMAND
可查阅相关的手册页。例如,要查看 discover
子命令的手册页,请执行 man nvme-discover
。
16.2.2 发现 NVMe over Fabric 目标 #
要列出 NVMe over Fabric 目标上的可用 NVMe 子系统,您需要有发现控制器地址和服务 ID。
tux >
sudo
nvme discover -t TRANSPORT -a DISCOVERY_CONTROLLER_ADDRESS -s SERVICE_ID
将 TRANSPORT 替换为底层传输媒体:loop
、rdma
或 fc
。将 DISCOVERY_CONTROLLER_ADDRESS 替换为发现控制器的地址。对于 RDMA,此地址应是 IPv4 地址。将 SERVICE_ID 替换为传输服务 ID。如果服务基于 IP(例如 RDMA),则服务 ID 指定端口号。对于光纤通道,不需要提供服务 ID。
NVMe 主机只会看到它们有权连接的子系统。
示例:
tux >
sudo
nvme discover -t rdma -a 10.0.0.1 -s 4420
有关更多细节,请参见 man nvme-discover
。
16.2.3 连接 NVMe over Fabric 目标 #
识别 NVMe 子系统后,便可以使用 nvme connect
命令来连接它。
tux >
sudo
nvme connect -t transport -a DISCOVERY_CONTROLLER_ADDRESS -s SERVICE_ID -n SUBSYSTTEM_NQN
将 TRANSPORT 替换为底层传输媒体:loop
、rdma
或 fc
。将 DISCOVERY_CONTROLLER_ADDRESS 替换为发现控制器的地址。对于 RDMA,此地址应是 IPv4 地址。将 SERVICE_ID 替换为传输服务 ID。如果服务基于 IP(例如 RDMA),则此 ID 指定端口号。将 SUBSYSTEM_NQN 替换为发现命令找到的所需子系统的 NVMe 限定名称。NQN 是 NVMe 限定名称 (NVMe Qualified Name) 的缩写。NQN 必须唯一。
示例:
tux >
sudo
nvme connect -t rdma -a 10.0.0.1 -s 4420 -n nqn.2014-08.com.example:nvme:nvm-subsystem-sn-d78432
或者,使用 nvme connect-all
连接到发现的所有名称空间。有关高级用法,请参见 man nvme-connect
和 man nvme-connect-all
。
16.2.4 多路径 #
NVMe 本机多路径默认处于禁用状态。要打印多路径设备的布局,请使用命令 nvme list-subsys
。要启用 NVMe 本机多路径,请将 nvme-core.multipath=on
添加为引导参数。
16.3 设置 NVMe over Fabric 目标 #
16.3.1 安装命令行客户端 #
要配置 NVMe over Fabric 目标,需要安装 nvmetcli
命令行工具。请使用 zypper
安装该工具:
tux >
sudo
zypper in nvmetcli
上提供了
nvmetclihttp://git.infradead.org/users/hch/nvmetcli.git/blob_plain/HEAD:/Documentation/nvmetcli.txt 的最新文档.
16.3.2 配置步骤 #
下面的过程举例说明如何设置 NVMe over Fabric 目标。
配置储存在树型结构中。使用 cd
命令可导航。使用 ls
可列出对象。您可以使用 create
创建新对象。
启动
nvmectli
交互外壳:tux >
sudo
nvmetcli
创建新端口:
(nvmetcli)>
cd ports
(nvmetcli)>
create 1
(nvmetcli)>
ls 1/
o- 1 o- referrals o- subsystems创建 NVMe 子系统:
(nvmetcli)>
cd /subsystems
(nvmetcli)>
create nqn.2014-08.org.nvmexpress:NVMf:uuid:c36f2c23-354d-416c-95de-f2b8ec353a82
(nvmetcli)>
cd nqn.2014-08.org.nvmexpress:NVMf:uuid:c36f2c23-354d-416c-95de-f2b8ec353a82/
(nvmetcli)>
ls
o- nqn.2014-08.org.nvmexpress:NVMf:uuid:c36f2c23-354d-416c-95de-f2b8ec353a82 o- allowed_hosts o- namespaces创建新的名称空间,并在其中设置 NVMe 设备。
(nvmetcli)>
cd namespaces
(nvmetcli)>
create 1
(nvmetcli)>
cd 1
(nvmetcli)>
set device path=/dev/nvme0n1
Parameter path is now '/dev/nvme0n1'.启用先前创建的名称空间:
(nvmetcli)>
cd ..
(nvmetcli)>
enable
The Namespace has been enabled.显示创建的名称空间:
(nvmetcli)>
cd ..
(nvmetcli)>
ls
o- nqn.2014-08.org.nvmexpress:NVMf:uuid:c36f2c23-354d-416c-95de-f2b8ec353a82 o- allowed_hosts o- namespaces o- 1允许所有主机使用该子系统。只有在安全环境中才可这样做。
(nvmetcli)>
set attr allow_any_host=1
Parameter allow_any_host is now '1'.或者,可以只允许特定的主机建立连接:
(nvmetcli)>
cd nqn.2014-08.org.nvmexpress:NVMf:uuid:c36f2c23-354d-416c-95de-f2b8ec353a82/allowed_hosts/
(nvmetcli)>
create hostnqn
列出创建的所有对象:
(nvmetcli)>
cd /
(nvmetcli)>
ls
o- / o- hosts o- ports | o- 1 | o- referrals | o- subsystems o- subsystems o- nqn.2014-08.org.nvmexpress:NVMf:uuid:c36f2c23-354d-416c-95de-f2b8ec353a82 o- allowed_hosts o- namespaces o- 1使目标可通过 RDMA 使用:
(nvmetcli)>
cd ports/1/
(nvmetcli)>
set addr adrfam=ipv4 trtype=rdma traddr=10.0.0.1 trsvcid=4420
Parameter trtype is now 'rdma'. Parameter adrfam is now 'ipv4'. Parameter trsvcid is now '4420'. Parameter traddr is now '10.0.0.1'.或者,使目标可通过光纤通道使用:
(nvmetcli)>
cd ports/1/
(nvmetcli)>
set addr adrfam=fc trtype=fc traddr=nn-0x1000000044001123:pn-0x2000000055001123 trsvcid=none
16.3.3 备份和恢复目标配置 #
可使用以下命令在 JSON 文件中保存目标配置:
tux >
sudo
nvmetcli
(nvmetcli)>
saveconfig nvme-target-backup.json
要恢复配置,请使用:
(nvmetcli)>
restore nvme-target-backup.json
您还可以擦除当前配置:
(nvmetcli)>
clear
16.4 特殊硬件配置 #
16.4.1 概述 #
有些硬件需要特殊的配置才能正常工作。请浏览以下章节的标题,确定您是否使用了所提到的设备或供应商。
16.4.2 Broadcom #
如果您在使用 Broadcom Emulex LightPulse Fibre Channel SCSI 驱动程序,请在 lpfc
模块的目标和主机中添加内核配置参数:
tux >
sudo
echo "options lpfc lpfc_enable_fc4_type=3" > /etc/modprobe.d/lpfc.conf
确保 Broadcom 适配器固件的版本至少为 11.2.156.27。另外确保已安装最新版本的 nvme-cli, nvmetlci 和内核。
要启用光纤通道端口作为 NVMe 目标,请设置模块参数 lpfc_enable_nvmet= COMMA_SEPARATED_WWPNS
。系统只会为目标模式配置列出的 WWPN。可将光纤通道端口配置为目标或发起端。
16.4.3 Marvell #
QLE269x 和 QLE27xx 适配器上都支持 FC-NVMe。Marvell® QLogic® QLA2xxx 光纤通道驱动程序中默认会启用 FC-NVMe 支持。
要确认 NVMe 是否已启用,请运行以下命令:
tux >
cat /sys/module/qla2xxx/parameters/ql2xnvmeenable
如果显示 1
,则表明 NVMe 已启用,显示 0
表示 NVMe 已禁用。
然后,检查以下命令的输出,确保 Marvell 适配器固件的版本不低于 8.08.204。
tux >
cat /sys/class/scsi_host/host0/fw_version
最后,确保已安装适用于 SUSE Linux Enterprise Server 的最新版本( nvme-cli、 QConvergeConsoleCLI)及内核。例如,您可以运行
root #
zypper lu && zypper pchk
来检查更新和增补程序。
有关安装的更多细节,请参考下列 Marvell 用户指南中的 FC-NVMe 部分:
16.5 更多信息 #
有关 nvme
命令的功能的更多细节,请参考 nvme nvme-help
。
以下链接提供了 NVMe 和 NVMe over Fabric 的简介: