A 基于上游“Octopus”小版本的 Ceph 维护更新 #
SUSE Enterprise Storage 7 中的几个关键的包均基于 Ceph 的 Octopus 版本系列。当 Ceph 项目 (https://github.com/ceph/ceph) 在 Octopus 系列中发布新的小版本时,SUSE Enterprise Storage 7 即会更新,以确保产品应用最新的上游 Bug 修复并可进行功能向后移植。
本章简要介绍有关已经或计划在产品中包含的每个上游小版本中的重要更改。
Octopus 15.2.5 小版本#
Octopus 15.2.5 小版本引入了以下修复和其他更改:
CephFS:现在可以使用目录上新的分布式和随机暂时关联扩展属性来配置自动静态子树分区策略。有关详细信息,请参见以下文档:https://docs.ceph.com/docs/master/cephfs/multimds/
Monitor 现有一个配置选项
mon_osd_warn_num_repaired
,该选项默认设置为 10。如果任何 OSD 修复的存储数据中的 I/O 错误数超过此数量,则会生成OSD_TOO_MANY_REPAIRS
健康状况警报。现在,如果在全局或在存储池级别设置了
no scrub
和/或no deep-scrub
标志,将中止已禁用类型的安排洗刷。所有用户启动的洗刷将不会中断。修复了在运行状况良好的集群中不会修剪 osdmaps 的问题。
Octopus 15.2.4 小版本#
Octopus 15.2.4 小版本引入了以下修复和其他更改:
CVE-2020-10753:rgw: 清理 s3 CORSConfiguration 的 ExposeHeader 中的换行符
对象网关:处理孤立的
radosgw-admin
子命令(radosgw-admin orphans find
、radosgw-admin orphans finish
和radosgw-admin orphans list-jobs
)已被弃用。并不会主动维护这些子命令,并且由于它们会在集群上存储中间结果,因此可能会填充几乎已满的集群。这些子命令已被工具rgw-orphan-list
所替代,该工具当前被视为是实验性工具。RBD:用于存储 RBD 回收站清除日程安排的 RBD 存储池对象的名称已由
rbd_trash_trash_purge_schedule
更改为rbd_trash_purge_schedule
。已开始使用 RBD 回收站清除日程安排功能并配置了每个存储池或名称空间日程安排的用户,应在升级前将rbd_trash_trash_purge_schedule
对象复制到rbd_trash_purge_schedule
,并在之前配置了回收站清除日程安排的每个 RBD 存储池和名称空间中使用以下命令删除rbd_trash_purge_schedule
:rados -p pool-name [-N namespace] cp rbd_trash_trash_purge_schedule rbd_trash_purge_schedule rados -p pool-name [-N namespace] rm rbd_trash_trash_purge_schedule
或者,使用任何其他简便方法在升级后恢复日程安排。
Octopus 15.2.3 小版本#
Octopus 15.2.3 小版本是一个热修复版本,用于解决在同时启用
bluefs_preextend_wal_files
和bluefs_buffered_io
时发生的 WAL 损坏问题。15.2.3 中的修复只是一种临时措施(将bluefs_preextend_wal_files
的默认值更改为false
)。永久性的修复将是完全删除bluefs_preextend_wal_files
选项:此修复很可能会在 15.2.6 小版本中实现。
Octopus 15.2.2 小版本#
Octopus 15.2.2 小版本修补了一个安全漏洞:
CVE-2020-10736:修复了 MON 和 MGR 中的授权绕过问题
Octopus 15.2.1 小版本#
Octopus 15.2.1 小版本修复了从 Luminous (SES5.5) 到 Nautilus (SES6) 再到 Octopus (SES7) 的快速升级导致 OSD 崩溃的问题。此外,它还修补了 Octopus (15.2.0) 初始版本中存在的两个安全漏洞:
CVE-2020-1759:修复了 msgrv2 安全模式下的 nonce 重复使用
CVE-2020-1760:修复了由于 RGW GetObject 报头拆分而导致的 XSS