Saltar a contenidoSaltar a navegación de páginas: página anterior [tecla acceso p]/página siguiente [tecla acceso n]
ContenidoContenido
Guía de administración
  1. Acerca de esta guía
  2. I Gestión en clúster
    1. 1 Privilegios de usuario y comandos de símbolos del sistema
    2. 2 Administración de un clúster de Salt
    3. 3 Copia de seguridad de la configuración y los datos del clúster
  3. II Funcionamiento de un clúster
    1. 4 Introducción
    2. 5 Gestión de los servicios de Ceph
    3. 6 Determinación del estado del clúster
    4. 7 Supervisión y alertas
    5. 8 Autenticación con cephx
    6. 9 Gestión de datos almacenados
    7. 10 Módulos de Ceph Manager
    8. 11 Gestión de repositorios de almacenamiento
    9. 12 Dispositivo de bloques RADOS
    10. 13 Repositorios codificados de borrado
    11. 14 Niveles de caché
    12. 15 Mejora del rendimiento con el caché de LVM
    13. 16 Configuración del clúster de Ceph
  4. III Acceso a los datos del clúster
    1. 17 Ceph Object Gateway
    2. 18 Ceph iSCSI Gateway
    3. 19 Sistema de archivos con agrupación en clúster
    4. 20 Exportación de datos de Ceph a través de Samba
    5. 21 NFS Ganesha: exportación de datos de Ceph a través de NFS
  5. IV Gestión del clúster con herramientas de interfaz gráfica de usuario
    1. 22 Ceph Dashboard
  6. V Integración con herramientas de virtualización
    1. 23 Uso de libvirt con Ceph
    2. 24 Ceph como procesador final para la instancia de QEMU KVM
  7. VI Preguntas frecuentes, consejos y solución de problemas
    1. 25 Consejos y sugerencias
    2. 26 Preguntas más frecuentes
    3. 27 Solución de problemas
  8. A Ejemplo personalizado de la fase 1 de DeepSea
  9. B Alertas por defecto para SUSE Enterprise Storage 6
  10. C Actualizaciones de mantenimiento de Ceph basadas en versiones secundarias superiores de Nautilus
  11. Glosario
  12. D Actualizaciones de la documentación
Navegación
Se aplica a SUSE Enterprise Storage 6

C Actualizaciones de mantenimiento de Ceph basadas en versiones secundarias superiores de Nautilus Edit source

Varios paquetes clave de SUSE Enterprise Storage 6 se basan en las distintas versiones de Nautilus de Ceph. Cuando el proyecto Ceph (https://github.com/ceph/ceph) publica nuevas versiones secundarias de la serie Nautilus, SUSE Enterprise Storage 6 se actualiza para garantizar que el producto se beneficia de las últimas correcciones de errores y actualizaciones retroactivas de características de esas versiones.

Este capítulo contiene un resumen de los principales cambios incluidos en cada versión secundaria posterior que se ha incluido en el producto, o que se tiene previsto incluir.

Nautilus 14.2.4Edit source

En esta versión se corrige una regresión grave que se publicó por error en la versión 14.2.3. Esta regresión no afecta a los clientes de SUSE Enterprise Storage, ya que no enviamos una versión basada en 14.2.3.

Nautilus 14.2.3Edit source

  • Se ha corregido una vulnerabilidad de denegación de servicio en la que un cliente no autenticado de Ceph Object Gateway podía desencadenar una detención por fallo a partir de una excepción no detectada.

  • Los clientes de librbd basados en Nautilus ahora pueden abrir imágenes en clústeres de Jewel.

  • Se ha eliminado num_rados_handles de Object Gateway. Si en num_rados_handles utilizaba un valor mayor que 1, multiplique los parámetros actuales de objecter_inflight_ops y objecter_inflight_op_bytes por el valor antiguo de num_rados_handles para obtener el mismo comportamiento de transmisión.

  • El modo seguro del protocolo Messenger v2 ya no está en fase experimental en esta versión. Ahora es el modo de conexión preferido para los monitores.

  • El valor de osd_deep_scrub_large_omap_object_key_threshold se ha reducido para que detecte un objeto con un gran número de claves omap más fácilmente.

  • Ceph Dashboard ahora admite que se silencien las notificaciones de Prometheus.

Nautilus 14.2.2Edit source

  • Los comandos relacionados con no{up,down,in,out} se han renovado. Ahora hay dos formas de definir los indicadores no{up,down,in,out}: el comando antiguo

    ceph osd [un]set FLAG

    que establece indicadores para todo el clúster, y el comando nuevo

    ceph osd [un]set-group FLAGS WHO

    que establece indicadores en lote al nivel de detalle de cualquier nodo de CRUSH o de clase de dispositivo.

  • En radosgw-admin se incluyen dos subcomandos que permiten la gestión de objetos caducados que, en versiones anteriores de Object Gateway, podían quedarse olvidados después de volver a fragmentar un depósito. Un subcomando muestra estos objetos y el otro los suprime.

  • Las versiones anteriores de Nautilus (14.2.1 y 14.2.0) tienen un problema por el que al distribuir un nuevo OSD de Nautilus BlueStore en un clúster actualizado (es decir, en un clúster distribuido originalmente antes que Nautilus), las estadísticas de utilización del repositorio que emite ceph df son incorrectas. Hasta que todos los OSD se hayan reaprovisionado o actualizado (mediante ceph-bluestore-tool repair), las estadísticas del repositorio mostrarán valores inferiores al verdadero. Este problema se resolvió en la versión 14.2.2, de modo que el clúster solo empieza a usar las estadísticas más precisas por repositorio después de que todos los OSD sean de la versión 14.2.2 o posterior, sean almacenamiento en bloque y se hayan actualizado mediante la función de reparación si se crearon antes que Nautilus.

  • El valor por defecto para mon_crush_min_required_version ha cambiado de firefly a hammer, lo que significa que el clúster emitirá una advertencia de estado si los CRUSH optimizables son anteriores a Hammer. Al cambiar a elementos optimizables de Hammer, generalmente hay una pequeña cantidad de datos (siempre hay alguno) que se moverá.

    Si es posible, se recomienda definir el cliente permitido más antiguo a hammer o una versión posterior. Para mostrar cuál es el cliente más antiguo permitido actual, ejecute:

    cephadm@adm > ceph osd dump | grep min_compat_client

    Si el valor actual es anterior a hammer, ejecute el comando siguiente para determinar si es seguro realizar este cambio verificando que no hay clientes anteriores a Hammer conectados actualmente al clúster:

    cephadm@adm > ceph features

    El tipo de depósito CRUSH más reciente, straw2, se incluyó en Hammer. Si verifica que todos los clientes son Hammer o de una versión posterior, solo permite que se usen las funciones nuevas compatibles para las papeleas straw2, incluido el modo crush-compat para el equilibrador (Sección 10.1, “Equilibrador”).

Encontrará más información sobre el parche en https://download.suse.com/Download?buildid=D38A7mekBz4~.

Nautilus 14.2.1Edit source

Esta fue la primera versión secundaria después de la publicación original de Nautilus (14.2.0). La versión original ("Disponibilidad general" o "GA") de SUSE Enterprise Storage 6 se basaba en esta versión secundaria.

Imprimir esta página