Saltar a contenidoSaltar a navegación de páginas: página anterior [tecla acceso p]/página siguiente [tecla acceso n]
ContenidoContenido
Guía de administración
  1. Acerca de esta guía
  2. I Gestión en clúster
    1. 1 Privilegios de usuario y comandos de símbolos del sistema
    2. 2 Administración de un clúster de Salt
    3. 3 Copia de seguridad de la configuración y los datos del clúster
  3. II Funcionamiento de un clúster
    1. 4 Introducción
    2. 5 Gestión de los servicios de Ceph
    3. 6 Determinación del estado del clúster
    4. 7 Supervisión y alertas
    5. 8 Autenticación con cephx
    6. 9 Gestión de datos almacenados
    7. 10 Módulos de Ceph Manager
    8. 11 Gestión de repositorios de almacenamiento
    9. 12 Dispositivo de bloques RADOS
    10. 13 Repositorios codificados de borrado
    11. 14 Niveles de caché
    12. 15 Mejora del rendimiento con el caché de LVM
    13. 16 Configuración del clúster de Ceph
  4. III Acceso a los datos del clúster
    1. 17 Ceph Object Gateway
    2. 18 Ceph iSCSI Gateway
    3. 19 Sistema de archivos con agrupación en clúster
    4. 20 Exportación de datos de Ceph a través de Samba
    5. 21 NFS Ganesha: exportación de datos de Ceph a través de NFS
  5. IV Gestión del clúster con herramientas de interfaz gráfica de usuario
    1. 22 Ceph Dashboard
  6. V Integración con herramientas de virtualización
    1. 23 Uso de libvirt con Ceph
    2. 24 Ceph como procesador final para la instancia de QEMU KVM
  7. VI Preguntas frecuentes, consejos y solución de problemas
    1. 25 Consejos y sugerencias
    2. 26 Preguntas más frecuentes
    3. 27 Solución de problemas
  8. A Ejemplo personalizado de la fase 1 de DeepSea
  9. B Alertas por defecto para SUSE Enterprise Storage 6
  10. C Actualizaciones de mantenimiento de Ceph basadas en versiones secundarias superiores de Nautilus
  11. Glosario
  12. D Actualizaciones de la documentación
Navegación
Se aplica a SUSE Enterprise Storage 6

26 Preguntas más frecuentes Edit source

26.1 ¿Cómo afecta el número de grupos de colocación al rendimiento del clúster? Edit source

Cuando el clúster se llena al 70 % o al 80 %, es el momento de añadir más OSD. Cuando aumente el número de OSD, puede plantearse aumentar también el número de grupos de colocación.

Aviso
Aviso

Cambiar el número de grupos de colocación provoca muchísima transferencia de datos dentro del clúster.

Calcular el valor óptimo del clúster recién redimensionado es una tarea compleja.

Un número elevado de grupos de colocación crea pequeños bloques de datos. Esto acelera la recuperación tras un fallo del OSD, pero supone una gran cantidad de carga en los nodos de monitor, ya que son los responsables de calcular la ubicación de los datos.

Por otra parte, un número reducido de grupos de colocación tarda más tiempo y supone un mayor volumen de transferencia de datos a la hora de recuperarse tras un fallo del OSD, pero no impone tanta carga en los nodos de monitor como la que se necesita para calcular las ubicaciones del menor número de bloques (aunque estos sean mayores).

Encontrará más información sobre el número óptimo de grupos de colocación para el clúster en la Sección 9.4.2, “Determinación del valor de PG_NUM.

26.2 ¿Puedo utilizar unidades SSD y discos duros en el mismo clúster? Edit source

Las unidades de estado sólido (SSD) son, por lo general, más rápidas que los discos duros. Si combina los dos tipos de discos para la misma operación de escritura, la escritura de los datos en el disco SSD se ralentiza debido al rendimiento del disco duro. Por lo tanto, nunca debe combinar unidades SSD y discos duros para la escritura de datos que sigan la misma regla (consulte la Sección 9.3, “Conjuntos de reglas” para obtener más información sobre las reglas para almacenar datos).

Por lo general, hay dos casos en los que usar unidades SSD y discos duros en el mismo clúster tiene sentido:

  1. Si usa cada tipo de disco para escribir datos que siguen reglas distintas. En ese caso, deberá disponer de una regla independiente para el disco SSD y otra para el disco duro.

  2. Si usa cada tipo de disco para un propósito concreto. Por ejemplo, el disco SSD para el diario y el disco duro para almacenar los datos.

26.3 ¿Cuáles son las ventajas y desventajas de usar un diario en una unidad SSD? Edit source

Usar unidades SSD para los diarios de OSD es mejor para el rendimiento, ya que los diarios suelen suponer un cuello de botella para los OSD que usan solo discos duros. Las unidades SSD a menudo se utilizan para compartir diarios de varios OSD.

A continuación encontrará una lista de las posibles desventajas que puede suponer usar unidades SSD para el diario de OSD.

  • Los discos SSD son más caros que los discos duros. Pero, como un diario de OSD solo requiere hasta 6 GB de espacio de disco, el precio puede no ser tan importante.

  • Los discos SSD consumen ranuras de almacenamiento que se pueden utilizar para un disco duro de gran tamaño que permita ampliar la capacidad del clúster.

  • Los discos SSD tienen ciclos de escritura reducidos en comparación con los discos duros, pero las tecnologías modernas están empezando a solucionar el problema.

  • Si comparte más diarios en el mismo disco SSD, se arriesga a perder todos los OSD relacionados si el disco SSD falla. Esto requerirá mover un gran volumen de datos para reequilibrar el clúster.

  • Es más complejo conectar en caliente (HotPlug) discos, dado que la asignación de datos no se realiza en una relación de 1 a 1 entre el OSD que falla y el disco de diario.

26.4 ¿Qué ocurre cuando un disco falla? Edit source

Cuando un disco con datos del clúster almacenado tiene un problema de hardware y no funciona, sucede lo siguiente:

  • El OSD relacionado se detiene por fallo y se quita automáticamente del clúster.

  • Los datos del disco que ha fallado se replican a otro OSD del clúster a partir de otras copias de los mismos datos almacenadas en los otros OSD.

  • A continuación, debe eliminar el disco del mapa de CRUSH del clúster y retirar físicamente el hardware del host.

26.5 ¿Qué ocurre cuando un disco de diario falla? Edit source

Ceph se puede configurar para que almacene diarios o para que realice una escritura anticipada de los registros en dispositivos independientes de los OSD. Cuando se produce un fallo en un disco dedicado a diario, los OSD relacionados también fallan (consulte la Sección 26.4, “¿Qué ocurre cuando un disco falla?”).

Aviso
Aviso: alojamiento de varios diarios en un mismo disco

Para mejorar el rendimiento, puede utilizar un disco rápido (por ejemplo, SSD) para almacenar las particiones de diario de varios OSD. No se recomienda alojar diarios para más de cuatro OSD en un mismo disco, dado que en caso de fallo del disco de los diarios, se arriesga a perder los datos almacenados de todos los OSD relacionados.

Imprimir esta página