Saltar a contenidoSaltar a navegación de páginas: página anterior [tecla acceso p]/página siguiente [tecla acceso n]
ContenidoContenido
Guía de administración
  1. Acerca de esta guía
  2. I Gestión en clúster
    1. 1 Privilegios de usuario y comandos de símbolos del sistema
    2. 2 Administración de un clúster de Salt
    3. 3 Copia de seguridad de la configuración y los datos del clúster
  3. II Funcionamiento de un clúster
    1. 4 Introducción
    2. 5 Gestión de los servicios de Ceph
    3. 6 Determinación del estado del clúster
    4. 7 Supervisión y alertas
    5. 8 Autenticación con cephx
    6. 9 Gestión de datos almacenados
    7. 10 Módulos de Ceph Manager
    8. 11 Gestión de repositorios de almacenamiento
    9. 12 Dispositivo de bloques RADOS
    10. 13 Repositorios codificados de borrado
    11. 14 Niveles de caché
    12. 15 Mejora del rendimiento con el caché de LVM
    13. 16 Configuración del clúster de Ceph
  4. III Acceso a los datos del clúster
    1. 17 Ceph Object Gateway
    2. 18 Ceph iSCSI Gateway
    3. 19 Sistema de archivos con agrupación en clúster
    4. 20 Exportación de datos de Ceph a través de Samba
    5. 21 NFS Ganesha: exportación de datos de Ceph a través de NFS
  5. IV Gestión del clúster con herramientas de interfaz gráfica de usuario
    1. 22 Ceph Dashboard
  6. V Integración con herramientas de virtualización
    1. 23 Uso de libvirt con Ceph
    2. 24 Ceph como procesador final para la instancia de QEMU KVM
  7. VI Preguntas frecuentes, consejos y solución de problemas
    1. 25 Consejos y sugerencias
    2. 26 Preguntas más frecuentes
    3. 27 Solución de problemas
  8. A Ejemplo personalizado de la fase 1 de DeepSea
  9. B Alertas por defecto para SUSE Enterprise Storage 6
  10. C Actualizaciones de mantenimiento de Ceph basadas en versiones secundarias superiores de Nautilus
  11. Glosario
  12. D Actualizaciones de la documentación
Navegación
Se aplica a SUSE Enterprise Storage 6

15 Mejora del rendimiento con el caché de LVM Edit source

Aviso
Aviso: tecnología en fase preliminar

El caché de LVM es actualmente una tecnología en fase preliminar.

El caché de LVM es un mecanismo de almacenamiento en caché que se utiliza para mejorar el rendimiento de un volumen lógico (LV). Normalmente, se utiliza un dispositivo más pequeño y más rápido para mejorar el rendimiento de E/S de un LV más grande y lento. Consulte la página man (man 7 lvmcache) para obtener más detalles sobre el caché de LVM.

En SUSE Enterprise Storage, el caché de LVM puede mejorar el rendimiento de los OSD. La compatibilidad con el caché de LVM se proporciona mediante un complemento ceph-volume. Encontrará información detallada sobre su uso ejecutando el comando ceph-volume lvmcache.

15.1 Requisitos previos Edit source

Para utilizar las características de caché de LVM para mejorar el rendimiento de un clúster de Ceph, debe tener lo siguiente:

  • Un clúster de Ceph en ejecución en un estado estable ("HEALTH_OK").

  • OSD distribuidos con BlueStore y LVM. Este es el valor por defecto si los OSD se han distribuido con SUSE Enterprise Storage 6 o una versión posterior.

  • Discos o particiones vacíos que se utilizarán para el almacenamiento en caché.

15.2 Puntos que se deben tener en cuenta Edit source

Tenga en cuenta los siguientes puntos antes de configurar los OSD para utilizar el caché de LVM:

  • Verifique que el caché de LVM es adecuado para su situación. Si solo tiene unas pocas unidades rápidas disponibles que no se utilizan para los OSD, la recomendación general es utilizarlas como dispositivos WAL/DB para los OSD. En tal caso, las operaciones de WAL y DB (operaciones de poco volumen y raras) se aplican en la unidad rápida, mientras que las operaciones de datos se aplican en la unidad OSD más lenta.

    Sugerencia
    Sugerencia

    Si la latencia es más importante para la distribución que el valor de IOPS o el rendimiento, puede utilizar las unidades rápidas como caché de LVM en lugar de como particiones WAL/DB.

  • Si tiene previsto utilizar una unidad rápida como caché de LVM para varios OSD, tenga en cuenta que todas las operaciones de OSD (incluida la réplica) pasarán por el dispositivo de almacenamiento en caché. Todas las lecturas se consultarán desde el dispositivo de almacenamiento en caché y solo se proporcionarán desde el dispositivo lento en caso de que se pierda la memoria caché. Las escrituras siempre se aplican primero al dispositivo de almacenamiento en caché y se vacían en el dispositivo lento más tarde (el modo de almacenamiento en caché por defecto es "writeback").

    A la hora de decidir si se debe utilizar el caché de LVM, verifique si la unidad rápida puede servir como parte frontal para varios OSD mientras sigue proporcionando una cantidad aceptable de IOPS. Puede probarlo midiendo la cantidad máxima de IOPS que puede proporcionar el dispositivo rápido y, a continuación, dividiendo el resultado por el número de OSD cubiertos por el dispositivo rápido. Si el resultado es menor o cercano a la cantidad máxima de IOPS que el OSD puede proporcionar sin la memoria caché, probablemente el caché de LVM no sea adecuado para esta configuración.

  • La interacción del dispositivo de caché de LVM con los OSD es importante. Las escrituras se vacían periódicamente desde el dispositivo de almacenamiento en caché en el dispositivo lento. Si el tráfico entrante es constante y significativo, el dispositivo de almacenamiento en caché tendrá problemas para mantenerse al día con las peticiones entrantes, así como con el proceso de vaciado y, como consecuencia, el rendimiento se verá afectado. A menos que el dispositivo rápido pueda proporcionar mucha más IOPS con mejor latencia que el dispositivo lento, no utilice el caché de LVM con cargas de trabajo constantes de gran volumen. El caché de LVM es más adecuado para el tráfico a ráfagas, ya que la memoria caché tiene tiempo para vaciar los datos sucios sin interferir con el tráfico del cliente. En el caso de cargas de trabajo continuas de bajo tráfico, es difícil determinar de antemano si el uso del caché de LVM mejorará el rendimiento. La mejor prueba es testar y comparar la configuración del caché de LVM con la configuración de WAL/DB. Además, como los procesos de escritura de poco volumen resultan una carga pesada en la partición WAL, se sugiere utilizar el dispositivo rápido para DB y/o WAL en lugar de caché de LVM.

  • Si no tiene claro si desea utilizar el caché de LVM, utilice el dispositivo rápido como dispositivo WAL y/o DB.

15.3 Preparación Edit source

El dispositivo rápido debe dividirse en varias particiones. Cada OSD necesita dos particiones para su caché: una para los datos de caché y otra para los metadatos de caché. El tamaño mínimo de cualquiera de las particiones es de 2 GB. Puede utilizar un único dispositivo rápido para almacenar en caché varios OSD. Simplemente necesita que se particione en consecuencia.

15.4 Configuración del caché de LVM Edit source

Encontrará información detallada sobre cómo añadir, quitar y configurar el caché de LVM ejecutando el comando ceph-volume lvmcache.

15.4.1 Adición de caché de LVM Edit source

Para añadir caché de LVM a un OSD existente, utilice el comando siguiente:

cephadm@osd > ceph-volume lvmcache add
 --cachemetadata METADATA-PARTITION
 --cachedata DATA-PARTITION
 --osd-id OSD-ID

Los indicadores opcionales ‑‑data, ‑‑db o ‑‑wal especifican qué partición se debe almacenar en caché. El valor por defecto es ‑‑data.

Sugerencia
Sugerencia: especificación del volumen lógico (LV)

Como alternativa, puede usar el indicador ‑‑origin en lugar de la opción ‑‑osd-id para especificar qué LV se debe almacenar en caché:

[...]
--origin VOLUME-GROUP/LOGICAL-VOLUME

15.4.2 Eliminación del caché de LVM Edit source

Para eliminar el caché de LVM existente de un OSD, utilice el siguiente comando:

cephadm@osd > ceph-volume lvmcache rm --osd-id OSD-ID

15.4.3 Configuración del modo de caché de LVM Edit source

Para especificar el modo de almacenamiento en caché, utilice el comando siguiente:

cephadm@osd > ceph-volume lvmcache mode --set CACHING-MODE --osd-id OSD-ID

CACHING-MODE es "writeback" (por defecto) o "writethrough".

15.5 Gestión de fallos Edit source

Si se produce un error en el dispositivo de almacenamiento en caché, será necesario quitar todos los OSD cubiertos por el dispositivo de almacenamiento en caché del clúster (consulte la Sección 2.6, “Eliminación de un OSD”), purgarlos y volver a distribuirlos. Si la unidad OSD falla, el LV del OSD y el LV de su caché estarán activos, pero no funcionarán. Utilice pvremove PARTICIÓN para purgar las particiones (volúmenes físicos) utilizadas para las particiones de datos y metadatos de caché del OSD. Puede utilizar pvs para mostrar todos los volúmenes físicos.

15.6 Preguntas más frecuentes Edit source

P: 1. ¿Qué sucede si se elimina un OSD?

Al eliminar el LV del OSD mediante lvremove, los volúmenes lógicos de caché también se eliminarán. Sin embargo, seguirá siendo necesario utilizar el comando pvremove en las particiones para asegurarse de que todas las etiquetas se han borrado.

P: 2. ¿Qué sucede si la tabla de particiones del OSD se borra usando ceph-volume zap?

Se aplica la misma respuesta que a la pregunta ¿Qué sucede si se elimina un OSD?

P: 3. ¿Qué sucede si se produce un error en la unidad de origen?

Los volúmenes lógicos de caché siguen existiendo y el comando cache info sigue mostrando que están disponibles. No podrá quitar el almacenamiento en caché porque LVM no vaciará la memoria caché, ya que el dispositivo del volumen lógico del origen ya no existe. La situación ahora es que el LV de origen existe, pero su dispositivo de respaldo no. Puede solucionar este problema, use el comando pvs y localice los dispositivos asociados con el LV de origen. A continuación, elimínelos utilizando:

cephadm@osd > sudo pvremove /dev/DEVICE or PARTITION

Puede hacer lo mismo con las particiones de caché. Este procedimiento hará que el LV de origen y los LV de caché desaparezcan. También puede usar:

cephadm@osd > sudo dd if=/dev/zero of=/dev/DEVICE or PARTITION

para eliminarlos antes de usar pvremove.

Imprimir esta página