Saltar a contenidoSaltar a navegación de páginas: página anterior [tecla acceso p]/página siguiente [tecla acceso n]
ContenidoContenido
Guía de administración
  1. Acerca de esta guía
  2. I Gestión en clúster
    1. 1 Privilegios de usuario y comandos de símbolos del sistema
    2. 2 Administración de un clúster de Salt
    3. 3 Copia de seguridad de la configuración y los datos del clúster
  3. II Funcionamiento de un clúster
    1. 4 Introducción
    2. 5 Gestión de los servicios de Ceph
    3. 6 Determinación del estado del clúster
    4. 7 Supervisión y alertas
    5. 8 Autenticación con cephx
    6. 9 Gestión de datos almacenados
    7. 10 Módulos de Ceph Manager
    8. 11 Gestión de repositorios de almacenamiento
    9. 12 Dispositivo de bloques RADOS
    10. 13 Repositorios codificados de borrado
    11. 14 Niveles de caché
    12. 15 Mejora del rendimiento con el caché de LVM
    13. 16 Configuración del clúster de Ceph
  4. III Acceso a los datos del clúster
    1. 17 Ceph Object Gateway
    2. 18 Ceph iSCSI Gateway
    3. 19 Sistema de archivos con agrupación en clúster
    4. 20 Exportación de datos de Ceph a través de Samba
    5. 21 NFS Ganesha: exportación de datos de Ceph a través de NFS
  5. IV Gestión del clúster con herramientas de interfaz gráfica de usuario
    1. 22 Ceph Dashboard
  6. V Integración con herramientas de virtualización
    1. 23 Uso de libvirt con Ceph
    2. 24 Ceph como procesador final para la instancia de QEMU KVM
  7. VI Preguntas frecuentes, consejos y solución de problemas
    1. 25 Consejos y sugerencias
    2. 26 Preguntas más frecuentes
    3. 27 Solución de problemas
  8. A Ejemplo personalizado de la fase 1 de DeepSea
  9. B Alertas por defecto para SUSE Enterprise Storage 6
  10. C Actualizaciones de mantenimiento de Ceph basadas en versiones secundarias superiores de Nautilus
  11. Glosario
  12. D Actualizaciones de la documentación
Navegación
Se aplica a SUSE Enterprise Storage 6

10 Módulos de Ceph Manager Edit source

La arquitectura de Ceph Manager (consulte Sección 1.2.3, “Nodos y daemons de Ceph” para obtener una breve introducción) permite ampliar su funcionalidad mediante módulos, como la "consola" (consulte el Capítulo 22, Ceph Dashboard), "prometheus" (consulte el Capítulo 7, Supervisión y alertas), o el "equilibrador".

Para mostrar todos los módulos disponibles, ejecute:

cephadm@adm > ceph mgr module ls
{
        "enabled_modules": [
                "restful",
                "status"
        ],
        "disabled_modules": [
                "dashboard"
        ]
}

Para habilitar o inhabilitar un módulo específico, ejecute:

cephadm@adm > ceph mgr module enable MODULE-NAME

Por ejemplo:

cephadm@adm > ceph mgr module disable dashboard

Para mostrar los servicios que proporcionan los módulos habilitados, ejecute:

cephadm@adm > ceph mgr services
{
        "dashboard": "http://myserver.com:7789/",
        "restful": "https://myserver.com:8789/"
}

10.1 Equilibrador Edit source

El módulo del equilibrador optimiza la distribución del grupo de colocación (PG) entre los OSD para conseguir una distribución más equilibrada. Aunque el módulo se activa por defecto, está inactivo. Admite los dos modos siguientes: "crush-compat" y "upmap".

Sugerencia
Sugerencia: configuración actual del equilibrador

Para ver la configuración actual del equilibrador, ejecute:

cephadm@adm > ceph config-key dump
Importante
Importante: modo admitido

Actualmente se admite el modo "crush-compat", ya que el modo "upmap" requiere una función de OSD que impide que los OSD anteriores a la versión Luminous se conecten al clúster.

10.1.1 El modo "crush-compat" Edit source

En el modo "crush-compat", el equilibrador ajusta los conjuntos de reequilibrio de peso de los OSD para lograr una mejor distribución de los datos. Mueve los PG entre los OSD, lo que causa que el clúster tenga temporalmente el estado HEALTH_WARN debido a los grupos de colocación descolocados.

Sugerencia
Sugerencia: activación del modo

Aunque "crush-compat" es el modo por defecto, se recomienda activarlo explícitamente:

cephadm@adm > ceph balancer mode crush-compat

10.1.2 Planificación y ejecución del equilibrado de datos Edit source

Mediante el módulo de equilibrador, puede crear un plan para equilibrar los datos. A continuación, puede ejecutar el plan manualmente o dejar que los grupos de colocación se equilibren continuamente de forma automática.

La decisión de ejecutar el equilibrador en modo manual o automático depende de varios factores, como el desequilibrio actual de los datos, el tamaño del clúster, el número de grupos de colocación o la actividad de E/S. Se recomienda crear un plan inicial y ejecutarlo en un momento de baja carga de E/S en el clúster. El motivo es que, probablemente, el desequilibrio inicial será considerable y es una buena práctica para reducir el impacto en los clientes. Después de una ejecución manual inicial, considere la posibilidad de activar el modo automático y de supervisar el tráfico de reequilibrio bajo una carga de E/S normal. Deben sopesarse las mejoras en la distribución del grupo de colocación frente al tráfico de reequilibrio causado por el equilibrador.

Sugerencia
Sugerencia: fracción móvil de grupos de colocación (PG)

Durante el proceso de equilibrio, el módulo de equilibrador regula los movimientos de los grupos de colocación para que solo se mueva una fracción configurable de ellos. El valor por defecto es el 5 %, y se puede ajustar, por ejemplo al 9 %, ejecutando el comando siguiente:

cephadm@adm > ceph config set mgr target_max_misplaced_ratio .09

Para crear y ejecutar un plan de equilibrio, siga estos pasos:

  1. Compruebe la puntuación actual del clúster:

    cephadm@adm > ceph balancer eval
  2. Cree un plan. Por ejemplo, "great_plan":

    cephadm@adm > ceph balancer optimize great_plan
  3. Vea qué cambios implicará el plan "great_plan":

    cephadm@adm > ceph balancer show great_plan
  4. Compruebe la puntuación potencial del clúster si decide aplicar el plan "great_plan":

    cephadm@adm > ceph balancer eval great_plan
  5. Ejecute el plan "great_plan" una sola vez:

    cephadm@adm > ceph balancer execute great_plan
  6. Observe el equilibrio del clúster con el comando ceph -s. Si el resultado es satisfactorio, active el equilibrio automático:

    cephadm@adm > ceph balancer on

    Si más adelante decide desactivar el equilibrio automático, ejecute:

    cephadm@adm > ceph balancer off
Sugerencia
Sugerencia: equilibrio automático sin plan inicial

Es posible activar el equilibrio automático sin ejecutar un plan inicial. En tal caso, el reequilibrio de los grupos de colocación puede tardar bastante tiempo.

10.2 Módulo de telemetría Edit source

El complemento de telemetría envía datos anónimos del proyecto Ceph sobre el clúster en el que se ejecuta el complemento.

Este componente (que hay que aceptar explícitamente) incluye contadores y estadísticas sobre cómo se ha distribuido el clúster, la versión de Ceph, la distribución de los hosts y otros parámetros que ayudan al proyecto a comprender mejor la forma en que se usa Ceph. No contiene datos confidenciales como nombres de repositorios, nombres de objetos, contenido de objetos ni nombres de host.

El propósito del módulo de telemetría es proporcionar comentarios automatizado para que los desarrolladores puedan cuantificar las tasas de adopción y el seguimiento o detectar los elementos que deben explicarse o validarse mejor durante la configuración para evitar resultados no deseados.

Nota
Nota

El módulo de telemetría requiere que los nodos de Ceph Manager tengan la capacidad de enviar datos a través de HTTPS a los servidores de fases anteriores. Asegúrese de que su cortafuegos corporativos permita esta acción.

  1. Para habilitar el módulo de telemetría:

    cephadm@adm > ceph mgr module enable telemetry
    Nota
    Nota

    Este comando solo permite ver los datos localmente. No comparte datos con la comunidad de Ceph.

  2. Para permitir que el módulo de telemetría comience a compartir datos:

    cephadm@adm > ceph telemetry on
  3. Para inhabilitar el uso compartido de los datos de telemetría:

    cephadm@adm > ceph telemetry off
  4. Para generar un informe JSON que se pueda imprimir:

    cephadm@adm > ceph telemetry show
  5. Para añadir un contacto y una descripción al informe:

    cephadm@adm > ceph config set mgr mgr/telemetry/contact ‘John Doe john.doe@example.comcephadm@adm > ceph config set mgr mgr/telemetry/description ‘My first Ceph cluster’
  6. El módulo compila y envía un informe nuevo cada 24 horas por defecto. Para ajustar este intervalo:

    cephadm@adm > ceph config set mgr mgr/telemetry/interval HOURS
Imprimir esta página