Saltar al contenutoSaltar alla navigazione delle pagine: pagina precedente [chiave d’accesso p]/pagina successiva [chiave d’accesso n]
di SUSE Linux Enterprise High Availability Extension 12 SP5

Guida rapida di installazione e configurazione

SUSE Linux Enterprise High Availability Extension 12 SP5

Sommario

Questo documento guida l'utente attraverso la procedura di configurazione di un modello base di cluster a due nodi mediante gli script di bootstrap forniti insieme al pacchetto ha-cluster-bootstrap. È prevista la configurazione di un indirizzo IP virtuale come risorsa cluster e l'uso di SBD nell'archiviazione condivisa come meccanismo di isolamento.

Autori: Tanja Roth e Thomas Schraitle
Data di pubblicazione: December 11, 2023

1 Scenario di utilizzo

Le procedure descritte in questo documento prevedono una configurazione minima di un cluster a due nodi con le seguenti proprietà:

  • Due nodi: alice (IP: 192.168.1.1) e bob (IP: 192.168.1.2), connessi l'uno all'altro tramite rete.

  • Un indirizzo IP virtuale mobile (192.168.2.1) che consente ai client di connettersi al servizio indipendentemente dal nodo fisico sul quale è in esecuzione.

  • Un dispositivo di archiviazione condiviso, utilizzato come meccanismo di isolamento SBD. In questo modo si evitano situazioni di split brain.

  • Failover di risorse da un nodo all'altro in caso di mancato funzionamento dell'host attivo (configurazione attiva/passiva).

Dopo la configurazione del cluster con gli script di bootstrap, monitoreremo il cluster con la console grafica HA Web Konsole (Hawk), uno degli strumenti di gestione dei cluster forniti con SUSE® Linux Enterprise High Availability Extension. Per verificare se il failover delle risorse funziona, uno dei nodi verrà impostato in modalità standby controllando che l'indirizzo IP virtuale venga migrato al secondo nodo.

È possibile utilizzare il cluster a due nodi a scopo di prova o come configurazione minima del cluster con la possibilità di estenderla in un secondo momento. Prima di utilizzare il cluster in un ambiente di produzione, modificarlo secondo i propri requisiti.

2 Requisiti di sistema

In questa sezione vengono descritti i requisiti di sistema fondamentali per lo scenario descritto nella Sezione 1, «Scenario di utilizzo». Per adattare il cluster per l'uso in un ambiente di produzione, leggere l'elenco completo nella sezione Requisiti di sistema e raccomandazioni del Chapter 2, System Requirements and Recommendations.

Requisiti hardware
Server

Due server con software secondo quanto specificato nella Requisiti del software.

I server possono essere bare metal o macchine virtuali. Non sono necessari gli stessi requisiti hardware (memoria, spazio su disco ecc.), ma devono avere la stessa architettura. I cluster multipiattaforma non sono supportati.

Canali di comunicazione

Almeno due moduli di comunicazione TCP/IP per nodo cluster. Le apparecchiature di rete devono supportare i mezzi di comunicazione che si desidera utilizzare per la comunicazione cluster: multicast o unicast. I moduli di comunicazione devono supportare una velocità dati di 100 Mbit/s o superiore. Per la configurazione di un cluster supportato, sono necessari almeno due percorsi di comunicazione ridondanti. La configurazione può essere eseguita tramite:

  • Collegamento dei dispositivi in rete (scelta consigliata).

  • Un secondo canale di comunicazione in Corosync.

  • Tolleranza agli errori di rete a livello di infrastruttura (ad esempio, nell'Hypervisor).

Isolamento dei nodi/STONITH

Per evitare una situazione di «split brain», i cluster richiedono un meccanismo di isolamento dei nodi. In una situazione split brain, i nodi del cluster sono divisi in due o più gruppi, ciascuno dei quali non è al corrente della presenza degli altri (a causa di un guasto hardware o software o di un'interruzione della rete). Un meccanismo di isolamento isola il nodo in questione (generalmente eseguendo il reset del nodo o spegnendolo). Tale meccanismo prende anche il nome di STONITH («Shoot the other node in the head»). Un meccanismo di isolamento dei nodi può essere un dispositivo fisico (un interruttore di alimentazione) o un meccanismo come SBD (STONITH by disk) abbinato a un watchdog. L'utilizzo di SBD richiede l'archiviazione condivisa.

Su tutti i nodi che faranno parte del cluster, è necessario installare il seguente software:

Requisiti del software
  • SUSE® Linux Enterprise Server 12 SP5 (con tutti gli aggiornamenti online disponibili)

  • SUSE Linux Enterprise High Availability Extension 12 SP5 (con tutti gli aggiornamenti online disponibili)

Altri requisiti e raccomandazioni
Sincronizzazione dell'orario

I nodi del cluster devono sincronizzarsi a un server NTP al di fuori del cluster. Per altre informazioni, vedere https://documentation.suse.com/sles-12/html/SLES-all/cha-netz-xntp.html.

Se i nodi non sono sincronizzati, il cluster potrebbe non funzionare correttamente. Inoltre, i file di registro e i report dei cluster sono particolarmente difficili da analizzare in assenza di sincronizzazione. Se si utilizzano gli script di bootstrap, l'utente verrà avvisato nel caso in cui l'NTP non fosse ancora stato configurato.

Nome host e indirizzo IP
  • Utilizzare indirizzi IP statici.

  • Elencare tutti i nodi del cluster nel file /etc/hosts con il relativo nome host completo e breve. È fondamentale che i membri del cluster possano cercarsi per nome. Se i nomi non sono disponibili, non sarà possibile garantire la comunicazione interna al cluster.

SSH

Tutti nodi del cluster devono essere in grado di accedere agli altri tramite SSH. Strumenti quali report crm (per la risoluzione dei problemi) e Hawk2's History Explorer richiedono l'accesso SSH senza password tra i nodi, altrimenti possono solo raccogliere dati dal nodo corrente.

Se per configurare il cluster si utilizzano gli script di bootstrap, le chiavi SSH verranno create e copiate automaticamente.

3 Panoramica degli script di bootstrap

Tutti i comandi del pacchetto ha-cluster-bootstrap eseguono script di bootstrap che richiedono tempi e interventi manuali ridotti al minimo.

  • Con ha-cluster-init, è possibile definire i parametri fondamentali necessari per la comunicazione del cluster. In questo modo all'utente rimane un cluster a un nodo in esecuzione.

  • Con ha-cluster-join, è possibile aggiungere più nodi al proprio cluster.

  • Con ha-cluster-remove, è possibile rimuovere nodi dal proprio cluster.

Tutti gli script di bootstrap effettuano l'accesso a /var/log/ha-cluster-bootstrap.log. Consultare questo file per eventuali dettagli sul processo di bootstrap. Tutte le opzioni impostate durante il processo di bootstrap possono essere modificate in un secondo momento con il modulo cluster YaST. Per ulteriori informazioni, vedere Section 3.1, “Manual Installation”.

Ogni script è dotato di una documentazione completa di tutte le funzioni, le opzioni di script e una panoramica dei file che è possibile creare e modificare con lo script.

Lo script di bootstrap ha-cluster-init controlla e configura i seguenti componenti:

NTP

Se NTP non è stato configurato per essere avviato al momento del riavvio, viene visualizzato un messaggio.

SSH

Crea chiavi SSH per l'accesso senza password tra nodi del cluster.

Csync2

Configura Csync2 per replicare file di configurazione attraverso tutti i nodi in un cluster.

Corosync

Configura il sistema di comunicazione del cluster.

SBD/Watchdog

Verifica che sia presente un watchdog e chiede all'utente se configurare SBD come meccanismo di isolamento dei nodi.

IP virtuale mobile

Chiede all'utente se configurare un indirizzo IP virtuale per l'amministrazione del cluster con Hawk2.

Firewall

Apre le porte nel firewall che sono necessarie per la comunicazione del cluster.

Nome cluster

Definisce un nome per il cluster, per impostazione predefinita clusterNUMERO. Facoltativo e utile per i cluster Geo. Di solito, il nome del cluster riflette l'ubicazione e semplifica la distinzione di un sito all'interno di un cluster Geo.

4 Installazione di SUSE Linux Enterprise Server e High Availability Extension

I pacchetti per la configurazione e gestione di un cluster con High Availability Extension sono inclusi nel pattern di installazione Alta disponibilità. Questo schema è disponibile solo dopo aver installato SUSE Linux Enterprise High Availability Extension come estensione di SUSE® Linux Enterprise Server.

Per informazioni su come installare le estensioni, vedere SUSE Linux Enterprise 12 SP5 Deployment Guide (in lingua inglese): https://documentation.suse.com/sles-12/html/SLES-all/cha-add-ons.html.

Se il pattern non è ancora stato installato, eseguirne l'installazione con il comando zypper install -t pattern ha_sles. In alternativa, installare il pattern con YaST. Procedere come segue:

Procedura 1: Installazione del pattern ad alta disponibilità
  1. Avviare YaST e selezionare Software › Gestione software.

  2. Fare clic sulla scheda Pattern e attivare il pattern Alta disponibilità nell'elenco dei pattern.

  3. Fare clic su Accetta per avviare l'installazione dei pacchetti.

  4. Installare il pattern Alta disponibilità su tutte le macchine che faranno parte del cluster.

    Nota
    Nota: installazione dei pacchetti software su tutte le entità

    Per un'installazione automatizzata di SUSE Linux Enterprise Server 12 SP5 e SUSE Linux Enterprise High Availability Extension 12 SP5, utilizzare AutoYaST per clonare i nodi esistenti. Per ulteriori informazioni, vedere Section 3.2, “Mass Installation and Deployment with AutoYaST”.

  5. Registrare le macchine nel SUSE Customer Center. Per ulteriori informazioni, vedere https://documentation.suse.com/sles-12/html/SLES-all/cha-update-offline.html#sec-update-registersystem.

5 Utilizzo di SBD come meccanismo di isolamento

In caso di archiviazione condivisa, ad esempio, una SAN (Storage Area Network), quest'ultima può essere utilizzata per evitare situazioni di split brain configurando SBD come meccanismo di isolamento dei nodi. SBD utilizza il supporto watchdog e l'agente della risorsa STONITH external/sbd.

5.1 Requisiti per SBD

Durante la configurazione del primo nodo con ha-cluster-init, è possibile decidere se utilizzare SBD. In tal caso, è necessario inserire il percorso al dispositivo di archiviazione condivisa. Per impostazione predefinita, ha-cluster-init creerà automaticamente una piccola partizione sul dispositivo da utilizzare per SBD.

Per utilizzare SBD, è necessario soddisfare i seguenti requisiti:

  • Il percorso al dispositivo di archiviazione condivisa deve essere persistente e coerente attraverso tutti i nodi nel cluster. Utilizzare nomi di dispositivi stabili come /dev/disk/by-id/dm-uuid-part1-mpath-abcedf12345.

  • Il dispositivo SBD non deve utilizzare RAID basati su host, cLVM2, né risiedere su un'istanza DRBD*.

Per maggiori dettagli su come configurare un'archiviazione condivisa, consultare la Storage Administration Guide di SUSE Linux Enterprise Server 12 SP5 (in lingua inglese): https://documentation.suse.com/sles-12/html/SLES-all/stor-admin.html.

5.2 Configurazione di softdog, watchdog e SBD

In SUSE Linux Enterprise Server, il supporto watchdog nel kernel è abilitato di default: viene garantito con numerosi moduli kernel che forniscono driver watchdog specifici all'hardware. High Availability Extension utilizza il daemon SBD come componente software che «alimenta» il watchdog.

La procedura descritta di seguito utilizza il watchdog softdog.

Importante
Importante: limitazioni Softdog

Il driver softdog suppone che almeno una CPU sia ancora in esecuzione. Se tutte le CPU sono bloccate, il codice nel driver softdog che dovrebbe riavviare il sistema non viene mai eseguito. Al contrario, i watchdog hardware continuano a funzionare anche se tutte le CPU sono bloccate.

Prima di utilizzare il cluster in un ambiente di produzione, si consiglia di sostituire il modulo softdog con il rispettivo modulo hardware più adatto all'hardware in uso.

Tuttavia, se nessun watchdog corrisponde all'hardware in uso, è possibile utilizzare softdog come modulo watchdog del kernel.

  1. Creare un'archiviazione condivisa persistente, come descritto nella Sezione 5.1, «Requisiti per SBD».

  2. Abilitare il watchdog softdog:

    root # echo softdog > /etc/modules-load.d/watchdog.conf
    root # systemctl restart systemd-modules-load
  3. Controllare che il modulo softdog sia caricato correttamente:

    root # lsmod | egrep "(wd|dog)"
    softdog                16384  1
  4. Su bob, inizializzare la partizione SBD:

    root # sbd -d /dev/SBDDEVICE create
  5. Avviare SBD per rimanere in ascolto sul dispositivo SBD:

    root # sbd -d /dev/SBDDEVICE watch
  6. In alice, inviare un messaggio di prova:

    root # sbd -d /dev/SBDDEVICE message bob test
  7. In bob, controllare lo stato con systemctl, si dovrebbe visualizzare il messaggio ricevuto:

    root # systemctl status sbd
    [...]
    info: Received command test from alice on disk SBDDEVICE
  8. Interrompere la visualizzazione del dispositivo SBD in bob con:

    root # systemctl stop sbd

Nell'eventualità di uno split brain, è altamente consigliato verificare il corretto funzionamento del meccanismo di isolamento SBD. Tale verifica può essere effettuata bloccando la comunicazione del cluster Corosync.

6 Configurazione del primo nodo

Configurare il primo nodo con lo script ha-cluster-init. Il tempo e l'intervento manuale necessari sono ridotti al minimo.

Procedura 2: Configurazione del primo nodo (alice) con ha-cluster-init
  1. Accedere come root alla macchina fisica o virtuale che si desidera utilizzare come nodo cluster.

  2. Avviare lo script di bootstrap eseguendo:

    root # ha-cluster-init --name CLUSTERNAME

    Sostituire il segnaposto CLUSTERNAME con un nome significativo, come la posizione geografica del cluster (ad esempio, amsterdam). Questo risulta particolarmente utile se si desidera creare in seguito un cluster Geo, in quanto semplifica l'identificazione di un sito. Se si esegue il comando senza l'opzione --name, il nome di default è hacluster.

    Se per la comunicazione cluster occorre unicast invece di multicast (predefinito), utilizzare l'opzione -u. Dopo l'installazione, individuare il valore udpu nel file /etc/corosync/corosync.conf. Se ha-cluster-init rileva un nodo in esecuzione su Amazon Web Services (AWS), lo script utilizza unicast automaticamente come predefinito per la comunicazione del cluster.

    Lo script verifica la configurazione NTP e un servizio di watchdog hardware. Genera le chiavi SSH pubbliche e private utilizzate per l'accesso SSH e la sincronizzazione Csync2 e avvia i rispettivi servizi.

  3. Configurare il livello di comunicazione del cluster (Corosync):

    1. Immettere un indirizzo di rete al quale collegarlo. Per default, lo script proporrà l'indirizzo di rete di eth0. In alternativa, immettere un altro indirizzo di rete, ad esempio l'indirizzo di bond0.

    2. Immettere un indirizzo multicast. Lo script propone un accesso casuale da utilizzare come default. Naturalmente, l'indirizzo multicast deve essere supportato dalla propria rete.

    3. Immettere una porta multicast. Lo script propone 5405 come default.

  4. Infine, lo script avvierà il servizio Pacemaker per portare il cluster a un nodo online e abilitare Hawk2. L'URL da utilizzare per Hawk2 viene visualizzato sullo schermo.

  5. Configurare SBD come meccanismo di isolamento dei nodi:

    1. Confermare con s che si desidera utilizzare SBD.

    2. Immettere un percorso persistente nella partizione del proprio dispositivo di blocco che si desidera utilizzare per SBD, vedere Sezione 5, «Utilizzo di SBD come meccanismo di isolamento». Il percorso deve essere coerente attraverso tutti i nodi nel cluster.

  6. Configurare un indirizzo IP virtuale per l'amministrazione del cluster con Hawk2 (Questa risorsa IP virtuale verrà utilizzata più avanti per verificare il corretto completamento del failover).

    1. Confermare con s che si desidera configurare un indirizzo IP virtuale.

    2. Immettere un indirizzo IP inutilizzato da utilizzare come IP di amministrazione per Hawk2: 192.168.2.1

      Anziché accedere a un singolo nodo del cluster con Hawk2, è possibile connettersi all'indirizzo IP virtuale.

A questo punto è in esecuzione un cluster a un nodo. Per visualizzarne lo stato, attenersi alla seguente procedura:

Procedura 3: Accesso all'interfaccia Web di Hawk2
  1. Su un computer, avviare un browser Web e assicurarsi che JavaScript e i cookie siano abilitati.

  2. Come URL, immettere l'indirizzo IP o il nome host di un nodo del cluster sul quale è in esecuzione il servizio Web di Hawk. In alternativa, immettere l'indirizzo dell'indirizzo IP virtuale configurato nel Passo 6 della Procedura 2, «Configurazione del primo nodo (alice) con ha-cluster-init»:

    https://HAWKSERVER:7630/
    Nota
    Nota: avviso certificato

    Se quando si tenta di accedere all'URL per la prima volta, viene visualizzato un avviso certificato significa che è in uso un certificato firmato da se stessi. I certificati firmati da se stessi non sono considerati attendibili per default.

    Chiedere i dettagli del certificato all'operatore del cluster per verificare il certificato.

    Per continuare ignorando l'avviso, è possibile aggiungere un'eccezione nel browser.

  3. Nella schermata di accesso Hawk2, immettere il nome utente e la password dell'utente che è stato creato durante la procedura di bootstrap (utente hacluster, password linux).

    Importante
    Importante: password di protezione

    Sostituire la password di default con una di protezione non appena possibile:

    root # passwd hacluster
  4. Fare clic su Login. Dopo il login, l'interfaccia Web di Hawk2 mostra di default la schermata Stato, visualizzando rapidamente lo stato corrente del cluster:

    Stato del cluster a un nodo in Hawk2
    Figura 1: Stato del cluster a un nodo in Hawk2

7 Aggiunta del secondo nodo

Se un cluster a un nodo è installato e in funzione, aggiungere il secondo nodo del cluster con lo script di bootstrap ha-cluster-join, come descritto nella Procedura 4. Lo script deve accedere solo a un nodo del cluster esistente e completerà automaticamente la configurazione di base nel computer corrente. Per informazioni più dettagliate, vedere la documentazione ha-cluster-join.

Gli script di bootstrap si occupano delle modifiche alla configurazione specifiche a un cluster a due nodi, ad esempio, SBD e Corosync.

Procedura 4: Aggiunta del secondo nodo (bob) con ha-cluster-join
  1. Accedere come root alla macchina virtuale o fisica che si prevede di aggiungere al cluster.

  2. Avviare lo script di bootstrap eseguendo:

    root # ha-cluster-join

    Se NTP non è stato configurato per essere avviato al momento del riavvio, viene visualizzato un messaggio. Lo script cerca anche un dispositivo watchdog hardware (importante nel caso in cui si desideri configurare SBD) e avvisa se non ne trova.

  3. Se si decide di continuare comunque, verrà richiesto l'indirizzo IP di un nodo esistente. Immettere l'indirizzo IP del primo nodo (alice, 192.168.1.1).

  4. Se non è già stato configurato un accesso SSH senza password tra entrambe le macchine, verrà richiesta anche la password root del nodo esistente.

    Una volta effettuato l'accesso al nodo specificato, lo script copierà la configurazione Corosync, configurerà SSH e Csync2 e porterà la macchina corrente online come nuovo nodo del cluster. Oltre a quello, avvierà il servizio necessario per Hawk2.

Controllare lo stato del cluster in Hawk2. In Stato › Nodi si dovrebbero vedere due nodi con uno stato di colore verde (vedere Figura 2, «Stato del cluster a due nodi»).

Stato del cluster a due nodi
Figura 2: Stato del cluster a due nodi

8 Test del cluster

Procedura 5, «Test del failover delle risorse» è un semplice test per verificare se il cluster sposta l'indirizzo IP virtuale nell'altro nodo nel caso in cui il nodo sul quale è attualmente in esecuzione la risorsa è impostato su standby.

Tuttavia, un test realistico implica casi e scenari di utilizzo specifici, incluso il test del proprio meccanismo di isolamento per evitare una situazione di split brain. Se il meccanismo di isolamento non è stato configurato correttamente, il cluster non funzionerà adeguatamente.

Prima di utilizzare il cluster in un ambiente di produzione, testarlo in modo approfondito secondo i propri casi di utilizzo.

Procedura 5: Test del failover delle risorse
  1. Aprire un terminale ed effettuare il ping del proprio indirizzo IP virtuale, 192.168.2.1:

    root # ping 192.168.2.1
  2. Accedere al proprio cluster come descritto nella Procedura 3, «Accesso all'interfaccia Web di Hawk2».

  3. In Hawk2 Stato › Risorse, verificare su quale nodo è in esecuzione l'indirizzo IP virtuale (risorsa admin_addr). Si presume che la risorsa sia in esecuzione su alice.

  4. Impostare alice in modalità Standby (vedere Figura 3, «Nodo alice in modalità Standby»).

    Nodo alice in modalità Standby
    Figura 3: Nodo alice in modalità Standby
  5. Fare clic su Stato › Risorse. La risorsa admin_addr è stata migrata in bob.

Durante la migrazione, si dovrebbe vedere un flusso ininterrotto di ping verso l'indirizzo IP virtuale indicante che la configurazione del cluster e l'indirizzo IP mobile funzionano correttamente. Annullare il comando ping con Ctrl C.

9 Ulteriori informazioni

Per ulteriore documentazione relativa a questo prodotto, visitare la pagina Web https://documentation.suse.com/sle-ha-12. La documentazione comprende anche una guida all'amministrazione completa per SUSE Linux Enterprise High Availability Extension. utile in caso di ulteriori attività di configurazione e amministrazione.

10 Note legali

Copyright © 2006– 2023 SUSE LLC e collaboratori. Tutti i diritti riservati.

L'autorizzazione per la copia, la distribuzione e/o la modifica di questo documento è soggetta ai termini indicati nella licenza GFDL (GNU Free Documentation License), versione 1.2 oppure, a scelta, 1.3, di cui la presente licenza e le presenti informazioni sul copyright rappresentano la sezione non variabile. Una copia della licenza versione 1.2 è inclusa nella sezione intitolata «GNU Free Documentation License».

Per i marchi di fabbrica SUSE vedere http://www.suse.com/company/legal/. Tutti gli altri marchi di fabbrica di terze parti sono proprietà dei rispettivi titolari. I simboli di marchio di fabbrica (®, ™ e così via) indicano i marchi di fabbrica appartenenti a SUSE e alle rispettive affiliate. Gli asterischi (*) indicano i marchi di fabbrica di terze parti.

Tutte le informazioni nella presente pubblicazione sono state compilate con la massima attenzione ai dettagli. Ciò, tuttavia, non garantisce una precisione assoluta. SUSE LLC, le rispettive affiliate, gli autori e i traduttori non potranno essere ritenuti responsabili di eventuali errori o delle relative conseguenze.

Stampa pagina