5 Installazione su IBM Z e LinuxONE #
In questo capitolo è descritta la procedura di preparazione all'installazione di SUSE® Linux Enterprise Server su IBM Z. Vengono fornite tutte le informazioni necessarie per preparare l'installazione sul lato LPAR e z/VM.
5.1 Requisiti di sistema #
In questa sezione sono contenute informazioni di base sui requisiti di sistema, sul livello di MicroCode e sul software per IBM Z.
5.1.1 Hardware #
SUSE Linux Enterprise Server viene eseguito sulle seguenti piattaforme:
IBM zEnterprise System z196 (2817)
IBM zEnterprise System z114 (2818)
IBM zEnterprise EC12 (zEC12) (2827)
IBM zEnterprise BC12 (zBC12) (2828)
IBM z Systems z13 (2964)
IBM z Systems z13s (2965)
IBM z Systems z14 (3906)
IBM z Systems z14 ZR1 (3907)
IBM z Systems z15 T01 (8561)
IBM z Systems z15 T02 (8562)
IBM LinuxONE Emperor (2964)
IBM LinuxONE Rockhopper (2965)
IBM LinuxONE Emperor II (3906)
IBM LinuxONE Rockhopper II (3907)
IBM LinuxONE III LT1 (8561)
IBM LinuxONE III LT2 (8562)
5.1.1.1 Requisiti di memoria #
Metodi di installazione diversi richiedono requisiti di memoria diversi nel corso dell'installazione. È consigliabile disporre di almeno 1 GB di memoria per l'installazione in modalità testo in z/VM, LPAR e KVM. L'installazione in modalità grafica richiede almeno 1,5 GB di memoria.
Sono necessari almeno 512 MB di memoria per l'installazione da origini di tipo NFS, FTP e SMB o in caso di utilizzo di VNC. Tenere presente che i requisiti di memoria variano anche in base al numero di dispositivi visibili dal guest z/VM guest o dall'immagine della partizione LPAR. L'installazione con molti dispositivi accessibili (anche se non utilizzati per l'installazione) potrebbe richiedere un'ulteriore quantità di memoria.
5.1.1.2 Requisiti per lo spazio su disco #
I requisiti dipendono dall'applicazione. Per garantire il funzionamento del sistema, è in genere necessario più spazio rispetto a quello richiesto dal software di installazione. Di seguito sono riportati i requisiti minimi per i tipi di installazione disponibili:
Tipo di installazione |
Spazio minimo su disco fisso |
---|---|
Modalità testo |
1,5 GB |
Sistema minimo |
2,5 GB |
Desktop GNOME |
3 GB |
Tutti |
4 GB |
Minimo consigliato (nessuna istantanea Btrfs): 10 GB | |
Minimo richiesto (con istantanee Btrfs): 16 GB | |
Minimo consigliato (con istantanee Btrfs): 32 GB |
5.1.1.3 Connessione di rete #
È necessaria una connessione di rete per comunicare con il sistema SUSE Linux Enterprise Server. È possibile scegliere una o più tra le seguenti connessioni o schede di rete:
OSA Express Ethernet (incluso Fast e Gigabit Ethernet)
HiperSockets o LAN Guest
10 GBE, VSWITCH
RoCE (RDMA over Converged Ethernet)
Le seguenti interfacce sono ancora incluse, ma non più supportate:
CTC (o CTC virtuale)
ESCON
Interfaccia di rete IP per IUCV
Quando si esegue l'installazione in KVM, verificare che i requisiti seguenti siano soddisfatti al fine di consentire al guest VM di accedere alla rete in modo trasparente:
L'interfaccia di rete virtuale è connessa a un'interfaccia di rete host.
L'interfaccia di rete host è connessa a una rete che includerà il server virtuale.
Se l'host è configurato per una connessione di rete ridondante mediante il raggruppamento di due porte di rete OSA indipendenti in un'interfaccia di rete associata, l'identificatore per l'interfaccia di rete associata è
bond0
. Se sono presenti più interfacce associate, vengono denominatebond1
,bond2
e così viaLa configurazione di una connessione di rete non ridondante richiede l'identificatore della singola interfaccia di rete. L'identificatore presenta il seguente formato: enccw0.0.NNNN, dove NNNN è il numero di dispositivo dell'interfaccia di rete desiderata.
5.1.2 Livello di MicroCode, APAR e correzioni #
La documentazione relativa alle restrizioni e ai requisiti per questa release di SUSE Linux Enterprise Server è disponibile in IBM developerWorks all'indirizzo https://developer.ibm.com/technologies/linux/. È consigliabile utilizzare il livello massimo di servizio disponibile. Contattare l'assistenza IBM per conoscere i requisiti minimi.
Per z/VM sono supportate le seguenti versioni:
z/VM 6.4
z/VM 7.1
Dal momento che potrebbe essere necessario attivare gli APAR delle VM prima di installare i nuovi livelli di MicroCode, chiarire l'ordine di installazione con l'assistenza IBM.
5.1.3 Software #
Durante l'installazione di SUSE Linux Enterprise Server tramite NFS o FTP non basati su Linux, potrebbero verificarsi problemi con il software del server NFS o FTP. Il server FTP standard di Windows* può generare errori, pertanto è consigliabile eseguire l'installazione tramite SMB in questi computer.
Per connettersi al sistema di installazione di SUSE Linux Enterprise Server, è richiesto uno dei metodi seguenti (i metodi consigliati sono SSH o VNC):
- SSH con emulazione di terminale (compatibile con xterm)
SSH è lo strumento standard Unix presente su quasi tutti i sistemi Unix o Linux. Per Windows è possibile utilizzare il client SSH PuTTY.
- Client VNC
Per Linux un client VNC chiamato
vncviewer
è incluso in SUSE Linux Enterprise Server come parte del pacchettotightvnc
. TightVNC è disponibile anche per Windows. il cui download può essere eseguito da https://www.tightvnc.com/.- Server X
Su qualsiasi workstation Linux o Unix è possibile trovare un'implementazione adatta del server X. Esistono in commercio molti ambienti X Window System per Windows e MacOS*. È possibile effettuare il download di alcuni come versioni di prova gratuite.
Prima di installare SUSE Linux Enterprise Server su IBM Z, consultare il file README
situato nella directory root del primo supporto di installazione di SUSE Linux Enterprise Server. Questo file fa da complemento alla presente documentazione.
5.2 informazioni generali #
In questa sezione sono descritti i diversi tipi di installazione e in che modo eseguire un IPL per la prima installazione.
5.2.1 Tipi di installazione #
In questa sezione è fornita una panoramica dei diversi tipi di installazioni possibili con SUSE Linux Enterprise Server per IBM Z. È possibile installare SUSE Linux Enterprise Server in una LPAR, come guest all'interno di z/VM o come guest all'interno di KVM.
In base alla modalità di installazione (LPAR o z/VM) esistono diverse possibilità per l'avvio del processo di installazione e l'esecuzione dell'IPL del sistema installato.
5.2.1.1 LPAR #
Se si installa SUSE Linux Enterprise Server per IBM Z in una partizione logica (LPAR), assegnare memoria e processori all'istanza. L'installazione in una LPAR è raccomandata per le macchine di produzione a carico elevato. L'esecuzione in LPAR rende disponibili standard di sicurezza più elevati. Il networking tra partizioni LPAR è possibile su interfacce esterne o Hipersockets. Se si intende utilizzare l'installazione per la virtualizzazione con KVM, è particolarmente consigliata l'installazione in LPAR.
5.2.1.2 z/VM #
L'esecuzione di SUSE Linux Enterprise Server per IBM Z in z/VM significa che SUSE Linux Enterprise Server è un sistema guest all'interno di z/VM. Un vantaggio di questa modalità è la possibilità di disporre del controllo completo su SUSE Linux Enterprise Server da z/VM. Ciò è molto utile per lo sviluppo del kernel o per il debugging basato sul kernel. È inoltre molto semplice aggiungere o rimuovere hardware sui sistemi Linux ospiti. La creazione di guest SUSE Linux Enterprise Server aggiuntivi è semplice e consente l'esecuzione simultanea di centinaia di istanze Linux.
5.2.1.3 Guest KVM #
Per installare SUSE Linux Enterprise Server per IBM Z come guest KVM è necessario avere installato un'istanza del server host KVM in una partizione LPAR. Per informazioni dettagliate sull'installazione del guest, vedere Procedura 5.3, «Panoramica dell'installazione guest KVM».
5.2.2 Opzioni IPL #
Questa sezione contiene le informazioni necessarie per eseguire un IPL per la prima installazione. In base al tipo di installazione, sono necessarie opzioni diverse. Vengono descritte le opzioni del lettore VM, di caricamento da CD-ROM o server e di caricamento da un DVD-ROM collegato tramite SCSI. L'installazione dei pacchetti software, effettuata tramite la rete, non richiede il supporto IPL.
5.2.2.1 Lettore VM #
Per eseguire l'IPL da un lettore VM, è necessario prima trasferire i file necessari nel lettore. Per maggiore praticità nell'amministrazione, è consigliabile creare un utente linuxmnt
che dispone di un minidisco contenente i file e gli script necessari per l'IPL. Questo minidisco in seguito può essere accessibile in sola lettura dai sistemi Linux ospiti. Per informazioni, vedere Sezione 5.3.4.2.1, «IPL dal lettore z/VM».
5.2.2.2 Caricamento da supporto rimovibile o server #
Per eseguire IPL in una partizione LPAR, caricare l'immagine del kernel direttamente dall'SE, dal dispositivo CD/DVD-ROM dell'HMC oppure da qualsiasi sistema remoto accessibile tramite FTP. Questa funzione può essere eseguita dall'HMC. Il processo di installazione richiede un file con una mappatura dell'ubicazione dei dati di installazione nel file system e delle ubicazioni di memoria in cui copiare i dati.
Per SUSE Linux Enterprise Server, sono disponibili due file di questo tipo. Entrambi si trovano nella directory root del primo supporto di installazione:
suse.ins
che per funzionare richiede la configurazione dell'accesso di rete in Linuxrc prima dell'avvio dell'installazione.susehmc.ins
che consente l'installazione senza accesso di rete.
Nel riquadro di navigazione a sinistra di HMC espandere SUSE Linux Enterprise Server dalla tabella dei LPAR e selezionare .
› e selezionare il sistema mainframe con cui lavorare. Scegliere il LPAR sul quale avviare
Quindi, scegliere .ins
appropriato non è ubicato nella directory radice del server, specificare il percorso del file. Passare al menu , quindi scegliere la voce .ins
appropriata. Fare clic su per avviare l'installazione.
5.2.2.3 Caricamento da DVD SCSI #
Per eseguire l'IPL da un DVD SCSI, è necessario accedere a un adattatore FCP collegato ad un'unità DVD. Sono necessari i valori per WWPN e LUN dell'unità SCSI. Per informazioni, vedere Sezione 5.3.4.1.2, «IPL da un DVD SCSI collegato tramite FCP».
5.2.2.4 Caricamento dalla rete con zPXE #
Per l'esecuzione dell'IPL dalla rete con zPXE è necessario un server Cobbler in grado di fornire kernel, disco RAM e un parmfile. Può essere avviato eseguendo lo script ZPXE EXEC. Per informazioni, vedere Sezione 5.3.1.3, «Utilizzo di un server Cobbler per zPXE». zPXE è disponibile solo in z/VM.
5.3 Preparazione per l'installazione #
In questo capitolo viene illustrato come rendere accessibili i dati per l'installazione, installare SUSE Linux Enterprise Server con metodi differenti e preparare e utilizzare l'IPL del sistema di installazione di SUSE Linux Enterprise Server. Il capitolo offre inoltre informazioni sulla configurazione e sull'installazione della rete.
5.3.1 Rendere disponibili i dati dell'installazione #
In questa sezione sono contenute informazioni dettagliate su come rendere accessibili i dati di installazione del sistema IBM Z di SUSE Linux Enterprise Server per l'installazione. Scegliere l'installazione NFS o FTP in base al computer e all'ambiente di sistema in uso. Se nel proprio ambiente sono in esecuzione workstation di Microsoft Windows, è possibile utilizzare la rete Windows (incluso il protocollo SMB) per installare SUSE Linux Enterprise Server nel sistema IBM Z.
È possibile effettuare l'IPL da DVD e utilizzare quest'ultimo come supporto di installazione. Questa operazione è molto pratica se vi sono restrizioni di configurazione in un server di installazione che fornisce supporti di installazione in rete. Il prerequisito è un'unità DVD SCSI collegata tramite FCP.
Non è possibile eseguire l'installazione da un disco rigido copiando il contenuto del DVD in una partizione su un disco DASD.
5.3.1.1 Utilizzo di una workstation Linux o di un DVD di SUSE Linux Enterprise Server #
È possibile utilizzare una postazione di lavoro Linux nell'ambiente del computer per fornire i dati di installazione al processo di installazione IBM Z mediante NFS o FTP. Se la postazione di lavoro Linux esegue SUSE Linux Enterprise Server, è possibile configurare un server di installazione (NFS o FTP) utilizzando il modulo di YaST come descritto nella Sezione 16.1, «Configurazione di un server di installazione con YaST».
L'esportazione della directory root del file system (/
) non implica l'esportazione automatica dei dispositivi montati, ad esempio i DVD. È quindi necessario denominare in modo esplicito il punto di montaggio in /etc/exports
:
/media/dvd *(ro)
Dopo aver modificato questo file, riavviare il server NFS con il comando sudo systemctl restart nfsserver
.
Per configurare un server FTP in un sistema Linux è necessario installare e configurare software server, ad esempio vsftpd. Se si utilizza SUSE Linux Enterprise Server, vedere il Chapter 43, Setting up an FTP server with YaST per le istruzioni di installazione. Poiché non è possibile effettuare il download dei dati di installazione tramite login anonimo, è necessario configurare il server FTP in modo da supportare l'autenticazione degli utenti.
5.3.1.1.1 SUSE Linux Enterprise Server su DVD #
Il primo supporto di installazione di SUSE Linux Enterprise Server per IBM Z contiene un'immagine Linux di avvio per le postazioni di lavoro basate su Intel e un'immagine per la piattaforma IBM Z.
Per le postazioni di lavoro basate su Intel, eseguire l'avvio da questo supporto. Quando richiesto, selezionare la lingua di risposta e la mappatura della tastiera desiderati, quindi
. Per questa operazione sono necessari almeno 64 MB di RAM. Non è necessario alcuno spazio sul disco perché l'intero di sistema di ripristino risiede nella RAM della postazione di lavoro. Questo approccio prevede la configurazione manuale della rete della postazione di lavoro.
Per IBM Z, eseguire l'IPL del guest LPAR/VM da questo supporto, come descritto nella Sezione 5.3.4.1.2, «IPL da un DVD SCSI collegato tramite FCP». Dopo aver immesso i parametri di rete, il sistema di installazione tratta il supporto come origine dei dati di installazione. Poiché non è possibile connettere direttamente a IBM Z un terminale compatibile con X11, occorre scegliere se eseguire l'installazione tramite VNC o SSH. SSH fornisce inoltre un'installazione grafica tramite tunnelling della connessione X attraverso SSH mediante ssh -X
.
5.3.1.2 Utilizzo di una workstation Microsoft Windows #
È possibile utilizzare una postazione di lavoro Microsoft Windows nella rete per rendere disponibili i supporti di installazione. A tale scopo, il metodo più semplice consiste nell'utilizzare il protocollo SMB. Assicurarsi che l'opzione
sia attivata per garantire l'incapsulamento dei pacchetti SMB in pacchetti TCP/IP. Le informazioni dettagliate sono disponibili nella Guida online di Windows o nella documentazione Windows relativa alle connessioni di rete.5.3.1.2.1 Utilizzo di SMB #
Per rendere disponibili i supporti di installazione con SMB, inserire l'unità flash USB con il file SLE-15-SP4-Online-ARCH-GM-media1.iso nella porta USB della postazione di lavoro Windows. Creare quindi una nuova condivisione utilizzando la lettera dell'unità flash USB e renderla disponibile a tutti gli utenti in rete.
Il percorso di installazione in YaST può essere:
smb://DOMAIN;USER:PW@SERVERNAME/SHAREPATH
Dove i segnaposto significano:
- DOMINIO
Gruppo di lavoro o dominio active directory facoltativi.
- USER, PW
Nome utente e password facoltativi di un utente autorizzato ad accedere al server e alle rispettive condivisioni.
- SERVERNAME
Nome del server host delle condivisioni.
- SHAREPATH
Percorso delle condivisioni.
5.3.1.2.2 NFS #
Consultare la documentazione fornita con il prodotto di terze parti che consente di abilitare i servizi del server NFS per la workstation Windows in uso. L'unità flash USB contenente il supporto SLE-15-SP4-Online-ARCH-GM-media1.iso deve trovarsi al percorso NFS disponibile.
5.3.1.2.3 Utilizzo di FTP #
Consultare la documentazione fornita con il prodotto di terze parti che consente di abilitare i servizi del server FTP per la postazione di lavoro Windows in uso. L'unità flash USB contenente il supporto SLE-15-SP4-Online-ARCH-GM-media1.iso deve trovarsi al percorso FTP disponibile.
Il server FTP incluso in alcune versioni di Microsoft Windows implementa solo un sottoinsieme di comandi FTP e non è idoneo per fornire i dati di installazione. In questo caso, utilizzare un server FTP di terze parti che fornisca la funzionalità richiesta.
5.3.1.2.4 Utilizzo di un'unità DVD SCSI collegata tramite FCP #
Dopo l'esecuzione di IPL dal DVD SCSI, come descritto nella Sezione 5.3.4.1.2, «IPL da un DVD SCSI collegato tramite FCP», il sistema di installazione utilizzerà il DVD come supporto di installazione. In tal caso, non sarà necessario il supporto di installazione su un server FTP, NFS o SMB. Tuttavia, saranno necessari i dati di configurazione della rete per SUSE Linux Enterprise Server, in quanto occorre configurare la rete durante l'installazione per eseguire un'installazione grafica tramite VNC o X.
5.3.1.3 Utilizzo di un server Cobbler per zPXE #
Per l'esecuzione dell'IPL dalla rete è necessario un server Cobbler per fornire il kernel, il file initrd e i dati di installazione. La preparazione del server Cobbler è costituita dai seguenti passaggi:
5.3.1.3.1 Importazione dei dati di installazione #
Per l'importazione dei supporti è necessario che la sorgente di installazione sia disponibile sul server Cobbler da un'unità flash USB o da un'origine di rete. Eseguire il seguente comando per importare i dati:
>
sudo
cobbler import --path=PATH1 --name=IDENTIFIER2 --arch=s390x
Punto di montaggio dei dati di installazione | |
Una stringa che identifica il prodotto importato, ad esempio «sles15_s390x». Tale stringa viene utilizzata come nome per la sottodirectory in cui vengono copiati i dati dell'installazione. Su un server Cobbler in esecuzione su SUSE Linux Enterprise la stringa è |
5.3.1.3.2 Aggiunta di una distribuzione #
L'aggiunta di una distribuzione indica a Cobbler di fornire il kernel e il file initrd necessari per l'esecuzione di IPL tramite zPXE. Eseguire il comando seguente sul server Cobbler per aggiungere SUSE Linux Enterprise Server per IBM Z:
>
sudo
cobbler distro add --arch=s390 --breed=suse --name="IDENTIFIER"1 \ --os-version=sles152 \ --initrd=/srv/www/cobbler/ks_mirror/IDENTIFIER/boot/s390x/initrd3 \ --kernel=/srv/www/cobbler/ks_mirror/IDENTIFIER/boot/s390x/linux4 \ --kopts="install=http://cobbler.example.com/cobbler/ks_mirror/IDENTIFIER"5
Identificatore univoco per la distribuzione, ad esempio «SLES 15 SP4 IBM Z». | |
Identificatore del sistema operativo. Utilizzare | |
Percorso del file initrd. La prima parte del percorso ( | |
Percorso del kernel. La prima parte del percorso ( | |
URL della directory di installazione sul server Cobbler. |
5.3.1.3.3 Modifica del profilo #
L'aggiunta di una distribuzione (consultare la Sezione 5.3.1.3.2, «Aggiunta di una distribuzione») genera automaticamente un profilo con l'elemento IDENTIFIER corrispondente. Utilizzare il seguente comando per apportare alcune modifiche necessarie:
>
sudo
cobbler distro edit \ --name=IDENTIFIER1 --os-version=sles102 --ksmeta=""3 --kopts="install=http://cobbler.example.com/cobbler/ks_mirror/IDENTIFIER"4
Identificatore per il profilo. Utilizzare la stringa specificata durante l'aggiunta della distribuzione. | |
Versione sistema operativo. Distribuzione alla quale deve essere applicato il profilo. Utilizzare la stringa specificata con | |
Opzione necessaria per creare modelli di file Kickstart. Poiché non è utilizzata per SUSE, lasciare il campo vuoto. | |
Elenco separato da spazi dei parametri kernel. Deve includere almeno il parametro |
5.3.1.3.4 Aggiunta di sistemi #
L'aggiunta di sistemi al server Cobbler rappresenta l'ultimo passaggio, che deve essere eseguito per ogni guest IBM Z da avviare tramite zPXE. I guest vengono identificati mediante il relativo ID utente z/VM (nel seguente esempio, l'ID «linux01»). L'ID deve essere specificato in lettere minuscole. Per aggiungere un sistema, eseguire il seguente comando:
>
sudo
cobbler system add --name=linux01 --hostname=linux01.example.com \ --profile=IDENTIFIER --interface=qdio \ --ip-address=192.168.2.103 --subnet=192.168.2.255 --netmask=255.255.255.0 \ --name-servers=192.168.1.116 --name-servers-search=example.com \ --gateway=192.168.2.1 --kopts="KERNEL_OPTIONS"
L'opzione --kopts
consente di specificare il kernel e i parametri di installazione in genere indicati nel parmfile. Specificare i parametri utilizzando il seguente formato: PARAMETER1=VALUE1 PARAMETER2=VALUE2. Il programma di installazione richiede di specificare i parametri mancanti. Per un'installazione completamente automatizzata, è necessario specificare tutti i parametri per reti e dischi DASD e fornire un file AutoYaST. Di seguito è riportato un esempio di guest dotato di un'interfaccia OSA che utilizza gli stessi parametri di rete di cui sopra.
--kopts=" \ AutoYaST=http://192.168.0.5/autoinst.xml \ Hostname=linux01.example.com \ Domain=example.com \ HostIP=192.168.2.103 \ Gateway=192.168.2.1 \ Nameserver=192.168.1.116 \ Searchdns=example.com \ InstNetDev=osa; \ Netmask=255.255.255.0 \ Broadcast=192.168.2.255 \ OsaInterface=qdio \ Layer2=0 \ PortNo=0 \ ReadChannel=0.0.0700 \ WriteChannel=0.0.0701 \ DataChannel=0.0.0702 \ DASD=600"
5.3.1.4 Installazione da un'unità flash USB dell'HMC #
L'installazione di SUSE Linux Enterprise Server nei server IBM Z richiede in genere una sorgente di installazione di rete. Se non è possibile soddisfare questo requisito, SUSE Linux Enterprise Server consente di utilizzare l'unità flash USB di Hardware Management Console (HMC) come sorgente per l'installazione in una partizione LPAR.
Per eseguire l'installazione dall'unità flash USB dell'HMC, procedere come segue:
Aggiungere
install=hmc:/
alparmfile
(consultare la Sezione 5.6, «Parmfile - Automazione della configurazione del sistema») o alle opzioni del kernel.Nell'installazione in modalità manuale mediante
linuxrc
, selezionare Avvia installazione, quindi Installazione e infine Hardware Management Console. Il supporto di installazione deve essere inserito nell'HMC.
Prima di avviare l'installazione, specificare una configurazione di rete in linuxrc
. Questa operazione non è consentita tramite i parametri di avvio e sarà probabilmente necessario l'accesso alla rete. In linuxrc
passare ad Avvia installazione e scegliere Configurazione di rete.
Prima di concedere l'accesso al supporto nell'unità flash USB dell'HMC, attendere l'avvio del sistema Linux. L'esecuzione di un IPL può interrompere la connessione fra l'HMC e la partizione LPAR. Se il primo metodo illustrato non funziona, consentire l'accesso e provare di nuovo a utilizzare l'opzione HMC
.
L'unità flash USB non viene mantenuta come repository di installazione, in quanto l'installazione è una procedura una tantum. Se è necessario un archivio di installazione, registrare e utilizzare l'archivio online.
5.3.2 Tipi di installazione #
In questa sezione vengono descritti i passaggi per ogni modalità di installazione di SUSE Linux Enterprise Server. Una volta completati i passaggi di preparazione descritti nei capitoli precedenti, seguire la panoramica della modalità di installazione desiderata.
Come descritto nella Sezione 5.3.1, «Rendere disponibili i dati dell'installazione», sono disponibili tre modalità di installazione distinte per Linux su IBM Z: LPAR, z/VM e guest KVM.
Preparare i dispositivi necessari per l'installazione. Vedere Sezione 5.3.3.1, «Preparazione dell'IPL di un'installazione LPAR».
Effettuare l'IPL del sistema di installazione. Vedere Sezione 5.3.4.1, «IPL di un'installazione LPAR».
Configurare la rete. Vedere Sezione 5.3.5, «Configurazione della rete».
Connettersi al sistema di installazione di SUSE Linux Enterprise Server. Vedere Sezione 5.3.6, «Connessione al sistema di installazione di SUSE Linux Enterprise Server».
Avviare l'installazione utilizzando YaST ed eseguire l'IPL del sistema installato. Vedere Capitolo 8, Procedura di installazione.
Preparare i dispositivi necessari per l'installazione. Vedere Sezione 5.3.3.2.1, «Aggiunta di un guest Linux mediante dirMaint».
Effettuare l'IPL del sistema di installazione. Vedere Sezione 5.3.4.2, «IPL di un'installazione z/VM».
Configurare la rete. Vedere Sezione 5.3.5, «Configurazione della rete».
Connettersi al sistema di installazione di SUSE Linux Enterprise Server. Vedere Sezione 5.3.6, «Connessione al sistema di installazione di SUSE Linux Enterprise Server».
Avviare l'installazione utilizzando YaST ed eseguire l'IPL del sistema installato. Vedere Capitolo 8, Procedura di installazione.
Creare un'immagine del disco virtuale e scrivere un file XML di dominio. Vedere Sezione 5.3.3.3, «Preparazione dell'IPL di un'installazione guest KVM».
Preparare la destinazione di installazione ed eseguire l'IPL del guest VM. Vedere Sezione 5.3.4.3, «IPL di un'installazione guest KVM».
Sezione 5.3.5.3, «Configurare la rete e selezionare l'origine di installazione».
Connettersi al sistema di installazione di SUSE Linux Enterprise Server. Vedere Sezione 5.3.6, «Connessione al sistema di installazione di SUSE Linux Enterprise Server».
Avviare l'installazione utilizzando YaST ed eseguire l'IPL del sistema installato. Vedere Capitolo 8, Procedura di installazione.
5.3.3 Preparazione dell'IPL del sistema di installazione di SUSE Linux Enterprise Server #
5.3.3.1 Preparazione dell'IPL di un'installazione LPAR #
Configurare il sistema IBM Z per l'avvio in modalità ESA/S390 o solo Linux con un profilo di attivazione appropriato e IOCDS. Per ulteriori informazioni fare riferimento alla documentazione IBM. Procedere come descritto nella Sezione 5.3.4.1, «IPL di un'installazione LPAR».
5.3.3.2 Preparazione dell'IPL di un'installazione z/VM #
5.3.3.2.1 Aggiunta di un guest Linux mediante dirMaint #
Il primo passaggio consiste nel collegare e formattare uno o più dispositivi DASD nel sistema che deve essere utilizzato dal guest di Linux in z/VM. Creare quindi un nuovo utente in z/VM. Nell'esempio sono illustrati la directory per un utente LINUX1
con password LINPWD
, 1 GB di memoria (ampliabile fino a 2 GB), alcuni minidischi (MDISK), due CPU e un dispositivo OSA QDIO.
Quando si assegna una quantità di memoria a un guest z/VM, assicurarsi che le dimensioni della memoria siano idonee al tipo di installazione preferito. Vedere la Sezione 5.1.1.1, «Requisiti di memoria».Per impostare le dimensioni della memoria su 1 GB, usare il comando CP DEFINE STORAGE 1G
. Al termine dell'installazione, ripristinare le dimensioni della memoria al valore desiderato.
USER LINUX1 LINPWD 1024M 2048M G *____________________________________________ * LINUX1 *____________________________________________ * This VM Linux guest has two CPUs defined. CPU 01 CPUID 111111 CPU 02 CPUID 111222 IPL CMS PARM AUTOCR IUCV ANY IUCV ALLOW MACH ESA 10 OPTION MAINTCCW RMCHINFO SHARE RELATIVE 2000 CONSOLE 01C0 3270 A SPOOL 000C 2540 READER * SPOOL 000D 2540 PUNCH A SPOOL 000E 3203 A * OSA QDIO DEVICE DEFINITIONS DEDICATE 9A0 9A0 DEDICATE 9A1 9A1 DEDICATE 9A2 9A2 * LINK MAINT 0190 0190 RR LINK MAINT 019E 019E RR LINK MAINT 019D 019D RR * MINIDISK DEFINITIONS MDISK 201 3390 0001 0050 DASD40 MR ONE4ME TWO4ME THR4ME MDISK 150 3390 0052 0200 DASD40 MR ONE4ME TWO4ME THR4ME MDISK 151 3390 0253 2800 DASD40 MR ONE4ME TWO4ME THR4ME
Nell'esempio viene utilizzato il minidisco 201 come disco principale del guest. Il dispositivo di scambio Linux corrisponde al minidisco 150 con 200 cilindri. Il disco 151 con 2800 cilindri include l'installazione Linux.
Come utente MAINT
, aggiungere il guest alla directory dell'utente mediante il comando DIRM FOR LINUX1 ADD
. Immettere il nome del guest (LINUX1
) e premere F5. Configurare l'ambiente dell'utente con:
DIRM DIRECT DIRM USER WITHPASS
L'ultimo comando restituisce un numero di file del lettore. necessario per il comando successivo:
RECEIVE <number> USER DIRECT A (REPL)
È possibile eseguire il login sul guest come utente LINUX1
.
Se l'opzione dirmaint
non è disponibile, consultare la documentazione IBM su come configurare questo utente.
Procedere con la Sezione 5.3.4.2, «IPL di un'installazione z/VM».
5.3.3.3 Preparazione dell'IPL di un'installazione guest KVM #
Per un'installazione guest KVM sono richiesti un file XML di dominio che specifica la macchina virtuale e almeno un'immagine del disco virtuale da utilizzare per l'installazione.
5.3.3.3.1 Creare un'immagine del disco virtuale #
Per impostazione predefinita, libvirt ricerca le immagini dei dischi nella directory /var/lib/libvirt/images/
dell'host server VM. Sebbene sia possibile memorizzare le immagini anche in qualsiasi altro percorso nel file system, è consigliabile archiviarle tutte in una singola ubicazione per semplificare la manutenzione. Per creare un'immagine, accedere all'host server KVM ed eseguire il comando seguente:
qemu-img create -f qcow2 /var/lib/libvirt/images/s12lin_qcow2.img 10G
Viene creata un'immagine qcow2 con dimensione di 10 GB in /var/lib/libvirt/images/
. Per ulteriori informazioni, vedere il Section 34.2, “Managing disk images with qemu-img
”.
5.3.3.3.2 Scrivere un file XML di dominio #
Il file XML di dominio viene utilizzato per definire il guest VM. Per creare il file XML di dominio, aprire in un editor un file vuoto denominato s15-1.xml
e aggiungere un file simile a quello dell'esempio seguente.
L'esempio seguente crea un guest VM con una singola CPU, 1 GB di RAM e l'immagine del disco virtuale creata nella sezione precedente (Sezione 5.3.3.3.1, «Creare un'immagine del disco virtuale»). Si presuppone che il server virtuale sia associato all'interfaccia di rete host bond0
. Modificare l'elemento relativo ai dispositivi di origine in base alla configurazione di rete in uso.
<domain type="kvm"> <name>s15-1</name> <description>Guest-System SUSE SLES15</description> <memory>1048576</memory> <vcpu>1</vcpu> <os> <type arch="s390x" machine="s390-ccw-virtio">hvm</type> <!-- Boot kernel - remove 3 lines after successfull installation --> <kernel>/var/lib/libvirt/images/s15-kernel.boot</kernel> <initrd>/var/lib/libvirt/images/s15-initrd.boot</initrd> <cmdline>linuxrcstderr=/dev/console</cmdline> </os> <iothreads>1</iothreads> <on_poweroff>destroy</on_poweroff> <on_reboot>restart</on_reboot> <on_crash>preserve</on_crash> <devices> <emulator>/usr/bin/qemu-system-s390x</emulator> <disk type="file" device="disk"> <driver name="qemu" type="qcow2" cache="none" iothread="1" io="native"/> <source file="/var/lib/libvirt/images/s15lin_qcow2.img"/> <target dev="vda" bus="virtio"/> </disk> <interface type="direct"> <source dev="bond0" mode="bridge"/> <model type="virtio"/> </interface> <console type="pty"> <target type="sclp"/> </console> </devices> </domain>
5.3.4 Esecuzione dell'IPL del sistema di installazione di SUSE Linux Enterprise Server #
5.3.4.1 IPL di un'installazione LPAR #
È possibile eseguire l'IPL di SUSE Linux Enterprise Server in un LPAR in diversi modi. Il metodo preferito consiste nell'utilizzo della funzione di SE o HMC.
5.3.4.1.1 Esecuzione di IPL da un DVD-ROM #
Contrassegnare il LPAR da installare e selezionare
. Lasciare vuoto il campo relativo all'ubicazione del file o immettere il percorso della directory root del primo DVD-ROM, quindi selezionare . Mantenere la selezione predefinita nell'elenco di opzioni visualizzato. In (Messaggi del sistema operativo) sono ora disponibili i messaggi di avvio del kernel.5.3.4.1.2 IPL da un DVD SCSI collegato tramite FCP #
È possibile utilizzare la procedura
selezionando come per eseguire IPL da SCSI. Immettere WWPN (Worldwide Port Name) e LUN (Logical Unit Number) forniti dal bridge o dal dispositivo di memorizzazione SCSI (16 cifre, senza omettere gli zero finali). Il selettore del programma di avvio deve essere 2. Utilizzare l'adattatore FCP come ed eseguire un IPL.5.3.4.2 IPL di un'installazione z/VM #
In questa sezione viene descritto come eseguire l'IPL del sistema di installazione al fine di installare SUSE Linux Enterprise Server per IBM Z in un sistema z/VM.
5.3.4.2.1 IPL dal lettore z/VM #
Per trasferire il sistema di installazione tramite FTP sono necessari una connessione TCP/IP funzionante e un programma client FTP nel guest z/VM appena definito. La configurazione TCP/IP per z/VM è al di fuori dell'ambito di questo manuale. Fare riferimento alla documentazione IBM appropriata.
Effettuare il login come guest z/VM all'IPL. Rendere disponibile il contenuto della directory /boot/s390x
del programma di installazione unificato (supporto 1) tramite FTP all'interno della rete. Da questa directory, ottenere i file linux
, initrd
, parmfile
e sles.exec
. Trasferire i file con dimensioni a blocchi fisse di 80 caratteri. A questo scopo utilizzare il comando FTP locsite fix 80
. È importante copiare i file linux
(il kernel Linux) e initrd
(l'immagine di installazione) come file binari; per questo motivo, utilizzare la modalità di trasferimento binaria
. È necessario trasferire parmfile
e sles.exec
in modalità ASCII.
L'esempio riportato di seguito illustra i passaggi richiesti. In questo specifico scenario si presuppone che i file necessari siano accessibili da un server FTP all'indirizzo IP 192.168.0.3
con account utente lininst
.
FTP 192.168.0.3 VM TCP/IP FTP Level 530 Connecting to 192.168.0.3, port 21 220 ftpserver FTP server (Version wu-2.4.2-academ[BETA-18](1) Thu Feb 11 16:09:02 GMT 2010) ready. USER lininst 331 Password required for lininst PASS ****** 230 User lininst logged in. Command: binary 200 Type set to I Command: locsite fix 80 Command: get /media/dvd1/boot/s390x/linux sles15.linux 200 PORT Command successful 150 Opening BINARY mode data connection for /media/dvd1/boot/s390x/linux (10664192 bytes) 226 Transfer complete. 10664192 bytes transferred in 13.91 seconds. Transfer rate 766.70 Kbytes/sec. Command: get /media/dvd1/boot/s390x/initrd sles12.initrd 200 PORT Command successful 150 Opening BINARY mode data connection for /media/dvd1/boot/s390x/initrd (21403276 bytes) 226 Transfer complete. 21403276 bytes transferred in 27.916 seconds. Transfer rate 766.70 Kbytes/sec. Command: ascii 200 Type set to A Command: get /media/dvd1/boot/s390x/parmfile sles12.parmfile 150 Opening ASCII mode data connection for /media/dvd1/boot/s390x/parmfile (5 bytes) 226 Transfer complete. 5 bytes transferred in 0.092 seconds. Transfer rate 0.05 Kbytes/sec. Command: get /media/dvd1/boot/s390x/sles.exec sles.exec 150 Opening ASCII mode data connection for /media/dvd1/boot/s390x/sles.exec (891 bytes) 226 Transfer complete. 891 bytes transferred in 0.097 seconds. Transfer rate 0.89 Kbytes/sec. Command: quit
Utilizzare lo script REXX sles.exec scaricato per eseguire l'IPL del sistema di installazione Linux. Questo script carica il kernel, parmfile, e il disco RAM iniziale nel lettore per IPL:
/* REXX LOAD EXEC FOR SUSE LINUX S/390 VM GUESTS */ /* LOADS SUSE LINUX S/390 FILES INTO READER */ SAY '' SAY 'LOADING SLES12 FILES INTO READER...' 'CP CLOSE RDR' 'PURGE RDR ALL' 'SPOOL PUNCH * RDR' 'PUNCH SLES12 LINUX A (NOH' 'PUNCH SLES12 PARMFILE A (NOH' 'PUNCH SLES12 INITRD A (NOH' 'IPL 00C'
Mediante lo script è possibile eseguire l'IPL del sistema di installazione di SUSE Linux Enterprise Server con il comando sles12
. Viene avviato il kernel Linux e vengono visualizzati i relativi messaggi di avvio.
Per continuare il processo di installazione, passare alla Sezione 5.3.5, «Configurazione della rete».
5.3.4.2.2 IPL da un DVD SCSI collegato tramite FCP #
Per eseguire l'IPL in z/VM, è necessario preparare il processo IPL SCSI con il parametro SET LOADDEV:
SET LOADDEV PORTNAME 200400E8 00D74E00 LUN 00020000 00000000 BOOT 2
Dopo aver impostato il parametro LOADDEV con i valori appropriati, eseguire l'IPL dell'adattatore FCP, ad esempio:
IPL FC00
Per continuare il processo di installazione, procedere con la Sezione 5.3.5, «Configurazione della rete».
5.3.4.2.3 IPL da un server Cobbler con zPXE #
Per eseguire l'IPL da un server Cobbler con zPXE, è necessario trasferire lo script zpxe.rexx
via FTP dal server Cobbler al guest z/VM. A tale scopo, per il guest z/VM sono necessari una connessione TCP/IP funzionante e un programma client FTP.
Eseguire il login come guest Linux z/VM a IPL e trasferire lo script con una dimensione fissa di 80 caratteri in modalità ASCII (per un esempio, vedere Esempio 5.3, «Trasferimento di binari via FTP»). Lo script zpxe.rexx
è disponibile nel DVD del programma di installazione unificato al percorso /boot/s390x/zpxe.rexx
o in un server SLE Cobbler in usr/share/doc/packages/s390-tools/zpxe.rexx
.
Lo script zpxe.rexx
dovrebbe sostituire PROFILE EXEC
nel guest in uso. Creare una copia di backup di PROFILE EXEC
e rinominare ZPXE REXX
in PROFILE EXEC
. In alternativa, chiamare ZPXE REXX
dal file PROFILE EXEC
esistente aggiungendovi la riga 'ZPXE REXX'
.
L'ultimo passaggio consiste nella creazione del file di configurazione ZPXE CONF
, che indica a ZPXE REXX
il server Cobbler da contattare e il disco di cui eseguire l'IPL. Eseguire xedit zpxe conf a
e creare ZPXE CONF
con il contenuto seguente (sostituire di conseguenza i dati dell'esempio):
HOST cobbler.example.com IPLDISK 600
In questo modo il server Cobbler si connette al successivo login al guest z/VM. Se è pianificata sul server Cobbler, l'installazione verrà eseguita . Per pianificare l'installazione, eseguire il seguente comando sul server Cobbler:
>
sudo
cobbler system edit --name ID1 --netboot-enabled 12 --profile PROFILENAME3
ID utente z/VM. | |
Abilitare l'esecuzione dell'IPL dalla rete. | |
Nome di un profilo esistente, vedere la Sezione 5.3.1.3.3, «Modifica del profilo». |
5.3.4.3 IPL di un'installazione guest KVM #
Per avviare l'installazione guest occorre innanzitutto avviare il guest VM definito nella Sezione 5.3.3.3.1, «Creare un'immagine del disco virtuale». Prima di iniziare, verificare che kernel e initrd siano disponibili per l'IPL.
5.3.4.3.1 Preparazione dell'origine di installazione #
Per eseguire l'IPL del guest VM nel sistema di installazione, è necessario copiare nel server host VM il kernel e il file initrd del sistema di installazione.
Eseguire il login all'host KVM e verificare che sia possibile connettersi al dispositivo o all'host remoto che fornisce l'origine di installazione.
Copiare i due file seguenti dall'origine di installazione a
/var/lib/libvirt/images/
. Se i dati vengono forniti da un host remoto, utilizzareftp
,sftp
oscp
per trasferirli:/boot/s390x/initrd
/boot/s390x/cd.ikr
Rinominare i file nell'host KVM:
>
sudo
cd /var/lib/libvirt/images/>
sudo
mv initrd s15-initrd.boot>
sudo
mv cd.ikr s15-kernel.boot
5.3.4.3.2 IPL del guest VM #
Per eseguire l'IPL del guest VM, effettuare il login all'host KVM ed eseguire il comando seguente:
>
virsh create s15-1.xml --console
Il processo di installazione si avvia quando il guest VM è operativo e verrà visualizzato il seguente messaggio:
Domain s15-1 started Connected to domain s15-1 Escape character is ^] Initializing cgroup subsys cpuset Initializing cgroup subsys cpu Initializing cgroup subsys cpuacct . . Please make sure your installation medium is available. Retry? 0) <-- Back <-- 1) Yes 2) No
Rispondere Sezione 5.3.5.3, «Configurare la rete e selezionare l'origine di installazione».
e, nel passaggio successivo, scegliere . Procedere come descritto nella5.3.5 Configurazione della rete #
Attendere che il kernel completi le procedure di avvio. Se si effettua l'installazione in modalità di base o in una partizione LPAR, aprire i
nell'HMC o in SE.
Selezionare linuxrc
. Selezionare per avviare il processo di installazione. Selezionare come supporto di installazione, quindi selezionare il tipo di protocollo di rete da utilizzare per l'installazione. La Sezione 5.3.1, «Rendere disponibili i dati dell'installazione» spiega come rendere disponibili i dati di installazione per i vari tipi di connessioni di rete. attualmente sono supportati , , e (condivisione di file di Windows).
Dall'elenco dei dispositivi disponibili selezionare un dispositivo di rete OSA o HiperSockets per ricevere i dati di installazione. Sebbene l'elenco possa contenere dispositivi CTC, ESCON o IUCV, questi non sono più supportati su SUSE Linux Enterprise Server.
5.3.5.1 Configurare un'interfaccia HiperSockets #
Selezionare un dispositivo HiperSocket dall'elenco dei dispositivi di rete. Immettere quindi i valori per i canali di lettura, scrittura e dati:
Choose the network device. 1) IBM parallel CTC Adapter (0.0.0600) 2) IBM parallel CTC Adapter (0.0.0601) 3) IBM parallel CTC Adapter (0.0.0602) 4) IBM Hipersocket (0.0.0800) 5) IBM Hipersocket (0.0.0801) 6) IBM Hipersocket (0.0.0802) 7) IBM OSA Express Network card (0.0.0700) 8) IBM OSA Express Network card (0.0.0701) 9) IBM OSA Express Network card (0.0.0702) 10) IBM OSA Express Network card (0.0.f400) 11) IBM OSA Express Network card (0.0.f401) 12) IBM OSA Express Network card (0.0.f402) 13) IBM IUCV > 4 Device address for read channel. (Enter '+++' to abort). [0.0.0800]> 0.0.0800 Device address for write channel. (Enter '+++' to abort). [0.0.0801]> 0.0.0801 Device address for data channel. (Enter '+++' to abort). [0.0.0802]> 0.0.0802
5.3.5.2 Configurare un dispositivo OSA Express #
Selezionare un dispositivo OSA Express dall'elenco di dispositivi di rete e specificare un numero di porta. Immettere i valori per i canali di lettura, scrittura e dati. Scegliere se abilitare il supporto OSI Layer 2.
Il numero di porta è necessario per i nuovi dispositivi di rete OSA Express 3 a 2 porte. Se non si utilizza un dispositivo OSA Express 3, immettere 0
. Le schede OSA Express posso essere eseguite in modalità di «supporto per OSI Layer 2» o nella modalità precedente «Layer 3», più comune. La modalità della scheda riguarda tutti i sistemi che condividono il dispositivo, compresi i sistemi su altre partizioni LPAR. In caso di dubbi, specificare 2
per la compatibilità con la modalità di default utilizzata da altri sistemi operativi, quali z/VM e z/OS. Per ulteriori informazioni su queste opzioni, consultare l'amministratore dell'hardware.
Choose the network device. 1) IBM parallel CTC Adapter (0.0.0600) 2) IBM parallel CTC Adapter (0.0.0601) 3) IBM parallel CTC Adapter (0.0.0602) 4) IBM Hipersocket (0.0.0800) 5) IBM Hipersocket (0.0.0801) 6) IBM Hipersocket (0.0.0802) 7) IBM OSA Express Network card (0.0.0700) 8) IBM OSA Express Network card (0.0.0701) 9) IBM OSA Express Network card (0.0.0702) 10) IBM OSA Express Network card (0.0.f400) 11) IBM OSA Express Network card (0.0.f401) 12) IBM OSA Express Network card (0.0.f402) 13) IBM IUCV > 7 Enter the relative port number. (Enter '+++' to abort). > 0 Device address for read channel. (Enter '+++' to abort). [0.0.0700]> 0.0.0700 Device address for write channel. (Enter '+++' to abort). [0.0.0701]> 0.0.0701 Device address for data channel. (Enter '+++' to abort). [0.0.0702]> 0.0.0702 Enable OSI Layer 2 support? 0) <-- Back <-- 1) Yes 2) No > 1 MAC address. (Enter '+++' to abort). > +++
5.3.5.3 Configurare la rete e selezionare l'origine di installazione #
Una volta terminata l'immissione di tutti i parametri dei dispositivi di rete, vengono installati i relativi driver e vengono visualizzati i messaggi del kernel corrispondenti.
Successivamente è necessario specificare se configurare i parametri dell'interfaccia di rete con l'autoconfigurazione DHCP. Poiché DHCP funziona solo su alcuni dispositivi e richiede specifiche impostazioni di configurazione hardware, selezionare
. In questo modo viene richiesto di specificare i seguenti parametri di rete:l'indirizzo IP del sistema in corso di installazione
la maschera di rete corrispondente (se non è stata specificata con l'indirizzo IP)
l'indirizzo IP di un gateway per raggiungere il server
un elenco di domini di ricerca inclusi nel server DNS (Domain Name Server)
l'indirizzo IP del server dei nomi di dominio
Automatic configuration via DHCP? 0) <-- Back <-- 1) Yes 2) No > 2 Enter your IP address with network prefix. You can enter more than one, separated by space, if necessary. Leave empty for autoconfig. Examples: 192.168.5.77/24 2001:db8:75:fff::3/64. (Enter '+++' to abort). > 192.168.0.20/24 Enter your name server IP address. You can enter more than one, separated by space, if necessary. Leave empty if you don't need one. Examples: 192.168.5.77 2001:db8:75:fff::3. (Enter '+++' to abort). > 192.168.0.1 Enter your search domains, separated by a space:. (Enter '+++' to abort). > example.com Enter the IP address of your name server. Leave empty if you do not need one. (En ter '+++' to abort). > 192.168.0.1
Fornire infine le informazioni necessarie per il server di installazione, ad esempio l'indirizzo IP, la directory contenente i dati di installazione e le credenziali di accesso. Il sistema di installazione viene caricato dopo aver fornito le informazioni richieste.
5.3.6 Connessione al sistema di installazione di SUSE Linux Enterprise Server #
Dopo il caricamento del sistema di installazione, linuxrc richiede di scegliere il tipo di visualizzazione da utilizzare per controllare la procedura di installazione. Le opzioni disponibili sono: Remote X11
(X Window System), VNC
(protocollo Virtual Network Computing), SSH
(modalità testo o installazione X11 tramite Secure Shell), Text-based UI
e Graphical UI
. L'ultima opzione consente di avviare YaST in modalità grafica su uno schermo grafico locale, se presente. Nell'architettura s390x, è possibile implementare uno schermo grafico locale tramite QEMU e il driver virtio-gpu
.
Le opzioni consigliate sono VNC
o SSH
.
Se si seleziona l’opzione Text-based UI
, YaST viene avviato in modalità testo ed è possibile eseguire l'installazione direttamente nel terminale.Per istruzioni su come utilizzare YaST in modalità testo, vedere il Chapter 4, YaST in text mode. L’opzione Text-based UI
è utile soltanto quando si esegue l’installazione in LPAR.
Per utilizzare YaST in modalità testo, è necessario eseguire il prodotto in un terminale con emulazione VT220/Linux (o Text-based UI
).
5.3.6.1 Inizializzazione dell'installazione per VNC #
Per controllare in remoto un'installazione tramite VNC, seguire la procedura riportata di seguito:
Selezionando l'opzione
VNC
, viene avviato il server VNC. Una breve nota nella console indica l'indirizzo IP e il numero di visualizzazione per la connessione a vncviewer.Quando viene richiesto, immettere l'indirizzo IP e il numero di visualizzazione del sistema di installazione di SUSE Linux Enterprise Server.
Quando viene richiesto, immettere l'indirizzo IP e il numero di visualizzazione del sistema di installazione di SUSE Linux Enterprise Server.
http://<IP address of installation system>:5801/
Dopo aver stabilito la connessione, eseguire l'installazione di SUSE Linux Enterprise Server con YaST.
5.3.6.2 Inizializzazione dell'installazione per X Window System #
L'installazione diretta con il sistema X Window si fonda su un meccanismo di autenticazione basato sui nomi degli host. Questo meccanismo è disabilitato nelle versioni correnti di SUSE Linux Enterprise Server. È consigliabile eseguire l'installazione mediante SSH o VNC.
Per controllare in remoto un'installazione tramite l'inoltro del server X, seguire la procedura riportata di seguito:
Assicurarsi che il server X consenta la connessione del client (ovvero il sistema installato). Impostare la variabile
DISPLAYMANAGER_XSERVER_TCP_PORT_6000_OPEN="yes"
nel file/etc/sysconfig/displaymanager
. Riavviare il server X e consentire al client di associarsi al server utilizzandoxhost CLIENT_IP_ADDRESS
.Quando richiesto nel sistema di installazione, immettere l'indirizzo IP del computer in cui è in esecuzione il server X.
Dopo l'apertura di YaST avviare l'installazione.
5.3.6.3 Inizializzazione dell'installazione per SSH #
Per connettersi a un sistema di installazione denominato earth
utilizzando SSH, eseguire il comando ssh -X earth
. Se la postazione di lavoro è in esecuzione su Microsoft Windows, utilizzare lo strumento PuTTY disponibile all'indirizzo http://www.chiark.greenend.org.uk/~sgtatham/putty/. In Putty impostare , nella sezione › › .
Se si utilizza un altro sistema operativo, eseguire ssh -X
per connettersi a un sistema di installazione di nome earth
earth. Se è disponibile un server X locale, è supportato l'X-Forwarding su SSH. In caso contrario YaST fornisce un'interfaccia di testo tramite ncurses.
Quando viene richiesto, immettere il nome utente root
e accedere con la password personale. Immettere yast.ssh
per avviare YaST. YaST guida quindi l'utente in tutta la procedura di installazione.
In alcuni casi, l'esecuzione della versione dell'interfaccia grafica utente di YaST su SSH con inoltro X può avere esito negativo con il seguente messaggio di errore:
XIO: fatal IO error 11 (Resource temporarily unavailable) on X server "localhost:11.0"
In questo caso sono disponibili due opzioni.
Eseguire YaST con l'opzione
QT_XCB_GL_INTEGRATION=none
, ad esempio:QT_XCB_GL_INTEGRATION=none yast.ssh QT_XCB_GL_INTEGRATION=none yast2 disk
Eseguire la versione ncurses dell'applicazione YaST disabilitando l'inoltro X o specificando ncurses come interfaccia utente desiderata. Per la seconda opzione, utilizzare il comando
yast2 disk --ncurses
oppureYUI_PREFERED_BACKEND=ncurses yast2 disk
.
Continuare con la procedura di installazione come descritto nel Capitolo 8, Procedura di installazione.
5.3.7 Procedura di avvio di SUSE Linux Enterprise Server su IBM Z #
In SLES 10 e 11 il processo di avvio veniva gestito dal boot loader zipl. Per consentire l'avvio da partizioni Btrfs e supportare rollback di sistema con Snapper, è stata modificata la modalità di avvio di SUSE Linux Enterprise Server su IBM Z.
GRUB 2 sostituisce zipl in SUSE Linux Enterprise Server per IBM Z. GRUB 2 nell'architettura AMD64/Intel 64 include driver di dispositivi a livello di firmware per accedere al file system. Nel mainframe non è presente alcun firmware e l'aggiunta di ccw
a GRUB 2, che costituisce già un'impresa impegnativa, comporterebbe anche una reimplementazione di zipl in GRUB 2. Pertanto SUSE Linux Enterprise Server adotta un approccio in due fasi:
- Fase uno:
Una partizione distinta contenente il kernel e un file initrd viene montata in
/boot/zipl
. Il kernel e l'initrd vengono caricati via zipl utilizzando la configurazione specificata in/boot/zipl/config
.Questa configurazione aggiunge la parola chiave
initgrub
alla riga di comando del kernel. Dopo il caricamento del kernel e del file initrd, quest'ultimo attiva i dispositivi necessari per montare il file system radice (vedere/boot/zipl/active_devices.txt
). Viene quindi avviato un programma con spazio utente GRUB 2, che legge il file/boot/grub2/grub.cfg
.- Fase due:
Il kernel e l'initrd specificati in
/boot/grub2/grub.cfg
vengono avviati con il comandokexec
. Verranno quindi attivati i dispositivi elencati in/boot/zipl/active_devices.txt
necessari per avviare il sistema su disco. Gli altri dispositivi presenti nell'elenco saranno inclusi nella white list, ma saranno ignorati. Il file system root è montato e la procedura di avvio continua come sulle altre architetture.
Per ulteriori dettagli sul processo di avvio, fare riferimento a Chapter 16, Introduction to the boot process.
5.4 Boot sicuro #
Per poter utilizzare la funzionalità di boot sicuro in un sistema IBM Z, è necessario soddisfare le seguenti condizioni.
Il computer deve essere z15 T01, z15 T02, LinuxONE III LT1, LinuxONE III LT2 o un modello successivo.
È necessario utilizzare una partizione LPAR. Il boot sicuro non è supportato in z/VM e KVM.
Nella partizione LPAR deve essere abilitato il boot sicuro.
È necessario utilizzare dischi SCSI (FCP). Il boot sicuro non è supportato in DASD.
In caso di migrazione a un altro computer (ad esempio, da z13 a z15), verificare che la partizione LPAR sul computer di destinazione abbia lo stato di boot sicuro del sistema nel disco.
È necessario modificare lo stato di boot sicuro secondo la procedura riportata di seguito.
Abilitare il boot sicuro in YaST e scrivere il nuovo boot loader.
Arrestare il sistema.
Modificare la configurazione della partizione LPAR (abilitare o disabilitare il boot sicuro).
Avviare il sistema.
Il sistema sul disco configurato con il parametro secure=1
può essere avviato in una console HMC z15 a condizione che il firmware supporti il nuovo formato su disco (condizione sempre valida nei sistemi z15).
5.5 Configurazione automatica dei dispositivi I/O nei sistemi IBM Z #
La configurazione automatica dei dispositivi I/O è un meccanismo che consente agli utenti di specificare gli ID e le impostazioni dei dispositivi I/O che dovrebbero essere automaticamente abilitati in Linux. Queste informazioni vengono specificate per una partizione LPAR tramite una console HMC in esecuzione in modalità DPM (Dynamic Partition Manager).
La funzionalità di configurazione automatica dei dispositivi I/O è disponibile nei sistemi con DPM in esecuzione. DPM viene eseguito per default sui computer LinuxONE. Per IBM Z è necessario ordinare questa funzionalità.
La configurazione automatica può essere disabilitata mediante il parametro del kernel rd.zdev=no-auto
.
Per abilitare la configurazione automatica dei dispositivi I/O mediante YaST, eseguire il comando yast2 system_settings
, passare alla sezione e abilitare l'opzione .
Per disabilitare la configurazione automatica dei dispositivi I/O in un profilo AutoYaST, aggiungere rd.zdev=no-auto
alle opzioni di avvio. Ad esempio:
<bootloader> <global> <append>rd.zdev=no-auto</append> </global> </bootloader>
Durante l'installazione, lo stato dell'impostazione di configurazione automatica è visualizzato nella sezione
della schermata .5.6 Parmfile - Automazione della configurazione del sistema #
Specificando alcuni parametri essenziali nel parmfile
, il processo di installazione può essere parzialmente automatizzato. Il parmfile
contiene tutti i dati necessari per la configurazione della rete e del dispositivo DASD. Inoltre, può essere utilizzato per configurare il metodo di connessione al sistema di installazione di SUSE Linux Enterprise Server e l'istanza di YaST in esecuzione. In questo modo si riduce l'interazione utente con l'effettiva installazione YaST.
I parametri elencati nella Sezione 5.6.1, «Parametri generali» possono essere passati alla routine di installazione come valori predefiniti per l'installazione. Tenere presente che tutti gli indirizzi IP, i nomi dei server e i valori numerici sono esempi. Sostituirli con i valori effettivi dello scenario di installazione.
Il numero di righe nel parmfile è limitato a 10. È possibile specificare più di un parametro per riga. I nomi dei parametri non distinguono tra maiuscole e minuscole. I parametri devono essere separati da spazi. L'ordine dei parametri non è predefinito. Mantenere sempre la stringa PARAMETER=value
su una sola riga. La lunghezza di ogni riga non deve superare 80 caratteri. Ad esempio:
Hostname=s390zvm01.suse.de HostIP=10.11.134.65
Per impostazione predefinita è possibile solo assegnare indirizzi di rete IPv4 al computer. Per abilitare IPv6 durante l'installazione, specificare uno dei seguenti parametri al prompt di avvio: ipv6=1
(accetta IPv4 e IPv6) o ipv6only=1
(accetta solo IPv6).
Alcuni dei seguenti parametri sono necessari. Se non sono disponibili, il processo automatico richiede di specificarli.
5.6.1 Parametri generali #
AutoYaST=
<URL>Manual=0
Il parametro
AutoYaST
specifica la posizione del file di controlloautoinst.xml
per l'installazione automatica. Il parametroManuale
controlla se gli altri parametri sono solo valori di default che devono essere ancora riconosciuti dall'utente. Se si desidera che tutti i valori siano accettati senza richieste di conferma, impostare il valore di questo parametro su0.
ImpostandoAutoYaST
,Manual
viene impostato in modo predefinito su0
.Info=
<URL>Specifica l'ubicazione di un file con opzioni aggiuntive. Ciò è utile per superare la limitazione di 10 righe (e di 80 caratteri per riga in z/VM) per il parmfile. Ulteriore documentazione per il file Info è disponibile nel Section 9.3.3, “Combining the
linuxrc
info
file with the AutoYaST control file”. Dato che, in genere, su IBM Z è possibile accedere al file Info solo tramite rete, non è possibile utilizzare tale file per specificare le opzioni necessarie per configurare la rete (vale a dire le opzioni descritte nella Sezione 5.6.2, «configurazione dell'interfaccia di rete»). Altre opzioni specifiche di linuxrc, come quelle correlate al debug, devono essere specificate nel parmfile stesso.Upgrade=<0|1>
Per eseguire l'upgrade di SUSE Linux Enterprise , , specificare
Upgrade=1
. È necessario un parmfile personalizzato per eseguire l'upgrade di un'installazione esistente di SUSE Linux Enterprise. Senza questo parametro, l'installazione non fornisce alcuna opzione di upgrade.
5.6.2 configurazione dell'interfaccia di rete #
Le impostazioni descritte in questa sezione si riferiscono solo all'interfaccia di rete utilizzata nel corso dell'installazione. Configurare le interfacce di rete aggiuntive nel sistema installato seguendo le istruzioni fornite nel Section 23.5, “Configuring a network connection manually”.
Hostname=zsystems.example.com
Immettere il nome host completo.
Domain=example.com
Percorso di ricerca dominio per DNS. Consente di utilizzare nomi host brevi anziché nomi completi.
HostIP=192.168.1.2/24
Inserire l'indirizzo IP dell'interfaccia da configurare.
Gateway=192.168.1.3
Specificare il gateway da utilizzare.
Nameserver=192.168.1.4
Specificare il server DNS attivo.
InstNetDev=osa
Inserire il tipo di interfaccia da configurare. I valori possibili sono
osa
,hsi
,ctc
,escon
eiucv
(CTC, ESCON e IUCV non sono più supportati ufficialmente).Per le interfacce
ctc
,escon
eiucv
(CTC, ESCON e IUCV non sono più ufficialmente supportate) immettere l'indirizzo IP del peer:Pointopoint=192.168.55.20
OsaInterface=<lcs|qdio>
Per i dispositivi di rete
osa
, specificare l'interfaccia host (qdio
olcs
).Layer2=<0|1>
Per i dispositivi Ethernet QDIO
osa
ehsi
, specificare se abilitare (1
) o disabilitare (0
) il supporto per OSI Layer 2.OSAHWAddr=02:00:65:00:01:09
Per i dispositivi Ethernet QDIO
osa
con il Layer 2 abilitato. Specificare manualmente un indirizzo MAC o indicareOSAHWADDR=
(con uno spazio finale) per l'impostazione di default del sistema.PortNo=<0|1>
Per i dispositivi di rete
osa
specificare il numero di porta (se il dispositivo supporta questa funzione). Il valore di default è 0.
Ciascuna interfaccia richiede alcune opzioni di configurazione:
Interfacce
ctc
eescon
(CTC e ESCON non sono più ufficialmente supportate):ReadChannel=0.0.0600 WriteChannel=0.0.0601
Il parametro
ReadChannel
specifica il canale di lettura da utilizzare. Il parametroWriteChannel
è il canale di SCRITTURA.Per l'interfaccia
ctc
(non più supportata ufficialmente), specificare il protocollo da utilizzare:CTCProtocol=<0/1/2>
I valori validi sono:
0
Modalità di compatibilità, anche per peer non Linux diversi da OS/390 e z/OS (modalità di default)
1
Modalità estesa
2
Modalità di compatibilità con OS/390 e z/OS
Tipo di dispositivo di rete
osa
con interfaccialcs
:ReadChannel=0.0.0124
Il parametro
ReadChannel
rappresenta il numero di canale utilizzato in questa configurazione. Da questo parametro è possibile definire un secondo numero di porta aggiungendo 1 al valore diReadChannel
. Il parametroPortnumber
è utilizzato per specificare il relativo numero di porta.Interfaccia
iucv
:IUCVPeer=PEER
Inserire il nome del computer peer.
Tipo di dispositivo di rete
osa
con interfacciaqdio
per OSA-Express Gigabit Ethernet:ReadChannel=0.0.0700 WriteChannel=0.0.0701 DataChannel=0.0.0702
Per
ReadChannel
, inserire il numero del canale di lettura. PerWriteChannel
, inserire il numero del canale di scrittura. Il parametroDataChannel
specifica il canale dati. Assicurarsi che il canale di lettura presenti un numero di dispositivo pari.Interfaccia
hsi
per HiperSockets e LAN guest per VM:ReadChannel=0.0.0800 WriteChannel=0.0.0801 DataChannel=0.0.0802
Per
ReadChannel
, inserire il numero appropriato del canale di lettura. PerWriteChannel
eDataChannel
, inserire rispettivamente i numeri dei canali di lettura e dati.
5.6.3 Definizione dell'origine dell'installazione e dell'interfaccia YaST #
Install=nfs://server/directory/DVD1/
Specificare la posizione dell'origine dell'installazione da utilizzare. I protocolli supportati sono
nfs
,smb
(Samba/CIFS),ftp
,tftp,
http
ehttps
.Se viene fornito un URL
ftp
,tftp
osmb
, specificare il nome utente e la password. Ignorare le credenziali in caso di accesso anonimo o guest.Install=ftp://USER:PASSWORD@SERVER/DIRECTORY/DVD1/ Install=tftp://USER:PASSWORD@SERVER/DIRECTORY/DVD1/
Se si desidera eseguire l'installazione tramite una connessione crittografata, utilizzare un URL
https
. Se non è possibile verificare il certificato, utilizzare l'opzione di avviosslcerts=0
per disabilitare la verifica del certificato.In caso di installazione Samba o CIFS è possibile anche specificare il dominio:
Install=smb://WORKDOMAIN;USER:PASSWORD@SERVER/DIRECTORY/DVD1/
ssh=1
vnc=1
Display_IP=192.168.42.42
Il metodo di installazione dipende dal parametro specificato.
ssh
consente l'installazione mediante SSH,vnc
avvia un server VNC nel computer di installazione eDisplay_IP
induce il sistema di installazione a tentare la connessione a un server X all'indirizzo specificato. È necessario impostare solo uno di questi parametri.Importante: meccanismo di autenticazione di XL'installazione diretta con il sistema X Window si fonda su un meccanismo di autenticazione basato sui nomi degli host. Questo meccanismo è disabilitato sulle versioni SUSE Linux Enterprise Server correnti. È consigliabile eseguire un'installazione mediante SSH o VNC.
Per consentire una connessione tra YaST e il server X remoto, eseguire
xhost
<IP address>
aggiungendo sul computer remoto l'indirizzo del computer di installazione.Per
VNC
, specificare una password con un numero di caratteri da sei a otto da utilizzare per l'installazione:VNCPassword=<a password>
Per
SSH
, specificare una password con un numero di caratteri da sei a otto da utilizzare per l'installazione:ssh.password=<a password>
5.6.4 Esempio di parmfile #
La capacità massima di un parmfile è di 860 caratteri. Come regola generale, il file parmfile dovrebbe contenere un massimo di 10 righe con non più di 79 caratteri. Durante la lettura di un parmfile, tutte le righe vengono concatenate senza aggiunta di spazi, pertanto l'ultimo carattere (79) di ogni riga deve essere uno Space.
Per ricevere sulla console i potenziali messaggi di errore, utilizzare
linuxrclog=/dev/console
ramdisk_size=131072 root=/dev/ram1 ro init=/linuxrc TERM=dumb instnetdev=osa osainterface=qdio layer2=1 osahwaddr= pointopoint=192.168.0.1 hostip=192.168.0.2 nameserver=192.168.0.3 install=nfs://192.168.0.4/SLES/SLES-12-Server/s390x/DVD1 autoyast=http://192.168.0.5/autoinst.xml linuxrclog=/dev/console vnc=1 VNCPassword=testing
ramdisk_size=131072 root=/dev/ram1 ro init=/linuxrc TERM=dumb AutoYast=nfs://192.168.1.1/autoinst/s390.xml Hostname=zsystems.example.com HostIP=192.168.1.2 Gateway=192.168.1.3 Nameserver=192.168.1.4 InstNetDev=hsi layer2=0 Netmask=255.255.255.128 Broadcast=192.168.1.255 readchannel=0.0.702c writechannel=0.0.702d datachannel=0.0.702e install=nfs://192.168.1.5/SLES-12-Server/s390x/DVD1/ ssh=1 ssh.password=testing linuxrclog=/dev/console
ro ramdisk_size=50000 MANUAL=0 PORTNO=1 ReadChannel=0.0.b140 WriteChannel=0.0.b141 DataChannel=0.0.b142 cio_ignore=all,!condev,!0.0.b140-0.0.b142,!0.0.e92c,!0.0.5000,!0.0.5040 HostIP= Gateway= Hostname=zsystems.example.com nameserver=192.168.0.1 Install=ftp://user:password@10.0.0.1/s390x/SLES15.0/INST/ usevnc=1 vncpassword=12345 InstNetDev=osa Layer2=1 OSAInterface=qdio ssl_certs=0 osahwaddr= domain=example.com self_update=0 vlanid=201
5.7 Utilizzo dell'emulatore di terminale vt220 #
I livelli recenti di MicroCode consentono l'utilizzo di un emulatore di terminale vt220 integrato (terminale ASCII) in aggiunta al terminale standard in modalità riga di comando. Il terminale vt220 viene connesso a /dev/ttysclp0
. Il terminale a riga di comando viene connesso a /dev/ttysclp_line0
. Per le installazioni LPAR, l'emulatore di terminale vt220 viene attivato per default.
Per avviare l’opzione Text-based UI in HMC, eseguire il login all'HMC e selezionare
› › . Selezionare il pulsante di opzione per LPAR e scegliere › .
Per reindirizzare i messaggi del kernel all'avvio dalla console di sistema al terminale vt220, aggiungere i seguenti valori alla riga dei parametri
in /etc/zipl.conf
:
console=ttysclp0 console=ttysclp_line0
La conseguente riga dei parametri
dovrebbe apparire come la seguente:
parameters = "root=/dev/dasda2 TERM=dumb console=ttysclp0 console=ttysclp_line0"
Salvare le modifiche in /etc/zipl.conf
, eseguire zipl
e riavviare il sistema.
5.8 Ulteriori informazioni #
Per ulteriori documentazioni tecniche sulla piattaforma IBM Z, è possibile consultare gli IBM Redbook (https://www.redbooks.ibm.com/Redbooks.nsf/domains/zsystems) o la comunità IBM developerWorks (https://developer.ibm.com/). La documentazione specifica di SUSE Linux Enterprise Server è disponibile in https://developer.ibm.com/technologies/linux/.
5.8.1 Documentazione generale su Linux per la piattaforma IBM Z #
Per informazioni generali su Linux per la piattaforma IBM Z, è possibile consultare i documenti elencati di seguito:
Linux on IBM eServer zSeries and S/390: ISP and ASP Solutions (SG24-6299)
Questi documenti potrebbero non riflettere lo stato più aggiornato di Linux, ma la descrizione dei principi della distribuzione di Linux rimane comunque precisa.
5.8.2 Problemi tecnici di Linux sulla piattaforma IBM Z #
Per informazioni tecniche sul kernel di Linux e sugli argomenti relativi alle applicazioni, fare riferimento ai seguenti documenti. Per le versioni più recenti dei documenti, visitare la pagina all'indirizzo https://developer.ibm.com/technologies/linux/.
Linux on System z Device Drivers, Features, and Commands
zSeries ELF Application Binary Interface Supplement
Linux on System z Device Drivers, Using the Dump Tools
IBM zEnterprise 196 Technical Guide
IBM zEnterprise EC12 Technical Guide
IBM z13 Technical Guide
IBM z14 Technical Guide
IBM z15 Technical Guide
Un Redbook per lo sviluppo di applicazioni Linux è disponibile all'indirizzo http://www.redbooks.ibm.com:
Linux on IBM eServer zSeries and S/390: Application Development (SG24-6807)
5.8.3 Configurazioni avanzate per Linux su IBM Z #
Per scenari più complessi dei sistemi IBM Z, fare riferimento ai seguenti Redbook, Redpaper e risorse online:
Linux on IBM eServer zSeries and S/390: Large Scale Deployment (SG24-6824)
Linux on IBM eServer zSeries and S/390: Performance Measuring and Tuning (SG24-6926)
Linux with zSeries and ESS: Essentials (SG24-7025)
IBM TotalStorage Enterprise Storage Server Implementing ESS Copy Services with IBM eServer zSeries (SG24-5680)
Linux on IBM zSeries and S/390: High Availability for z/VM and Linux (REDP-0220)
Saved Segments Planning and Administration
Documentazione per "Development stream" per Linux su System z
Introducing IBM Secure Execution for Linux, Securing the guest