Zum Inhalt springen
documentation.suse.com / Installationshandbuch
SUSE Linux Enterprise Server 15 SP6

Installationshandbuch

In diesem Handbuch finden Sie Details dazu wie einzelne oder mehrere Systeme installiert und die produktspezifischen Funktionen für eine Bereitstellungsinfrastruktur genutzt werden.

Veröffentlicht: 07. Oktober 2024

Copyright © 2006–2024 SUSE LLC und Mitwirkende. Alle Rechte vorbehalten.

Es wird die Genehmigung erteilt, dieses Dokument unter den Bedingungen der GNU Free Documentation License, Version 1.2 oder (optional) Version 1.3 zu vervielfältigen, zu verbreiten und/oder zu verändern; die unveränderlichen Abschnitte hierbei sind der Urheberrechtshinweis und die Lizenzbedingungen. Eine Kopie dieser Lizenz (Version 1.2) finden Sie in Abschnitt GNU Free Documentation License.

Die SUSE Marken finden Sie im https://www.suse.com/company/legal/. Die Rechte für alle Marken von Drittanbietern liegen bei den jeweiligen Eigentümern. Markensymbole (®, ™ usw.) kennzeichnen Marken von SUSE und seinen verbundenen Unternehmen. Sternchen (*) kennzeichnen Marken von Drittanbietern.

Alle Informationen in diesem Buch wurden mit größter Sorgfalt zusammengestellt. Auch hierdurch kann jedoch keine hundertprozentige Richtigkeit gewährleistet werden. Weder SUSE LLC, ihre Tochtergesellschaften, die Autoren noch die Übersetzer können für mögliche Fehler und deren Folgen haftbar gemacht werden.

Vorwort

1 Verfügbare Dokumentation

Online-Dokumentation

Unsere Dokumentation ist online verfügbar unter https://documentation.suse.com. Durchsuchen Sie die Dokumentation oder laden Sie sie in verschiedenen Formaten herunter.

Anmerkung
Anmerkung: Neueste Aktualisierungen

Die neuesten Aktualisierungen sind normalerweise in der englischen Version dieser Dokumentation verfügbar.

SUSE Knowledgebase

Wenn Sie auf ein Problem stoßen, lesen Sie die Technischen Informationsdokumente (TIDs), die online verfügbar sind unter https://www.suse.com/support/kb/. Durchsuchen Sie die SUSE Knowledgebase nach bekannten Lösungen, die sich an den Bedürfnissen der Kunden orientieren.

Versionshinweise

Die Versionshinweise finden Sie unter https://www.suse.com/releasenotes/.

In Ihrem System

Für die Offline-Nutzung sind die Versionshinweise auch unter /usr/share/doc/release-notes auf Ihrem System verfügbar. Die Dokumentation zu den einzelnen Paketen finden Sie unter /usr/share/doc/packages.

Viele Befehle sind auch auf den Handbuchseiten beschrieben. Führen Sie zu deren Anzeige man gefolgt von einem bestimmten Befehlsnamen aus. Sollte der man-Befehl nicht auf Ihrem System installiert sein, müssen Sie es mit sudo zypper install man installieren.

2 Verbessern der Dokumentation

Feedback und Beiträge Ihrerseits zu dieser Dokumentation sind willkommen. Für Feedback stehen die folgenden Kanäle zur Verfügung:

Serviceanforderungen und Support

Informationen zu Diensten und Support-Optionen, die für Ihr Produkt verfügbar sind, finden Sie unter https://www.suse.com/support/.

Zum Öffnen einer Service-Anforderung benötigen Sie ein SUSE-Abonnement, das beim SUSE Customer Center registriert ist. Gehen Sie zu https://scc.suse.com/support/requests, melden Sie sich an und klicken Sie auf Neu erstellen.

Fehlerberichte

Melden Sie Probleme mit der Dokumentation unter https://bugzilla.suse.com/.

Klicken Sie zur Vereinfachung dieses Vorgangs neben einer Überschrift in der HTML-Version dieses Dokuments auf das Symbol Report an issue (Problem melden). Dadurch wird das richtige Produkt und die Kategorie in Bugzilla vorab ausgewählt und ein Link zum aktuellen Abschnitt hinzugefügt. Sie können somit sofort mit der Eingabe Ihres Berichts beginnen.

Ein Bugzilla-Konto ist erforderlich.

Beiträge

Wenn Sie zu dieser Dokumentation beitragen möchten, klicken Sie neben einer Überschrift in der HTML-Version dieses Dokuments auf das Symbol Edit source document (Quelldokument bearbeiten). So gelangen Sie zum Quellcode auf GitHub, wo Sie eine Pull-Anforderung öffnen können.

Ein GitHub-Konto ist erforderlich.

Anmerkung
Anmerkung: Edit source document (Quelldokument bearbeiten) nur auf Englisch verfügbar

Die Symbole für Edit source document (Quelldokument bearbeiten) sind nur in der englischen Version jedes Dokuments verfügbar. Für alle anderen Sprachen können Sie stattdessen die Symbole Report an issue (Problem melden) verwenden.

Weitere Informationen zur Dokumentationsumgebung für diese Dokumentation finden Sie in der README des Repositorys.

Email

Sie können auch E-Mails mit Fehlerberichten und Feedback zur Dokumentation an <> senden. Geben Sie den Titel des Dokuments, die Produktversion und das Datum der Veröffentlichung des Dokuments an. Stellen Sie außerdem die entsprechende Abschnittsnummer und den Titel bereit (oder geben Sie die URL an), und fügen Sie eine kurze Beschreibung des Problems hinzu.

3 Konventionen in der Dokumentation

Im vorliegenden Dokument werden die folgenden Hinweise und typografischen Konventionen verwendet:

  • /etc/passwd: Verzeichnis- und Dateinamen

  • PLACEHOLDER: Ersetzen Sie PLACEHOLDER durch den tatsächlichen Wert.

  • PATH: Eine Umgebungsvariable

  • ls, --help: Befehle, Optionen und Parameter

  • user: Der Name eines Benutzers oder einer Gruppe

  • package_name: Der Name eines Softwarepakets

  • Alt, AltF1: Eine zu drückende Taste bzw. Tastenkombination. Tasten werden wie auf einer Tastatur in Großbuchstaben dargestellt.

  • Datei, Datei › Speichern unter: Menüelemente, Schaltflächen

  • AMD/Intel Dieser Absatz ist nur für die AMD64-/Intel 64-Architekturen relevant. Die Pfeile kennzeichnen den Anfang und das Ende des Textblocks.

    IBM Z, POWER Dieser Absatz ist nur für die Architekturen IBM Z und POWER relevant. Die Pfeile kennzeichnen den Anfang und das Ende des Textblocks.

  • Chapter 1, Example chapter: Ein Querverweis auf ein anderes Kapitel in diesem Handbuch.

  • Befehle, die mit root-Privilegien ausgeführt werden müssen. Sie können diesen Befehlen auch den Befehl sudo voranstellen, um sie als nicht privilegierter Benutzer auszuführen:

    # command
    > sudo command
  • Befehle, die von nicht privilegierten Benutzern ausgeführt werden können:

    > command
  • Befehle können durch ein Backslash-Zeichen (\) am Ende einer Zeile in zwei oder mehrere Zeilen aufgeteilt werden. Mit dem Backslash wird die Shell darüber informiert, dass der Befehlsaufruf nach dem Ende der Zeile fortgesetzt wird:

    > echo a b \
    c d
  • Ein Codeblock, der sowohl den Befehl (mit vorangestellter Eingabeaufforderung) als auch die entsprechende von der Shell zurückgegebene Ausgabe anzeigt:

    > command
    output
  • Hinweise

    Warnung
    Warnung: Warnhinweis

    Wichtige Informationen, die Sie kennen müssen, bevor Sie fortfahren. Warnt vor Sicherheitsrisiken, potenziellen Datenverlusten, Beschädigung der Hardware oder physischen Gefahren.

    Wichtig
    Wichtig: Wichtiger Hinweis

    Wichtige Informationen, die Sie beachten sollten, bevor Sie den Vorgang fortsetzen.

    Anmerkung
    Anmerkung: Anmerkung

    Ergänzende Informationen, beispielsweise zu unterschiedlichen Softwareversionen.

    Tipp
    Tipp: Tipp

    Hilfreiche Informationen, etwa als Richtlinie oder praktische Empfehlung.

  • Kompaktinfos

    Anmerkung

    Ergänzende Informationen, beispielsweise zu unterschiedlichen Softwareversionen.

    Tipp

    Hilfreiche Informationen, etwa als Richtlinie oder praktische Empfehlung.

4 Support

Nachfolgend finden Sie die Supportbestimmung für SUSE Linux Enterprise Server und allgemeine Informationen zu Technologievorschauen. Details über den Produktlebenszyklus finden Sie unter https://www.suse.com/lifecycle.

Wenn Sie Anspruch auf Support haben, finden Sie Details zum Sammeln von Informationen für ein Support-Ticket unter https://documentation.suse.com/sles-15/html/SLES-all/cha-adm-support.html.

4.1 Supportbestimmung für SUSE Linux Enterprise Server

Sie benötigen ein entsprechendes Abonnement bei SUSE, um Support zu erhalten. Gehen Sie zur Anzeige der für Sie verfügbaren spezifischen Support-Angebote zu https://www.suse.com/support/ und wählen Sie das betreffende Produkt aus.

Die Support-Level sind folgendermaßen definiert:

L1

Problemermittlung: Technischer Support mit Informationen zur Kompatibilität, Nutzungs-Support, kontinuierliche Wartung, Informationssammlung und einfache Problembehandlung anhand der verfügbaren Dokumentation.

L2

Problemisolierung: Technischer Support zur Datenanalyse, Reproduktion von Kundenproblemen, Isolierung eines Problembereichs und Lösung für Probleme, die in Stufe 1 nicht gelöst wurden, sowie Vorbereitung für Stufe 3.

L3

Problembehebung: Technischer Support zur Lösung von Problemen durch technische Maßnahmen zur Behebung von Produktfehlern, die durch den Support der Stufe 2 erkannt wurden.

Vertragskunden und Partner erhalten SUSE Linux Enterprise Server mit L3-Support für alle Pakete, ausgenommen:

  • Technologievorschauen.

  • Audio, Grafik, Schriftarten und Artwork.

  • Pakete, für die ein zusätzlicher Kundenvertrag erforderlich ist.

  • Einige Pakete, die im Lieferumfang von Modul Workstation Extension enthalten sind, erhalten nur L2-Support.

  • Pakete mit der Namensendung -devel (die Header-Dateien und ähnliche Entwicklerressourcen enthalten) werden nur zusammen mit den entsprechenden Hauptpaketen unterstützt.

SUSE unterstützt nur die Nutzung von Originalpaketen, Also unveränderte und nicht kompilierte Pakete.

4.2 Technologievorschauen

Mit Technologievorschauen sind Pakete, Stacks oder Funktionen gemeint, die SUSE bereitstellt, um einen kurzen Einblick in bevorstehende Innovationen zu geben. Durch Technologievorschauen haben Sie die Möglichkeit, neue Technologien in Ihrer Umgebung zu testen. Über Ihr Feedback würden wir uns sehr freuen. Wenn Sie eine Technologievorschau testen, kontaktieren Sie bitte Ihre Ansprechpartner bei SUSE und teilen Sie ihnen Ihre Erfahrungen und Anwendungsfälle mit. Ihr Input ist für zukünftige Entwicklungen sehr hilfreich.

Technologievorschauen weisen die folgenden Einschränkungen auf:

  • Technologievorschauen befinden sich noch in Entwicklung. Daher sind die Funktionen möglicherweise unvollständig, instabil oder aus anderen Gründen nicht für die Produktionsnutzung geeignet.

  • Technologievorschauen werden nicht unterstützt.

  • Technologievorschauen sind möglicherweise nur für bestimmte Hardwarearchitekturen verfügbar.

  • Details und Funktionen von Technologievorschauen sind Änderungen unterworfen. Upgrades auf Folgeversionen sind demnach nicht möglich und erfordern eine Neuinstallation.

  • SUSE kann feststellen, dass eine Vorschau nicht den Kunden- oder Marktanforderungen entspricht oder nicht mit den Unternehmensstandards übereinstimmt. Technologievorschauen können jederzeit aus einem Produkt entfernt werden. SUSE ist nicht verpflichtet, eine unterstützte Version dieser Technologie in der Zukunft bereitzustellen.

Eine Übersicht der Technologievorschauen, die im Lieferumfang Ihres Produkts enthalten sind, finden Sie in den Versionshinweisen unter https://www.suse.com/releasenotes.

Teil I Installationsvorbereitung

  • 1 Planung für SUSE Linux Enterprise Server
  • In diesem Kapitel werden einige grundlegende Überlegungen vor der Installation von SUSE Linux Enterprise Server beschrieben.

  • 2 Installation auf AMD64 und Intel 64
  • In diesem Kapitel werden die nötigen Schritte für die Vorbereitung der Installation von SUSE Linux Enterprise Server auf AMD64- und Intel-64-Rechnern beschrieben. Es beschreibt die für die Vorbereitung der verschiedenen Installationsmethoden erforderlichen Schritte. Die Liste der Hardware-Anforderungen bietet einen Überblick über die von SUSE Linux Enterprise Server unterstützten Systeme. Sie erhalten Informationen über verfügbare Installationsmethoden und mehrere bekannte Probleme. Sie lernen, wie Sie die Installation steuern, Installationsmedien zur Verfügung stelln und mit normalen Methoden booten können.

  • 3 Installation in der Arm AArch64-Architektur
  • In diesem Kapitel werden die erforderlichen Schritte für die Vorbereitung der Installation von SUSE Linux Enterprise Server auf ARM AArch64-Computern beschrieben. Es beschreibt die für die Vorbereitung der verschiedenen Installationsmethoden erforderlichen Schritte. Die Liste der Hardware-Anforderungen bietet einen Überblick über die von SUSE Linux Enterprise Server unterstützten Systeme. Sie erhalten Informationen über verfügbare Installationsmethoden und mehrere bekannte Probleme. Sie lernen, wie Sie die Installation steuern, Installationsmedien zur Verfügung stelln und mit normalen Methoden booten können.

  • 4 Installation auf IBM POWER
  • Dieses Kapitel beschreibt das Installationsverfahren für SUSE Linux Enterprise Server unter IBM POWER-Systemen.

  • 5 Installation unter IBM Z und LinuxONE
  • In diesem Kapitel wird die Vorbereitung der Installation von SUSE® Linux Enterprise Server auf IBM Z beschrieben. Hier finden Sie alle erforderlichen Informationen, mit denen Sie die Installation auf LPAR- und z/VM-Seite vorbereiten.

  • 6 Installation auf Virtualisierungshosts
  • In diesem Abschnitt wird der Unterstützungsstatus von SUSE Linux Enterprise Server 15 SP6 beschrieben, der als Gastbetriebssystem auf verschiedenen Virtualisierungshosts (Hypervisoren) ausgeführt wird.

  • 7 Installation auf Hardware, die zum Zeitpunkt der Freigabe nicht unterstützt wurde
  • Bei bestimmter neuerer Hardware kann das Installationsmedium von SUSE Linux Enterprise Server nicht gebootet werden. Dies ist beispielsweise der Fall, wenn die Hardware zum Zeitpunkt der Freigabe von SUSE Linux Enterprise Server noch nicht erhältlich war. Für diese Situationen bietet SUSE verschiedene Kernel-Aktualisierungs-ISO-Images (kISO). In diesem Kapitel wird beschrieben, wie Sie SUSE Linux Enterprise Server mit der Kernel-Aktualisierung auf moderner Hardware installieren.

1 Planung für SUSE Linux Enterprise Server

In diesem Kapitel werden einige grundlegende Überlegungen vor der Installation von SUSE Linux Enterprise Server beschrieben.

1.1 Überlegungen zur Bereitstellung von SUSE Linux Enterprise Server

Die Bereitstellung eines Betriebssystems muss sowohl in einer bestehenden IT-Umgebung als auch in einer völlig neuen Implementierung sorgfältig vorbereitet werden. Zu Beginn Ihrer Planung sollten Sie die Projektziele und die benötigten Funktionen festlegen. Diese Überlegungen werden bei jedem Projekt anders aussehen. Immer sollten Sie sich jedoch die folgenden Fragen stellen:

  • Wie viele Installationen sind erforderlich? Von dieser Überlegung hängt die optimale Bereitstellungsmethode ab.

  • Wird das System als physischer Host oder als virtueller Computer ausgeführt?

  • Ist das System externen Bedrohungen wie Hackerangriffen ausgesetzt? Im Book “Security and Hardening Guide”, Chapter 1 “Security and confidentiality” finden Sie einen Überblick über die daraus folgenden Konsequenzen.

  • Wie erhalten Sie reguläre Updates? Alle Patches stehen registrierten Benutzern online im SUSE Customer Center zur Verfügung.

  • Benötigen Sie für die lokale Installation Hilfe? SUSE bietet Schulungen, Support und Beratung für alle Fragen im Zusammenhang mit SUSE Linux Enterprise Server. Weitere Informationen hierzu finden Sie unter https://www.suse.com/products/server/.

  • Benötigen Sie Produkte von Drittanbietern? Vergewissern Sie sich, dass das benötigte Produkt von der gewünschten Plattform unterstützt wird. Bei Bedarf bietet SUSE auch Unterstützung für Software auf anderen Plattformen an.

1.2 Bereitstellung von SUSE Linux Enterprise Server

Um sicherzustellen, dass Ihr System fehlerlos läuft, sollten Sie nur zertifizierte Hardware verwenden. Unsere Datenbank der zertifizierten Geräte wird regelmäßig aktualisiert. Ein Suchformular für zertifizierte Hardware finden Sie unter https://www.suse.com/yessearch/Search.jsp.

Abhängig von der Anzahl der gewünschten Installationen empfehlen sich eventuell Installationsserver oder sogar völlig automatische Installationen. Wenn Sie Xen- oder KVM-Virtualisierungstechnologien verwenden möchten, empfehlen sich eventuell Netzwerk-root-Dateisysteme oder Netzwerkspeicherlösungen wie iSCSI.

SUSE Linux Enterprise Server umfasst eine Vielzahl an verschiedensten Services. Die meisten Konfigurationen lassen sich in YaST, dem Konfigurationsprogramm von SUSE, vornehmen. Darüber hinaus sind aber auch zahlreiche manuelle Konfigurationen möglich, die in den betreffenden Kapiteln beschrieben werden.

Über die Installation der Software hinaus sollten Sie in der Planung auch die Schulung der System-Endbenutzer sowie die Schulung Ihrer Helpdesk-Mitarbeiter berücksichtigen.

Anmerkung
Anmerkung: Terminologie

In den folgenden Abschnitten wird das System, auf dem Ihre neue SUSE Linux Enterprise Server-Installation ausgeführt wird, als Zielsystem oder Installationsziel bezeichnet. Der Begriff Repository (früher Installationsquelle genannt) wird für alle Quellen der Installationsdaten verwendet. Dazu gehören physische Medien wie CD, DVD und USB-Flash-Laufwerk, sowie Netzwerkserver, die die Installationsdaten im Netzwerk verteilen.

1.3 Ausführen von SUSE Linux Enterprise Server

Das Betriebssystem SUSE Linux Enterprise Server ist bewährt und stabil. Dennoch lassen sich Hardware-Ausfälle oder andere Ursachen für Ausfallzeiten und Datenverluste nicht gänzlich vermeiden. Stellen Sie sicher, dass Sie über eine Backup-Lösung für unternehmenswichtige Aufgaben verfügen.

Aus Sicherheitsgründen und zum Schutz Ihrer Daten sollten Sie alle verwendeten Systeme regelmäßig aktualisieren. Wenn es um einen unternehmenswichtigen Server geht, sollten Sie einen zweiten, identischen Computer (außerhalb der Produktionsumgebung) ausführen und alle Änderungen darauf testen. Bei Hardware-Ausfällen steht Ihnen so auch ein redundantes System zur Verfügung, zu dem Sie jederzeit wechseln können.

1.4 Registrieren von SUSE Linux Enterprise Server

Um technischen Support und Produktaktualisierungen zu erhalten, müssen Sie Ihr SUSE-Produkt beim SUSE Customer Center registrieren und aktivieren. Es wird empfohlen, die Registrierung während der Installation vorzunehmen, da Sie so in der Lage sind, das System mit den neuesten verfügbaren Aktualisierungen und Patches zu installieren. Falls Sie gerade offline sind oder den Registrierungsschritt überspringen möchten, können Sie die Registrierung aus dem aktiven System heraus fertigstellen.

Falls Ihr Unternehmen keinen lokalen Registrierungsserver anbietet, benötigen Sie für die Registrierung von SUSE Linux Enterprise ein SUSE Customer Center-Konto. Falls Sie noch kein Konto besitzen, wechseln Sie zur SUSE Customer Center-Startseite (https://scc.suse.com/), und erstellen Sie dort ein Konto.

Bei der Installation werden Sie aufgefordert, Ihren Registrierungscode einzugeben. Weitere Informationen finden Sie im Abschnitt 9.7, „Registrierung“.

Wenn Sie die Instanzen automatisch mit AutoYaST bereitstellen, können Sie das System während der Installation registrieren. Geben Sie hierzu die entsprechenden Informationen in der AutoYaST-Steuerungsdatei an. Weitere Informationen finden Sie im Book “AutoYaST Guide”, Chapter 4 “Configuration and installation options”, Section 4.3 “System registration and extension selection”.

Weitere Informationen zum Registrieren eines bereits installierten Systems finden Sie im Book “Verwaltungshandbuch”, Chapter 8 “Installieren bzw. Entfernen von Software”, Section 8.2 “Registrieren eines installierten Systems”.

1.5 Änderungen bei der Installation von SUSE Linux Enterprise Server Version 15

Ab SUSE Linux Enterprise Server 15 werden alle SUSE Linux Enterprise-basierten Produkte mit einem Unified Installer von einem einzigen Satz Installationsmedien für jede unterstützte Architektur installiert.

1.5.1 Unified Installer für SUSE Linux Enterprise-basierte Produkte

Ab SUSE Linux Enterprise Server 15 SP6 sind dies die folgenden grundlegenden Produkte:

ProduktnameUnterstützte Plattformen
SUSE Linux Enterprise ServerAMD64/Intel 64; AArch64; POWER; IBM Z
SUSE Linux Enterprise-Hochleistungs-ComputingAMD64/Intel 64; AArch64
SUSE Linux Enterprise Real TimeAMD64/Intel 64
SUSE Linux Enterprise Server für SAP-AnwendungenAMD64/Intel 64; POWER
SUSE Linux Enterprise DesktopAMD64/Intel 64
SUSE-Manager-ServerAMD64/Intel 64; POWER; IBM Z
SUSE-Manager-ProxyAMD64/Intel 64
SUSE Manager für Retail Branch ServerAMD64/Intel 64
SUSE Enterprise StorageAMD64/Intel 64; Arm; Intel 64

1.5.2 Installieren mit Internetzugriff

Wenn Sie eine Installation auf einem Rechner oder einer VM mit Internetzugriff durchführen, brauchen Sie zur Installation der oben aufgelisteten Produkte nur das Image SLE-15-SP6-Online-ARCH-GM-media1.iso für die gewünschte Architektur herunterzuladen.

Anmerkung
Anmerkung: Installieren von SUSE Manager

Zum Installieren von SUSE Manager-Produkten muss der Zielrechner direkten Zugriff auf das SUSE Customer Center oder einen RMT-Server haben.

1.5.3 Offline-Installation

Mit Ausnahme von SUSE Manager benötigen Sie zur Installation der anderen aufgelisteten Produkte keinen Zugriff auf das Internet, das SUSE Customer Center oder einen RMT-Server (Repository Mirroring Tool).

Laden Sie für die Offline-Installation zusätzlich das Image SLE-15-SP6-Full-ARCH-GM-media1.iso für die gewünschte Architektur herunter.

Es gibt ein zusätzliches, zweites Paket-Medium, doch es enthält nur Quellcode und wird für die Installation nicht benötigt.

Tipp
Tipp: Größe aller Medien

Die Größe aller Installationsmedien der SLE-15-SP6-Online-ARCH-GM-media1.iso übersteigt die Kapazität einer doppelschichtigen DVD. Daher können sie nur von einem USB-Flash-Laufwerk gebootet werden.

1.5.4 Quartalsweise aktualisierte Medien

Für die Installationsmedien und die VM-Gast-Images bietet SUSE zwei Varianten:

  • Die erste, die GM im Dateinamen enthält, besteht aus dem Paketsatz, der im Lieferumfang des ersten Versands an den Kunden enthalten war.

  • Die zweite, die durch ein QU gefolgt von einer Zahl im Dateinamen gekennzeichnet ist, enthält denselben Paketsatz und zusätzlich alle Wartungsaktualisierungen der Pakete, die in der Zwischenzeit veröffentlicht wurden. Quartalsweise aktualisierte Medien werden alle drei Monate aktualisiert, wobei die erste Aktualisierung drei Monate nach der GM-Freigabe erfolgt.

Sie brauchen nur entweder die GM-Medien oder die QU-Medien, nicht beides. Welche Version Sie auswählen sollten, hängt von Ihren Bedürfnissen und Vorlieben ab. Wenn Ihre Hardware noch relativ neu ist, könnte die QU-Version die bessere Wahl sein. Der Installationsvorgang ist für beide Varianten identisch.

Für beide Varianten wird empfohlen, die neuesten Aktualisierungen, die nach der Erstellung der Images freigegeben wurden, während oder unmittelbar nach der Installation zu installieren.

2 Installation auf AMD64 und Intel 64

In diesem Kapitel werden die nötigen Schritte für die Vorbereitung der Installation von SUSE Linux Enterprise Server auf AMD64- und Intel-64-Rechnern beschrieben. Es beschreibt die für die Vorbereitung der verschiedenen Installationsmethoden erforderlichen Schritte. Die Liste der Hardware-Anforderungen bietet einen Überblick über die von SUSE Linux Enterprise Server unterstützten Systeme. Sie erhalten Informationen über verfügbare Installationsmethoden und mehrere bekannte Probleme. Sie lernen, wie Sie die Installation steuern, Installationsmedien zur Verfügung stelln und mit normalen Methoden booten können.

2.1 Hardware

Das Betriebssystem SUSE® Linux Enterprise Server eignet sich für die verschiedensten Hardware-Geräte. Es ist unmöglich, alle denkbaren Hardware-Kombinationen aufzuführen, die von SUSE Linux Enterprise Server unterstützt werden. Um Ihnen für die Planungsphase eine Richtlinie zur Verfügung zu stellen, werden hier die Mindestanforderungen dargestellt.

Wenn Sie ganz sichergehen möchten, dass eine bestimmte Computerkonfiguration funktioniert, erkundigen Sie sich, welche Plattformen von SUSE zertifiziert wurden. Eine Liste finden Sie unter https://www.suse.com/yessearch/.

Prozessor

Die meisten zum Zeitpunkt der Veröffentlichung verfügbaren CPUs werden unterstützt.

Maximale Anzahl von CPUs

Gemäß dem Software-Design unterstützen Intel 64 und AMD64 maximal 8192 CPUs. Wenn Sie ein so großes System nutzen möchten, informieren Sie sich auf unserer Webseite zur Hardware-Systemzertifizierung über die unterstützten Geräte (siehe https://www.suse.com/yessearch/).

Speicheranforderungen

Für eine Minimalinstallation sind mindestens 1024 MB Arbeitsspeicher erforderlich. Fügen Sie auf Rechnern mit mehr als zwei Prozessoren 512 MB pro CPU hinzu. Fügen Sie bei Installationen auf Remote-Systemen über HTTP oder FTP weitere 150 MB hinzu. Diese Werte gelten ausschließlich für die Installation des Betriebssystems. Der tatsächliche Arbeitsspeicherbedarf in der Produktion ist abhängig von der Auslastung des Systems. Für Systeme, auf denen die GNOME-Desktop-Umgebung ausgeführt wird, sind mindestens 2048 MB Arbeitsspeicher erforderlich und 4096 MB werden empfohlen.

Anforderungen an die Festplatte

Die Anforderungen an die Festplatte sind im Wesentlichen abhängig von der ausgewählten Installation und von der geplanten Nutzung des Computers. Gewöhnlich benötigen Sie mehr Speicherplatz als die Installationssoftware alleine, damit ein System ordnungsgemäß arbeitet. Mindestanforderungen für verschiedene Optionen:

Installationsumfang

Mindestanforderungen an die Festplatte

Expertenmodus

1,5 GB

Minimalinstallation

2,5 GB

GNOME-Desktop

3 GB

Alle Schemata

4 GB

Empfohlener Mindestwert (keine Btrfs-Snapshots): 10 GB

Erforderlicher Mindestwert (mit Btrfs-Snapshots): 16 GB

Empfohlener Mindestwert (mit Btrfs-Snapshots): 32 GB

Bei einer root-Partition kleiner als 10 GB macht das Installationsprogramm keinen Vorschlag für eine automatische Partitionierung und Partitionen müssen manuell erstellt werden. Daher werden als Mindestgröße für die root-Partition 10 GB empfohlen. Die root-Partition muss mindestens 16 GB groß sein, wenn Sie Btrfs-Snapshots auf dem root-Volume für System-Rollbacks (siehe Book “Verwaltungshandbuch”, Chapter 10 “Systemwiederherstellung und Snapshot-Verwaltung mit Snapper”) ermöglichen möchten.

Boot-Methoden

Der Computer kann von einer CD oder über das Netzwerk gestartet werden. Zum Starten über das Netzwerk ist ein spezieller Boot-Server erforderlich. Die Einrichtung kann mit SUSE Linux Enterprise Server erfolgen.

2.2 Überlegungen zur Installation

Dieser Abschnitt umfasst zahlreiche Faktoren, die vor der Installation von SUSE Linux Enterprise Server auf AMD64- und Intel-64-Hardware zu berücksichtigen sind.

2.2.1 Installation auf Hardware oder auf einem virtuellen Computer

SUSE Linux Enterprise Server wird in der Regel als unabhängiges Betriebssystem installiert. Dank der Virtualisierung ist es auch möglich, mehrere Instanzen von SUSE Linux Enterprise Server auf derselben Hardware auszuführen. Die Installation des VM-Host-Servers erfolgt jedoch wie eine typische Installation mit einigen zusätzlichen Paketen. Ein Beschreibung der Installation von virtuellen Gästen finden Sie im Book “Virtualization Guide”, Chapter 10 “Guest installation”.

2.2.2 Installationsziel

Die meisten Installationen erfolgen auf der lokalen Festplatte. Daher müssen die Festplatten-Controller für das Installationssystem nicht zur Verfügung stehen. Wenn ein bestimmter Controller (z. B. ein RAID-Controller) ein zusätzliches Kernel-Modul benötigt, stellen Sie für das Installationssystem eine Aktualisierungsdiskette für das Kernel-Modul bereit.

Sonstige Installationsziele können verschiedene Arten von Block-Geräten sein, die ausreichenden Speicherplatz und eine entsprechende Geschwindigkeit zum Ausführen eines Betriebssystems bieten. Dies beinhaltet auch Netzwerk-Block-Geräte, wie iSCSI oder SAN. Die Installation kann auch auf Netzwerk-Dateisystemen mit den standardmäßigen Unix-Berechtigungen ausgeführt werden. Beim Starten dieser Systeme können jedoch Probleme auftreten, da sie von initramfs unterstützt werden müssen, damit das eigentliche System gestartet werden kann. Diese Installationen sind insbesondere dann von Nutzen, wenn Sie dasselbe System an verschiedenen Standorten starten müssen oder den Einsatz von Virtualisierungsfunktionen planen (z. B. Domänenmigration).

2.3 Installationsmethoden

Sie können die gewünschte Installationsmethode auswählen, indem Sie die Einrichtung mit einer der in Abschnitt 2.4, „Booten des Systems“ aufgeführten Optionen starten. Informationen zum Aktivieren der verschiedenen Installationsmethoden finden Sie im Abschnitt 8.3.4, „Festlegen des Fernzugriffs“. Informationen zur Verwendung der Ferninstallationsmethoden finden Sie in Kapitel 12, Ferninstallation.

Ein kurzer Überblick über die verschiedenen Methoden:

Lokal mit Monitor und Tastatur

Mit dieser Methode wird SUSE Linux Enterprise Server am häufigsten installiert. Sie erfordert sehr wenig Vorbereitung, jedoch viel direkte Interaktion.

Im Fernverfahren über SSH

Sie können die Installation über SSH entweder im Textmodus vornehmen oder die grafische Installation per X-Forwarding ausführen. Detaillierte Informationen finden Sie im Abschnitt 12.4, „Überwachen der Installation über SSH“.

Im Fernverfahren über serielle Konsole

Für diese Installationsmethode benötigen Sie einen zweiten Computer, der über ein Nullmodem-Kabel mit dem Zielcomputer verbunden ist. Die Installation erfolgt im Textmodus. Detaillierte Informationen finden Sie im Abschnitt 12.5, „Installation über die serielle Konsole“.

Im Fernverfahren über VNC

Verwenden Sie diese Methode, um die Installation über eine grafische Oberfläche ohne direkten Zugriff auf den Zielcomputer auszuführen. Detaillierte Informationen finden Sie im Abschnitt 12.3, „Überwachen der Installation über VNC“.

Automatisch über AutoYaST

Zur Installation SUSE Linux Enterprise Server auf mehreren Computern mit ähnlicher Hardware empfiehlt es sich, die Installationen mit AutoYaST durchzuführen. Installieren Sie in diesem Fall zuerst eine Instanz von SUSE Linux Enterprise Server und erstellen Sie hierüber die erforderlichen AutoYaST-Konfigurationsdateien. Detaillierte Informationen finden Sie im Book “AutoYaST Guide”.

2.4 Booten des Systems

In diesem Abschnitt erhalten Sie einen Überblick über die Schritte zur vollständigen Installation von SUSE Linux Enterprise Server.

Anders als bei früheren SLE-Produkten lässt sich die gesamte SLE 15 SP6-Produktlinie mit dem Unified Installer installieren. Detaillierte Informationen zu den Änderungen seit SUSE Linux Enterprise 15 und dazu, welche Medien für die Installation heruntergeladen werden sollen, finden Sie in Abschnitt 1.5, „Änderungen bei der Installation von SUSE Linux Enterprise Server Version 15“..

Eine vollständige Beschreibung der Installation und Konfiguration des Systems mit YaST finden Sie in Teil II, „Installationsvorgang“.

Wichtig
Wichtig: Aktualisierungen für die Hardwareunterstützung

Wenn Sie eine neue Hardware verwenden, kann es erforderlich sein, die Installation mit einem neueren Kernel von einem Kernel Update ISO-Image zu booten. Detaillierte Informationen finden Sie im Kapitel 7, Installation auf Hardware, die zum Zeitpunkt der Freigabe nicht unterstützt wurde.

  1. Bereiten Sie die Installationsmedien vor.

    USB-Flash-Laufwerk

    Das ist die einfachste Methode zum Starten der Installation. Zum Erstellen eines bootfähigen Flash-Laufwerks müssen Sie ein DVD-Image mit dem Befehl dd auf das Gerät kopieren. Der Flash-Datenträger darf nicht eingehängt sein, und alle Daten auf dem Gerät werden gelöscht.

    # dd if=PATH_TO_ISO_IMAGE of=USB_STORAGE_DEVICE bs=4M
    Booten vom Netzwerk

    Falls von der Firmware des Zielrechners unterstützt, können Sie den Computer vom Netzwerk aus booten und von einem Server aus installieren. Diese Bootmethode erfordert einen Boot-Server, der die erforderlichen Boot-Images über das Netzwerk bereitstellt. Das exakte Protokoll hängt von Ihrer Hardware ab. In der Regel benötigen Sie mehrere Dienste, wie TFTP und DHCP oder PXE-Boot. Detaillierte Informationen finden Sie im Kapitel 18, Vorbereiten der Netzwerk-Boot-Umgebung.

    Die Installation ist von vielen gängigen Netzwerkprotokollen wie NFS, HTTP, FTP oder SMB möglich. Weitere Informationen zur Durchführung einer solchen Installation finden Sie in Kapitel 12, Ferninstallation.

  2. Konfigurieren Sie die Firmware des Zielsystems für das Booten des ausgewählten Mediums. Beachten Sie bei der Konfiguration der richtigen Boot-Reihenfolge die Dokumentation des Hardware-Herstellers.

  3. Legen Sie die erforderlichen Boot-Parameter für Ihre Installationssteuerungsmethode fest. In Abschnitt 2.3, „Installationsmethoden“ finden Sie einen Überblick über die verschiedenen Methoden. In Kapitel 8, Boot-Parameter finden Sie eine Liste der Boot-Parameter.

  4. Führen Sie die Installation wie in Kapitel 9, Installationsschritte beschrieben aus. Das System muss nach Abschluss der Installation neu gestartet werden.

  5. Optional: Ändern Sie die Boot-Reihenfolge des Systems, sodass der Bootvorgang direkt von dem Medium aus gestartet wird, auf dem SUSE Linux Enterprise Server installiert wurde. Wenn das System vom Installationsmedium bootet, legt der erste Boot-Parameter fest, dass das installierte System gebootet werden soll.

2.5 Behandlung von Start- und Installationsproblemen

Vor der Bereitstellung wird SUSE® Linux Enterprise Server umfangreichen Tests unterzogen. Dennoch treten gelegentlich Probleme beim Start oder bei der Installation auf.

2.5.1 Probleme beim Booten

Startprobleme können das YaST-Installationsprogramm daran hindern, Ihr System zu starten. Ein weiteres Symptom ist, dass Ihr System nicht startet, nachdem die Installation abgeschlossen wurde.

Das System bootet nicht vom Installationsmedium

Ändern Sie die Firmware oder das BIOS Ihres Computers, sodass die richtige Startsequenz eingestellt ist. Ziehen Sie hierzu die Dokumentation zu Ihrer Hardware zurate.

Der Computer stürzt ab

Ändern Sie die Konsole auf Ihrem Computer, sodass die Kernel-Ausgabe sichtbar wird. Überprüfen Sie die letzten Ausgaben. In der Regel erfolgt dies durch Drücken der Tasten StrgAltF10. Falls Sie das Problem nicht beheben können, wenden Sie sich an die SUSE Linux Enterprise Server-Supportmitarbeiter. Um alle Systemmeldungen zum Startzeitpunkt zu protokollieren, verwenden Sie eine serielle Verbindung, wie im Abschnitt 2.3, „Installationsmethoden“ beschrieben.

Boot-Diskette

Die Boot-Disk ist eine nützliche Übergangslösung, falls Probleme bei der Festlegung der anderen Konfigurationen auftreten oder Sie die Entscheidung bezüglich des endgültigen Startmechanismus noch aufschieben möchten. Weitere Details über das Erstellen von Boot-Disks finden Sie im Book “Verwaltungshandbuch”, Chapter 18 “Der Bootloader GRUB 2” grub2-mkrescue.

Viruswarnung nach der Installation

In einigen BIOS-Varianten wird die Struktur des Bootsektors (MBR) überprüft und nach der Installation von GRUB 2 wird fälschlicherweise eine Virenwarnung angezeigt. Dieses Problem lässt sich lösen, indem Sie das BIOS aufrufen, nach den entsprechenden Einstellungen suchen und diese bearbeiten. Deaktivieren Sie beispielsweise virus protection. Sie können diese Option später wieder aktivieren. Wenn als einziges Betriebssystem Linux verwendet wird, ist dies jedoch nicht erforderlich.

2.5.2 Probleme bei der Installation

Wenn während der Installation ein unerwartetes Problem auftritt, sind Informationen zum Ermitteln der Ursache erforderlich. Die folgenden Anweisungen helfen Ihnen bei der Fehlersuche:

  • Überprüfen Sie die Ausgaben der verschiedenen Konsolen. Sie können die Konsole mit der Tastenkombination StrgAlt Fn wechseln. Rufen Sie beispielsweise eine Shell zum Ausführen verschiedener Befehle auf, indem Sie StrgAlt F2 drücken.

  • Versuchen Sie, die Installation mit sicheren Einstellungen zu starten. (Drücken Sie im Installationsbildschirm die Taste F5 und wählen Sie Sichere Einstellungen.) Wenn die Installation in diesem Fall problemlos funktioniert, besteht eine Inkompatibilität, die zu einem Fehler in ACPI oder APIC führt. In einigen Fällen kann eine BIOS- oder Firmware-Aktualisierung dieses Problem beheben.

  • Überprüfen Sie die Systemmeldungen in der Konsole des Installationssystems durch Eingabe des Befehls dmesg -T.

2.5.3 Initiieren der Installation statt Booten

Die Standardoption im Startmenü der Installationsquelle für SUSE Linux Enterprise Server bootet den Rechner in das bereits installierte System. Um dies zu vermeiden und stattdessen den Installationsprozess zu starten, wählen Sie eine der verfügbaren Installationsoptionen im Startmenü.

3 Installation in der Arm AArch64-Architektur

In diesem Kapitel werden die erforderlichen Schritte für die Vorbereitung der Installation von SUSE Linux Enterprise Server auf ARM AArch64-Computern beschrieben. Es beschreibt die für die Vorbereitung der verschiedenen Installationsmethoden erforderlichen Schritte. Die Liste der Hardware-Anforderungen bietet einen Überblick über die von SUSE Linux Enterprise Server unterstützten Systeme. Sie erhalten Informationen über verfügbare Installationsmethoden und mehrere bekannte Probleme. Sie lernen, wie Sie die Installation steuern, Installationsmedien zur Verfügung stelln und mit normalen Methoden booten können.

3.1 Hardware

Das Betriebssystem SUSE® Linux Enterprise Server eignet sich für die verschiedensten Hardware-Geräte. Es ist unmöglich, alle denkbaren Hardware-Kombinationen aufzuführen, die von SUSE Linux Enterprise Server unterstützt werden. Um Ihnen für die Planungsphase eine Richtlinie zur Verfügung zu stellen, werden hier die Mindestanforderungen dargestellt.

Wenn Sie ganz sichergehen möchten, dass eine bestimmte Computerkonfiguration funktioniert, erkundigen Sie sich, welche Plattformen von SUSE zertifiziert wurden. Eine Liste finden Sie unter https://www.suse.com/yessearch/.

Prozessor

Als Mindestanforderung ist eine CPU erforderlich, die die Armv8-A-Befehlssatzinfrastruktur (Instruction Set Architecture, ISA) unterstützt, z. B. Arm Cortex-A53 oder Cortex-A57. Eine Liste der verfügbaren Armv8-A-Prozessoren finden Sie unter https://www.arm.com/products/processors/cortex-a/.

CPUs mit der Armv8-R- (Echtzeit) und Armv8-M-ISA (Mikrokontroller) werden derzeit nicht unterstützt.

Maximale Anzahl von CPUs

Die maximale Anzahl der unterstützten CPUs beträgt 256. Wenn Sie ein so großes System nutzen möchten, informieren Sie sich auf unserer Webseite zur Hardware-Systemzertifizierung über die unterstützten Geräte (siehe https://www.suse.com/yessearch/).

Speicheranforderungen

Für eine Minimalinstallation sind mindestens 1024 MB Arbeitsspeicher erforderlich. Fügen Sie auf Rechnern mit mehr als zwei Prozessoren 512 MB pro CPU hinzu. Fügen Sie bei Installationen auf Remote-Systemen über HTTP oder FTP weitere 150 MB hinzu. Diese Werte gelten ausschließlich für die Installation des Betriebssystems. Der tatsächliche Arbeitsspeicherbedarf in der Produktion ist abhängig von der Auslastung des Systems. Für Systeme, auf denen die GNOME-Desktop-Umgebung ausgeführt wird, sind mindestens 2048 MB Arbeitsspeicher erforderlich und 4096 MB werden empfohlen.

Anforderungen an die Festplatte

Die Anforderungen an die Festplatte sind im Wesentlichen abhängig von der ausgewählten Installation und von der geplanten Nutzung des Computers. Gewöhnlich benötigen Sie mehr Speicherplatz als die Installationssoftware alleine, damit ein System ordnungsgemäß arbeitet. Mindestanforderungen für verschiedene Optionen:

Installationsumfang

Mindestanforderungen an die Festplatte

Expertenmodus

1,5 GB

Minimalinstallation

2,5 GB

GNOME-Desktop

3 GB

Alle Schemata

4 GB

Empfohlener Mindestwert (keine Btrfs-Snapshots): 10 GB

Erforderlicher Mindestwert (mit Btrfs-Snapshots): 16 GB

Empfohlener Mindestwert (mit Btrfs-Snapshots): 32 GB

Bei einer root-Partition kleiner als 10 GB macht das Installationsprogramm keinen Vorschlag für eine automatische Partitionierung und Partitionen müssen manuell erstellt werden. Daher werden als Mindestgröße für die root-Partition 10 GB empfohlen. Die root-Partition muss mindestens 16 GB groß sein, wenn Sie Btrfs-Snapshots auf dem root-Volume für System-Rollbacks (siehe Book “Verwaltungshandbuch”, Chapter 10 “Systemwiederherstellung und Snapshot-Verwaltung mit Snapper”) ermöglichen möchten.

Boot-Methoden

Der Computer kann von einem USB-Datenträger oder über das Netzwerk gestartet werden. Zum Starten über das Netzwerk ist ein spezieller Boot-Server erforderlich. Die Einrichtung kann mit SUSE Linux Enterprise Server erfolgen.

3.2 Überlegungen zur Installation

Dieser Abschnitt umfasst zahlreiche Faktoren, die vor der Installation von SUSE Linux Enterprise Server auf ARM AArch64-Hardware zu berücksichtigen sind.

3.2.1 Installation auf Hardware oder auf einem virtuellen Computer

SUSE Linux Enterprise Server wird in der Regel als unabhängiges Betriebssystem installiert. Dank der Virtualisierung ist es auch möglich, mehrere Instanzen von SUSE Linux Enterprise Server auf derselben Hardware auszuführen. Die Installation des VM-Host-Servers erfolgt wie eine typische Installation mit einigen zusätzlichen Paketen. Ein Beschreibung der Installation von virtuellen Gästen finden Sie im Book “Virtualization Guide”, Chapter 10 “Guest installation”.

3.2.2 Installationsziel

Die meisten Installationen erfolgen auf der lokalen Festplatte. Daher müssen die Festplatten-Controller für das Installationssystem nicht zur Verfügung stehen. Wenn ein bestimmter Controller (z. B. ein RAID-Controller) ein zusätzliches Kernel-Modul benötigt, stellen Sie für das Installationssystem eine Aktualisierungsdiskette für das Kernel-Modul bereit.

Sonstige Installationsziele können verschiedene Arten von Block-Geräten sein, die ausreichenden Speicherplatz und eine entsprechende Geschwindigkeit zum Ausführen eines Betriebssystems bieten. Dies beinhaltet auch Netzwerk-Block-Geräte, wie iSCSI oder SAN. Die Installation kann auch auf Netzwerk-Dateisystemen mit den standardmäßigen Unix-Berechtigungen ausgeführt werden. Beim Starten dieser Systeme können jedoch Probleme auftreten, da sie von initramfs unterstützt werden müssen, damit das eigentliche System gestartet werden kann. Diese Installationen sind insbesondere dann von Nutzen, wenn Sie dasselbe System an verschiedenen Standorten starten müssen oder den Einsatz von Virtualisierungsfunktionen planen (z. B. Domänenmigration).

3.3 Steuern des Installationsprozesses

Sie können die gewünschte Installationsmethode auswählen, indem Sie die Einrichtung mit einer der im Abschnitt 2.4, „Booten des Systems“ aufgeführten Optionen starten. Informationen zum Aktivieren der verschiedenen Installationsmethoden finden Sie im Abschnitt 8.3.4, „Festlegen des Fernzugriffs“. Informationen zur Verwendung der Ferninstallationsmethoden finden Sie in Kapitel 12, Ferninstallation.

Ein kurzer Überblick über die verschiedenen Methoden:

Lokal mit Monitor und Tastatur

Mit dieser Methode wird SUSE Linux Enterprise Server am häufigsten installiert. Sie erfordert wenig Vorbereitung, jedoch viel direkte Interaktion.

Im Fernverfahren über SSH

Sie können die Installation über SSH entweder im Textmodus vornehmen oder die grafische Installation per X-Forwarding ausführen. Detaillierte Informationen finden Sie im Abschnitt 12.4, „Überwachen der Installation über SSH“.

Im Fernverfahren über serielle Konsole

Für diese Installationsmethode benötigen Sie einen zweiten Computer, der über ein Nullmodem-Kabel mit dem Zielcomputer verbunden ist. Die Installation erfolgt im Textmodus. Detaillierte Informationen finden Sie im Abschnitt 12.5, „Installation über die serielle Konsole“.

Im Fernverfahren über VNC

Verwenden Sie diese Methode, um die Installation über eine grafische Oberfläche ohne direkten Zugriff auf den Zielcomputer auszuführen. Detaillierte Informationen finden Sie im Abschnitt 12.3, „Überwachen der Installation über VNC“.

Automatisch über AutoYaST

Zur Installation SUSE Linux Enterprise Server auf mehreren Computern mit ähnlicher Hardware empfiehlt es sich, die Installationen mit AutoYaST durchzuführen. Installieren Sie in diesem Fall zuerst eine Instanz von SUSE Linux Enterprise Server und erstellen Sie hierüber die erforderlichen AutoYaST-Konfigurationsdateien. Detaillierte Informationen finden Sie im Book “AutoYaST Guide”.

3.4 Booten des Systems

In diesem Abschnitt erhalten Sie einen Überblick über die Schritte zur vollständigen Installation von SUSE Linux Enterprise Server.

Anders als bei früheren SLE-Produkten lässt sich die gesamte SLE 15 SP6-Produktlinie mit dem Unified Installer installieren. Detaillierte Informationen zu den Änderungen seit SUSE Linux Enterprise 15 und dazu, welche Medien für die Installation heruntergeladen werden sollen, finden Sie in Abschnitt 1.5, „Änderungen bei der Installation von SUSE Linux Enterprise Server Version 15“..

Eine vollständige Beschreibung der Installation und Konfiguration des Systems mit YaST finden Sie in Teil II, „Installationsvorgang“.

Wichtig
Wichtig: Aktualisierungen für die Hardwareunterstützung

Wenn Sie eine neue Hardware verwenden, kann es erforderlich sein, die System mit einem neueren Kernel von einem Kernel Update ISO-Image zu booten. Detaillierte Informationen finden Sie im Kapitel 7, Installation auf Hardware, die zum Zeitpunkt der Freigabe nicht unterstützt wurde.

  1. Bereiten Sie die Installationsmedien vor.

    USB-Flash-Laufwerk

    Das ist die einfachste Methode zum Starten der Installation. Zum Erstellen eines bootfähigen Flash-Laufwerks müssen Sie ein DVD-Image mit dem Befehl dd auf das Gerät kopieren. Der Flash-Datenträger darf nicht eingehängt sein, und alle Daten auf dem Gerät werden gelöscht.

    # dd if=PATH_TO_ISO_IMAGE of=USB_STORAGE_DEVICE bs=4M
    Booten vom Netzwerk

    Falls von der Firmware des Zielrechners unterstützt, können Sie den Computer vom Netzwerk aus booten und von einem Server aus installieren. Diese Bootmethode erfordert einen Boot-Server, der die erforderlichen Boot-Images über das Netzwerk bereitstellt. Das exakte Protokoll hängt von Ihrer Hardware ab. In der Regel benötigen Sie mehrere Dienste, wie TFTP und DHCP oder PXE-Boot. Detaillierte Informationen finden Sie im Kapitel 18, Vorbereiten der Netzwerk-Boot-Umgebung.

    Die Installation ist von vielen gängigen Netzwerkprotokollen wie NFS, HTTP, FTP oder SMB möglich. Weitere Informationen zur Durchführung einer solchen Installation finden Sie in Kapitel 12, Ferninstallation.

  2. Konfigurieren Sie die Firmware des Zielsystems für das Booten des ausgewählten Mediums. Beachten Sie bei der Konfiguration der richtigen Boot-Reihenfolge die Dokumentation des Hardware-Herstellers.

  3. Legen Sie die erforderlichen Boot-Parameter für Ihre Installationssteuerungsmethode fest. In Abschnitt 3.3, „Steuern des Installationsprozesses“ finden Sie einen Überblick über die verschiedenen Methoden. In Kapitel 8, Boot-Parameter finden Sie eine Liste der Boot-Parameter.

  4. Führen Sie die Installation wie in Kapitel 9, Installationsschritte beschrieben aus. Das System muss nach Abschluss der Installation neu gestartet werden.

  5. Optional: Ändern Sie die Boot-Reihenfolge des Systems, sodass der Bootvorgang direkt von dem Medium aus gestartet wird, auf dem SUSE Linux Enterprise Server installiert wurde. Wenn das System vom Installationsmedium bootet, legt der erste Boot-Parameter fest, dass das installierte System gebootet werden soll.

3.5 Behandlung von Start- und Installationsproblemen

Obwohl SUSE® Linux Enterprise Server einem umfangreichen Testprogramm unterzogen wird, treten möglicherweise gelegentlich Probleme beim Starten oder bei der Installation auf.

3.5.1 Probleme beim Booten

Startprobleme können das YaST-Installationsprogramm daran hindern, Ihr System zu starten. Ein weiteres Symptom ist, dass Ihr System nicht startet, nachdem die Installation abgeschlossen wurde.

Rechner bootet das installierte System anstelle des Installationsmediums

Ändern Sie die Bootsequenz im BIOS des Rechners. Weitere Informationen finden Sie in der mit der Hardware bereitgestellten Dokumentation.

Das System stürzt ab

Ändern Sie die Konsole auf Ihrem System, sodass die Kernel-Ausgabe sichtbar wird. Überprüfen Sie die letzten Zeilen der Ausgabe. In der Regel erfolgt dies durch Drücken der Tasten StrgAltF10. Falls Sie das Problem nicht beheben können, wenden Sie sich an die SUSE Linux Enterprise Server-Supportmitarbeiter. Um alle Systemmeldungen zum Startzeitpunkt zu protokollieren, verwenden Sie eine serielle Verbindung, wie im Abschnitt 2.3, „Installationsmethoden“ beschrieben.

Boot-Diskette

Die Boot-Disk ist eine nützliche Übergangslösung. Verwenden Sie eine Boot-Disk, falls Probleme bei der Festlegung der anderen Konfigurationen auftreten oder Sie die Entscheidung bezüglich des endgültigen Startmechanismus noch aufschieben möchten. Weitere Informationen über das Erstellen von Boot-Disks finden Sie unter Book “Verwaltungshandbuch”, Chapter 18 “Der Bootloader GRUB 2” grub2-mkrescue.

3.5.2 Probleme bei der Installation

Wenn während der Installation ein unerwartetes Problem auftritt, sind Informationen zum Ermitteln der Ursache erforderlich. Die folgenden Anweisungen helfen Ihnen bei der Fehlersuche:

  • Überprüfen Sie die Ausgaben der verschiedenen Konsolen. Sie können die Konsole mit der Tastenkombination StrgAlt Fn wechseln. Rufen Sie beispielsweise eine Shell zum Ausführen verschiedener Befehle auf, indem Sie StrgAlt F2 drücken.

  • Versuchen Sie, die Installation mit sicheren Einstellungen zu starten. (Drücken Sie im Installationsbildschirm die Taste F5 und wählen Sie Sichere Einstellungen.) Wenn die Installation in diesem Fall problemlos funktioniert, besteht eine Inkompatibilität, die zu einem Fehler in ACPI oder APIC führt. In einigen Fällen kann dieses Problem durch eine Firmware-Aktualisierung behoben werden.

  • Überprüfen Sie die Systemmeldungen in der Konsole des Installationssystems durch Eingabe des Befehls dmesg -T.

3.5.3 Initiieren der Installation statt Booten

Die Standardoption im Startmenü des Installationsmediums für SUSE Linux Enterprise Server bootet den Rechner in das bereits installierte System. Um stattdessen den Installationsprozess zu starten, wählen Sie eine der verfügbaren Installationsoptionen im Startmenü.

3.6 Raspberry Pi

SUSE Linux Enterprise Server ist die erste Linux-Distribution für Unternehmen, die den kostengünstigen Einplatinenrechner Raspberry Pi* unterstützt. SUSE Linux Enterprise Server 15 SP6 unterstützt folgende Modelle:

  • Raspberry Pi 3 Model A+

  • Raspberry Pi 3 Model B

  • Raspberry Pi 3 Model B+

  • Raspberry Pi 4 Model B

  • Raspberry Pi Compute Module 3

  • Raspberry Pi Compute Module 3+

Der Raspberry Pi unterscheidet sich in mehreren Aspekten von herkömmlichen Serverrechnern. Vor allem ist er nicht mit einem Bootloader zum Laden von Betriebssystemen ausgestattet. Im Lieferumfang von SUSE Linux Enterprise Server ist daher zusätzlich eine Bootloader-Software enthalten, die diese Lücke schließt.

3.6.1 Bootvorgang

Der primäre Prozessor des System-on-Chip (SoC) des Raspberry Pi ist die Broadcom VideoCore Graphics Processing Unit (GPU), nicht die Arm Central Processing Unit (CPU). Die GPU startet die Initialisierung der Hardware von einem Bootloader der ersten Stufe im On-Chip Boot-ROM. Nur wenige Konfigurationsoptionen haben Einfluss auf den Boot-ROM. Weitere Informationen hierzu finden Sie in Abschnitt 3.6.1.2, „OTP-Speicher“.

Die Hardware des Raspberry Pi 3 enthält keine integrierte Firmware. Stattdessen wird die Bootloader-Firmware der zweiten Stufe, bootcode.bin, bei jedem Rechnerstart vom Bootmedium geladen. Diese wiederum lädt den Bootloader der dritten Stufe, start.elf.

Die Hardware des Raspberry Pi 4 ist mit einem kleinen EEPROM (Electrically Erasable Programmable Read-Only Memory) für den Bootloader der zweiten Stufe ausgestattet. Ansonsten ist die Bootsequenz ähnlich wie beim Raspberry Pi 3, wobei der Bootloader der dritten Stufe, start4.elf, vom Bootmedium geladen wird.

Warnung
Warnung: EEPROM-Aktualisierung auf Raspberry Pi 4

Ein Update des Bootloaders der zweiten Stufe kann durch Booten von einer speziell dafür vorbereiteten microSD-Karte erfolgen.

Legen Sie dazu einfach ein Bootmedium Ihres Vertrauens ein, und vergewissern Sie sich, dass nicht unabsichtlich eine Datei mit dem Namen recovery.bin vorhanden ist.

Wenn eine Datei armstub8.bin vorhanden ist, wird sie als Bootloader der vierten Stufe in AArch64 Exception Level 3 (EL3) geladen. Andernfalls wird ein minimal integrierter Stub verwendet.

Anmerkung
Anmerkung: EL3-Sicherheitsüberlegungen

Ein für EL3 geladener Code (oft BL31 genannt) ist im Arbeitsspeicher vorhanden und Linux versucht möglicherweise Hypercalls in EL3 während der gesamten Laufzeit.

Vergewissern Sie sich, dass Ihre Bootmedien nicht unabsichtlich eine Datei armstub8.bin enthalten. SUSE Linux Enterprise Server 15 SP6 enthält sie nicht.

Beachten Sie, dass das SoC des Raspberry Pi keinen TrustZone-Sicherheitsspeicher bereitstellt. Sowohl das Betriebssystem auf der CPU als auch Software auf der GPU hat Zugriff auf seinen RAM. Er ist daher nicht für kryptografische EL0-s-Anwendungen geeignet. SUSE Linux Enterprise Server stellt aus diesem Grund kein EL1-s-TEE (Trusted Execution Environment) zur Verfügung.

SUSE Linux Enterprise Server für den Raspberry Pi ist zum Laden eines Bootloaders der fünften Stufe namens Das U-Boot konfiguriert.

3.6.1.1 Config.txt

Es gibt keinen nichtflüchtigen Speicher für Konfigurationsinformationen. Das bedeutet, dass es keine herkömmlichen Einstellungen zur Anpassung der Bootgerätereihenfolge, des Datums und der Uhrzeit usw. gibt.

Stattdessen liest der Bootloader eine Konfigurationsdatei config.txt vom Bootmedium. Die von SUSE bereitgestellte config.txt sollte nicht bearbeitet werden. Der Benutzer kann jedoch optional eine Datei extraconfig.txt bereitstellen, die gegebenenfalls die Einstellungen von config.txt überschreibt. Damit kann SUSE Linux Enterprise Server die Datei config.txt gegebenenfalls aktualisieren, ohne Benutzereinstellungen zu überschreiben.

3.6.1.2 OTP-Speicher

Das SoC umfasst außerdem einen kleinen einmal programmierbaren Speicher (OTP, One-Time Programmable Memory). Dieser kann zum Konfigurieren einiger Einstellungen verwendet werden, wie zum Beispiel ob der Boot-ROM versuchen sollte, von USB-Geräten oder über Ethernet zu booten.

Dieser OTP-Speicher ist auf der Raspberry Pi Foundation-Website beschrieben: https://www.raspberrypi.org/documentation/hardware/raspberrypi/otpbits.md

Warnung
Warnung: Nur einmal programmierbar

Die in den OTP-Speicher geschriebenen Konfigurationseinstellungen lassen sich nicht rückgängig machen.

Am häufigsten wird der OTP-Speicher zur Aktivierung des USB-Boots auf dem Raspberry Pi 3 Model B oder Compute Module 3 genutzt.

3.6.1.3 Aktivieren des USB-Bootmodus für Raspberry Pi 3 Model B

Bereiten Sie eine microSD-Karte vor wie in Abschnitt 3.6.3, „Bereitstellen eines Appliance-Image“ beschrieben, um dauerhaft das Booten von angeschlossenen USB-Massenspeichergeräten auf dem Raspberry Pi 3 Model B und von dessen integriertem USB-Ethernet zuzulassen. Fügen Sie vor dem Aushängen und Auswerfen der Karte und dem Booten von der Karte ihrer FAT-Partition eine Textdatei extraconfig.txt (Abschnitt 3.6.1.1, „Config.txt“) mit folgenden Einstellungen hinzu:

program_usb_boot_mode=1

Booten Sie dann von der bearbeiteten microSD-Karte wie üblich. Sobald Sie eine Ausgabe vom U-Boot- oder GRUB-Bootloader oder dem Linux-Kernel sehen, können Sie die Stromzufuhr trennen und dann die microSD-Karte entnehmen. Ihr Gerät sollte nun von USB booten können (Abschnitt 3.6.4, „Installation von USB-Medien“).

Beachten Sie, dass der für den Raspberry Pi 3 Model B aktivierte USB-Bootmodus nicht mehr deaktiviert werden kann (Abschnitt 3.6.1.2, „OTP-Speicher“).

Weitere Details finden Sie auf der Raspberry Pi Foundation-Website: https://www.raspberrypi.org/documentation/hardware/raspberrypi/bootmodes/msd.md

Für den Raspberry Pi Compute Module 3 sind dieselben Einstellungen erforderlich, doch die Bereitstellung des bearbeiteten Image ist etwas komplizierter.

3.6.2 Fehlen einer Echtzeituhr

Am Raspberry Pi ist keine batteriegestützte Echtzeituhr (Real-Time Clock, RTC) vorhanden.

Anmerkung
Anmerkung: Zeitsynchronisierung

Da keine Echtzeituhr vorhanden ist, müssen Raspberry Pi-Geräte so konfiguriert werden, dass sie über NTP (Network Time Protocol) die Uhrzeit von einem Netzwerkserver abrufen.

Die Hauptplatinen in Raspberry Pi Compute Modules weisen jedoch möglicherweise eine RTC auf.

Es ist auch möglich, eine RTC über den GPIO-Anschluss mittels HATs (Hardware Attached on Top) oder anderen Erweiterungsplatinen anzuschließen.

Prüfen Sie jedoch in jedem Fall, ob der entsprechende RTC-Chipsatz von SUSE Linux Enterprise Server unterstützt wird. Die angeschlossene RTC muss dem Betriebssystem über ein Gerätebaum-Overlay beschrieben werden (Abschnitt 3.6.1.1, „Config.txt“).

E/A-Karte des Compute Module 4
dtparam=i2c_vc=on
dtoverlay=i2c-rtc,pcf85063a,i2c_csi_dsi
MyPi-Basiskarte
dtparam=i2c1=on
dtoverlay=i2c-rtc,ds1307

Informationen zu anderen Karten und HATs finden Sie in der jeweils mitgelieferten Dokumentation.

3.6.3 Bereitstellen eines Appliance-Image

Zur Bereitstellung eines Betriebssystems auf Raspberry Pi-Hardware wird am häufigsten ein vorinstalliertes System-Image auf einem Bootmedium, normalerweise einer microSD-Karte, kopiert. Dies ist die schnellste und einfachste Methode.

SUSE stellt ein vorkonfiguriertes bootfähiges Image von SUSE Linux Enterprise Server für Raspberry Pi-Hardware bereit. Es ist im Btrfs-Dateisystem enthalten und die Komprimierung ist aktiviert, um die Leistung zu verbessern und den Verschleiß auf microSD-Medien zu reduzieren.

Es wird eine microSD-Karte mit einer Mindestgröße von 8 GB empfohlen. Schnellere Karten erhöhen die Systemleistung. Beim ersten Bootvorgang erweitert das Betriebssystem das Dateisystem automatisch, um die Karte auszufüllen. Dies bedeutet, dass der erste Bootvorgang wesentlich länger dauert als folgende Bootvorgänge.

In Raspberry Pi Quick Start wird erläutert, wie das Karten-Image auf microSD-Medien geschrieben wird.

3.6.4 Installation von USB-Medien

Einige Modelle des Raspberry Pi lassen das Booten von USB-Massenspeichergeräten zu. Daraufhin ist die Bereitstellung von SUSE Linux Enterprise Server auf Raspberry Pi ähnlich wie bei Serverplattformen möglich.

Die Installation kann von einem USB-Wechselmedium wie einem Speicherstick auf eine microSD-Karte im internen Steckplatz des Rechners erfolgen. Alternativ kann die Installation von einem USB-Medium auf ein anderes USB-Medium wie eine über USB angeschlossene Festplatte durchgeführt werden.

Anmerkung
Anmerkung: Beschränkungen der USB-Bandbreite

Beachten Sie, dass der Ethernet-Controller auf dem Raspberry Pi 3 am integrierten USB-2.0-Bus des Geräts angeschlossen ist.

Daher muss ein Betriebssystem, das von einem über USB angeschlossenen Wechseldatenträger aus ausgeführt wird, die gesamte Bandbreite von 480 MBit/s des USB 2.0-Controllers freigeben. Dies schränkt die Leistung ein und könnte erhebliche Beeinträchtigungen der Netzwerkleistung nach sich ziehen.

Diese Beschränkung gilt nicht für den Raspberry Pi 4.

Neuere Modelle des Raspberry Pi 3 mit BCM2837 B0-Silizium (silberne statt schwarzer Chips), einschließlich Raspberry Pi 3 Model B+ und Compute Module 3+, ermöglichen standardmäßig das Booten von USB-Speichergeräten.

Bei älteren Modellen wie dem Raspberry Pi 3 Model B oder Compute Module 3, kann einmalig ein USB-Boot durch Booten von einer speziell dafür vorbereiteten microSD-Karte aktiviert werden. Eine Anleitung dazu finden Sie im Abschnitt 3.6.1.2, „OTP-Speicher“.

3.6.5 Installation vom Netzwerk

Da in der Hardware keine Firmware integriert ist (Abschnitt 3.6.1, „Bootvorgang“), ist das Netzwerk-Booten des Raspberry Pi über PXE komplexer als bei den meisten herkömmlichen Computern.

Der Prozess zum Einrichten eines PXE-Boot-Servers für x86 und Arm wird im Dokument SUSE Best Practices How to Set Up a Multi-PXE Installation Server beschrieben.

Die Raspberry Pi Foundation veröffentlicht Informationen über das Booten eines Raspberry Pi von einem anderen Raspberry Pi über PXE: https://www.raspberrypi.org/documentation/hardware/raspberrypi/bootmodes/net_tutorial.md

3.6.6 Zusätzliche Informationsquellen

Weitere Informationen finden Sie in den folgenden Ressourcen:

SUSE Linux Enterprise Server 15 SP4-Versionshinweise

Weitere Informationen zur Hardwarekompatibilität, den unterstützten Optionen und Funktionen bei der Ausführung auf Raspberry Pi finden Sie in den SUSE Linux Enterprise Server-Versionshinweisen in Abschnitt Boot and Driver Enablement for Raspberry Pi:

https://www.suse.com/releasenotes/aarch64/SUSE-SLES/15-SP4/#aarch64-rpi

Raspberry Pi Quick Start

https://documentation.suse.com/sles/15-SP4/html/SLES-raspberry-pi/article-raspberry-pi.html

Liste der openSUSE-Hardwarekompatibilität: Raspberry Pi 3

Das openSUSE-Projekt umfasst auch Informationen zu Installation und Konfiguration der Raspberry Pi-Hardware. Vieles davon gilt auch für SUSE Linux Enterprise.

Weitere Informationen hierzu finden Sie unter https://en.opensuse.org/HCL:Raspberry_Pi3.

Das U-Boot

Weitere Informationen über den Bootloader Das U-Boot finden Sie auf der GitHub-Seite des Projekts unter https://github.com/u-boot/u-boot.

4 Installation auf IBM POWER

Dieses Kapitel beschreibt das Installationsverfahren für SUSE Linux Enterprise Server unter IBM POWER-Systemen.

4.1 Hardware

Zur Ausführung von SUSE Linux Enterprise Server unter POWER muss Ihre Hardware die unten aufgeführten Mindestanforderungen erfüllen.

Unterstützte Server

Schlagen Sie in der Datenbank der SUSE-zertifizierten Hardware nach, um sicherzustellen, dass Ihre spezielle Hardwarekonfiguration unterstützt wird. Die Datenbank ist verfügbar unter https://www.suse.com/yessearch/Search.jsp. SUSE Linux Enterprise Server unterstützt möglicherweise weitere IBM POWER-Systeme, die nicht aufgeführt sind. Aktuelle Informationen finden Sie im IBM Information Center für Linux unter https://www.ibm.com/support/knowledgecenter/linuxonibm/liaam/liaamdistros.htm.

Speicheranforderungen

Für eine Minimalinstallation sind mindestens 1024 MB Arbeitsspeicher erforderlich. Fügen Sie auf Rechnern mit mehr als zwei Prozessoren 512 MB pro CPU hinzu. Fügen Sie bei Installationen auf Remote-Systemen über HTTP oder FTP weitere 150 MB hinzu. Diese Werte gelten ausschließlich für die Installation des Betriebssystems. Der tatsächliche Arbeitsspeicherbedarf in der Produktion ist abhängig von der Auslastung des Systems. Für Systeme, auf denen die GNOME-Desktop-Umgebung ausgeführt wird, sind mindestens 2048 MB Arbeitsspeicher erforderlich, und 4096 MB werden empfohlen.

Anforderungen an die Festplatte

Die Festplattenanforderungen hängen vom Typ der Installation und dem Benutzerszenario ab. Normalerweise benötigt ein ordnungsgemäß funktionierendes System mehr Speicherplatz als die Installation selbst. Die Mindestanforderungen sind wie folgt:

Installationsumfang

Mindestanforderungen an die Festplatte

Expertenmodus

1,5 GB

Minimalinstallation

2,5 GB

GNOME-Desktop

3 GB

Alle Schemata

4 GB

Empfohlener Mindestwert (keine Btrfs-Snapshots): 10 GB

Erforderlicher Mindestwert (mit Btrfs-Snapshots): 16 GB

Empfohlener Mindestwert (mit Btrfs-Snapshots): 32 GB

Wenn die Stammpartition kleiner als 10 GB ist, schlägt das Installationsprogramm keine Partitionierung vor. In diesem Fall müssen Sie Partitionen manuell erstellen. Wir empfehlen Ihnen, 10 GB für die Stammpartition zu reservieren, um dies zu vermeiden. Erhöhen Sie die Mindestgröße auf 16 GB, wenn Sie planen, Btrfs-Snapshots im root-Volume zu aktivieren (weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 10 “Systemwiederherstellung und Snapshot-Verwaltung mit Snapper”).

Vergewissern Sie sich vor der Installation von SUSE Linux Enterprise Server, dass am Server die neueste Firmware installiert ist. Die neueste Firmware finden Sie im IBM FixCentral: https://www.ibm.com/support/fixcentral/. Wählen Sie das System in der Liste der Produktgruppen aus. Im IBM PowerLinux Tools Repository steht weitere Software zur Verfügung. Unter https://www.ibm.com/docs/en/linux-on-systems?topic=servers-linux-power-tools-repository finden Sie weitere Informationen zur Verwendung des IBM PowerLinux Tools Repository.

4.2 Installieren von SUSE Linux Enterprise Server für POWER

Das folgende Verfahren beschreibt die Einrichtung einer Installationsumgebung. Überspringen Sie es, falls Sie bereits eine Installationsumgebung eingerichtet haben.

Vorgehen 4.1: Vorbereiten einer Installationsumgebung
  1. Starten Sie eine SSH-Sitzungen an Ihrer HMC, und führen Sie das Kommando vtmenu aus.

  2. Wählen Sie den gewünschten POWER-Server und die LPAR aus. Wenn für die gewählte LPAR bereits eine Sitzung an der seriellen Konsole besteht, müssen Sie diese zunächst mit folgendem Kommando schließen:

    rmvterm -m SERVER -p LPAR
  3. Booten Sie die LPAR neu, indem Sie eine neue SSH-Sitzung an der HMC erstellen und folgendes Kommando ausführen:

    chsysstate -r lpar -m SERVER -o shutdown -n LPAR --immed --restart

    Beachten Sie, dass dieses Kommando einen Hard-Reboot der LPAR verursacht. Entfernen Sie die Flagge --immed aus dem oben genannten Kommando, um einen Soft-Reboot durchzuführen und ein ordnungsgemäßes Herunterfahren der aktiven Aufgaben zu ermöglichen.

  4. Drücken Sie nach Eingabeaufforderung an der seriellen Konsole die 1, um das SMS-Menü zu öffnen.

    Choose SMS Menu
  5. Wählen Sie Setup Remote IPL (Initial Program Load), indem Sie 2 und Eingabetaste drücken.

    Choose Setup Remote IPL
  6. Wählen Sie den NIC-Adapter für den Zugriff auf den TFTP-Server aus.

  7. Wählen Sie die zu verwendende IP-Version (zum Beispiel IPv4) aus.

  8. Wählen Sie das Protokoll für den Zugriff auf den TFTP-Server aus (zum Beispiel 1 für BOOTP).

  9. Wählen Sie IP Parameters, indem Sie 1 und Eingabetaste drücken.

  10. Konfigurieren Sie die erforderlichen Netzwerkparameter der LPAR, einschließlich IP-Adresse, Netzwerk-Gateway und Netzwerkmaske. Geben Sie in der Server IP Address die IP-Adresse des TFTP-Servers an.

    Configure network parameters
  11. Kehren Sie durch Drücken der Esc-Taste zum ersten Bildschirm zurück. Wählen Sie folgende Einträge in der angegebenen Reihenfolge aus:

    • Select Boot Options

    • Select Install/Boot Device

    • Network

    • BOOTP

  12. Wählen Sie den vorher angegebenen NIC-Adapter aus und wählen Sie dann:

    • Normal Mode Boot

    • Yes

  13. Zu Beginn des Vorgangs sollten Sie ein GRUB-Menü mit einer Liste der am TFTP-Server verfügbaren Images sehen.

    GRUB menu

4.3 Installieren von SUSE Linux Enterprise Server

Im Allgemeinen verläuft die Installation von SUSE Linux Enterprise Server unter POWER ähnlich wie eine normale Installation.

Vorgehen 4.2: Installation von SUSE Linux Enterprise Server
  1. In den ersten beiden Schritten werden Sie aufgefordert, die gewünschte Sprache und Tastatur zu wählen und die Lizenzvereinbarung des Produkts zu lesen und ihr zuzustimmen.

  2. Wählen Sie als Nächstes die gewünschte Methode zur Produktregistrierung, und schließen Sie die Registrierung ab. Wenn Sie das System über das SUSE Customer Center registrieren, werden Sie aufgefordert, die Update-Repositorys zu aktivieren. Drücken Sie die Taste Yes.

    Registering the product
  3. Um Module oder Erweiterungen zu installieren, wählen Sie diese mit den Pfeiltasten aus, und drücken Sie Leertaste. Abhängig davon, welche Erweiterungen und Module Sie auswählen, werden Sie aufgefordert, GnuPG-Schlüssel für die verknüpften Repositorys zu importieren.

    Selecting extensions and modules
  4. Installieren Sie die gewünschten Add-on-Produkte. Falls Sie ein Add-on installieren möchten, müssen Sie die Installationsquelle dafür angeben.

    Installing add-on products
  5. Geben Sie ein Partitionsschema für die Installation an. Drücken Sie Next oder AltN, um den Standardvorschlag zu akzeptieren.

    Specifying a partition scheme
  6. Wählen Sie die für Ihr spezielles Szenario geeignete Systemrolle.

    Choosing a system role
  7. Auf den nächsten Bildschirmen können Sie die entsprechende Zeitzone angeben und einen Benutzer erstellen. Falls Sie keinen Benutzer erstellen möchten, werden Sie aufgefordert, ein root-Passwort anzugeben.

  8. Vergewissern Sie sich am Bildschirm mit der Installationszusammenfassung, dass der SSH-Dienst aktiviert und ein SSH-Port geöffnet ist. Drücken Sie dazu Change, gehen Sie zum Bildschirm Basic Firewall and SSH Configuration, und aktivieren Sie die entsprechenden Optionen. Drücken Sie die Taste OK.

    Configuring SSH settings
  9. Bestätigen Sie die Installationskonfiguration, und drücken Sie zum Starten des Installationsvorgangs auf Install.

4.4 Zusätzliche Informationsquellen

Sie erhalten weitere Informationen zu IBM PowerLinux von SUSE und IBM:

  • Die SUSE Support Knowledge Base unter https://www.suse.com/support/kb/ stellt eine Informationsquelle dar, die Kunden bei der Lösung von Problemen unterstützt. Durchsuchen Sie die Knowledge Base zu SUSE Linux Enterprise Server mithilfe von relevanten Suchbegriffen.

  • Sicherheitswarnungen finden Sie im https://www.suse.com/support/security/. SUSE pflegt auch zwei Mailinglisten zum Thema Sicherheit:

    • suse-security:·Allgemeine Diskussion von Sicherheitsthemen zu Linux und SUSE. Alle Sicherheitswarnungen für SUSE Linux Enterprise Server werden an diese Liste gesendet.

    • suse-security-announce: Eine SUSE-Mailingliste speziell für Sicherheitswarnungen.

  • Um sich in die linuxppc-dev-Mailingliste einzutragen, melden Sie sich über die Formulare unter https://lists.ozlabs.org/listinfo/linuxppc-dev/ an.

5 Installation unter IBM Z und LinuxONE

In diesem Kapitel wird die Vorbereitung der Installation von SUSE® Linux Enterprise Server auf IBM Z beschrieben. Hier finden Sie alle erforderlichen Informationen, mit denen Sie die Installation auf LPAR- und z/VM-Seite vorbereiten.

5.1 Systemanforderungen

Dieser Abschnitt enthält grundlegende Informationen zu den Systemanforderungen, der MicroCode-Ebene und der Software für IBM Z.

5.1.1 Hardware

SUSE Linux Enterprise Server wird auf folgenden Plattformen ausgeführt:

  • IBM zEnterprise EC12 (zEC12) (2827)

  • IBM zEnterprise BC12 (zBC12) (2828)

  • IBM z Systems z13 (2964)

  • IBM z Systems z13s (2965)

  • IBM z Systems z14 (3906)

  • IBM z Systems z14 ZR1 (3907)

  • IBM z Systems z15 T01 (8561)

  • IBM z Systems z15 T02 (8562)

  • IBM z Systems z16 A01 (3931)

  • IBM LinuxONE Emperor (2964)

  • IBM LinuxONE Rockhopper (2965)

  • IBM LinuxONE Emperor II (3906)

  • IBM LinuxONE Rockhopper II (3907)

  • IBM LinuxONE III LT1 (8561)

  • IBM LinuxONE III LT2 (8562)

  • IBM LinuxONE Emperor 4 (3931)

5.1.1.1 Speicheranforderungen

Für verschiedene Installationsmethoden gelten bei der Installation unterschiedliche Speicheranforderungen. Für die Textmodus-Installation unter z/VM, LPAR und KVM wird ein Arbeitsspeicher mit mindestens 1 GB empfohlen. Für die Installation im Grafikmodus ist ein Arbeitsspeicher mit mindestens 1,5 GB erforderlich.

Anmerkung
Anmerkung: Speicheranforderungen mit Ferninstallationsquellen

Ein Arbeitsspeicher mit mindestens 512 MB ist für die Installation von NFS-, FTP- und SMB-Installationsquellen erforderlich oder wenn VNC verwendet wird. Denken Sie daran, dass Arbeitsspeicheranforderungen auch von der Anzahl der Geräte abhängig ist, die für den z/VM-Gast oder das LPAR-Image sichtbar sind. Die Installation mit vielen zugänglichen Geräten (selbst wenn sie für die Installation nicht verwendet werden) kann mehr Speicher erfordern.

5.1.1.2 Festplattenspeicher, Anforderungen

Die Anforderungen an die Festplatte hängen im Wesentlichen von der Installation ab. Für ein ordnungsgemäß funktionierendes System benötigen Sie normalerweise mehr Speicherplatz als für die Installationssoftware erforderlich. Die Mindestanforderungen für die verfügbaren Installationstypen sind wie folgt:

Installationstyp

Mindestanforderungen an die Festplatte

Expertenmodus

1,5 GB

Minimalinstallation

2,5 GB

GNOME-Desktop

3 GB

Alle Schemata

4 GB

Empfohlener Mindestwert (keine Btrfs-Snapshots): 10 GB

Erforderlicher Mindestwert (mit Btrfs-Snapshots): 16 GB

Empfohlener Mindestwert (mit Btrfs-Snapshots): 32 GB

5.1.1.3 Netzwerkverbindung

Für die Kommunikation mit dem SUSE Linux Enterprise Server-System wird eine Netzwerkverbindung benötigt. Dabei kann es sich um eine oder mehrere der folgenden Verbindungen oder Netzwerkkarten handeln:

  • OSA Express Ethernet (einschließlich Fast und Gigabit Ethernet)

  • HiperSockets oder Gast-LAN

  • 10 GBE, VSWITCH

  • RoCE (RDMA over Converged Ethernet)

Folgende Schnittstellen sind noch enthalten, werden aber nicht mehr unterstützt:

  • CTC (oder virtuelles CTC)

  • ESCON

  • IP-Netzwerkschnittstelle für IUCV

Für Installationen unter KVM müssen die folgenden Anforderungen erfüllt sein, damit dem VM-Gast ein transparenter Zugang zum Netzwerk ermöglicht wird:

  • Die virtuelle Netzwerkschnittstelle muss mit einer Host-Netzwerkschnittstelle verbunden sein.

  • Die Host-Netzwerkschnittstelle muss mit einem Netzwerk verbunden sein, dem der virtuelle Server beitritt.

  • Wenn der Host mit einer redundanten Netzwerkverbindung konfiguriert ist, bei der zwei unabhängige OSA-Netzwerk-Ports zu einer Bonding-Netzwerkschnittstelle gruppiert sind, gilt für die Bonding-Netzwerkschnittstelle die Kennung bond0. Falls mehr als eine Bonding-Schnittstelle vorhanden ist, lautet sie bond1, bond2 usw.

  • Für die Einrichtung einer nicht redundanten Netzwerkverbindung ist die Kennung der einzelnen Netzwerkschnittstelle erforderlich. Die Kennung hat das Format enccw0.0.NNNN, wobei NNNN für die Gerätenummer der gewünschten Netzwerkschnittstelle steht.

5.1.2 MicroCode-Ebene, APARs und Korrekturen

Eine Dokumentation zu den Einschränkungen und Anforderungen für diese Version von SUSE Linux Enterprise Server finden Sie bei IBM developerWorks unter https://developer.ibm.com/technologies/linux/. Wir empfehlen die Verwendung des höchsten verfügbaren Servicelevels. Erfragen Sie die Mindestanforderungen beim IBM-Support.

Für z/VM werden die folgenden Versionen unterstützt:

  • z/VM 6.4

  • z/VM 7.1

  • z/VM 7.2

  • z/VM 7.3

Klären Sie die Reihenfolge der Installation mit dem IBM-Support, da es erforderlich sein kann, die VM APARs vor der Installation der neuen MicroCode-Ebenen zu aktivieren.

5.1.3 Software

Beim Installieren von SUSE Linux Enterprise Server über nicht-Linux-gestütztes NFS oder FTP können Probleme mit der NFS- oder FTP-Serversoftware auftreten. Der standardmäßige FTP-Server unter Windows* kann Fehler verursachen. Daher empfehlen wir, die Installation auf diesen Rechnern über SMB durchzuführen.

Zum Herstellen einer Verbindung mit dem SUSE Linux Enterprise Server-Installationssystem ist eine der folgenden Methoden erforderlich (SSH oder VNC wird empfohlen):

SSH mit Terminalemulation (xterm-kompatibel)

SSH ist ein Unix-Standardwerkzeug, das auf den meisten Unix- oder Linux-Systemen vorhanden ist. Für Windows können Sie den Putty SSH-Client verwenden.

VNC-Client

Für Linux ist der VNC-Client vncviewer in SUSE Linux Enterprise Server als Teil des Pakets tightvnc enthalten. Für Windows ist TightVNC ebenfalls erhältlich. Laden Sie es von https://www.tightvnc.com/ herunter.

X-Server

Suchen Sie eine geeignete X-Server-Implementierung auf jedem beliebigen Linux- oder Unix-Arbeitsplatzrechner. Für Windows und macOS sind zahlreiche kommerzielle X-Window-Systemumgebungen erhältlich. Einige davon können als kostenlose Testversionen heruntergeladen werden.

Tipp
Tipp: Weitere Informationen

Lesen Sie vor der Installation von SUSE Linux Enterprise Server unter IBM Z die README-Datei, die sich im root-Verzeichnis des ersten Installationsmediums von SUSE Linux Enterprise Server befindet. Mit dieser Datei ist die vorliegende Dokumentation abgeschlossen.

5.2 Allgemeine Informationen

In diesem Abschnitt werden die verschiedenen Installationstypen vorgestellt und es wird erläutert, wie Sie einen IPL-Vorgang bei der ersten Installation ausführen.

5.2.1 Installationsarten

In diesem Abschnitt finden Sie einen Überblick über die verschiedenen Installationstypen, die für SUSE Linux Enterprise Server auf IBM Z zur Auswahl stehen. SUSE Linux Enterprise Server kann in einer LPAR, als Gast in z/VM oder als Gast in KVM installiert werden.

Abhängig vom Modus der Installation (LPAR oder z/VM) gibt es verschiedene Möglichkeiten zum Start des Installationsvorgangs und Ausführen eines IPL-Vorgangs für das installierte System.

5.2.1.1 LPAR

Wenn Sie SUSE Linux Enterprise Server für IBM Z in eine logische Partition (LPAR) installieren, weisen Sie der Instanz die nötigen Arbeitsspeicher- und Prozessorressourcen zu. Installation in LPAR wird für stark belastete Produktionscomputer empfohlen. Durch die Ausführung in einer LPAR stehen außerdem höhere Sicherheitsstandards zur Verfügung. Netzwerkverbindungen zwischen LPARs werden über externe Schnittstellen oder Hipersockets ermöglicht. Wenn Sie die Installation für die Virtualisierung mit KVM einsetzen möchten, wird die Installation in einer LPAR dringend empfohlen.

5.2.1.2 z/VM

Die Ausführung von SUSE Linux Enterprise Server für IBM Z in z/VM bedeutet, dass SUSE Linux Enterprise Server als Gastsystem in z/VM fungiert. Ein Vorteil dieses Modus ist, dass Sie von z/VM die volle Kontrolle über SUSE Linux Enterprise Server haben. Dies ist sehr nützlich für Kernel-Entwicklung oder Kernel-basierte Fehlersuche. Es ist auch sehr einfach, Hardware zu Linux-Gästen hinzuzufügen oder von ihnen zu entfernen. Das Anlegen von SUSE Linux Enterprise Server-Gästen ist unkompliziert und Sie können Hunderte von Linux-Instanzen gleichzeitig ausführen.

5.2.1.3 KVM-Gast

Damit SUSE Linux Enterprise Server für IBM Z als KVM-Gast installiert werden kann, muss eine Instanz des KVM-Hostservers in der logischen Partition (LPAR) installiert sein. Weitere Informationen zur Installation von Gästen finden Sie in Prozedur 5.3, „Überblick über die Installation eines KVM-Gasts“.

5.2.2 IPL-Optionen

Dieser Abschnitt bietet die Informationen, die Sie zur Ausführung eines IPL für die erste Installation benötigen. Abhängig von der Art der Installation müssen unterschiedliche Optionen verwendet werden. Es werden der VM-Reader, das Laden von CD-ROM oder von einem Server sowie das Laden von einer per SCSI verbundenen DVD-ROM vorgestellt. Die Installation der Softwarepakete, die über das Netzwerk erfolgt, benötigt das IPL-Medium nicht.

5.2.2.1 VM Reader

Übertragen Sie für die Ausführung des IPL von einem VM-Reader zunächst die erforderlichen Dateien in den Reader. Zur Vereinfachung der Administration wird empfohlen, den Benutzer linuxmnt anzulegen, der eine Minidisk mit den Dateien und Skripten besitzt, die für IPL benötigt werden. Auf diese Minidisk greifen dann die Linux-Gäste im Nur-Lese-Modus zu. Weitere Informationen finden Sie im Abschnitt 5.3.4.2.1, „IPL vom z/VM-Reader“.

5.2.2.2 Laden von einem Wechselmedium oder einem Server

Laden Sie für den IPL-Vorgang auf eine LPAR das Kernel-Image entweder direkt vom CD/DVD-ROM-Gerät der SE oder HMC oder von jedem Remote-System, das über FTP zugänglich ist. Diese Funktion kann von der HMC ausgeführt werden. Für die Installation ist eine Datei mit einer Zuordnung des Speicherorts der Installationsdaten im Dateisystem sowie den Arbeitsspeicherpositionen erforderlich, an die die Daten kopiert werden sollen.

Für SUSE Linux Enterprise Server gibt es zwei Dateien. Beide befinden sich im Stammverzeichnis des ersten Installationsmediums:

  • suse.ins: Damit diese Datei funktioniert, müssen Sie den Netzwerkzugriff in Linuxrc einrichten, bevor Sie die Installation starten.

  • susehmc.ins: Hiermit können Sie die Installation ohne Netzwerkzugriff ausführen.

Erweitern Sie im linken Navigationsbereich der HMC den Eintrag Systems Management (Systemverwaltung) › Systeme, und wählen Sie das Mainframe-System aus, mit dem Sie arbeiten möchten. Wählen Sie die LPAR, in der SUSE Linux Enterprise Server gebootet werden soll, in der Tabelle der LPARs aus, und wählen Sie Load from Removable Media or Server (Von Wechselmedium oder Server laden).

Wählen Sie Hardware Management Console CD-ROM/DVD (CD-ROM/DVD der HMC) oder FTP Source (FTP-Quelle) aus. Bei Auswahl der letzteren Option müssen Sie die Adresse oder den Namen des Servers und Ihren Berechtigungsnachweis eingeben. Falls sich die entsprechende .ins-Datei nicht im root-Verzeichnis des Servers befindet, müssen Sie den Pfad dieser Datei angeben. Navigieren Sie zum Menü Select the software to load (Zu ladende Software auswählen), und wählen Sie dort den Eintrag für die entsprechende .ins-Datei aus. Starten Sie die Installation mit OK.

5.2.2.3 Laden von einer per SCSI verbundenen DVD

Zur Ausführung von IPL von einer SCSI-DVD benötigen Sie Zugriff auf einen FCP-Adapter, der mit einem DVD-Laufwerk verbunden ist. Darüber hinaus benötigen Sie Werte wie die WWPN und die LUN vom SCSI-Laufwerk. Weitere Informationen finden Sie im Abschnitt 5.3.4.1.2, „IPL von per FCP angeschlossener SCSI-DVD“.

5.2.2.4 Laden vom Netzwerk mit zPXE

Zur Ausführung von IPL vom Netzwerk mit zPXE ist ein Cobbler-Server mit Kernel, RAM-Datenträger und parmfile erforderlich. Es wird durch Ausführung des ZPXE EXEC-Skripts initiiert. Ausführliche Informationen finden Sie unter Abschnitt 5.3.1.3, „Verwenden eines Cobbler-Servers für zPXE“. zPXE ist nur auf z/VM verfügbar.

5.3 Vorbereitung der Installation

In diesem Abschnitt erfahren Sie, wie Sie die Daten zur Installation bereitstellen, SUSE Linux Enterprise Server mit verschiedenen Methoden installieren und den IPL-Vorgang des SUSE Linux Enterprise Server-Installationssystems vorbereiten und ausführen. Das Kapitel enthält auch Informationen zur Netzwerkkonfiguration und Netzwerkinstallation.

5.3.1 Bereitstellen der Installationsdaten

In diesem Abschnitt finden Sie ausführliche Informationen dazu, wie Sie die Installationsdaten für SUSE Linux Enterprise Server auf IBM Z zur Installation bereitstellen. Je nach Computer- und Systemumgebung treffen Sie eine Auswahl zwischen der NFS- oder FTP-Installation. Wenn Sie in Ihrer Umgebung Microsoft Windows-Arbeitsstationen ausführen, können Sie auch das Windows-Netzwerk einschließlich des SMB-Protokolls für die Installation von SUSE Linux Enterprise Server auf dem IBM Z-System verwenden.

Tipp
Tipp: IPL von DVD

Der IPL-Vorgang kann von DVD ausgeführt werden und die DVD kann als Installationsmedium herangezogen werden. Dies ist besonders praktisch, wenn Beschränkungen für das Einrichten eines Installationsservers bestehen, der Installationsmedien über das Netzwerk bereitstellt. Voraussetzung ist ein per FCP angeschlossenes SCSI-DVD-Laufwerk.

Anmerkung
Anmerkung: Keine Installation von einer Festplatte

Es ist nicht möglich, von einer Festplatte zu installieren, indem der Inhalt der DVD auf eine Partition auf einem DASD kopiert wird.

5.3.1.1 Verwenden einer DVD für Linux Workstation oder SUSE Linux Enterprise Server

Sie können einen Linux-Arbeitsplatzrechner in Ihrer Rechnerumgebung ausführen, um die Installationsdaten dem IBM Z-Installationsvorgang mit NFS oder FTP bereitzustellen. Wenn der Linux-Arbeitsplatzrechner unter SUSE Linux Enterprise Server ausgeführt wird, können Sie einen Installationsserver (NFS oder FTP) über das YaST-Modul Installation Server einrichten, wie in Abschnitt 17.1, „Einrichten eines Installationsservers mithilfe von YaST“ beschrieben.

Wichtig
Wichtig: Export eingehängter Geräte über NFS

Durch das Exportieren des Dateisystem-root (/) werden eingehängte Geräte (z. B. DVD) nicht automatisch exportiert. Daher müssen Sie den Einhängepunkt unter /etc/exports explizit benennen:

/media/dvd  *(ro)

Führen Sie nach der Änderung dieser Datei den Neustart des NFS-Servers mit dem Befehl sudo systemctl restart nfsserver durch.

Die Einrichtung eines FTP-Servers auf einem Linux-System umfasst die Installation und Konfiguration der Serversoftware, beispielsweise vsftpd.Wenn Sie SUSE Linux Enterprise Server verwenden, lesen Sie die Installationsanweisungen im Book “Verwaltungshandbuch”, Chapter 43 “Einrichten eines FTP-Servers mit YaST”. Da ein Download der Installationsdaten über eine anonyme Anmeldung nicht unterstützt wird, müssen Sie den FTP-Server für die Unterstützung der Benutzerauthentifizierung konfigurieren.

5.3.1.1.1 SUSE Linux Enterprise Server auf DVD

Das erste Installationsmedium des SUSE Linux Enterprise Server für IBM Z enthält ein bootfähiges Linux-Image für Intel-gestützte Arbeitsplatzrechner sowie ein Image für IBM Z.

Booten Sie bei Intel-basierten Arbeitsplatzrechnern von diesem Medium. Wählen Sie bei Aufforderung die gewünschte Antwortsprache und Tastaturbelegung und wählen Sie Rettungssystem starten aus. Hierfür sind mindestens 64 MB RAM erforderlich. Festplattenspeicher wird nicht benötigt, da sich das gesamte Rettungssystem im RAM des Arbeitsplatzrechners befindet. Für diesen Ansatz muss das Networking des Arbeitsplatzrechners manuell eingerichtet werden.

Führen Sie für IBM Z für Ihre LPAR/Ihren VM-Gast IPL von diesem Medium aus, wie in Abschnitt 5.3.4.1.2, „IPL von per FCP angeschlossener SCSI-DVD“ beschrieben. Nach Eingabe Ihrer Netzwerkparameter behandelt das Installationssystem das Medium als Quelle der Installationsdaten. Da an IBM Z kein X11-fähiges Terminal direkt angeschlossen werden kann, wählen Sie zwischen VNC- und SSH-Installation. Weitere Informationen finden Sie im Abschnitt 12.3, „Überwachen der Installation über VNC“ oder Abschnitt 12.4, „Überwachen der Installation über SSH“. SSH bietet auch eine grafische Installation durch Tunneling der X-Verbindung über SSH mit ssh -X.

Wichtig
Wichtig: ssh -X-Verbindungen zwischen verschiedenen Architekturen

Die neueren Versionen der X.org- und Xwayland-Server akzeptieren standardmäßig keine Verbindungen von Clients auf anderen Architekturen. Wenn Sie von einer AMD64/Intel 64-Workstation mit ssh -X eine Verbindung zum IBM Z-Rechner herstellen, werden Sie wahrscheinlich diese Fehlermeldung sehen: Verbotene Client-Endianess, siehe die man-Seite von Xserver.

Wenn Sie X-Verbindungen zwischen verschiedenen Architekturen ermöglichen möchten, erstellen Sie die Datei /etc/X11/xorg.conf.d/99-byte-swapping.conf mit dem folgenden Inhalt:

Section "ServerFlags"
    Option "AllowByteSwappedClients" "on"
EndSection

Starten Sie Ihren X.org- oder Xwayland-Server neu, um die Konfigurationsänderung zu übernehmen:

> sudo systemctl restart display-manager.service

5.3.1.2 Mit einer Microsoft Windows-Arbeitsstation

Sie können die Installationsmedien auf einer Microsoft Windows-Arbeitsstation in Ihrem Netzwerk zur Verfügung stellen. Am einfachsten gelingt dies mit dem SMB-Protokoll. Aktivieren Sie in jedem Fall SMB über TCP/IP, da hierdurch die Verkapselung von SMB-Paketen in TCP/IP-Pakete ermöglicht wird. Detaillierte Informationen finden Sie in der Windows-Online-Hilfe bzw. in anderen Windows-Dokumentationen, die sich auf Netzwerke beziehen.

5.3.1.2.1 Verwenden von SMB

Sie stellen die Installationsmedien mit SMB zur Verfügung, indem Sie das USB-Flash-Laufwerk mit SLE-15-SP6-Online-ARCH-GM-media1.iso am USB-Port der Windows-Arbeitsstation anschließen. Erstellen Sie dann unter Verwendung des Laufwerkbuchstabens des USB-Flash-Laufwerks eine neue Freigabe und stellen Sie sie für sämtliche Benutzer im Netzwerk bereit.

Der Installationspfad in YaST kann wie folgt lauten:

smb://DOMAIN;USER:PW@SERVERNAME/SHAREPATH

Die Platzhalter bedeuten dabei Folgendes:

DOMAIN

Optionale Arbeitsgruppe oder Active Directory-Domäne.

USER, PW

Optionaler Benutzername und Passwort eines Benutzers, der auf diesen Server und seine Freigabe zugreifen kann.

SERVERNAME

Name des Servers, auf dem sich die Freigabe(n) befinden.

SHAREPATH

Pfad für die Freigabe(n).

5.3.1.2.2 Mit NFS

Ziehen Sie die im Lieferumfang des Drittanbieter-Produkts enthaltene Dokumentation zurate, mit dem NFS-Serverdienste für Ihre Windows-Arbeitsstation aktiviert werden. Das USB-Flash-Laufwerk mit dem Medium SLE-15-SP6-Online-ARCH-GM-media1.iso muss sich im verfügbaren NFS-Pfad befinden.

5.3.1.2.3 FTP verwenden

Ziehen Sie die im Lieferumfang des Drittanbieter-Produkts enthaltene Dokumentation zurate, mit dem FTP-Serverdienste auf Ihrer Windows-Arbeitsstation aktiviert werden. Das USB-Flash-Laufwerk mit dem Medium SLE-15-SP6-Online-ARCH-GM-media1.iso muss sich im verfügbaren FTP-Pfad befinden.

Der in bestimmten Versionen von Microsoft Windows enthaltene FTP-Server implementiert lediglich eine Teilmenge des FTP-Kommandosatzes und ist für die Bereitstellung der Installationsdaten nicht geeignet. Verwenden Sie in diesem Fall einen FTP-Server eines Drittanbieters, der die erforderliche Funktionalität bietet.

5.3.1.2.4 Verwenden eines per FCP angeschlossenen SCSI-DVD-Laufwerks

Nachdem Sie den IPL-Vorgang, wie in Abschnitt 5.3.4.1.2, „IPL von per FCP angeschlossener SCSI-DVD“ beschrieben, durchgeführt haben, verwendet das Installationssystem die DVD als Installationsmedium. In diesem Fall benötigen Sie die Installationsmedien nicht auf einem FTP-, NFS- oder SMB-Server. Sie benötigen jedoch die Netzwerkkonfigurationsdaten für Ihren SUSE Linux Enterprise Server, da Sie das Netzwerk während der Installation zur Ausführung einer grafischen Installation über VNC oder X-Tunneling durch SSH einrichten müssen.

5.3.1.3 Verwenden eines Cobbler-Servers für zPXE

Zur Ausführung von IPL vom Netzwerk ist ein Cobbler-Server mit Kernel, initrd und Installationsdaten erforderlich. Der Cobbler-Server wird in den folgenden Schritten vorbereitet:

5.3.1.3.1 Importieren der Installationsdaten

Zum Importieren der Medien muss die Installationsquelle auf dem Cobbler-Server verfügbar sein – wahlweise als USB-Flash-Laufwerk oder als Netzwerkquelle. Führen Sie den folgenden Befehl aus, um die Daten zu importieren:

> sudo cobbler import --path=PATH1 --name=IDENTIFIER2 --arch=s390x

1

Einhängepunkt der Installationsdaten.

2

Eine Zeichenkette, die das importierte Produkt bezeichnet, z. B. sles15_s390x. Diese Zeichenkette wird als Name für das Unterverzeichnis verwendet, in das die Installationsdaten kopiert werden. Auf einem Cobbler-Server unter SUSE Linux Enterprise ist dies: /srv/www/cobbler/ks_mirror/IDENTIFIER. Wenn Cobbler unter einem anderen Betriebssystem ausgeführt wird, gilt ggf. ein anderer Pfad.

5.3.1.3.2 Hinzufügen einer Distribution

Durch das Hinzufügen einer Distribution kann Cobbler die für IPL erforderlichen Bestandteile (Kernel und initrd) über zPXE bereitstellen. Zum Hinzufügen von SUSE Linux Enterprise Server für IBM Z führen Sie das folgende Kommando auf dem Cobbler-Server aus:

> sudo cobbler distro add --arch=s390 --breed=suse --name="IDENTIFIER"1 \
  --os-version=sles152 \
  --initrd=/srv/www/cobbler/ks_mirror/IDENTIFIER/boot/s390x/initrd3 \
  --kernel=/srv/www/cobbler/ks_mirror/IDENTIFIER/boot/s390x/linux4 \
  --kopts="install=http://cobbler.example.com/cobbler/ks_mirror/IDENTIFIER"5

1

Eindeutige Kennung für die Distribution, beispielsweise SLES 15 SP6 IBM Z.

2

Kennung für das Betriebssystem. Verwenden Sie sles15.

3

Path für initrd. Der erste Teil des Pfads (/srv/www/cobbler/ks_mirror/IDENTIFIER/) ist abhängig vom Speicherort der importierten Daten und dem Namen des Unterverzeichnisses, den Sie beim Importieren der Installationsdaten angegeben haben.

4

Pfad des Kernels. Der erste Teil des Pfads (/srv/www/cobbler/ks_mirror/IDENTIFIER/) ist abhängig vom Speicherort der importierten Daten und dem Namen des Unterverzeichnisses, den Sie beim Importieren der Installationsdaten angegeben haben.

5

URL des Installationsverzeichnisses auf dem Cobbler-Server.

5.3.1.3.3 Anpassen des Profils

Durch Hinzufügen einer Distribution (weitere Informationen finden Sie in Abschnitt 5.3.1.3.2, „Hinzufügen einer Distribution“) wird automatisch ein Profil mit dem entsprechenden IDENTIFIER generiert. Mit dem folgenden Befehl nehmen Sie einige erforderliche Anpassungen vor:

> sudo cobbler distro edit \
--name=IDENTIFIER1 --os-version=sles102 --ksmeta=""3
--kopts="install=http://cobbler.example.com/cobbler/ks_mirror/IDENTIFIER"4

1

Kennung für das Profil. Verwenden Sie die Zeichenkette, die Sie beim Hinzufügen der Distribution angegeben haben.

2

Version des Betriebssystems. Distribution, für die das Profil gelten soll. Verwenden Sie die Zeichenkette, die Sie mit --name=IDENTIFIER beim Importieren festgelegt haben.

3

Erforderliche Option zum Erstellen von Vorlagen für Kickstart-Dateien. Lassen Sie das Feld für diese Option leer, da sie für SUSE nicht verwendet wird.

4

Durch Komma getrennte Liste der Kernel-Parameter. Sie muss mindestens den Parameter install enthalten.

5.3.1.3.4 Hinzufügen von Systemen

Als letzten Schritt fügen Sie Systeme zum Cobbler-Server hinzu. Dieser Schritt muss für jeden IBM Z-Gast ausgeführt werden, der über zPXE booten sollte. Gäste werden durch ihre z/VM-Benutzer-ID gekennzeichnet (im folgenden Beispiel die ID linux01). Beachten Sie, dass die ID in Kleinbuchstaben geschrieben werden muss. Führen Sie den folgenden Befehl aus, um ein System hinzuzufügen:

> sudo cobbler system add --name=linux01 --hostname=linux01.example.com \
--profile=IDENTIFIER --interface=qdio \
--ip-address=192.168.2.103 --subnet=192.168.2.255 --netmask=255.255.255.0 \
--name-servers=192.168.1.116 --name-servers-search=example.com \
--gateway=192.168.2.1 --kopts="KERNEL_OPTIONS"

Mit der Option --kopts geben Sie den Kernel und die Installationsparameter an, die normalerweise in der Parameterdatei angegeben sind. Geben Sie die Parameter in folgendem Format an: PARAMETER1=VALUE1 PARAMETER2=VALUE2. Das Installationsprogramm fordert Sie zur Eingabe der fehlenden Parameter auf. Für eine vollständig automatisierte Installation müssen Sie alle Parameter für Netzwerke und DASDs angeben und eine AutoYaST-Datei bereitstellen. Nachfolgend sehen Sie ein Beispiel für einen Gast mit einer OSA-Schnittstelle, der die obigen Netzwerkparameter nutzt.

--kopts=" \
AutoYaST=http://192.168.0.5/autoinst.xml \
Hostname=linux01.example.com \
Domain=example.com \
HostIP=192.168.2.103 \
Gateway=192.168.2.1 \
Nameserver=192.168.1.116 \
Searchdns=example.com \
InstNetDev=osa; \
Netmask=255.255.255.0 \
Broadcast=192.168.2.255 \
OsaInterface=qdio \
Layer2=0 \
PortNo=0 \
ReadChannel=0.0.0700 \
WriteChannel=0.0.0701 \
DataChannel=0.0.0702 \
DASD=600"

5.3.1.4 Installieren von einem USB-Flash-Laufwerk der HMC

Für die Installation von SUSE Linux Enterprise Server auf IBM Z-Servern ist normalerweise eine Netzwerkinstallationsquelle erforderlich. Ist diese Anforderung nicht erfüllt, lässt SUSE Linux Enterprise Server das USB-Flash-Laufwerk der Hardware Management Console (HMC) als Installationsquelle für die Installation auf einer LPAR zu.

Gehen Sie folgendermaßen vor, um die Installation vom USB-Flash-Laufwerk der HMC durchzuführen:

  • Fügen Sie install=hmc:/ zu parmfile hinzu (siehe Abschnitt 5.5, „Die Parmfile – Automatisierte Systemkonfiguration“) oder fügen Sie Kerneloptionen hinzu.

  • Verwenden Sie linuxrc für die Installation im manuellen Modus, wählen Sie Installation starten, dann Installation und schließlich Hardware Management Console. Das Installationsmedium muss sich in der HMC befinden.

Wichtig
Wichtig: Konfigurieren des Netzwerks

Geben Sie vor der Installation eine Netzwerkkonfiguration in linuxrc an. Dies ist nicht über Boot-Parameter möglich und Sie benötigen dazu sehr wahrscheinlich einen Netzwerkzugriff. Rufen Sie in linuxrc die Option Installation starten auf und wählen Sie dann Netzwerkkonfiguration aus.

Wichtig
Wichtig: Das Linux-System muss zuerst gebootet werden

Erteilen Sie den Zugriff auf die Medien auf dem USB-Flash-Laufwerk der HMC erst nach dem Booten des Linux-Systems. Der IPL-Vorgang kann die Verbindung zwischen der HMC und der LPAR stören. Falls beim ersten Versuch mit der beschriebenen Methode ein Fehler auftritt, können Sie den Zugriff erteilen und die Option HMC wiederholen.

Anmerkung
Anmerkung: Installations-Repository

Das USB-Flash-Laufwerk wird nicht als Installations-Repository beibehalten, weil die Installation ein einmaliger Vorgang ist. Falls Sie ein Installations-Repository benötigen, müssen Sie das Online-Repository registrieren und verwenden.

5.3.2 Installationsarten

In diesem Abschnitt werden die Installationsschritte von SUSE Linux Enterprise Server für jeden einzelnen Installationsmodus beschrieben. Folgen Sei nach Abschluss der in den vorigen Kapiteln beschriebenen Vorbereitungsschritte dem Überblick des gewünschten Installationsmodus.

Wie in Abschnitt 5.3.1, „Bereitstellen der Installationsdaten“ beschrieben gibt es drei verschiedene Installationsmodi für Linux auf IBM Z: LPAR, z/VM und die Installation eines KVM-Gasts.

Vorgehen 5.1: Überblick über eine LPAR-Installation
  1. Bereiten Sie die für die Installation benötigten Geräte vor. Weitere Informationen hierzu finden Sie in Abschnitt 5.3.3.1, „IPL-Vorbereitung einer LPAR-Installation“.

  2. Führen Sie den IPL-(Initial Program Load-)Vorgang für das Installationssystem durch. Weitere Informationen hierzu finden Sie in Abschnitt 5.3.4.1, „Ausführen eines IPL-Vorgangs bei einer LPAR-Installation“.

  3. Konfigurieren Sie das Netzwerk. Weitere Informationen hierzu finden Sie im Abschnitt 5.3.5, „Netzwerkkonfiguration“.

  4. Stellen Sie eine Verbindung zum SUSE Linux Enterprise Server-Installationssystem her. Weitere Informationen hierzu finden Sie im Abschnitt 5.3.6, „Herstellen einer Verbindung zum SUSE Linux Enterprise Server-Installationssystem“.

  5. Starten Sie die Installation mit YaST, und führen Sie den IPL-Vorgang für das installierte System durch. Weitere Informationen hierzu finden Sie in Kapitel 9, Installationsschritte.

Vorgehen 5.2: Installationsüberblick über die z/VM-Installation
  1. Bereiten Sie die für die Installation benötigten Geräte vor. Weitere Informationen hierzu finden Sie in Abschnitt 5.3.3.2.1, „Hinzufügen eines Linux-Gasts mit dirMaint“.

  2. Führen Sie den IPL-(Initial Program Load-)Vorgang für das Installationssystem durch. Weitere Informationen hierzu finden Sie in Abschnitt 5.3.4.2, „Ausführen eines IPL-Vorgangs bei einer z/VM-Installation“.

  3. Konfigurieren Sie das Netzwerk. Weitere Informationen hierzu finden Sie im Abschnitt 5.3.5, „Netzwerkkonfiguration“.

  4. Stellen Sie eine Verbindung zum SUSE Linux Enterprise Server-Installationssystem her. Weitere Informationen hierzu finden Sie im Abschnitt 5.3.6, „Herstellen einer Verbindung zum SUSE Linux Enterprise Server-Installationssystem“.

  5. Starten Sie die Installation mit YaST, und führen Sie den IPL-Vorgang für das installierte System durch. Weitere Informationen hierzu finden Sie in Kapitel 9, Installationsschritte.

Vorgehen 5.3: Überblick über die Installation eines KVM-Gasts
  1. Erstellen Sie ein Image des virtuellen Datenträgers und schreiben Sie eine XML-Domänendatei. Weitere Informationen hierzu finden Sie in Abschnitt 5.3.3.3, „IPL-Vorbereitung der Installation eines KVM-Gasts“.

  2. Bereiten Sie das Installationsziel vor und führen Sie einen IPL-Vorgang für den VM-Gast (VM Guest) aus. Weitere Informationen hierzu finden Sie in Abschnitt 5.3.4.3, „Ausführen eines IPL-Vorgangs bei der Installation eines KVM-Gasts“.

  3. Abschnitt 5.3.5.3, „Einrichten des Netzwerks und Auswählen der Installationsquelle“.

  4. Stellen Sie eine Verbindung zum SUSE Linux Enterprise Server-Installationssystem her. Weitere Informationen hierzu finden Sie im Abschnitt 5.3.6, „Herstellen einer Verbindung zum SUSE Linux Enterprise Server-Installationssystem“.

  5. Starten Sie die Installation mit YaST, und führen Sie den IPL-Vorgang für das installierte System durch. Weitere Informationen hierzu finden Sie im Kapitel 9, Installationsschritte.

5.3.3 Vorbereiten des IPL-Vorgangs für das SUSE Linux Enterprise Server-Installationssystem

5.3.3.1 IPL-Vorbereitung einer LPAR-Installation

Konfigurieren Sie Ihr IBM Z-System so, dass der Start im ESA/S390- oder Nur-Linux-Modus erfolgt (mit entsprechendem Aktivierungsprofil und IOCDS). Weitere Informationen finden Sie in der IBM-Dokumentation. Fahren Sie fort wie in Abschnitt 5.3.4.1, „Ausführen eines IPL-Vorgangs bei einer LPAR-Installation“ beschrieben.

5.3.3.2 IPL-Vorbereitung einer z/VM-Installation

5.3.3.2.1 Hinzufügen eines Linux-Gasts mit dirMaint

Zunächst werden ein oder mehrere DASDs im System hinzugefügt, zur Verwendung durch den Linux-Guest-Benutzer in z/VM. Dann wird ein neuer Benutzer in z/VM erstellt. Das Beispiel zeigt das Verzeichnis für einen Benutzer LINUX1 mit dem Passwort LINPWD, 1 GB Speicher (auf maximal 2 GB erweiterbar), mehreren Minidisks (MDISK), zwei CPUs und einem OSA-QDIO-Gerät.

Tipp
Tipp: Zuweisen von Speicher für z/VM-Gast-Benutzer

Wenn Sie einem z/VM-Gast Speicher zuweisen, vergewissern Sie sich, dass die Speichergröße auf den bevorzugten Installationstyp abgestimmt ist, wie in Abschnitt 5.1.1.1, „Speicheranforderungen“ beschrieben. Um die Arbeitsspeichergröße auf  GB einzustellen, verwenden Sie den Befehl CP DEFINE STORAGE 1G 1. Setzen Sie nach dem Abschluss der Installation die Arbeitsspeichergröße auf den gewünschten Wert zurück.

Beispiel 5.1: Konfiguration eines z/VM-Verzeichnisses
USER LINUX1 LINPWD 1024M 2048M G
*____________________________________________
* LINUX1
*____________________________________________
* This VM Linux guest has two CPUs defined.

CPU 01 CPUID 111111
CPU 02 CPUID 111222
IPL CMS PARM AUTOCR
IUCV ANY
IUCV ALLOW
MACH ESA 10
OPTION MAINTCCW RMCHINFO
SHARE RELATIVE 2000
CONSOLE 01C0 3270 A
SPOOL 000C 2540 READER *
SPOOL 000D 2540 PUNCH A
SPOOL 000E 3203 A
* OSA QDIO DEVICE DEFINITIONS
DEDICATE 9A0 9A0
DEDICATE 9A1 9A1
DEDICATE 9A2 9A2
*
LINK MAINT 0190 0190 RR
LINK MAINT 019E 019E RR
LINK MAINT 019D 019D RR
* MINIDISK DEFINITIONS
MDISK 201 3390 0001 0050 DASD40 MR ONE4ME TWO4ME THR4ME
MDISK 150 3390 0052 0200 DASD40 MR ONE4ME TWO4ME THR4ME
MDISK 151 3390 0253 2800 DASD40 MR ONE4ME TWO4ME THR4ME

In diesem Beispiel wird Minidisk 201 als Home-Disk des Gast-Benutzers verwendet. Minidisk 150 mit 200 Zylindern ist das Linux-Auslagerungsgerät. Auf Disk 151 mit 2800 Zylindern wird die Linux-Installation verwaltet.

Fügen Sie nun als Benutzer MAINT den Gast mit DIRM FOR LINUX1 ADD dem Benutzerverzeichnis hinzu. Geben Sie den Namen des Guest-Benutzers ein (LINUX1) und drücken Sie F5. Verwenden Sie zur Einrichtung der Umgebung des Benutzers Folgendes:

DIRM DIRECT
DIRM USER WITHPASS

Das letzte Kommando gibt eine Reader-Dateinummer zurück Diese Nummer wird für den nächsten Befehl benötigt:

RECEIVE <number> USER DIRECT A (REPL)

Sie können sich nun als Gast-Benutzer LINUX1 anmelden.

Wenn die Option dirmaint nicht verfügbar ist, konsultieren Sie die IBM-Dokumentation dazu, wie dieser Benutzer eingerichtet wird.

Fahren Sie mit Abschnitt 5.3.4.2, „Ausführen eines IPL-Vorgangs bei einer z/VM-Installation“ fort.

5.3.3.3 IPL-Vorbereitung der Installation eines KVM-Gasts

Für die Installation eines KVM-Gasts sind eine XML-Domänendatei, in der die virtuelle Maschine definiert ist, und mindestens ein Image des virtuellen Datenträgers für die Installation erforderlich.

5.3.3.3.1 Erstellen eines Image des virtuellen Datenträgers

Standardmäßig sucht libvirt in /var/lib/libvirt/images/ auf dem VM-Hostserver nach Datenträger-Images. Images können auch an einer anderen Stelle im Dateisystem gespeichert werden, allerdings wird empfohlen, zur einfacheren Verwaltung alle Images zentral an einem Ort zu speichern. Melden Sie sich zum Erstellen eines Image beim KVM-Hostserver an und führen Sie folgendes Kommando aus:

qemu-img create -f qcow2 /var/lib/libvirt/images/s12lin_qcow2.img 10G

Dadurch wird ein qcow2-Image mit einer Größe von 10 GB in /var/lib/libvirt/images/ erstellt. Weitere Informationen finden Sie im Book “Virtualization Guide”, Chapter 36 “Guest installation”, Section 36.2 “Managing disk images with qemu-img.

5.3.3.3.2 Schreiben einer XML-Domänendatei

Der VM-Gast wird in einer XML-Domänendatei definiert. Öffnen Sie zur Erstellung der XML-Domänendatei eine leere Datei (s15-1.xml) mit einem Editor und erstellen Sie eine Datei wie im folgenden Beispiel.

Beispiel 5.2: Beispiel einer XML-Domänendatei

Im folgenden Beispiel wird ein VM-Gast mit einer einzelnen CPU, 1 GB RAM und dem Image des virtuellen Datenträgers aus dem vorherigen Abschnitt (Abschnitt 5.3.3.3.1, „Erstellen eines Image des virtuellen Datenträgers“) erstellt. Es wird angenommen, dass der virtuelle Server an der Host-Netzwerkschnittstelle bond0 angeschlossen ist. Ändern Sie das Element für Ursprungsgeräte und passen Sie es an Ihre Netzwerkkonfiguration an.

<domain type="kvm">
 <name>s15-1</name>
 <description>Guest-System SUSE SLES15</description>
 <memory>1048576</memory>
 <vcpu>1</vcpu>
 <os>
  <type arch="s390x" machine="s390-ccw-virtio">hvm</type>
  <!-- Boot kernel - remove 3 lines after successful installation -->
  <kernel>/var/lib/libvirt/images/s15-kernel.boot</kernel>
  <initrd>/var/lib/libvirt/images/s15-initrd.boot</initrd>
  <cmdline>linuxrcstderr=/dev/console</cmdline>
 </os>
 <iothreads>1</iothreads>
 <on_poweroff>destroy</on_poweroff>
 <on_reboot>restart</on_reboot>
 <on_crash>preserve</on_crash>
 <devices>
  <emulator>/usr/bin/qemu-system-s390x</emulator>
  <disk type="file" device="disk">
   <driver name="qemu" type="qcow2" cache="none" iothread="1" io="native"/>
   <source file="/var/lib/libvirt/images/s15lin_qcow2.img"/>
   <target dev="vda" bus="virtio"/>
  </disk>
  <interface type="direct">
   <source dev="bond0" mode="bridge"/>
   <model type="virtio"/>
  </interface>
  <console type="pty">
   <target type="sclp"/>
  </console>
 </devices>
</domain>

5.3.4 Ausführen des IPL-Vorgangs für das SUSE Linux Enterprise Server-Installationssystem

5.3.4.1 Ausführen eines IPL-Vorgangs bei einer LPAR-Installation

Für das Ausführen des IPL-Vorgangs für SUSE Linux Enterprise Server in einer LPAR stehen mehrere Methoden zur Auswahl. Die bevorzugte Vorgehensweise ist die Funktion Load from CD-ROM or server von SE bzw. HMC.

5.3.4.1.1 IPL von DVD-ROM

Markieren Sie die LPAR für die Installation und wählen Sie Load from CD-ROM or server aus. Lassen Sie das Feld für den Dateispeicherort frei oder geben Sie den Pfad zum Stammverzeichnis der ersten DVD-ROM ein und wählen Sie Fortfahren aus. Behalten Sie die Standardauswahl in der angezeigten Liste der Optionen bei. In den Kernel-Boot-Meldungen sollte nun Operating system messages angezeigt werden.

5.3.4.1.2 IPL von per FCP angeschlossener SCSI-DVD

Sie können den Load-Vorgang verwenden, indem Sie SCSI als Ladetyp für IPL von SCSI auswählen. Geben Sie den WWPN (Worldwide Port Name) und die LUN (Logical unit number) ein, die Ihre SCSI-Bridge oder Ihr SCSI-Speicher bereitstellt (16 Stellen – unterdrücken Sie auf keinen Fall die angehängten Nullen). Die Bootprogrammauswahl muss auf 2 stehen. Verwenden Sie Ihren FCP-Adapter als Ladeadresse und führen Sie ein IPL durch.

5.3.4.2 Ausführen eines IPL-Vorgangs bei einer z/VM-Installation

In diesem Abschnitt wird der IPL-Vorgang für das Installationssystem zur Installation von SUSE Linux Enterprise Server für IBM Z auf einem z/VM-System beschrieben.

5.3.4.2.1 IPL vom z/VM-Reader

Sie benötigen eine funktionierende TCP/IP-Verbindung und ein FTP-Clientprogramm in Ihrem neu definierten z/VM-Gast, um das Installationssystem über FTP zu übertragen. Die TCP/IP-Einrichtung für z/VM würde den Rahmen dieses Handbuchs sprengen. Ziehen Sie die entsprechende IBM-Dokumentation zurate.

Melden Sie sich für den IPL-Vorgang als z/VM-Linux-Gast-Benutzer an. Stellen Sie den Inhalt von Verzeichnis /boot/s390x des Unified Installer (Medium 1) in Ihrem Netzwerk über FTP bereit. Holen Sie sich aus diesem Verzeichnis die Dateien linux, initrd, parmfile und sles.exec. Übertragen Sie die Dateien mit einer festen Blockgröße von 80 Zeichen. Geben Sie die Größe mithilfe des FTP-Kommandos locsite fix 80 an. linux (der Linux-Kernel) und initrd (das Installations-Image) müssen in jedem Fall als Binärdateien kopiert werden, Sie sollten folglich den binary-Übertragungsmodus verwenden. parmfile und sles.exec müssen im ASCII-Modus übertragen werden.

Im folgenden Beispiel werden die erforderlichen Schritte gezeigt. In diesem speziellen Szenario wird angenommen, dass der Zugriff auf die erforderlichen Dateien von einem FTP-Server mit IP-Adresse 192.168.0.3 möglich ist. Die Anmeldung erfolgt mit lininst.

Beispiel 5.3: Übertragen der Binärdateien über FTP
FTP 192.168.0.3
VM TCP/IP FTP Level 530
Connecting to 192.168.0.3, port 21
220 ftpserver FTP server (Version wu-2.4.2-academ[BETA-18](1)
Thu Feb 11 16:09:02 GMT 2010) ready.
USER
lininst
331 Password required for lininst
PASS
******
230 User lininst logged in.
Command:
binary
200 Type set to I
Command:
locsite fix 80
Command:
get /media/dvd1/boot/s390x/linux sles.linux
200 PORT Command successful
150 Opening BINARY mode data connection for /media/dvd1/boot/s390x/linux
(10664192 bytes)
226 Transfer complete.
10664192 bytes transferred in 13.91 seconds.
Transfer rate 766.70 Kbytes/sec.
Command:
get /media/dvd1/boot/s390x/initrd sles.initrd
200 PORT Command successful
150 Opening BINARY mode data connection for /media/dvd1/boot/s390x/initrd
(21403276 bytes)
226 Transfer complete.
21403276 bytes transferred in 27.916 seconds.
Transfer rate 766.70 Kbytes/sec.
Command:
ascii
200 Type set to A
Command:
get /media/dvd1/boot/s390x/parmfile sles.parmfile
150 Opening ASCII mode data connection for /media/dvd1/boot/s390x/parmfile
(5 bytes)
226 Transfer complete.
5 bytes transferred in 0.092 seconds.
Transfer rate 0.05 Kbytes/sec.
Command:
get /media/dvd1/boot/s390x/sles.exec sles.exec
150 Opening ASCII mode data connection for /media/dvd1/boot/s390x/sles.exec
(891 bytes)
226 Transfer complete.
891 bytes transferred in 0.097 seconds.
Transfer rate 0.89 Kbytes/sec.
Command:
quit

Verwenden Sie das heruntergeladene REXX-Skript, sles.exec, um den IPL-Vorgang für das Linux-Installationssystem auszuführen. Mit diesem Skript werden Kernel, parmfile sowie der anfängliche RAM-Datenträger für den IPL-Vorgang in den Reader geladen.

Beispiel 5.4: sles.exec
/* REXX LOAD EXEC FOR SUSE LINUX S/390 VM GUESTS       */
/* LOADS SUSE LINUX S/390 FILES INTO READER            */
SAY ''
SAY 'LOADING SLES FILES INTO READER...'
'CP CLOSE RDR'
'PURGE RDR ALL'
'SPOOL PUNCH * RDR'
'PUNCH SLES LINUX A (NOH'
'PUNCH SLES PARMFILE A (NOH'
'PUNCH SLES INITRD A (NOH'
'IPL 00C'

Mithilfe dieses Skripts führen Sie den IPL-Vorgang für das SUSE Linux Enterprise Server-Installationssystem mit dem Kommando sles aus. Daraufhin wird der Linux-Kernel gestartet und gibt Boot-Meldungen aus.

Fahren Sie zur weiteren Installation mit Abschnitt 5.3.5, „Netzwerkkonfiguration“ fort.

5.3.4.2.2 IPL von per FCP angeschlossener SCSI-DVD

Bereiten Sie für die Ausführung des IPL-Vorgangs in z/VM den SCSI-IPL-Vorgang mithilfe des Parameters SET LOADDEV vor:

SET LOADDEV PORTNAME 200400E8 00D74E00 LUN 00020000 00000000 BOOT 2

Führen Sie nach der Festlegung des LOADDEV-Parameters mit den entsprechenden Werten den IPL-Vorgang Ihres FCP-Parameters durch, z. B.:

IPL FC00

Fahren Sie zur weiteren Installation mit Abschnitt 5.3.5, „Netzwerkkonfiguration“ fort.

5.3.4.2.3 IPL von einem Cobbler-Server mit zPXE

Zur Ausführung von IPL über einen Cobbler-Server mit zPXE übertragen Sie das Skript zpxe.rexx per FTP vom Cobbler-Server an den z/VM-Gast. Der z/VM-Gast benötigt dazu eine funktionsfähige TCP/IP-Verbindung und ein FTP-Client-Programm.

Melden Sie sich als z/VM Linux-Gast bei IPL an, und übertragen Sie das Skript mit einer festen Größe von 80 Zeichen im ASCII-Modus (ein Beispiel finden Sie unter Beispiel 5.3, „Übertragen der Binärdateien über FTP“). Das Skript zpxe.rexx finden Sie auf der Unified Installer-DVD unter /boot/s390x/zpxe.rexx oder auf einem SLE Cobbler-Server unter /usr/share/doc/packages/s390-tools/zpxe.rexx.

zpxe.rexx soll PROFILE EXEC Ihres Gasts ersetzen. Erstellen Sie eine Sicherungskopie der vorhandenen PROFILE EXEC und benennen Sie ZPXE REXX um in PROFILE EXEC. Rufen Sie alternativ ZPXE REXX aus dem vorhandenen PROFILE EXEC ab, indem Sie die Zeile 'ZPXE REXX' hinzufügen.

Im letzten Schritt erstellen Sie eine Konfigurationsdatei (ZPXE CONF), in der ZPXE REXX angewiesen wird, welcher Cobbler-Server kontaktiert und für welchen Datenträger der IPL-Vorgang ausgeführt werden soll. Führen Sie xedit zpxe conf a aus und erstellen Sie ZPXE CONF mit folgendem Inhalt (ersetzen Sie die Beispieldaten entsprechend):

HOST cobbler.example.com
IPLDISK 600

Damit wird der Cobbler-Server bei der nächsten Anmeldung als z/VM-Gast verbunden. Wenn eine Installation auf dem Cobbler-Server geplant ist, so wird sie gestartet. Zum Planen der Installation führen Sie den folgenden Befehl auf dem Cobbler-Server aus:

> sudo cobbler system edit --name ID1 --netboot-enabled 12 --profile PROFILENAME3

1

z/VM-Benutzer-ID.

2

Aktivieren der IPL-Ausführung vom Netzwerk.

3

Name eines vorhandenen Profils (siehe Abschnitt 5.3.1.3.3, „Anpassen des Profils“).

5.3.4.3 Ausführen eines IPL-Vorgangs bei der Installation eines KVM-Gasts

Um mit der Installation des Gasts zu beginnen, müssen Sie zunächst den in Abschnitt 5.3.3.3.1, „Erstellen eines Image des virtuellen Datenträgers“ definierten VM-Gast starten. Stellen Sie vor Beginn sicher, dass der Kernel und initrd für IPL verfügbar sind.

5.3.4.3.1 Vorbereiten der Installationsquelle

Der Kernel und die initrd des Installationssystems müssen auf den VM-Hostserver kopiert werden, damit der IPL-Vorgang für den VM-Gast im Installationssystem möglich ist.

  1. Melden Sie sich am KVM-Host an und vergewissern Sie sich, dass Sie eine Verbindung zum Remote-Host oder dem Gerät herstellen können, der bzw. das die Installationsquelle bereitstellt.

  2. Kopieren Sie die folgenden beiden Dateien aus der Installationsquelle nach /var/lib/libvirt/images/. Wenn die Daten von einem Remote-Host bereitgestellt werden, übertragen Sie diese mit ftp, sftp oder scp:

    /boot/s390x/initrd
    /boot/s390x/cd.ikr
  3. Benennen Sie die Dateien auf dem KVM-Host um:

    > sudo cd /var/lib/libvirt/images/
    > sudo mv initrd s15-initrd.boot
    > sudo mv cd.ikr s15-kernel.boot
5.3.4.3.2 IPL-Vorgang für den VM-Gast

Zur Ausführung des IPL-Vorgangs für den VM-Gast müssen Sie sich am KVM-Host anmelden und den folgenden Befehl ausführen:

> virsh  create s15-1.xml --console

Der Installationsvorgang startet, sobald der VM-Gast aktiv ist und ausgeführt wird. Sie sollten dann folgende Meldung sehen:

Domain s15-1 started
Connected to domain s15-1
Escape character is ^]
Initializing cgroup subsys cpuset
Initializing cgroup subsys cpu
Initializing
cgroup subsys cpuacct
.
.
Please make sure your installation medium is available.
Retry?
0) <-- Back <--
1) Yes
2) No

Beantworten Sie die Frage mit 2) No (Nein) und wählen Sie im nächsten Schritt Installation aus. Fahren Sie entsprechend den Anweisungen in Abschnitt 5.3.5.3, „Einrichten des Netzwerks und Auswählen der Installationsquelle“ fort.

5.3.5 Netzwerkkonfiguration

Warten Sie, bis der Kernel seine Startroutinen abgeschlossen hat. Wenn Sie die Installation im Basismodus oder in einer LPAR vornehmen, rufen Sie an der HMC bzw. in SE Operating System Messages auf.

Wählen Sie zunächst Installation starten im Hauptmenü von linuxrc. Wählen Sie dann Installation oder Aktualisierung starten, um den Installationsvorgang zu starten. Wählen Sie Netzwerk als Installationsmedium und danach den Netzwerkprotokolltyp aus, den Sie zur Installation verwenden möchten. Abschnitt 5.3.1, „Bereitstellen der Installationsdaten“ beschreibt, wie die Installationsdaten für die unterschiedlichen Arten von Netzwerkverbindungen bereitgestellt werden. Zurzeit werden FTP, HTTP, NFS und SMB/CIFS (Windows-Dateifreigabe) unterstützt.

Wählen Sie aus der Liste der verfügbaren Geräte ein OSA- oder HiperSockets-Netzwerkgerät für den Empfang der Installationsdaten. Obwohl die Liste möglicherweise auch CTC-, ESCON- oder IUCV-Geräte enthält, werden diese jedoch unter SUSE Linux Enterprise Server nicht mehr unterstützt.

5.3.5.1 Konfigurieren einer HiperSockets-Schnittstelle

Wählen Sie ein HiperSocket-Gerät aus der Liste der Netzwerkgeräte aus. Geben Sie dann die Werte für den Lese-, Schreib- und Datenkanal ein:

Beispiel 5.5: Unterstützte Netzwerkverbindungstypen und Treiberparameter
Choose the network device.

 1) IBM parallel CTC Adapter (0.0.0600)
 2) IBM parallel CTC Adapter (0.0.0601)
 3) IBM parallel CTC Adapter (0.0.0602)
 4) IBM Hipersocket (0.0.0800)
 5) IBM Hipersocket (0.0.0801)
 6) IBM Hipersocket (0.0.0802)
 7) IBM OSA Express Network card (0.0.0700)
 8) IBM OSA Express Network card (0.0.0701)
 9) IBM OSA Express Network card (0.0.0702)
10) IBM OSA Express Network card (0.0.f400)
11) IBM OSA Express Network card (0.0.f401)
12) IBM OSA Express Network card (0.0.f402)
13) IBM IUCV

> 4

Device address for read channel. (Enter '+++' to abort).
[0.0.0800]> 0.0.0800

Device address for write channel. (Enter '+++' to abort).
[0.0.0801]> 0.0.0801

Device address for data channel. (Enter '+++' to abort).
[0.0.0802]> 0.0.0802

5.3.5.2 Konfigurieren eines OSA Express-Geräts

Wählen Sie ein OSA Express-Gerät aus der Liste der Netzwerkgeräte aus, und geben Sie eine Portnummer an. Geben Sie die Nummer für den Lese-, Schreib- und Datenkanal ein. Wählen Sie, ob die Unterstützung von OSI-Schicht 2 aktiviert werden soll.

Die Portnummer ist für die neuen OSA Express 3-Netzwerkgeräte mit 2 Ports erforderlich. Wenn Sie kein OSA Express 3-Gerät verwenden, geben Sie 0 ein. OSA Express-Karten können auch im OSI layer 2 support-Modus oder dem älteren und üblicheren layer 3-Modus ausgeführt werden. Der Kartenmodus beeinflusst alle Systeme, die das Gerät gemeinsam nutzen, einschließlich Systeme auf anderen LPARs. Geben Sie im Zweifelsfall 2 an, um Kompatibilität mit dem Standardmodus zu erreichen, den andere Betriebssysteme wie z/VM und z/OS verwenden. Erfragen Sie weitere Informationen zu diesen Optionen bei Ihrem Hardware-Administrator.

Beispiel 5.6: Treiberparameter für das Netzwerkgerät
Choose the network device.

 1) IBM parallel CTC Adapter (0.0.0600)
 2) IBM parallel CTC Adapter (0.0.0601)
 3) IBM parallel CTC Adapter (0.0.0602)
 4) IBM Hipersocket (0.0.0800)
 5) IBM Hipersocket (0.0.0801)
 6) IBM Hipersocket (0.0.0802)
 7) IBM OSA Express Network card (0.0.0700)
 8) IBM OSA Express Network card (0.0.0701)
 9) IBM OSA Express Network card (0.0.0702)
10) IBM OSA Express Network card (0.0.f400)
11) IBM OSA Express Network card (0.0.f401)
12) IBM OSA Express Network card (0.0.f402)
13) IBM IUCV

> 7

Enter the relative port number. (Enter '+++' to abort).
> 0

Device address for read channel. (Enter '+++' to abort).
[0.0.0700]> 0.0.0700

Device address for write channel. (Enter '+++' to abort).
[0.0.0701]> 0.0.0701

Device address for data channel. (Enter '+++' to abort).
[0.0.0702]> 0.0.0702

Enable OSI Layer 2 support?

0) <-- Back <--
1) Yes
2) No

> 1

MAC address. (Enter '+++' to abort).
> +++

5.3.5.3 Einrichten des Netzwerks und Auswählen der Installationsquelle

Nachdem Sie alle Parameter für das Netzwerkgerät eingegeben haben, wird der zugehörige Treiber installiert und die entsprechenden Kernel-Meldungen werden angezeigt.

Als Nächstes müssen Sie angeben, ob die automatische DHCP-Konfiguration für die Einrichtung der Netzwerkschnittstellenparameter verwendet werden soll. Wählen Sie NEIN, da DHCP nur auf wenigen Geräten ausgeführt wird und spezielle Einstellungen für die Hardwarekonfiguration erfordert. Daraufhin werden Sie aufgefordert, die folgenden Netzwerkparameter anzugeben:

  • IP-Adresse des zu installierenden Systems

  • Entsprechende Netzmaske (falls nicht über IP-Adresse angegeben)

  • IP-Adresse eines Gateways zur Verbindung mit dem Server

  • Liste der Suchdomänen, die vom Domain Name Server (DNS) abgedeckt sind

  • IP-Adresse Ihres Domain Name Server

Beispiel 5.7: Netzwerkparameter
Automatic configuration via DHCP?

0) <-- Back <--
1) Yes
2) No

> 2

Enter your IP address with network prefix.

You can enter more than one, separated by space, if necessary.
Leave empty for autoconfig.

Examples: 192.168.5.77/24 2001:db8:75:fff::3/64. (Enter '+++' to abort).
> 192.168.0.20/24

Enter your name server IP address.

You can enter more than one, separated by space, if necessary.
Leave empty if you don't need one.

Examples: 192.168.5.77 2001:db8:75:fff::3. (Enter '+++' to abort).
> 192.168.0.1

Enter your search domains, separated by a space:. (Enter '+++' to abort).
> example.com

Enter the IP address of your name server. Leave empty if you do not need one. (En
ter '+++' to abort).
> 192.168.0.1

Geben Sie abschließend die erforderlichen Informationen zum Installationsserver an, beispielsweise die IP-Adresse, das Verzeichnis, in dem sich die Installationsdaten befinden, sowie den Berechtigungsnachweis. Das Installationssystem wird geladen, sobald die erforderlichen Informationen angegeben wurden.

5.3.6 Herstellen einer Verbindung zum SUSE Linux Enterprise Server-Installationssystem

Nach dem Laden des Installationssystems fordert linuxrc Sie auf, den Anzeigetyp zur Steuerung des Installationsverfahrens zu wählen. Zu den verfügbaren Optionen gehören Remote X11 (X Window System), VNC (Virtual Network Computing-Protokoll), SSH (Expertenmodus oder X11-Installation über Secure Shell) Text-based UI und Graphical UI. Letztere startet YaST im Grafikmodus auf einem lokalen Grafikdisplay, sofern vorhanden. Auf der s390x-Architektur kann eine lokale Grafikanzeige mit QEMU und dem virtio-gpu-Treiber implementiert werden.

Die empfohlenen Optionen sind VNC oder SSH.

Wenn die Option Text-based UI ausgewählt wird, startet YaST im Textmodus, und Sie können die Installation direkt am Terminal durchführen.Weitere Informationen zur Verwendung von YaST im Textmodus finden Sie in Book “Verwaltungshandbuch”, Chapter 4 “YaST im Textmodus”. Die Option Text-based UI ist nur bei der Installation im LPAR von Nutzen.

Anmerkung
Anmerkung: Terminalemulation für eine textbasierte Benutzeroberfläche

Für die Arbeit mit YaST im Textmodus ist die Ausführung in einem Terminal mit VT220/Linux-Emulation (auch als Text-based UI bezeichnet) erforderlich.

5.3.6.1 Initiieren der Installation für VNC

So steuern Sie eine Installation über VNC fern:

  1. Durch Auswahl der Option VNC wird der VNC-Server gestartet. Ein kurzer Hinweis an der Konsole zeigt die IP-Adresse und Anzeigenummer zur Herstellung einer Verbindung mit vncviewer an.

  2. Geben Sie die IP-Adresse sowie die Display-Nummer des SUSE Linux Enterprise Server-Installationssystems ein, wenn Sie dazu aufgefordert werden.

  3. Geben Sie nach Aufforderung die IP-Adresse und die Anzeigenummer des SUSE Linux Enterprise Server-Installationssystems ein.

    http://<IP address of installation system>:5801/
  4. Sobald die Verbindung hergestellt wurde, installieren Sie SUSE Linux Enterprise Server mit YaST.

5.3.6.2 Initiieren der Installation für das X Window-System

Wichtig
Wichtig: X-Authentifizierungsmechanismus

Die direkte Installation über das X Window System beruht auf einem auf Hostnamen basierenden Authentifizierungsmechanismus. Dieser Mechanismus ist in den aktuellen Versionen von SUSE Linux Enterprise Server deaktiviert. Wir empfehlen die Installation über SSH oder VNC.

So steuern Sie eine Installation über X-Forwarding fern:

  1. Vergewissern Sie sich, dass der X-Server dem Client (dem installierten System) den Verbindungsaufbau ermöglicht. Legen Sie die Variable DISPLAYMANAGER_XSERVER_TCP_PORT_6000_OPEN="yes" in der Datei /etc/sysconfig/displaymanager fest. Starten Sie den X-Server, und ermöglichen Sie dem Client die Verbindung mit dem Server, und zwar mit folgendem Kommando: xhost CLIENT_IP_ADDRESS.

  2. Wenn Sie auf dem Installationssystem dazu aufgefordert werden, geben Sie die IP-Adresse des Rechners ein, auf dem der X-Server ausgeführt wird.

  3. Warten Sie, bis YaST geöffnet wird, und starten Sie dann die Installation.

5.3.6.3 Initiieren der Installation für SSH

Zum Verbinden des Installationssystems mit dem Namen earth über SSH führen Sie den Befehl ssh -X earth aus. Verwenden Sie das unter https://www.chiark.greenend.org.uk/~sgtatham/putty/ verfügbare Putty-Tool, wenn Ihre Arbeitsstation unter Microsoft Windows ausgeführt wird. Aktivieren Sie Enable X11 forwarding (X11-Forwarding aktivieren) in PuTTy unter Connection › SSH › X11 (Verbindung > SSH > X11).

Falls Sie ein anderes Betriebssystem verwenden, führen Sie ssh -X earth aus, um sich mit einem Installationssystem namens earth zu verbinden. Wenn ein lokaler X-Server verfügbar ist, wird X-Forwarding über SSH unterstützt. Andernfalls stellt YaST über ncurses eine Textschnittstelle zur Verfügung.

Geben Sie nach Aufforderung den root-Benutzernamen ein, und melden Sie sich mit Ihrem Passwort an. Geben Sie yast.ssh ein, um YaST zu starten. Anschließend werden Sie von YaST durch den Installationsvorgang geführt.

Wichtig
Wichtig: Beheben eines YaST-über-SSH-Problems

In bestimmten Situationen kann die Ausführung der GUI-Version von YaST über SSH mit X-Weiterleitung mit der folgenden Fehlermeldung fehlschlagen:

XIO: fatal IO error 11 (Resource temporarily unavailable) on X server "localhost:11.0"

In diesem Fall haben Sie zwei Möglichkeiten.

  • Führen Sie YaST mit der Option QT_XCB_GL_INTEGRATION=none aus, beispielsweise:

    QT_XCB_GL_INTEGRATION=none yast.ssh
    QT_XCB_GL_INTEGRATION=none yast2 disk
  • Führen Sie die ncurses-Version der YaST-Anwendung aus, indem Sie die X-Weiterleitung deaktivieren oder ncurses als die gewünschte Benutzeroberfläche angeben. Für Letzteres verwenden Sie den Befehl yast2 disk --ncurses oder YUI_PREFERED_BACKEND=ncurses yast2 disk.

Setzen Sie den Installationsvorgang wie in Kapitel 9, Installationsschritte beschrieben fort.

5.3.7 Bootverfahren für SUSE Linux Enterprise Server auf IBM Z

Unter SLES 10 und 11 wurde der Bootvorgang vom zipl-Bootloader durchgeführt. Zur Aktivierung des Bootvorgangs von Btrfs-Partitionen und der Unterstützung von System-Rollbacks mit Snapper wurde die Bootmethode für SUSE Linux Enterprise Server auf IBM Z geändert.

GRUB 2 ersetzt zipl in SUSE Linux Enterprise Server für IBM Z. GRUB 2 auf der AMD64/Intel 64-Architektur enthält Gerätetreiber auf Firmware-Ebene für den Zugriff auf das Dateisystem. Mainframes arbeiten ohne Firmware. Die Einbindung von ccw in GRUB 2 wäre nicht nur ein immenser Arbeitsaufwand, sondern würde eine Neuimplementierung von zipl in GRUB 2 erfordern. In SUSE Linux Enterprise Server gilt daher ein zweiphasiges Verfahren:

1. Phase:

Eine separate Partition mit dem Kernel und einer initrd ist in /boot/zipl eingehängt. Dieser Kernel und die initrd werden über zipl mit der Konfiguration aus /boot/zipl/config geladen.

Diese Konfiguration fügt das Schlüsselwort initgrub in die Kernel-Befehlszeile ein. Sobald der Kernel und die initrd geladen sind, aktiviert die initrd die erforderlichen Geräte, mit denen das root-Dateisystem eingehängt wird (siehe /boot/zipl/active_devices.txt). Anschließend wird ein GRUB 2-Userspace-Programm gestartet, mit dem die Datei /boot/grub2/grub.cfg gelesen wird.

2. Phase:

Der Kernel und die in /boot/grub2/grub.cfg angegebene initrd werden über kexec gestartet. In /boot/zipl/active_devices.txt aufgeführte und zum Starten des Systems auf dem Datenträger benötigte Geräte werden dann aktiviert. Sonstige Geräte auf dieser Liste werden zwar in die Whitelist gestellt, doch ignoriert. Das root-Dateisystem wird eingehängt und der Bootvorgang wird wie auf den anderen Architekturen fortgesetzt.

Weitere Informationen zum Bootvorgang finden Sie im Book “Verwaltungshandbuch”, Chapter 16 “Einführung in den Bootvorgang”.

5.4 Secure Boot

Die folgenden Bedingungen müssen erfüllt sein, damit die Secure Boot-Funktion auf einem IBM Z-System funktioniert.

  • Der Rechner muss ein z15 T01, z15 T02, LinuxONE III LT1, LinuxONE III LT2 oder ein neueres Modell sein.

  • Sie müssen eine LPAR verwenden (Secure Boot wird auf z/VM und KVM nicht unterstützt).

  • In der LPAR muss Secure Boot aktiviert sein.

  • Sie müssen SCSI (FCP)-Platten verwenden (Secure Boot wird auf DASD nicht unterstützt).

Anmerkung
Anmerkung: Hardwaremigration

Falls Sie zu einem anderen Rechner migrieren (z. B. von z13 zu z15), müssen Sie sicherstellen, dass die LPAR auf dem Zielrechner den Secure Boot-Status des Systems auf seiner Festplatte aufweist.

Die Änderung des Secure Boot-Status muss anhand des folgenden Verfahrens ausgeführt werden.

Vorgehen 5.4: Ändern des Secure Boot-Status
  1. Aktivieren Sie Secure Boot in YaST und schreiben Sie den neuen Bootloader.

  2. Fahren Sie das System herunter.

  3. Ändern Sie die Konfiguration der LPAR (aktivieren oder deaktivieren Sie Secure Boot).

  4. Booten Sie das System.

Anmerkung
Anmerkung: Secure Boot auf HMC

Das System auf der mit dem Parameter secure=1 konfigurierten Platte kann auf der z15-HMC gebootet werden, solange die Firmware das neue On-Disk-Format unterstützt (was bei z15 immer der Fall ist).

5.5 Die Parmfile – Automatisierte Systemkonfiguration

Der Installationsvorgang kann durch Angabe der wesentlichen Parameter in parmfile teilweise automatisiert werden. parmfile enthält alle für die Netzwerkeinrichtung und die DASD-Konfiguration erforderlichen Daten. Darüber hinaus kann sie zum Einrichten der Verbindungsmethode für das SUSE Linux Enterprise Server-Installationssystem und die dort ausgeführte YaST-Instanz verwendet werden. Dadurch wird die Benutzerinteraktion für die aktuelle YaST-Installation reduziert.

Die in Abschnitt 5.5.1, „Allgemeine Parameter“ aufgelisteten Parameter können an die Installationsroutine als Standardwerte für die Installation übergeben werden. Beachten Sie, dass alle hier angegebenen IP-Adressen, Servernamen und numerischen Werte Beispiele sind. Ersetzen Sie sie durch die tatsächlichen Werte Ihres Installationsszenarios.

Die Anzahl der Zeilen in der Datei parmfile ist auf 10 begrenzt. Sie können mehrere Parameter pro Zeile angeben. Bei Parameternamen muss die Groß- und Kleinschreibung nicht beachtet werden. Parameter müssen durch Leerzeichen getrennt werden. Die Parameter können in beliebiger Reihenfolge angegeben werden. Achten Sie darauf, dass die Zeichenfolge PARAMETER=value immer zusammen in einer Zeile steht. Die Länge jeder Zeile darf 80 Zeichen nicht überschreiten. Beispiel:

Hostname=s390zvm01.suse.de HostIP=10.11.134.65
Tipp
Tipp: Verwenden von IPv6 während der Installation

Standardmäßig können Sie Ihrem Rechner nur IPv4-Netzwerkadressen zuweisen. Geben Sie zur Aktivierung von IPv6 während der Installation einen der folgenden Parameter an der Bootaufforderung an: ipv6=1 (IPv4 und IPv6 akzeptieren) oder ipv6only=1 (nur IPv6 akzeptieren).

Einige der folgenden Parameter sind erforderlich. Wenn Sie fehlen, werden Sie im automatischen Vorgang zu deren Angabe aufgefordert.

5.5.1 Allgemeine Parameter

AutoYaST=<URL> Manual=0

Der Parameter AutoYaST gibt den Speicherort der Steuerungsdatei autoinst.xml für die automatische Installation an. Mit dem Parameter Manual wird gesteuert, ob die anderen Parameter nur Standardwerte sind, die vom Benutzer noch akzeptiert werden müssen. Setzen Sie diesen Parameter auf 0, wenn alle Werte ohne Nachfrage übernommen werden sollen. Durch Festlegen von AutoYaST wird Manual standardmäßig auf 0 gesetzt.

DeviceAutoConfig=<0|1|2>

In linuxrc steuert der Parameter DeviceAutoConfig die Verwendung der Daten für die automatische Konfiguration von E/A-Geräten für IBM Z-Systeme.

Wenn er auf 0 festgelegt ist, ist die automatische Konfiguration deaktiviert. Wenn er auf 1 festgelegt ist, werden die bestehenden Daten für die automatische Konfiguration angewendet. Wenn er auf 2 festgelegt ist (Standardeinstellung), wird ein Dialogfeld angezeigt, falls Daten für die automatische Konfiguration vorhanden sind. Der Benutzer wird gefragt, ob er sie anwenden möchte.

Weitere Informationen finden Sie im Abschnitt 5.5.4, „Automatische Konfiguration von E/A-Geräten auf IBM Z-Systemen“.

Info=<URL>

Gibt einen Speicherort für eine Datei mit zusätzlichen Optionen an. Dadurch werden die Beschränkungen auf 10 Zeilen (und 80 Zeichen pro Zeile unter z/VM) für diese Parameterdatei außer Kraft gesetzt. Weitere Dokumentationen zur Infodatei finden Sie im Book “AutoYaST Guide”, Chapter 9 “The auto-installation process”, Section 9.3.3 “Combining the linuxrc info file with the AutoYaST control file”. Da auf die Infodatei typischerweise nur über das Netzwerk auf IBM Z zugegriffen werden kann, können Sie sie nicht verwenden, um Optionen anzugeben, die zum Einrichten des Netzwerks erforderlich sind, d. h. die in Abschnitt 5.5.2, „Konfigurieren der Netzwerkschnittstelle“ beschriebenen Optionen. Sonstige linuxrc-spezifischen Optionen wie die in Bezug auf die Fehlersuche müssen in der Parameterdatei angegeben werden.

Upgrade=<0|1>

Geben Sie zum Upgrade von SUSE Linux Enterprise den Parameter Upgrade=1 an. Soll eine bestehende Installation von SUSE Linux Enterprise upgegradet werden, ist eine benutzerdefinierte parmfile erforderlich. Ohne diesen Parameter bietet die Installation keine Upgradeoption.

5.5.2 Konfigurieren der Netzwerkschnittstelle

Wichtig
Wichtig: Konfigurieren der Netzwerkschnittstelle

Die in diesem Abschnitt beschriebenen Einstellungen gelten nur für die während der Installation verwendete Netzwerkschnittstelle. Konfigurieren Sie zusätzliche Netzwerkschnittstellen im installierten System gemäß den Anleitungen in Book “Verwaltungshandbuch”, Chapter 23 “Grundlegendes zu Netzwerken”, Section 23.5 “Manuelle Netzwerkkonfiguration”.

Hostname=zsystems.example.com

Geben Sie den vollständigen Hostnamen ein.

Domain=example.com

Domänensuchpfad für DNS. Ermöglicht Ihnen, kurze anstelle von vollständig qualifizierten Hostnamen zu verwenden.

HostIP=192.168.1.2/24

Geben Sie die IP-Adresse der zu konfigurierenden Schnittstelle ein.

Gateway=192.168.1.3

Geben Sie den gewünschten Gateway an.

Nameserver=192.168.1.4

Geben Sie den beteiligten DNS-Server an.

InstNetDev=osa

Geben Sie den zu konfigurierenden Schnittstellentyp ein. Mögliche Werte sind osa, hsi, ctc, escon, and iucv (CTC, ESCON und IUCV werden offiziell nicht mehr unterstützt).

Geben Sie für die ctc-Schnittstellen escon und iucv (CTC, ESCON und IUCV werden offiziell nicht mehr unterstützt) die IP-Adresse des Peer ein:

Pointopoint=192.168.55.20
OsaInterface=<lcs|qdio>

Geben Sie für osa-Netzwerkgeräte die Host-Schnittstelle (qdio oder lcs) an.

Layer2=<0|1>

Geben Sie für osa-QDIO-Ethernet- und hsi-Geräte an, ob die Unterstützung von OSI-Schicht 2 aktiviert (1) oder deaktiviert (0) werden soll.

OSAHWAddr=02:00:65:00:01:09

Für Schicht-2-fähige osa-QDIO-Ethernet-Geräte. Geben Sie manuell eine MAC-Adresse ein, oder verwenden Sie den Systemstandardwert OSAHWADDR= (mit nachfolgendem Leerzeichen).

PortNo=<0|1>

Geben Sie für osa-Netzwerkgeräte die Portnummer an (sofern das Gerät diese Funktion unterstützt). Der Standardwert ist 0.

Für die einzelnen Schnittstellen sind bestimmte Setup-Optionen erforderlich:

  • Schnittstellen ctc und escon (CTC und ESCON werden offiziell nicht mehr unterstützt):

    ReadChannel=0.0.0600
    WriteChannel=0.0.0601

    Mit ReadChannel wird der zu verwendende READ-Kanal angegeben. WriteChannel gibt den WRITE-Kanal an.

  • Geben Sie für die Schnittstelle ctc (wird offiziell nicht mehr unterstützt) das Protokoll an, das für diese Schnittstelle verwendet werden soll:

    CTCProtocol=<0/1/2>

    Gültige Einträge:

    0

    Kompatibilitätsmodus, auch für Nicht-Linux-Peers mit Ausnahme von OS/390 und z/OS (dies ist der Standardmodus)

    1

    Erweiterter Modus

    2

    Kompatibilitätsmodus mit OS/390 und z/OS

  • Netzwerkgerätetyp osa mit Schnittstelle lcs:

    ReadChannel=0.0.0124

    ReadChannel steht für die in dieser Einrichtung verwendete Kanalnummer. Die zweite Portnummer kann hiervon abgeleitet werden, indem Sie ReadChannel den Wert 1 hinzufügen. Mit Portnumber wird der relative Port angegeben.

  • Schnittstelle iucv:

    IUCVPeer=PEER

    Geben Sie den Namen des Peer-Computers ein.

  • Netzwerkgerätetyp osa mit Schnittstelle qdio für OSA-Express Gigabit Ethernet:

    ReadChannel=0.0.0700
    WriteChannel=0.0.0701
    DataChannel=0.0.0702

    Geben Sie für ReadChannel die Nummer des READ-Kanals ein. Geben Sie für WriteChannel die Nummer des WRITE-Kanals ein. DataChannel gibt den DATA-Kanal an. Stellen Sie sicher, dass für den READ-Kanal eine gerade Gerätenummer festgelegt ist.

  • Schnittstelle hsi für HiperSockets und VM-Gast-LANs:

    ReadChannel=0.0.0800
    WriteChannel=0.0.0801
    DataChannel=0.0.0802

    Geben Sie für ReadChannel die entsprechende Nummer des READ-Kanals ein. Geben Sie für WriteChannel und DataChannel die Nummern des WRITE- bzw. des DATA-Kanals ein.

5.5.3 Angeben der Installationsquelle und der YaST-Schnittstelle

Install=nfs://server/directory/DVD1/

Geben Sie den Speicherort der zu verwendenden Installationsquelle an. Unterstützte Protokolle sind nfs, smb (Samba/CIFS), ftp, tftp http und https.

Wenn eine ftp-, tftp- oder smb-URL angegeben wird, geben Sie den Benutzernamen und das Passwort an. Überspringen Sie den Berechtigungsnachweis für die anonyme oder Gast-Anmeldung.

Install=ftp://USER:PASSWORD@SERVER/DIRECTORY/DVD1/
Install=tftp://USER:PASSWORD@SERVER/DIRECTORY/DVD1/

Wenn Sie die Installation über eine verschlüsselte Verbindung vornehmen möchten, verwenden Sie eine https-URL. Falls das Zertifikat nicht überprüft werden kann, deaktivieren Sie die Prüfung von Zertifikaten mit der Bootoption sslcerts=0.

Bei einer Samba- oder CIFS-Installation können Sie zudem die Domäne angeben:

Install=smb://WORKDOMAIN;USER:PASSWORD@SERVER/DIRECTORY/DVD1/
ssh=1 vnc=1 Display_IP=192.168.42.42

Die Installationsmethode hängt davon ab, welchen Parameter Sie angeben. Mit ssh wird die SSH-Installation aktiviert, mit vnc wird ein VNC-Server auf dem Installationsrechner gestartet und mit Display_IP versucht das Installationssystem, eine Verbindung zu einem X-Server an der angegebenen Adresse herzustellen. Es sollte nur einer dieser Parameter festgelegt werden.

Wichtig
Wichtig: X-Authentifizierungsmechanismus

Die direkte Installation über das X Window System beruht auf einem auf Hostnamen basierenden Authentifizierungsmechanismus. Dieser Mechanismus ist in den aktuellen Versionen von SUSE Linux Enterprise Server deaktiviert. Wir empfehlen eine Installation mit SSH oder VNC.

Um eine Verbindung zwischen dem YaST- und dem Remote-X-Server zu ermöglichen, führen Sie das Kommando xhost <IP address> mit der Adresse des Installationscomputers auf dem Remote-Computer aus.

Geben Sie für VNC ein aus sechs bis acht Zeichen bestehendes Passwort für die Installation an:

VNCPassword=<a password>

Geben Sie für SSH ein aus sechs bis acht Zeichen bestehendes Passwort für die Installation an:

ssh.password=<a password>

5.5.4 Automatische Konfiguration von E/A-Geräten auf IBM Z-Systemen

Die automatische Konfiguration von E/A-Geräten ist ein Mechanismus, mit dem Benutzer IDs und Einstellungen von E/A-Geräten angeben können, die automatisch unter Linux aktiviert werden sollen. Diese Informationen werden für eine LPAR über eine HMC angegeben, die im DPM-Modus (Dynamic Partition Manager) ausgeführt wird.

Anmerkung
Anmerkung

Die Funktion zur automatischen Konfiguration für E/A-Geräte ist auf Systemen verfügbar, auf denen der DPM ausgeführt wird. Der DPM wird standardmäßig auf LinuxONE-Rechnern ausgeführt. Für IBM Z muss diese Funktion bestellt werden.

In linuxrc steuert der Parameter DeviceAutoConfig die Verwendung der Daten für die automatische Konfiguration von E/A-Geräten für IBM Z-Systeme.

DeviceAutoConfig=0

Wenn er auf 0 festgelegt ist, ist die automatische Konfiguration deaktiviert.

DeviceAutoConfig=1

Wenn er auf 1 festgelegt ist, werden die bestehenden Daten für die automatische Konfiguration angewendet.

DeviceAutoConfig=2 (Standardeinstellung)

Wenn er auf 2 festgelegt ist (Standardeinstellung), wird ein Dialogfeld angezeigt, falls Daten für die automatische Konfiguration vorhanden sind. Der Benutzer wird gefragt, ob er sie anwenden möchte.

Wenn die automatische Gerätekonfiguration vom Benutzer deaktiviert wird, wird der Kernel-Parameter rd.zdev=no-auto zu den Bootoptionen des Zielsystems hinzugefügt.

Um die automatische E/A-Konfiguration mit YaST zu aktivieren, führen Sie das Kommando yast2 system_settings aus, wechseln Sie zum Abschnitt Kernel-Einstellungen und aktivieren Sie die Option Automatische E/A-Gerätekonfiguration aktivieren.

Wenn Sie die automatische E/A-Konfiguration in einem AutoYaST-Profil deaktivieren möchten, fügen Sie den folgenden Kernel-Parameter in den Abschnitt append der globalen Bootloader-Optionen ein. Beispiel:

<bootloader>
  <global>
    <append>rd.zdev=no-auto</append>
  </global>
</bootloader>

Weitere Informationen zu den AutoYaST-Bootloader-Optionen finden Sie im Book “AutoYaST Guide”, Chapter 4 “Configuration and installation options”, Section 4.4 “The GRUB 2 boot loader”.

Während der Installation wird der Status der Einstellung für die automatische Konfiguration auf dem Bildschirm Installationseinstellungen im Abschnitt Geräteeinstellungen angezeigt.

5.5.5 Beispiele für Parmfiles

Eine Parmfile kann maximal 860 Zeichen umfassen. Als Anhaltspunkt sollte die Parmfile maximal 10 Zeilen mit maximal je 79 Zeichen enthalten. Beim Lesen einer Parmfile werden alle Zeilen ohne Leerzeichen miteinander verkettet. Das letzte Zeichen (Nr. 79) in jeder Zeile muss daher ein Leertaste sein.

Für den Empfang etwaiger Fehlermeldungen an der Konsole verwenden Sie

linuxrclog=/dev/console
Beispiel 5.8: Parmfile für eine Installation von NFS mit VNC und AutoYaST mit automatischer Konfiguration von E/A-Geräten
ramdisk_size=131072 root=/dev/ram1 ro init=/linuxrc TERM=dumb
instnetdev=osa osainterface=qdio layer2=1 osahwaddr=
pointopoint=192.168.0.1 hostip=192.168.0.2
nameserver=192.168.0.3 DeviceAutoConfig=1
install=nfs://192.168.0.4/SLES/SLES-12-Server/s390x/DVD1
autoyast=http://192.168.0.5/autoinst.xml
linuxrclog=/dev/console vnc=1 VNCPassword=testing
Beispiel 5.9: Parmfile zur Installation mit NFS, SSH und HSI sowie AutoYaST mit NFS
ramdisk_size=131072 root=/dev/ram1 ro init=/linuxrc TERM=dumb
AutoYast=nfs://192.168.1.1/autoinst/s390.xml
Hostname=zsystems.example.com HostIP=192.168.1.2
Gateway=192.168.1.3 Nameserver=192.168.1.4
InstNetDev=hsi layer2=0
Netmask=255.255.255.128 Broadcast=192.168.1.255
readchannel=0.0.702c writechannel=0.0.702d datachannel=0.0.702e
install=nfs://192.168.1.5/SLES-12-Server/s390x/DVD1/
ssh=1 ssh.password=testing linuxrclog=/dev/console
Beispiel 5.10: Parmfile zur Installation im VLAN
ro ramdisk_size=50000 MANUAL=0 PORTNO=1 ReadChannel=0.0.b140
WriteChannel=0.0.b141 DataChannel=0.0.b142
cio_ignore=all,!condev,!0.0.b140-0.0.b142,!0.0.e92c,!0.0.5000,!0.0.5040
HostIP= Gateway= Hostname=zsystems.example.com nameserver=192.168.0.1
Install=ftp://user:password@10.0.0.1/s390x/SLES15.0/INST/ usevnc=1
vncpassword=12345 InstNetDev=osa Layer2=1 OSAInterface=qdio ssl_certs=0
osahwaddr= domain=example.com self_update=0
vlanid=201

5.6 Verwenden des Terminalemulators vt220

Neuere MicroCode-Stufen ermöglichen neben dem standardmäßigen Zeilenmodusterminal (ASCII-Terminal) die Verwendung eines integrierten vt220-Terminalemulators. Das vt220-Terminal ist mit /dev/ttysclp0 verbunden. Das Zeilenmodusterminal ist mit /dev/ttysclp_line0 verbunden. Bei LPAR-Installationen ist der vt220-Terminalemulator standardmäßig aktiviert.

Zum Starten der textbasierten Benutzeroberfläche auf der HMC melden Sie sich bei der HMC an, und wählen Sie Systems Management (Systemverwaltung) › Systems (Systeme) › IMAGE_ID. Aktivieren Sie die Optionsschaltfläche für die LPAR, und wählen Sie Recovery (Wiederherstellung) › Integrated ASCII Console (Integrierte ASCII-Konsole).

Um die Kernel-Meldungen zum Boot-Zeitpunkt von der Systemkonsole an das vt220-Terminal umzuleiten, fügen Sie der parameters-Zeile in der Datei /etc/zipl.conf folgende Einträge hinzu:

console=ttysclp0 console=ttysclp_line0

Die sich daraus ergebende parameters-Zeile sieht in etwa wie folgt aus:

parameters = "root=/dev/dasda2 TERM=dumb console=ttysclp0 console=ttysclp_line0"

Speichern Sie die Änderungen in /etc/zipl.conf, führen Sie zipl aus, und starten Sie das System neu.

5.7 Zusätzliche Informationsquellen

In den IBM Redbooks (https://www.redbooks.ibm.com/Redbooks.nsf/domains/zsystems) oder bei IBM developerWorks (https://developer.ibm.com/) finden Sie weitere technische Dokumentationen zu IBM Z. Unter finden Sie die produktspezifische Dokumentation zu SUSE Linux Enterprise Serverhttps://developer.ibm.com/technologies/linux/.

5.7.1 Allgemeine Dokumente zu Linux auf IBM Z

Eine allgemein gehaltene Erläuterung zu Linux auf IBM Z finden Sie in folgenden englischsprachigen Dokumenten:

  • Linux on IBM eServer zSeries and S/390: ISP and ASP Solutions (SG24-6299)

Obwohl diese Dokumente möglicherweise nicht den aktuellen Stand der Linux-Entwicklung widerspiegeln, bleiben die beschriebenen Grundprinzipien von Linux weiterhin gültig.

5.7.2 Technische Aspekte von Linux auf IBM Z

Ziehen Sie folgende Dokumente für technische Informationen zum Linux-Kernel sowie hinsichtlich anwendungsbezogener Themen zurate. Die neuesten Versionen der Dokumente finden Sie unter https://developer.ibm.com/technologies/linux/.

  • Linux auf System z-Gerätetreibern, Funktionen und Kommandos

  • zSeries ELF Application Binary Interface Supplement

  • Linux auf System z-Gerätetreibern unter Verwendung der Dump-Tools

  • IBM zEnterprise 196 Technical Guide

  • IBM zEnterprise EC12 Technical Guide

  • IBM z13 Technical Guide

  • IBM z14 Technical Guide

  • IBM z15 Technical Guide

Ein Redbook für die Linux-Anwendungsentwicklung ist verfügbar unter https://www.redbooks.ibm.com:

  • Linux on IBM eServer zSeries and S/390: Application Development (SG24-6807)

5.7.3 Erweiterte Konfigurationen für Linux auf IBM Z

Komplexere IBM Z-Szenarien finden Sie in folgenden Redbooks, Redpapers und Online-Ressourcen:

6 Installation auf Virtualisierungshosts

In diesem Abschnitt wird der Unterstützungsstatus von SUSE Linux Enterprise Server 15 SP6 beschrieben, der als Gastbetriebssystem auf verschiedenen Virtualisierungshosts (Hypervisoren) ausgeführt wird.

Tabelle 6.1: Die folgenden SUSE-Hostumgebungen werden unterstützt

SUSE Linux Enterprise Server

Hypervisors

SUSE Linux Enterprise Server 11 SP4

Xen und KVM

SUSE Linux Enterprise Server 12 SP1 bis SP5

Xen und KVM

SUSE Linux Enterprise Server 15 GA bis SP6

Xen und KVM

Die folgenden Hostumgebungen von Drittanbietern werden unterstützt

Sie können auch im SUSE YES certification database suchen.

Der Umfang der Unterstützung ist wie folgt
  • Die Unterstützung für SUSE-Host-Betriebssysteme ist vollständig L3 (sowohl für den Gast als auch für den Host) gemäß der jeweiligen product life cycle.

  • SUSE bietet vollständige L3-Unterstützung für SUSE Linux Enterprise Server-Gäste in Host-Umgebungen von Drittanbietern.

  • Unterstützung für den Host und die Zusammenarbeit mit SUSE Linux Enterprise Server-Gästen muss vom Anbieter des Hostsystems bereitgestellt werden.

7 Installation auf Hardware, die zum Zeitpunkt der Freigabe nicht unterstützt wurde

Bei bestimmter neuerer Hardware kann das Installationsmedium von SUSE Linux Enterprise Server nicht gebootet werden. Dies ist beispielsweise der Fall, wenn die Hardware zum Zeitpunkt der Freigabe von SUSE Linux Enterprise Server noch nicht erhältlich war. Für diese Situationen bietet SUSE verschiedene Kernel-Aktualisierungs-ISO-Images (kISO). In diesem Kapitel wird beschrieben, wie Sie SUSE Linux Enterprise Server mit der Kernel-Aktualisierung auf moderner Hardware installieren.

7.1 Herunterladen der Kernel-Aktualisierung

Kernel-Aktualisierungs-ISO-Images stehen auf der SUSE SolidDriver-Startseite bereit. Suchen Sie unter https://drivers.suse.com nach bootfähigen ISO-Images für Ihren Hersteller und Ihre Betriebssystemversion.

Sie können wahlweise das gesamte ISO-Image herunterladen oder auch nur die initrd- und linux-Dateien. Die ISO muss normalerweise auf ein USB-Flash-Laufwerk kopiert oder auf DVD gebrannt werden. Mit den initrd- und linux-Dateien ist ein PXE-Bootvorgang möglich. Weitere Innovationen zum Booten über PXE finden Sie in Kapitel 18, Vorbereiten der Netzwerk-Boot-Umgebung.

7.2 Booten der Kernel-Aktualisierung

Booten Sie die Kernel-Aktualisierung vom USB-Flash-Laufwerk oder über PXE. Beim Laden der linux- und initrd-Dateien werden Sie aufgefordert, das Installationsmedium einzulegen.

Auf Wunsch können Sie die in Kapitel 8, Boot-Parameter beschriebenen Boot-Parameter heranziehen. Auf diese Weise können Sie auch andere Installationsquellen als das USB-Flash-Laufwerk verwenden.

Teil II Installationsvorgang

  • 8 Boot-Parameter
  • Für SUSE Linux Enterprise Server können verschiedene Parameter beim Booten festgelegt werden, beispielsweise die Quelle der Installationsdaten oder Einstellungen für die Netzwerkkonfiguration.

  • 9 Installationsschritte
  • In diesem Kapitel wird das Verfahren beschrieben, mit dem die Daten für SUSE Linux Enterprise Server auf das Zielgerät kopiert werden. Im Rahmen des Verfahrens werden einige grundlegende Konfigurationsparameter für das soeben installierte System festgelegt. Eine grafische Benutzeroberfläche führt Sie durch die Installation. Das im Folgenden beschriebene Verfahren gilt auch für die beschriebenen Remote-Installationsvorgänge unter Kapitel 12, Ferninstallation.. Die Installation im Textmodus hat die gleichen Schritte und sieht nur anders aus. Weitere Informationen zum Ausführen nicht interaktiver automatisierter Installationen finden Sie im Book “AutoYaST Guide”.

  • 10 Registrieren von SUSE Linux Enterprise und Verwalten von Modulen/Erweiterungen
  • Für technischen Support und Produktaktualisierungen müssen Sie SUSE Linux Enterprise Server beim SUSE Customer Center registrieren und aktivieren. Es wird empfohlen, die Registrierung während der Installation vorzunehmen, da Sie so in der Lage sind, das System mit den neuesten verfügbaren Aktualisierungen und Patches zu installieren. Falls Sie gerade offline sind oder den Registrierungsschritt überspringen möchten, können Sie die Registrierung jederzeit später aus dem installierten System heraus nachholen.

    Durch Module und Erweiterungen werden dem System Funktionen hinzugefügt und Sie können das System an Ihre Bedürfnisse anpassen. Diese Komponenten müssen ebenfalls registriert werden und lassen sich mithilfe von YaST oder Kommandozeilenwerkzeugen verwalten. Detaillierte Informationen finden Sie im Article “Modules and Extensions Quick Start”.

  • 11 Festplatte vorbereiten: Expertenmodus
  • Komplexe Systemkonfigurationen erfordern besondere Festplatteneinrichtungen. Sie können alle gängigen Partitionierungsaufgaben während der Installation durchführen.

  • 12 Ferninstallation
  • SUSE® Linux Enterprise Server kann vollständig über das Netzwerk installiert werden. In diesem Kapitel wird beschrieben, wie Sie die erforderliche Umgebung für den Boot-Vorgang, die Installation und die Steuerung über das Netzwerk bereitstellen.

  • 13 Fehlersuche
  • In diesem Abschnitt werden einige häufige Installationsprobleme behandelt und mögliche Lösungen beschrieben.

8 Boot-Parameter

Für SUSE Linux Enterprise Server können verschiedene Parameter beim Booten festgelegt werden, beispielsweise die Quelle der Installationsdaten oder Einstellungen für die Netzwerkkonfiguration.

Mithilfe geeigneter Boot-Parameter können Sie den Installationsvorgang vereinfachen. Viele Parameter können mit den linuxrc-Routinen auch zu einem späteren Zeitpunkt konfiguriert werden, das Verwenden der Boot-Parameter ist jedoch viel einfacher. In einigen automatisierten Setups können die Boot-Parameter über eine initrd- oder info-Datei bereitgestellt werden.

Das Verfahren zum Starten des Systems ist abhängig von der jeweiligen Architektur; ein PC (AMD64/Intel 64) wird beispielsweise anders gestartet als ein Mainframe. Wenn Sie SUSE Linux Enterprise Server als VM-Gast (VM Guest) auf einem KVM- oder Xen-Hypervisor installieren, befolgen Sie die Anweisungen für die AMD64-/Intel-64-Architektur.

Anmerkung
Anmerkung: Boot-Optionen und Boot-Parameter

Die Begriffe Boot-Parameter und Boot-Optionen werden häufig synonym verwendet. In dieser Dokumentation finden Sie größtenteils den Begriff Boot-Parameter.

8.1 Standardmäßige Boot-Parameter

Die Boot-Parameter werden genauer unter Kapitel 9, Installationsschritte erläutert. In der Regel wird durch die Auswahl von Installation der Bootvorgang für die Installation gestartet.

Verwenden Sie bei Problemen Installation – ACPI deaktiviert bzw. Installation – Sichere Einstellungen. Weitere Informationen zu Fehlerbehebung beim Installationsvorgang finden Sie in Kapitel 13, Fehlersuche.

Die Menüleiste unten im Bildschirm enthält erweiterte Funktionen, die bei manchen Setups erforderlich sind. Mithilfe der Funktionstasten F1 bis F12 können Sie zusätzliche Optionen angeben, die an die Installationsroutinen weitergegeben werden, ohne dass Sie die detaillierte Syntax dieser Parameter kennen müssen (siehe Kapitel 8, Boot-Parameter). Eine detaillierte Beschreibung der verfügbaren Funktionstasten finden Sie in Abschnitt 8.2.1, „Der Bootbildschirm auf Computern mit herkömmlichem BIOS“.

8.2 PC (AMD64/Intel 64/Arm AArch64)

In diesem Abschnitt wird beschrieben, wie Sie die Boot-Parameter für AMD64, Intel 64 und Arm AArch64 bearbeiten.

8.2.1 Der Bootbildschirm auf Computern mit herkömmlichem BIOS

Im Bootbildschirm werden mehrere Optionen für den Installationsvorgang angezeigt. Von Festplatte booten bootet das installierte System und ist standardmäßig ausgewählt. Wählen sie eine der anderen Optionen mit den Pfeiltasten aus und drücken Sie Eingabetaste, um das System zu booten. Folgende Optionen sind relevant:

Installation

Der normale Installationsmodus. Alle modernen Hardwarefunktionen sind aktiviert. Sollte die Installation fehlschlagen, finden Sie unter F5 Kernel die Boot-Parameter, die mögliche problematische Funktionen deaktivieren.

Upgrade

Führt ein Upgrade des Systems aus. Weitere Informationen finden Sie im Book “Upgradehandbuch”, Chapter 2 “Upgrade-Pfade und -Methoden”.

Weitere › Rettungssystem

Startet ein minimales Linux-System ohne grafische Bedienoberfläche.

Weitere › Linux-System starten

Starten Sie ein Linux-System, das bereits installiert ist. Sie werden gefragt, von welcher Partition das System gestartet werden soll.

Weitere › Installationsmedien prüfen

Diese Option is nur verfügbar, wenn Sie von einem Medium aus installieren, das von heruntergeladenen ISOs erstellt wurde. In diesem Fall empfiehlt es sich, die Integrität des Installationsmediums zu überprüfen. Diese Option startet das Installationssystem, bevor die Medien automatisch überprüft werden. Nach erfolgreicher Überprüfung wird die herkömmliche Installationsroutine gestartet. Wenn dabei ein fehlerhaftes Medium gefunden wird, so wird die Installationsroutine abgebrochen. Ersetzen Sie das defekte Medium und starten Sie den Installationsvorgang neu.

Weitere › Speichertest

Testet Ihren System-RAM durch wiederholte Lese- und Schreibzyklen. Der Test kann durch erneutes Booten abgebrochen werden. Weitere Informationen finden Sie im Abschnitt 13.4, „Boot-Fehler“.

Der Boot-Bildschirm auf Computern mit herkömmlichem BIOS
Abbildung 8.1: Der Boot-Bildschirm auf Computern mit herkömmlichem BIOS

Mit den Funktionstasten in der Leiste am unteren Rand des Bildschirms können Sie die Sprache, die Bildschirmauflösung oder die Installationsquelle ändern oder zusätzliche Treiber von Ihrem Hardware-Anbieter hinzufügen:

F1 Hilfe

Rufen Sie die kontextabhängige Hilfe für das aktive Element des Boot-Bildschirms auf. Verwenden Sie die Pfeiltasten zum Navigieren, Eingabetaste zur Verfolgung eines Links und Esc zum Verlassen des Hilfe-Bildschirms.

F2 Sprache

Wählen sie die Anzeigesprache und ein entsprechendes Tastatur-Layout für die Installation aus. Die Standardsprache ist Englisch (US).

F3 Videomodus

Wählen Sie verschiedene Modi für die grafische Darstellung während der Installation aus. Bei Standard wird die Bildauflösung automatisch anhand der KMS (Kernel Mode Setting) ermittelt. Falls diese Einstellung auf dem System nicht funktioniert, wählen Sie No KMS (Kein KMS). Geben Sie (optional) das Kommando vga=ask in der Boot-Kommandozeile ein, damit Sie aufgefordert werden, die Bildauflösung festzulegen. Wählen Sie Textmodus, wenn die grafische Installation Probleme verursacht.

F4Quelle

In der Regel wird die Installation vom eingelegten Installationsdatenträger ausgeführt. Hier können Sie eine andere Quelle, beispielsweise einen FTP- oder NFS-Server, auswählen oder einen Proxyserver konfigurieren. Wenn die Installation in einem Netzwerk mit einem SLP-Server bereitgestellt wird, wählen Sie mit dieser Option eine auf dem Server verfügbare Installationsquelle. Weitere Informationen zum Einrichten eines Installationsservers mit SLP finden Sie in Kapitel 17, Einrichten einer Netzwerkinstallationsquelle.

F5 Kernel

Falls bei der regulären Installation Probleme aufgetreten sind, bietet Ihnen dieses Menü Möglichkeiten zur Deaktivierung einiger potenziell problematischer Funktionen an. Wenn Ihre Hardware ACPI (Advanced Configuration and Power Interface) nicht unterstützt, wählen Sie Keine ACPI aus, um die Installation ohne Unterstützung durch ACPI durchzuführen. Die Option Keine lokalen APIC deaktiviert die Unterstützung für APIC (Advanced Programmable Interrupt Controllers), was Probleme bei mancher Hardware verursachen könnte. Die Option Sichere Einstellungen bootet das System mit deaktiviertem DMA-Modus (für CD/DVD-ROM-Laufwerke); Energieverwaltungsfunktionen werden ebenfalls deaktiviert.

Falls Sie nicht sicher sind, verwenden Sie zunächst probehalber die folgenden Optionen: Installation – ACPI deaktiviert oder Installation – Sichere Einstellungen. Experten können auch die Kommandozeile Bootoptionen verwenden, um Kernel-Parameter einzugeben oder zu ändern.

F6 Treiber

Drücken Sie diese Taste, um das System darüber zu benachrichtigen, dass Sie eine optionale Treiberaktualisierung für SUSE Linux Enterprise Server verwenden. Mithilfe von Datei oder URL laden Sie die Treiber direkt vor dem Start der Installation. Wenn Sie Ja auswählen, werden Sie aufgefordert, den Datenträger für die Aktualisierung am entsprechenden Punkt im Installationsprozess einzufügen.

Tipp
Tipp: Anfordern von Datenträgern mit Treiberaktualisierungen

Treiberaktualisierungen für SUSE Linux Enterprise finden Sie unter https://drivers.suse.com/. Diese Treiber wurden über das SUSE SolidDriver-Programm erstellt.

8.2.2 Der Boot-Bildschirm auf Computern mit UEFI

Der neue Branchenstandard UEFI (Unified Extensible Firmware Interface) ersetzt und erweitert das herkömmliche BIOS. Die jüngsten UEFI-Implementationen enthalten die Secure Boot-Erweiterung, mit der ausschließlich signierte Bootloader ausgeführt werden. So wird das Booten von böswilligem Code verhindert.Weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 17 “UEFI (Unified Extensible Firmware Interface)”.

Der Boot-Manager GRUB 2 zum Booten von Rechnern mit herkömmlichem BIOS bietet keine Unterstützung für UEFI, weshalb GRUB 2 durch GRUB 2 für EFI ersetzt wird. Wenn Secure Boot aktiviert ist, wählt YaST bei der Installation automatisch GRUB 2 für EFI aus. Aus Sicht der Administratoren und Benutzer verhalten sich die beiden Boot-Manager-Implementierungen identisch; im Folgenden werden beide daher als GRUB 2 bezeichnet.

Tipp
Tipp: Verwenden von zusätzlichen Treibern mit Secure Boot

Wenn Sie die Installation mit aktiviertem Secure Boot vornehmen, können Sie keine Treiber laden, die nicht im Lieferumfang von SUSE Linux Enterprise Server enthalten sind. Dies gilt auch für Treiber, die über SolidDriver vertrieben werden, da ihr Signierschlüssel standardmäßig als nicht vertrauenswürdig betrachtet wird.

Mit den folgenden Verfahren können Sie Treiber laden, die nicht im Lieferumfang von SUSE Linux Enterprise Server enthalten sind:

  • Nehmen Sie die erforderlichen Schlüssel vor der Installation mit Firmware-/Systemmanagement-Tools in die Firmware-Datenbank auf.

  • Verwenden Sie eine bootfähige ISO, die die erforderlichen Schlüssel beim ersten Booten in die MOK-Liste einträgt.

Weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 17 “UEFI (Unified Extensible Firmware Interface)”, Section 17.1 “Secure Boot”.

Im Bootbildschirm werden mehrere Optionen für den Installationsvorgang angezeigt. Ändern Sie die ausgewählte Optionen mit den Pfeiltasten und drücken Sie Eingabetaste, um das System zu booten. Folgende Optionen sind relevant:

Installation

Der normale Installationsmodus. Alle modernen Hardwarefunktionen sind aktiviert. Sollte die Installation fehlschlagen, finden Sie unter F5 Kernel die Boot-Parameter, die mögliche problematische Funktionen deaktivieren.

Upgrade

Führt ein Upgrade des Systems aus. Weitere Informationen finden Sie im Book “Upgradehandbuch”, Chapter 2 “Upgrade-Pfade und -Methoden”.

Weitere › Rettungssystem

Startet ein minimales Linux-System ohne grafische Bedienoberfläche.

Weitere › Linux-System starten

Starten Sie ein Linux-System, das bereits installiert ist. Sie werden gefragt, von welcher Partition das System gestartet werden soll.

Weitere › Installationsmedien prüfen

Diese Option is nur verfügbar, wenn Sie von einem Medium aus installieren, das von heruntergeladenen ISOs erstellt wurde. In diesem Fall empfiehlt es sich, die Integrität des Installationsmediums zu überprüfen. Diese Option startet das Installationssystem, bevor die Medien automatisch überprüft werden. Nach erfolgreicher Überprüfung wird die herkömmliche Installationsroutine gestartet. Wenn dabei ein fehlerhaftes Medium gefunden wird, so wird die Installationsroutine abgebrochen.

Der Boot-Bildschirm auf Computern mit UEFI
Abbildung 8.2: Der Boot-Bildschirm auf Computern mit UEFI

GRUB 2 für EFI auf SUSE Linux Enterprise Server unterstützt keinen Bootprompt und keine Funktionstasten zum Hinzufügen von Bootparametern. Standardmäßig wird die Installation in englischer Sprache (amerikanisches Englisch) und den Bootmedien als Installationsquelle gestartet. Zum Konfigurieren des Netzwerks wird eine DHCP-Suche ausgeführt. Sollen diese Standardeinstellungen geändert oder Bootparameter hinzugefügt werden, müssen Sie den entsprechenden Booteintrag bearbeiten. Markieren Sie den Eintrag mit den Pfeiltasten und drücken Sie E. In der Bildschirmhilfe finden Sie Tipps zur Bearbeitung (beachten Sie bitte, dass die englische Tastaturbelegung gilt). Der Eintrag Installation ist in etwa wie folgt aufgebaut:

setparams 'Installation'

   set gfxpayload=keep
   echo 'Loading kernel ...'
   linuxefi /boot/x86_64/loader/linux splash=silent
   echo 'Loading initial ramdisk ...'
   initrdefi /boot/x86_64/loader/initrd

Fügen Sie die Parameter (jeweils durch Leerzeichen getrennt) am Ende der Zeile ein, die mit linuxefi beginnt. Zum Booten des bearbeiteten Eintrags drücken Sie F10. Wenn Sie den Computer über die serielle Konsole bedienen, drücken Sie Esc 0. Unter https://en.opensuse.org/Linuxrc finden Sie eine vollständige Liste der Parameter.

8.3 Liste wichtiger Boot-Parameter

In diesem Abschnitt finden Sie eine Auswahl der wichtigsten Boot-Parameter.

8.3.1 Allgemeine Boot-Parameter

autoyast=URL

Der Parameter autoyast gibt den Speicherort der Steuerungsdatei autoinst.xml für die automatische Installation an.

manual=<0|1>

Mit dem Parameter manual wird gesteuert, ob die anderen Parameter nur Standardwerte sind, die vom Benutzer noch akzeptiert werden müssen. Setzen Sie diesen Parameter auf 0, wenn alle Werte ohne Nachfrage übernommen werden sollen. Durch Festlegen von autoyast wird manual auf 0 gesetzt.

Info=URL

Gibt einen Standort für eine Datei an, von der zusätzliche Optionen gelesen werden sollen.

IBM Z Dadurch werden die Beschränkungen auf 10 Zeilen (und 80 Zeichen pro Zeile unter z/VM) für diese Parameterdatei außer Kraft gesetzt. Weitere Dokumentationen zur Infodatei finden Sie im Book “AutoYaST Guide”, Chapter 9 “The auto-installation process”, Section 9.3.3 “Combining the linuxrc info file with the AutoYaST control file”. Der Zugriff auf die Infodatei ist in der Regel nur über das Netzwerk auf IBM Z möglich. Daher können Sie in dieser Datei keine Optionen angeben, die zum Einrichten des Netzwerks erforderlich sind (d. h. die in Abschnitt 8.3.2, „Konfigurieren der Netzwerkschnittstelle“ beschriebenen Optionen). In der Parameterdatei müssen auch andere linuxrc-spezifischen Optionen wie die zur Fehlersuche angegeben werden, um wirksam zu werden.

upgrade=<0|1>

Geben Sie zum Upgrade von SUSE Linux Enterprise Server den Parameter Upgrade=1 an.

IBM Z Soll eine bestehende Installation von SUSE Linux Enterprise upgegradet werden, ist eine benutzerdefinierte parmfile erforderlich. Ohne diesen Parameter bietet die Installation keine Upgradeoption.

dud=URL

Lädt Treiberaktualisierungen von URL herunter.

Legen Sie dud=ftp://ftp.example.com/PATH_TO_DRIVER oder dud=http://www.example.com/PATH_TO_DRIVER fest, um Treiber über eine URL zu laden. Wenn Sie dud=1 angeben, werden Sie beim Booten nach der URL gefragt.

language=LANGUAGE

Wählen Sie eine Sprache für die Installation aus. Zu den unterstützten Werten zählen cs_CZ, de_DE, es_ES, fr_FR, ja_JP, pt_BR, pt_PT, ru_RU, zh_CN und zh_TW.

acpi=off

Deaktiviert die ACPI-Unterstützung.

noapic

Keine logischen APIC.

nomodeset

Deaktiviert KMS.

textmode=1

Startet das Installationsprogramm im Textmodus.

console=SERIAL_DEVICE[,MODE]

SERIAL_DEVICE kann auf ein physisches serielles oder paralleles Gerät verweisen (z. B. ttyS0) oder auch auf ein virtuelles Terminal (z. B. tty1). MODE bezeichnet die Baud-Rate, die Parität und das Stopp-Bit (z. B. 9600n8). Der Standardwert für diese Einstellung wird über die Mainboard-Firmware festgelegt. Falls keine Ausgabe auf dem Monitor angezeigt wird, legen Sie probehalber console=tty1 fest. Sie können mehrere Geräte definieren.

8.3.2 Konfigurieren der Netzwerkschnittstelle

Wichtig
Wichtig: Konfigurieren der Netzwerkschnittstelle

Die in diesem Abschnitt beschriebenen Einstellungen gelten nur für die während der Installation verwendete Netzwerkschnittstelle. Konfigurieren Sie zusätzliche Netzwerkschnittstellen im installierten System gemäß den Anleitungen in Book “Verwaltungshandbuch”, Chapter 23 “Grundlegendes zu Netzwerken”, Section 23.5 “Manuelle Netzwerkkonfiguration”.

Das Netzwerk wird nur dann konfiguriert, wenn dies im Rahmen der Installation erforderlich ist. Mit dem Parameter netsetup oder ifcfg geben Sie an, dass das Netzwerk in jedem Fall konfiguriert werden soll.

netsetup=VALUE

netsetup=dhcp erzwingt eine Konfiguration über DHCP. Legen Sie netsetup=-dhcp fest, wenn Sie das Netzwerk mit den Boot-Parametern hostip, gateway und nameserver konfigurieren. Mit der Option netsetup=hostip,netmask,gateway,nameserver fragt das Installationsprogramm beim Booten nach den Netzwerkeinstellungen.

ifcfg=INTERFACE[.VLAN]=[.try,]SETTINGS

Für INTERFACE können Sie * (alle Schnittstellen) festlegen oder auch beispielsweise eth* (alle Schnittstellen, die mit eth beginnen). Außerdem können Sie MAC-Adressen als Werte angeben.

Optional können Sie nach dem Schnittstellennamen einen Punkt eingeben und dann ein VLAN festlegen.

Wenn für SETTINGS der Wert dhcp angegeben ist, werden alle passenden Schnittstellen mit DHCP konfiguriert. Beim Hinzufügen der Option try wird die Konfiguration beendet, wenn das Installations-Repository über eine der konfigurierten Schnittstellen erreicht werden kann.

Alternativ können Sie eine statische Konfiguration verwenden. Bei statischen Parametern wird nur die erste passende Schnittstelle konfiguriert, es sei denn, Sie fügen die Option try hinzu. Dadurch werden alle Schnittstellen konfiguriert, bis das Repository erreicht werden kann.

Die Syntax für die statische Konfiguration lautet:

ifcfg=*="IPS_NETMASK,GATEWAYS,NAMESERVERS,DOMAINS"

Die einzelnen durch Komma getrennten Werte können jeweils eine Liste mit Werten enthalten, die wiederum durch Leerzeichen getrennt sind. IPS_NETMASK ist in der CIDR-Schreibweise anzugeben, z. B. 10.0.0.1/24. Anführungszeichen sind nur dann erforderlich, wenn Werte in Listen durch Leerzeichen voneinander getrennt sind. Beispiel mit zwei Nameservern:

ifcfg=*="10.0.0.10/24,10.0.0.1,10.0.0.1 10.0.0.2,example.com"
Tipp
Tipp: Sonstige Netzwerkparameter

Mit dem leistungsstarken Boot-Parameter ifcfg lassen sich nahezu alle Networking-Parameter festlegen. Zusätzlich zu den oben genannten Parametern können Sie Werte für alle Konfigurationsoptionen (durch Komma getrennt) von /etc/sysconfig/network/ifcfg.template und /etc/sysconfig/network/config festlegen. Im folgenden Beispiel wird eine benutzerdefinierte MTU-Größe auf einer Oberfläche festgelegt, die ansonsten über DHCP konfiguriert wird:

ifcfg=eth0=dhcp,MTU=1500
hostname=host.example.com

Geben Sie den vollständigen Hostnamen ein.

domain=example.com

Domänensuchpfad für DNS. Ermöglicht Ihnen, kurze anstelle von vollständig qualifizierten Hostnamen zu verwenden.

hostip=192.168.1.2[/24]

Geben Sie die IP-Adresse der zu konfigurierenden Schnittstelle ein. Die IP kann die Teilnetzmaske enthalten, z. B. hostip=192.168.1.2/24. Diese Einstellung wird nur dann beachtet, wenn das Netzwerk während der Installation erforderlich ist.

gateway=192.168.1.3

Geben Sie den gewünschten Gateway an. Diese Einstellung wird nur dann beachtet, wenn das Netzwerk während der Installation erforderlich ist.

nameserver=192.168.1.4

Geben Sie den beteiligten DNS-Server an. Diese Einstellung wird nur dann beachtet, wenn das Netzwerk während der Installation erforderlich ist.

domain=example.com

Domänensuchpfad. Diese Einstellung wird nur dann beachtet, wenn das Netzwerk während der Installation erforderlich ist.

8.3.3 Angeben der Installationsquelle

Geben Sie eine alternative Installationsquelle an, falls Sie die Installation nicht über DVD oder USB-Flash-Laufwerk ausführen.

install=SOURCE

Geben Sie den Speicherort der zu verwendenden Installationsquelle an. Mögliche Protokolle sind cd, hd, slp, nfs, smb (Samba/CIFS), ftp, tftp, http und https. Nicht alle Quelltypen sind auf allen Plattformen verfügbar. IBM Z unterstützt beispielsweise nicht cd und hd.. Die Standardoption ist cd.

Soll die Installation über eine verschlüsselte Verbindung erfolgen, verwenden Sie eine URL vom Typ https. Falls das Zertifikat nicht überprüft werden kann, deaktivieren Sie die Prüfung von Zertifikaten mit dem Boot-Parameter sslcerts=0.

Wird eine http-, https-, ftp-, tftp- oder smb-URL angegeben, können Sie die Authentifizierung durch Angabe von Benutzername und Passwort in der URL durchführen. Beispiel:

install=https://USER:PASSWORD@SERVER/DIRECTORY/DVD1/

Bei einer Samba- oder CIFS-Installation können Sie zudem die Domäne angeben, die verwendet werden soll:

install=smb://WORKDOMAIN;USER:PASSWORD@SERVER/DIRECTORY/DVD1/

Um cd, hd oder slp zu verwenden, legen Sie sie wie im folgenden Beispiel fest:

install=cd:/
install=hd:/?device=sda/PATH_TO_ISO
install=slp:/

8.3.4 Festlegen des Fernzugriffs

Es darf jeweils nur eine Fernsteuerungsmethode herangezogen werden, nicht mehrere Methoden gleichzeitig. Die verschiedenen Methoden sind SSH, VNC sowie Remote X-Server. Weitere Informationen zur Verwendung der Parameter in diesem Abschnitt finden Sie in Kapitel 12, Ferninstallation.

display_ip=IP_ADDRESS

Mit Display_IP versucht das Installationssystem, eine Verbindung zu einem X-Server unter der angegebenen Adresse herzustellen.

Wichtig
Wichtig: X-Authentifizierungsmechanismus

Die direkte Installation über das X Window System beruht auf einem einfachen auf Hostnamen basierenden Authentifizierungsmechanismus. Dieser Mechanismus ist in den aktuellen Versionen von SUSE Linux Enterprise Server deaktiviert. Die Installation mit SSH oder VNC wird bevorzugt.

vnc=1

Aktiviert einen VNC-Server während der Installation.

vncpassword=PASSWORD

Legt das Passwort für den VNC-Server fest.

ssh=1

Mit ssh wird die SSH-Installation aktiviert.

ssh.password=PASSWORD

Gibt ein SSH-Passwort für den root-Benutzer während der Installation an.

8.4 Erweiterte Einrichtungen

Soll der Zugriff auf einen lokalen RMT- oder supportconfig-Server für die Installation konfiguriert werden, können Sie die entsprechenden Boot-Parameter zum Einrichten dieser Dienste während der Installation angeben. Dies gilt auch für die IPv6-Unterstützung während der Installation.

8.4.1 Bereitstellung von Daten für den Zugriff auf einen RMT-Server

Standardmäßig werden Aktualisierungen für SUSE Linux Enterprise Server durch das SUSE Customer Center bereitgestellt. Wenn das Netzwerk einen RMT-Server (Repository Mirroring Tool) als lokale Aktualisierungsquelle bereitstellt, müssen Sie dem Client die Server-URL mitteilen. Client und Server kommunizieren ausschließlich über das HTTPS-Protokoll. Daher müssen Sie auch einen Pfad zum Serverzertifikat eingeben, wenn das Zertifikat nicht von einer Zertifizierungsstelle stammt.

Anmerkung
Anmerkung: Nur nicht-interaktive Installation

Die Angabe von Parametern für den Zugriff auf einen RMT-Server ist nur für nicht interaktive Installationen erforderlich. Während einer interaktiven Installation können die Daten während der Installation angegeben werden (weitere Details finden Sie in Abschnitt 9.7, „Registrierung“).

regurl

URL des RMT-Servers. Für diese URL gilt das feste Format https://FQN/center/regsvc/. FQN muss der vollständig qualifizierte Hostname des RMT-Servers sein. Beispiel:

regurl=https://smt.example.com/center/regsvc/

Achten Sie darauf, dass Sie richtige Werte eingeben. Wenn regurl nicht richtig angegeben wurde, schlägt die Registrierung der Aktualisierungsquelle fehl.

regcert

Standort des RMT-Serverzertifikats. Geben Sie eine der folgenden Optionen an:

URL

Remotestandort (HTTP, HTTPS oder FTP), von dem das Zertifikat heruntergeladen werden kann. Wenn regcert nicht festgelegt ist, wird standardmäßig http://FQN/smt.crt verwendet, wobei FQN der Name des RMT-Servers ist. Beispiel:

regcert=http://rmt.example.com/smt-ca.crt
Lokaler Pfad

Absoluter Pfad zum Zertifikat auf dem lokalen Rechner. Beispiel:

regcert=/data/inst/smt/smt-ca.cert
Interaktiv

Verwenden Sie ask während der Installation zum Öffnen eines Popup-Menüs, in dem Sie den Pfad zum Zertifikat angeben können. Verwenden Sie diese Option nicht bei AutoYaST. Beispiel

regcert=ask
Zertifikatsinstallation deaktivieren

Verwenden Sie done, wenn das Zertifikat durch ein Add-on-Produkt installiert wird oder wenn Sie ein Zertifikat verwenden, das durch eine offizielle Zertifizierungsstelle ausgestellt wurde. Beispiel:

regcert=done

8.4.2 Konfigurieren eines alternativen Datenservers für supportconfig

Die von supportconfig (weitere Informationen im Book “Verwaltungshandbuch”, Chapter 47 “Erfassen der Systeminformationen für den Support”) gesammelten Daten werden standardmäßig an das SUSE Customer Center gesendet. Es ist auch möglich, einen lokalen Server zum Erfassen dieser Daten einzurichten. Wenn ein solcher Server in Ihrem Netzwerk verfügbar ist, müssen Sie die URL des Servers am Client festlegen. Diese Daten müssen beim Bootprompt eingegeben werden.

supporturl URL des Servers. Für die URL gilt das Format http://FQN/Path/, wobei FQN den vollständig qualifizierten Hostnamen des Servers und Path den Speicherort auf dem Server bezeichnet. Beispiel:

supporturl=http://support.example.com/supportconfig/data/

8.4.3 Verwenden von IPv6 für die Installation

Standardmäßig können Sie Ihrem Computer nur IPv4-Netzwerkadressen zuweisen. Zum Aktivieren von IPv6 während der Installation geben Sie einen der folgenden Parameter am Bootprompt ein:

IPv4 und IPv6 akzeptieren
ipv6=1
Nur IPv6 akzeptieren
ipv6only=1

8.4.4 Verwenden eines Proxys für die Installation

In Netzwerken, in denen der Zugriff auf Remote-Websites über einen Proxyserver erzwungen wird, ist die Registrierung während der Installation nur dann möglich, wenn Sie einen Proxyserver konfigurieren.

Drücken Sie auf Systemen mit herkömmlichem BIOS F4 auf dem Boot-Bildschirm, und legen Sie die erforderlichen Parameter im Dialogfeld HTTP-Proxy fest.

Auf Systemen mit UEFI BIOS geben Sie an der Boot-Eingabeaufforderung den Boot-Parameter proxy an:

  1. Drücken Sie auf dem Boot-Bildschirm auf E, um das Boot-Menü zu bearbeiten.

  2. Fügen Sie den Parameter proxy in folgendem Format an die Zeile linux an:

    proxy=https://proxy.example.com:PORT

    Wenn für den Proxy-Server eine Authentifizierung erforderlich ist, fügen Sie den Berechtigungsnachweis wie folgt hinzu:

    proxy=https://USER:PASSWORD@proxy.example.com:PORT

    Falls das SSL-Zertifikat des Proxyservers nicht überprüft werden kann, deaktivieren Sie die Prüfung von Zertifikaten mit dem Boot-Parameter sslcerts=0.

    Der Eintrag ähnelt dem folgenden:

    Editor für GRUB-Optionen
    Abbildung 8.3: Editor für GRUB-Optionen
  3. Drücken Sie F10 zum Booten mit der neuen Proxy-Einstellung.

8.4.5 Aktivieren der SELinux-Unterstützung

Wenn Sie SELinux beim Starten der Installation aktivieren, können Sie SELinux direkt nach Abschluss der Installation konfigurieren, ohne den Computer neu starten zu müssen. Die folgenden Parameter stehen zur Verfügung:

security=selinux selinux=1

8.4.6 Aktivieren der Selbstaktualisierung für das Installationsprogramm

Bei der Installation und beim Upgrade kann YaST sich selbst aktualisieren (siehe Abschnitt 9.2, „Selbstaktualisierung des Installationsprogramms“) und so potenzielle Fehler beheben, die erst nach der Freigabe festgestellt wurden. Mit dem Parameter self_update bestimmen Sie das Verhalten dieser Funktion.

Soll die Selbstaktualisierung des Installationsprogramms aktiviert werden, stellen Sie den Parameter auf 1 ein:

self_update=1

Soll ein benutzerdefiniertes Repository verwendet werden, geben Sie eine URL an:

self_update=https://updates.example.com/

8.4.7 Wiederverwenden des LVM

Ab SUSE Linux Enterprise 15 SP6 verwendet das Installationsprogramm im Rahmen der geführten Einrichtung keine bereits vorhandenen Konfigurationen für den Logical Volume Manager (LVM) mehr, da dies verwirrend sein und zu suboptimalen Konfigurationen führen kann. Wenn Sie einen vorhandenen LVM unabhängig davon wiederverwenden möchten, verwenden Sie den Parameter YAST_REUSE_LVM oder konfigurieren Sie ihn manuell in Festplatte vorbereiten: Expertenmodus (Kapitel 11, Festplatte vorbereiten: Expertenmodus).

8.4.8 Skalieren der Benutzeroberfläche für hohen DPI-Wert

Für einen Bildschirm mit einem sehr hohen DPI-Wert verwenden Sie den Boot-Parameter QT_AUTO_SCREEN_SCALE_FACTOR. Damit werden die Schrift und Elemente der Benutzeroberfläche entsprechend des DPI-Werts des Bildschirms skaliert.

QT_AUTO_SCREEN_SCALE_FACTOR=1

8.4.9 Verwenden von CPU-Mitigationen

Mit dem Boot-Parameter mitigations steuern Sie Mitigationsoptionen für Seitenkanalangriffe auf betroffenen CPUs. Zulässige Werte:

auto Aktiviert alle erforderlichen Mitigationen für Ihr CPU-Modell, schützt jedoch nicht vor CPU-übergreifenden Thread-Angriffen. Diese Einstellung kann die Leistung in gewissem Maße einschränken, je nach Auslastung.

nosmt Aktiviert alle verfügbaren Sicherheitsmitigationen. Aktiviert alle erforderlichen Mitigationen für Ihr CPU-Modell. Darüber hinaus wird Simultaneous Multithreading (SMT) deaktiviert, sodass Seitenkanalangriffe über mehrere CPU-Threads unterbunden werden. Diese Einstellung kann die Leistung weiter einschränken, je nach Auslastung.

off Deaktiviert alle Mitigationen. Es sind Seitenkanalangriffe gegen die CPU möglich, je nach CPU-Modell. Diese Einstellung wirkt sich nicht auf die Leistung aus.

Die einzelnen Werte umfassen bestimmte Parameter, je nach CPU-Architektur, Kernel-Version und den zu mitigierenden Schwachstellen. Weitere Informationen finden Sie in der Kernel-Dokumentation.

8.4.10 LUKS 2-Unterstützung

Die LUKS2-Verschlüsselung wird vom YaST-Installationsprogramm ab SUSE Linux Enterprise 15 SP4 unterstützt, muss jedoch explizit aktiviert werden.

YAST_LUKS2_AVAILABLE

Alternativ können Sie LUKS2 auch in der YaST-Expertenkonsole aktivieren. Weitere Informationen hierzu finden Sie unter Abschnitt 11.2, „Geräte-Verschlüsselung“.

8.5 IBM Z

Systeme mit der IBM Z-Plattform werden gemäß den Anweisungen in Abschnitt 5.3.4, „Ausführen des IPL-Vorgangs für das SUSE Linux Enterprise Server-Installationssystem“ gestartet (IPL, Initial Program Load). Bei diesen Systemen zeigt SUSE Linux Enterprise Server keinen Startbildschirm an. Laden Sie während des Installationsvorgangs den Kernel, initrd und parmfile manuell. YaST beginnt mit seinem Installationsbildschirm, sobald über VNC, X oder SSH eine Verbindung zum Installationssystem aufgebaut wurde. Da kein Startbildschirm vorhanden ist, können Kernel- oder Boot-Parameter nicht am Bildschirm eingegeben werden. Sie müssen stattdessen in einer Parameterdatei (parmfile) angegeben werden (siehe Abschnitt 5.5, „Die Parmfile – Automatisierte Systemkonfiguration“).

InstNetDev=osa

Geben Sie den zu konfigurierenden Schnittstellentyp ein. Mögliche Werte sind osa, hsi, ctc, escon und iucv (CTC, ESCON und IUCV werden offiziell nicht mehr unterstützt).

Geben Sie für die Schnittstellen vom Typ hsi und osa eine geeignete Netzmaske und eine optionale Broadcast-Adresse an:

Netmask=255.255.255.0
Broadcast=192.168.255.255

Geben Sie für Schnittstellen vom Typ ctc, escon und iucv (CTC, ESCON und IUCV werden offiziell nicht mehr unterstützt) die IP-Adresse des Peer ein:

Pointopoint=192.168.55.20
OsaInterface=<lcs|qdio>

Geben Sie für osa-Netzwerkgeräte die Host-Schnittstelle (qdio oder lcs) an.

Layer2=<0|1>

Geben Sie für osa-QDIO-Ethernet- und hsi-Geräte an, ob die Unterstützung von OSI-Schicht 2 aktiviert (1) oder deaktiviert (0) werden soll.

OSAHWAddr=02:00:65:00:01:09

Für Schicht-2-fähige osa QDIO Ethernet-Geräte geben Sie entweder manuell eine MAC-Adresse an oder legen Sie OSAHWADDR= (mit nachgestelltem Leerzeichen) als Systemstandardwert fest.

PortNo=<0|1>

Geben Sie für osa-Netzwerkgeräte die Portnummer an (sofern das Gerät diese Funktion unterstützt). Der Standardwert ist 0.

Für die einzelnen Schnittstellen sind bestimmte Setup-Optionen erforderlich:

  • Schnittstellen ctc und escon (CTC und ESCON werden offiziell nicht mehr unterstützt):

    ReadChannel=0.0.0600
    WriteChannel=0.0.0601

    Mit ReadChannel wird der zu verwendende READ-Kanal angegeben. WriteChannel gibt den WRITE-Kanal an.

  • Geben Sie für die Schnittstelle ctc (wird offiziell nicht mehr unterstützt) das Protokoll an, das für diese Schnittstelle verwendet werden soll:

    CTCProtocol=<0/1/2>

    Gültige Einträge:

    0

    Kompatibilitätsmodus, auch für Nicht-Linux-Peers mit Ausnahme von OS/390 und z/OS (dies ist der Standardmodus)

    1

    Erweiterter Modus

    2

    Kompatibilitätsmodus mit OS/390 und z/OS

  • Netzwerkgerätetyp osa mit Schnittstelle lcs:

    ReadChannel=0.0.0124

    ReadChannel steht für die in dieser Einrichtung verwendete Kanalnummer. Die zweite Portnummer kann hiervon abgeleitet werden, indem Sie ReadChannel den Wert 1 hinzufügen. Mit Portnumber wird der relative Port angegeben.

  • Schnittstelle iucv:

    IUCVPeer=PEER

    Geben Sie den Namen des Peer-Computers ein.

  • Netzwerkgerätetyp osa mit Schnittstelle qdio für OSA-Express Gigabit Ethernet:

    ReadChannel=0.0.0700
    WriteChannel=0.0.0701
    DataChannel=0.0.0702

    Geben Sie für ReadChannel die Nummer des READ-Kanals ein. Geben Sie für WriteChannel die Nummer des WRITE-Kanals ein. DataChannel gibt den DATA-Kanal an. Stellen Sie sicher, dass für den READ-Kanal eine gerade Gerätenummer festgelegt ist.

  • Schnittstelle hsi für HiperSockets und VM-Gast-LANs:

    ReadChannel=0.0.0800
    WriteChannel=0.0.0801
    DataChannel=0.0.0802

    Geben Sie für ReadChannel die entsprechende Nummer des READ-Kanals ein. Geben Sie für WriteChannel und DataChannel die Nummern des WRITE- bzw. des DATA-Kanals ein.

8.6 Zusätzliche Informationsquellen

Weitere Informationen zu den Boot-Parametern finden Sie im openSUSE-Wiki unter https://en.opensuse.org/SDB:Linuxrc#Parameter_Reference.

9 Installationsschritte

In diesem Kapitel wird das Verfahren beschrieben, mit dem die Daten für SUSE Linux Enterprise Server auf das Zielgerät kopiert werden. Im Rahmen des Verfahrens werden einige grundlegende Konfigurationsparameter für das soeben installierte System festgelegt. Eine grafische Benutzeroberfläche führt Sie durch die Installation. Das im Folgenden beschriebene Verfahren gilt auch für die beschriebenen Remote-Installationsvorgänge unter Kapitel 12, Ferninstallation.. Die Installation im Textmodus hat die gleichen Schritte und sieht nur anders aus. Weitere Informationen zum Ausführen nicht interaktiver automatisierter Installationen finden Sie im Book “AutoYaST Guide”.

Lesen Sie Teil I, „Installationsvorbereitung“, bevor Sie das Installationsprogramm starten. Hier werden die Schritte beschrieben, mit denen Sie die Installation starten (abhängig von der Architektur ihres Systems).

Wenn Sie SUSE Linux Enterprise Server zum ersten Mal verwenden, sollten Sie weitgehend die YaST-Standardvorschläge befolgen. Sie können die hier beschriebenen Einstellungen jedoch auch anpassen, um eine Feinabstimmung Ihres Systems gemäß Ihren Wünschen und Bedürfnissen vorzunehmen. Hilfe für die einzelnen Installationsschritte erhalten Sie durch Klicken auf Hilfe.

Tipp
Tipp: Installation ohne Maus

Wenn das Installationsprogramm Ihre Maus nicht korrekt erkennt, verwenden Sie →| zur Navigation, die Pfeiltasten zum Blättern und die Eingabetaste, um eine Auswahl zu bestätigen. Verschiedene Schaltflächen oder Auswahlfelder enthalten einen Buchstaben mit Unterstreichung. Mit AltBuchstabe können Sie eine Schaltfläche oder Auswahl direkt auswählen und müssen nicht mit →| zu der Schaltfläche oder Auswahl wechseln.

9.1 Übersicht

In diesem Abschnitt finden Sie einen Überblick über alle Installationsschritte. Bei den einzelnen Schritten ist jeweils ein Link zu einer ausführlicheren Beschreibung angeben.

  1. Vor Beginn der Installation aktualisiert sich das Installationsprogramm möglicherweise selbst. Weitere Informationen finden Sie in Abschnitt 9.2, „Selbstaktualisierung des Installationsprogramms“.

  2. Die eigentliche Installation beginnt mit der Auswahl der Sprache und des Produkts. Weitere Informationen finden Sie in Abschnitt 9.3, „Auswahl der Sprache, der Tastatur und des Produkts.

  3. Nehmen Sie die Lizenzvereinbarung an. Weitere Informationen finden Sie im Abschnitt 9.4, „Lizenzvereinbarung“.

  4. Auf IBM Z-Computern müssen die Festplatten aktiviert werden. Weitere Informationen finden Sie im Abschnitt 9.5, „IBM Z: Datenträgeraktivierung“.

  5. Konfigurieren Sie das Netzwerk. Dieser Schritt ist nur erforderlich, wenn Sie während der Installation auf das Netzwerk zugreifen müssen und das Netzwerk nicht automatisch mit DHCP konfiguriert werden kann. Dieser Schritt wird übersprungen, wenn die automatische Netzwerkkonfiguration erfolgreich verlaufen ist. Weitere Informationen finden Sie in Abschnitt 9.6, „Netzwerkeinstellungen“.

  6. Über eine funktionsfähige Netzwerkverbindung können Sie den Computer beim SUSE Customer Center oder bei einem RMT-Server registrieren. Weitere Informationen finden Sie in Abschnitt 9.7, „Registrierung“.

  7. Wählen Sie die Module aus, die für den Computer aktiviert werden sollen. Hieraus ergeben sich die verfügbaren Systemfunktionen im nächsten Schritt bzw. die verfügbaren Pakete im späteren Verlauf. Weitere Informationen finden Sie in Abschnitt 9.8, „Auswahl der Erweiterungen und Module“.

  8. Sie können Repositorys manuell hinzufügen. Weitere Informationen finden Sie in Abschnitt 9.9, „Add-on-Produkt“.

  9. Wählen Sie eine Funktion für das System aus. Hiermit wird die standardmäßige Liste der zu installierenden Pakete definiert, und es wird eine mögliche Partitionierung der Festplatten vorgeschlagen. Weitere Informationen finden Sie in Abschnitt 9.10, „Systemrollen“.

  10. Partitionieren Sie die Festplatten des Systems. Weitere Informationen finden Sie in Abschnitt 9.11, „Partitionierung“.

  11. Wählen Sie eine Zeitzone aus. Weitere Informationen finden Sie unter Abschnitt 9.12, „Uhr und Zeitzone“.

  12. Erstellen Sie einen Benutzer. Weitere Informationen finden Sie in Abschnitt 9.13, „Erstellen von neuen Benutzern“.

  13. (Optional) Legen Sie optional ein anderes Passwort für den Systemadministrator-root fest. Weitere Informationen finden Sie in Abschnitt 9.14, „Authentifizierung für den Systemadministrator-root.

  14. Im letzten Schritt zeigt das Installationsprogramm einen Überblick mit allen Einstellungen an. Bei Bedarf können Sie die Einstellungen ändern. Weitere Informationen finden Sie in Abschnitt 9.15, „Installationseinstellungen“.

  15. Das Installationsprogramm kopiert alle erforderlichen Daten und zeigt laufend den Fortschritt an. Weitere Informationen finden Sie in Abschnitt 9.16, „Ausführen der Installation“.

9.2 Selbstaktualisierung des Installationsprogramms

Während der Installation und des Upgrades kann sich YaST selbst aktualisieren und so eventuelle Fehler im Installationsprogramm beheben, die erst nach der Freigabe festgestellt wurden. Diese Funktion ist standardmäßig aktiviert. Zum Deaktivieren stellen Sie den Bootparameter self_update auf 0 ein. Weitere Informationen finden Sie in Abschnitt 8.4.6, „Aktivieren der Selbstaktualisierung für das Installationsprogramm“.

Wichtig
Wichtig: Quartals-Aktualisierung der Medien: Selbstaktualisierung deaktiviert

Das Selbstupdate des Installationsprogramms ist nur verfügbar, wenn Sie die GM-Images des Unified Installer und der Paket-ISOs verwenden. Wenn Sie von ISOs installieren, die als Quartals-Aktualisierung veröffentlicht wurden (Sie erkennen sie an der Zeichenkette QU im Namen), kann das Installationsprogramm die Aktualisierung nicht selbst durchführen, weil diese Funktion in den aktualisierten Medien deaktiviert ist.

Wichtig
Wichtig: Netzwerkzugriff während der Selbstaktualisierung

Zum Herunterladen der Aktualisierungen für das Installationsprogramm benötigt YaST Netzwerkzugriff. Standardmäßig wird DHCP an allen Netzwerkschnittstellen herangezogen. Wenn sich ein DHCP-Server im Netzwerk befindet, wird dieser Server automatisch verwendet.

Falls Sie eine statische IP-Einrichtung benötigen, geben Sie das Bootargument ifcfg an. Weitere Informationen finden Sie in der linuxrc-Dokumentation unter https://en.opensuse.org/Linuxrc.

Tipp
Tipp: Sprachauswahl

Die Selbstaktualisierung des Installationsprogramms wird vor dem Schritt zur Sprachauswahl ausgeführt. Der Fortschritt und eventuelle Fehler in diesem Vorgang werden daher standardmäßig in englischer Sprache angegeben.

Soll dieser Teil des Installationsprogramms in einer anderen Sprache ausgeführt werden, legen Sie den Boot-Parameter language fest, sofern dieser Parameter für Ihre Architektur unterstützt wird, z. B. language=de_DE. Auf Rechnern mit einem herkömmlichen BIOS drücken Sie alternativ im Startmenü auf F2 und wählen die Sprache aus der Liste aus.

Diese Funktion wird ohne Eingreifen des Benutzers ausgeführt. Dennoch sollten Sie sich über die Abläufe bei dieser Funktion informieren. Falls Sie nicht interessiert sind, können Sie direkt zu Abschnitt 9.3, „Auswahl der Sprache, der Tastatur und des Produkts wechseln und den Rest dieses Abschnitts überspringen.

9.2.1 Selbstaktualisierungsvorgang

Der Vorgang gliedert sich in zwei Teile:

  1. Ermitteln des Speicherorts des Aktualisierungs-Repositorys.

  2. Herunterladen der Aktualisierungen und Anwenden auf das Installationssystem.

9.2.1.1 Ermitteln des Speicherorts des Aktualisierungs-Repositorys

Die Selbstaktualisierungen des Installationsprogramms werden als normale RPM-Pakete über ein dediziertes Repository bereitgestellt. Im ersten Schritt ermitteln Sie also die Repository-URL.

Wichtig
Wichtig: Nur Repository für Selbstaktualisierung des Installationsprogramms

Bei allen nachfolgenden Optionen wird jeweils ausschließlich das Repository für die Selbstaktualisierung des Installationsprogramms erwartet, beispielsweise:

self_update=https://www.example.com/my_installer_updates/

Geben Sie keine andere Repository-URL an, z. B. die URL für das Software-Aktualisierungs-Repository.

YaST zieht die folgenden Installationsquellen heran:

  1. Den Boot-Parameter self_update. (Weitere Informationen finden Sie in Abschnitt 8.4.6, „Aktivieren der Selbstaktualisierung für das Installationsprogramm“.) Wenn Sie eine URL angeben, hat diese Vorrang vor allen anderen Methoden.

  2. Das Profilelement /general/self_update_url, falls Sie AutoYaST verwenden.

  3. Einen Registrierungsserver. YaST fragt die URL beim Registrierungsserver ab. Der zu verwendende Server wird in der nachstehenden Reihenfolge bestimmt:

    1. Durch Auswertung des Bootparameters regurl (Abschnitt 8.4.1, „Bereitstellung von Daten für den Zugriff auf einen RMT-Server“).

    2. Durch Auswerten des Profilelements /suse_register/reg_server, falls Sie AutoYaST verwenden.

    3. Durch eine SLP-Suche. Wenn ein SLP-Server gefunden wird, werden Sie von YaST gefragt, ob dieser Server verwendet werden soll, da keine Authentifizierung erfolgt und alle Personen im lokalen Netzwerk einen Registrierungsserver senden können.

    4. Durch Abfrage des SUSE Customer Center.

  4. Wenn die obigen Versuche ergebnislos bleiben, wird die Fallback-URL (in den Installationsmedien definiert) herangezogen.

9.2.1.2 Herunterladen und Anwenden der Aktualisierungen

Sobald das Aktualisierungs-Repository ermittelt wurde, prüft YaST, ob eine Aktualisierung verfügbar ist. Wenn dies der Fall ist, werden alle Updates heruntergeladen und angewendet.

Schließlich wird YaST neu gestartet, und der Willkommensbildschirm wird angezeigt. Falls keine Aktualisierungen verfügbar sind, wird die Installation ohne Neustart von YaST fortgesetzt.

Anmerkung
Anmerkung: Aktualisierungsintegrität

Die Aktualisierungssignaturen werden im Hinblick auf ihre Integrität und ihren Ursprung überprüft. Falls eine Signatur fehlt oder ungültig ist, werden Sie gefragt, ob Sie die Aktualisierung anwenden möchten.

9.2.1.3 Temporäres Selbstaktualisierungs-Repository als Add-on

Einige Pakete, die im Selbstaktualisierungs-Repository verteilt werden, enthalten zusätzliche Daten für das Installationsprogramm, wie die Standardwerte für die Installation, Systemrollendefinitionen und dergleichen. Wenn das Installationsprogramm diese Pakete im Selbstaktualisierungs-Repository findet, wird ein lokales temporäres Repository erstellt, in das diese Pakete kopiert werden. Sie werden während der Installation verwendet. Das temporäre lokale Repository wird am Ende der Installation entfernt. Seine Pakete werden nicht im Zielsystem installiert.

Dieses zusätzliche Repository wird zwar nicht in der Liste der Add-on-Produkte angezeigt, doch während der Installation ist es möglicherweise immer noch als SelfUpdate0-Repository in der Paketverwaltung zu sehen.

9.2.2 Benutzerdefinierte Selbstaktualisierungs-Repositorys

Soll ein benutzerdefiniertes Repository für YaST anstelle des offiziellen Repositorys verwendet werden, geben Sie eine URL über den Boot-Parameter self_update an.

  • HTTP-/HTTPS- und FTP-Repositorys werden unterstützt.

  • Ab yast2-installation-4.4.30 wird das Schema relurl:// als Boot-Parameter oder in einem AutoYaST-Profil unterstützt. Die URL ist relativ zum Hauptinstallations-Repository, und Sie können im Dateibaum mit der üblichen ../-Notation navigieren, z. B. relurl://../self_update. Dies ist nützlich, wenn die Pakete über einen lokalen Installationsserver bereitgestellt werden oder wenn ein benutzerdefiniertes Installationsmedium erstellt wird, das ein Repository für die Selbstaktualisierung enthält.

    In den folgenden Beispielen wird davon ausgegangen, dass sich das Installations-Repository am Medium-Stamm (/) und das Selbstaktualisierungs-Repository im Unterverzeichnis self_update befindet. Mit dieser Struktur wird relurl:// ortsungebunden und funktioniert überall ohne Änderungen als Boot-Parameter, kopiert auf einen USB-Stick, eine Festplatte, einen Netzwerkserver oder in einem AutoYaST-Profil.

    Benutzerdefinierte(s) DVD/USB-Medium

    Fügen Sie die Boot-Option self_update=relurl://self_update direkt zu den standardmäßigen Boot-Parametern hinzu, so funktioniert sie auch dann ordnungsgemäß, wenn das Medium auf einen USB-Stick, eine Festplatte oder einen Netzwerkserver kopiert wird.

    Installationsserver

    Angenommen, die Installationspakete sind über http://example.com/repo verfügbar, und ein Selbstaktualisierungs-Repository ist unter http://example.com/self_update verfügbar.

    Dann können Sie die Boot-Parameter http://example.com/repo und http://example.com/self_update verwenden, ohne den Parameter self_update ändern zu müssen, wenn die Repositorys an einen anderen Speicherort verschoben werden.

  • Nur RPM-MD-Repositorys werden unterstützt (für RMT erforderlich).

  • Die Pakete werden nicht wie gewohnt installiert, sondern lediglich entpackt; es werden keine Skripte ausgeführt.

  • Es werden keine Abhängigkeitsprüfungen vorgenommen. Die Pakete werden in alphabetischer Reihenfolge installiert.

  • Dateien aus den Paketen haben Vorrang vor den Paketen aus den Original-Installationsmedien. Die Aktualisierungspakete müssen also nicht alle Dateien enthalten, sondern lediglich die geänderten Dateien. Unveränderte Dateien werden außer Acht gelassen, sodass weniger Arbeitsspeicher und weniger Bandweite zum Herunterladen benötigt werden.

Anmerkung
Anmerkung: Nur ein Repository

Derzeit ist es nicht möglich, mehrere Repositorys als Quelle für Selbstaktualisierungen des Installationsprogramms anzugeben.

9.3 Auswahl der Sprache, der Tastatur und des Produkts

Auswahl der Sprache, der Tastatur und des Produkts
Abbildung 9.1: Auswahl der Sprache, der Tastatur und des Produkts

Die Einstellungen für Sprache und Tastaturbelegung werden gemäß der Sprache initialisiert, die Sie im Boot-Bildschirm ausgewählt haben. Wenn Sie die Standardeinstellung nicht geändert haben, gelten die Einstellungen für Englisch (US). Ändern Sie die Einstellungen hier bei Bedarf.

Wenn Sie die Sprache ändern, wird automatisch ein entsprechendes Tastaturlayout gewählt. Sie können diesen Vorschlag außer Kraft setzen, indem Sie im Dropdown-Feld ein anderes Tastaturlayout wählen. Testen Sie die Tastaturbelegung im Feld Tastaturtest. Die gewählte Sprache bestimmt auch die Zeitzone für die Systemuhr. Diese Einstellung kann später geändert werden, wie unter Book “Verwaltungshandbuch”, Chapter 5 “Ändern der Sprach- und Ländereinstellungen mit YaST” beschrieben.

Mit dem Unified Installer lassen sich alle SUSE Linux Enterprise-Basisprodukte installieren:

Wählen Sie ein Produkt zur Installation aus. Sie benötigen einen Registrierungscode für das jeweilige Produkt. In diesem Dokument wird vorausgesetzt, dass Sie SUSE Linux Enterprise Server ausgewählt haben. Fahren Sie mit Weiter fort.

Tipp
Tipp: Helle und kontrastreiche Themen

Wenn Sie beim Lesen der Beschriftungen im Installationsprogramm Schwierigkeiten haben, können Sie die Farben und das Design des Widgets ändern.

Klicken Sie auf die Schaltfläche Change the widget theme, oder drücken Sie UmschalttasteF3, um ein Dialogfeld zur Themenauswahl zu öffnen. Wählen Sie ein Thema in der Liste aus und schließen Sie das Dialogfeld.

UmschalttasteF4 schaltet das Farbschema für sehbehinderte Benutzer um. Drücken Sie die Tasten erneut, um zum Standardschema zurückzukehren.

9.4 Lizenzvereinbarung

Lizenzvereinbarung
Abbildung 9.2: Lizenzvereinbarung

Lesen Sie die Lizenzvereinbarung. Die Anzeige erfolgt in der Sprache, die Sie im Boot-Bildschirm ausgewählt haben. Über das Dropdown-Feld für die Lizenzsprache können Sie eine Übersetzung abrufen. Wenn Sie mit den Bedingungen einverstanden sind, markieren Sie Ich akzeptiere die Lizenzbedingungen und klicken Sie auf Weiter, um mit der Installation fortzufahren. Wenn Sie der Lizenzvereinbarung nicht zustimmen, können Sie SUSE Linux Enterprise Server nicht installieren; klicken Sie auf Abbrechen, um die Installation zu beenden.

9.5 IBM Z: Datenträgeraktivierung

Bei der Installation auf Plattformen mit IBM Z folgt auf das Dialogfeld für die Sprachauswahl ein Dialogfeld zur Konfiguration der angeschlossenen Festplatten.

Datenträgeraktivierung
Abbildung 9.3: Datenträgeraktivierung

Wählen Sie DASD, per Fiber-Channel angeschlossene SCSI-Platten (ZFCP) oder iSCSI für die Installation von SUSE Linux Enterprise Server. Die Schaltflächen für die DASD- und die zFCP-Konfiguration sind nur dann verfügbar, wenn die entsprechenden Geräte angeschlossen sind. Anweisungen zur Konfiguration von iSCSI-Festplatten finden Sie im Book “Storage Administration Guide”, Chapter 15 “Mass storage over IP networks: iSCSI”, Section 15.3 “Configuring iSCSI initiator”.

In diesem Bildschirm können Sie außerdem die Netzwerkkonfiguration ändern; öffnen Sie hierzu das Dialogfeld Netzwerkeinstellungen. Wählen Sie die gewünschte Netzwerkschnittstelle in der Liste aus, und klicken Sie zum Bearbeiten der Einstellungen auf Bearbeiten. Konfigurieren Sie DNS und Routing auf den Karteireitern. Weitere Einzelheiten finden Sie im Book “Verwaltungshandbuch”, Chapter 23 “Grundlegendes zu Netzwerken”, Section 23.4 “Konfigurieren von Netzwerkverbindungen mit YaST”.

9.5.1 Konfigurieren von DASD-Datenträgern

Überspringen Sie diesen Schritt, wenn Sie die Installation nicht auf IBM Z-Hardware ausführen.

DASD-Datenträgerverwaltung
Abbildung 9.4: DASD-Datenträgerverwaltung

Nach der Auswahl von Configure DASD Disks (Konfigurieren von DASD-Datenträgern) werden alle verfügbaren DASD-Festplatten in einer Übersicht angezeigt. Um ein klareres Bild der verfügbaren Geräte zu erhalten, geben Sie einen Bereich für die anzuzeigenden Kanäle in das Textfeld über der Liste ein. Um die Liste nach einem solchen Bereich zu filtern, wählen Sie Filtern.

Wählen Sie in der Liste die für die Installation zu verwendenden DASD-Datenträger aus. Mit Alle auswählen können Sie alle angezeigten DASD-Datenträger gleichzeitig auswählen. Aktivieren Sie die ausgewählten DASD-Datenträger, und stellen Sie sie bereit, indem Sie Aktion ausführen › Aktivieren wählen. Zum Formatieren der DASD-Datenträger wählen Sie Aktion ausführen › Formatieren. Alternativ verwenden Sie später den YaST-Partitionierer (siehe Abschnitt 11.1, „Verwenden von Festplatte vorbereiten: Expertenmodus).

9.5.2 Konfigurieren von ZFCP-Platten

Überspringen Sie diesen Schritt, wenn Sie die Installation nicht auf IBM Z-Hardware ausführen.

Konfigurierte zFCP-Geräte
Abbildung 9.5: Konfigurierte zFCP-Geräte

Nach der Auswahl von zFCP-Platten konfigurieren wird ein Dialogfeld mit einer Liste der auf dem System verfügbaren zFCP-Platten geöffnet. Wählen Sie in diesem Dialogfeld Hinzufügen, um ein weiteres Dialogfeld zu öffnen, in dem Sie die zFCP-Parameter eingeben können.

Um eine ZFCP-Platte für die Installation von SUSE Linux Enterprise Server verfügbar zu machen, wählen Sie eine verfügbare Kanalnummer im Dropdown-Feld aus. Aus den Rückgabelisten WWPNs abrufen (World Wide Port Number) und LUNs abrufen (Logical Unit Number) können Sie die verfügbaren WWPNs und FCP-LUNs auswählen. Das automatische LUN-Scannen ist nur dann möglich, wenn NPIV aktiviert ist.

Schließen Sie dann das ZFCP-Dialogfeld mit Weiter und das Dialogfeld zur allgemeinen Festplattenkonfiguration mit Beenden, um mit der Konfiguration fortzufahren.

9.6 Netzwerkeinstellungen

Nach dem Booten in die Installation wird die Installationsroutine eingerichtet. Während dieser Einrichtung wird versucht, mindestens eine Netzwerkschnittstelle zu DHCP zu konfigurieren. Falls dies nicht möglich ist, wird nun das Dialogfeld Netzwerkeinstellungen geöffnet.

Netzwerkeinstellungen
Abbildung 9.6: Netzwerkeinstellungen

Wählen Sie die gewünschte Netzwerkschnittstelle in der Liste aus, und klicken Sie zum Bearbeiten der Einstellungen auf Bearbeiten. Konfigurieren Sie DNS und Routing auf den Karteireitern. Weitere Einzelheiten finden Sie im Book “Verwaltungshandbuch”, Chapter 23 “Grundlegendes zu Netzwerken”, Section 23.4 “Konfigurieren von Netzwerkverbindungen mit YaST”. Unter IBM Z wird dieses Dialogfeld nicht automatisch geöffnet. Im Schritt Datenträgeraktivierung können Sie darauf zugreifen.

Wenn DHCP bei der Installationseinrichtung ordnungsgemäß konfiguriert wurde, erreichen Sie dieses Dialogfeld auch durch Klicken auf Netzwerkkonfiguration unter Registrierung beim SUSE Customer Center und im Schritt Installationseinstellungen. Hier können Sie die automatischen Einstellungen ändern.

Anmerkung
Anmerkung: Netzwerkkonfiguration mit Boot-Parametern

Wenn mindestens eine Netzwerkschnittstelle mithilfe von Boot-Parametern konfiguriert wurde (siehe Abschnitt 8.3.2, „Konfigurieren der Netzwerkschnittstelle“), ist die automatische DHCP-Konfiguration deaktiviert und die Boot-Parameterkonfiguration wird importiert und herangezogen.

Tipp
Tipp: Zugriff auf Netzwerkspeicher oder lokales RAID

Falls Sie während der Installation auf ein SAN oder ein lokales RAID zugreifen müssen, können Sie hierfür den Kommandozeilen-Client libstorage verwenden:

  1. Drücken Sie StrgAltF2, um zu einer Konsole umzuschalten.

  2. Führen Sie extend libstoragemgmt aus, um die libstoragemgmt-Erweiterung zu installieren.

  3. Sie können jetzt auf das Kommando lsmcli zugreifen. Weitere Informationen erhalten Sie mit lsmcli --help.

  4. Um zum Installationsprogramm zurückzukehren, müssen Sie AltF7 drücken.

Unterstützt werden Netapp Ontap, alle SMI-S-kompatiblen SAN-Provider und LSI MegaRAID.

9.7 Registrierung

Für technischen Support und Produktaktualisierungen müssen Sie SUSE Linux Enterprise Server beim SUSE Customer Center oder bei einem lokalen Registrierungsserver registrieren und aktivieren. Wenn Sie das Produkt zu diesem Zeitpunkt registrieren, erhalten Sie außerdem den sofortigen Zugriff auf das Aktualisierungs-Repository. Damit können Sie das System mit den aktuellen Aktualisierungen und Patches installieren.

Bei der Registrierung werden Repositorys und Abhängigkeiten für Module und Erweiterungen vom Registrierungsserver geladen.

In diesem Dialogfeld können Sie zum YaST-Modul Netzwerkeinstellungen wechseln. Klicken Sie dazu auf Netzwerkkonfiguration. Weitere Informationen finden Sie unter Book “Verwaltungshandbuch”, Chapter 23 “Grundlegendes zu Netzwerken”, Section 23.4 “Konfigurieren von Netzwerkverbindungen mit YaST”.

Wenn Sie offline arbeiten oder die Registrierung überspringen möchten, aktivieren Sie Registrierung überspringen. Eine Anleitung dazu finden Sie in Abschnitt 9.7.3, „Installation ohne Registrierung“.

9.7.1 Manuelle Registrierung

Zur Registrierung beim SUSE Customer Center stellen Sie die E-Mail-Adresse bereit, die mit Ihrem SCC-Konto verknüpft ist, sowie den Registrierungscode für SUSE Linux Enterprise Server.

Wenn Ihr Unternehmen einen lokalen Registrierungsserver anbietet, können Sie sich dort registrieren. Aktivieren Sie System über lokalen SMT-Server registrieren und wählen Sie eine Adresse im Dropdown-Feld aus oder geben Sie eine URL ein. Fahren Sie mit Weiter fort.

Geben Sie zur Registrierung am SUSE Customer Center Ihren Registrierungscode für SUSE Linux Enterprise Server ein. Wenn Ihr Unternehmen einen lokalen Registrierungsserver bereitstellt, können Sie sich dort registrieren. Aktivieren Sie System über lokalen RMT-Server registrieren und wählen Sie eine Adresse im Dropdown-Feld aus oder geben Sie eine URL ein.

Beginnen Sie den Registrierungsvorgang mit Weiter.

Registrierung beim SUSE Customer Center
Abbildung 9.7: Registrierung beim SUSE Customer Center
Tipp
Tipp: Installieren von Produkt-Patches während der Installation

Sobald SUSE Linux Enterprise Server ordnungsgemäß registriert wurde, werden Sie gefragt, ob die aktuell verfügbaren Online-Aktualisierungen während der Installation ebenfalls installiert werden sollen. Wenn Sie Ja wählen, wird das System mit den aktuellsten Paketen installiert und die Aktualisierungen müssen nach der Installation nicht angewendet werden. Es wird empfohlen, diese Option zu aktivieren.

Anmerkung
Anmerkung: Firewall-Einstellungen zum Erhalten von Aktualisierungen

Standardmäßig blockiert die Firewall von SUSE Linux Enterprise Server nur eingehende Verbindungen. Wenn sich Ihr System hinter einer anderen Firewall befindet, die ausgehenden Datenverkehr blockiert, stellen Sie sicher, dass Sie auf den Ports 80 und 443 Verbindungen zu https://scc.suse.com/ und https://updates.suse.com zulassen, um Updates erhalten zu können.

Wenn das System während der Installation erfolgreich registriert wird, deaktiviert YaST Repositorys in lokalen Installationsmedien wie CDs/DVDs oder Flash-Laufwerken, sobald die Installation abgeschlossen ist. Dadurch werden Probleme durch fehlende Installationsquellen vermieden, und es wird sichergestellt, dass Sie stets die neuesten Aktualisierungen aus den Online-Repositorys erhalten.

9.7.2 Laden der Registrierungscodes aus einem USB-Speicher

Zur Vereinfachung der Registrierung können Sie Ihre Registrierungscodes auch auf einem USB-Speichergerät, beispielsweise auf einem Flash-Laufwerk, speichern. YaST füllt das entsprechende Textfeld automatisch aus. Dies ist vor allem dann hilfreich, wenn Sie die Installation testen oder viele Systeme bzw. Erweiterungen registrieren müssen.

Erstellen Sie eine Datei mit dem Namen regcodes.txt oder regcodes.xml auf dem USB-Datenträger. Sind beide vorhanden, hat die XML-Datei Vorrang.

Identifizieren Sie in dieser Datei das Produkt mit dem Namen, der über zypper search --type product ermittelt wurde, und weisen Sie ihm wie folgt einen Registrierungscode zu:

Beispiel 9.1: regcodes.txt
SLES    cc36aae1
SLED    309105d4

sle-we  5eedd26a
sle-live-patching 8c541494
Beispiel 9.2: regcodes.xml
<?xml version="1.0"?>
<profile xmlns="http://www.suse.com/1.0/yast2ns"
 xmlns:config="http://www.suse.com/1.0/configns">
  <suse_register>
    <addons config:type="list">
      <addon>
<name>SLES</name>
<reg_code>cc36aae1</reg_code>
      </addon>
      <addon>
<name>SLED</name>
<reg_code>309105d4</reg_code>
      </addon>
      <addon>
<name>sle-we</name>
<reg_code>5eedd26a</reg_code>
      </addon>
      <addon>
<name>sle-live-patching</name>
<reg_code>8c541494</reg_code>
      </addon>
    </addons>
  </suse_register>
</profile>

Hinweis: Bei SLES und SLED handelt es sich zwar nicht um Erweiterungen, wenn sie jedoch als Add-On-Produkte aufgelistet werden, können mehrere Basisprodukt-Registrierungscodes in einer einzelnen Datei kombiniert werden. Ausführliche Informationen finden Sie unter Book “AutoYaST Guide”, Chapter 4 “Configuration and installation options”, Section 4.3.1 “Extensions”.

Anmerkung
Anmerkung: Nutzungsbeschränkungen

Zurzeit werden Flash-Laufwerke nicht bei der Registrierung eines aktiven Systems, sondern nur während der Installation oder des Upgrades gescannt.

9.7.3 Installation ohne Registrierung

Wenn Sie offline arbeiten oder die Registrierung überspringen möchten, aktivieren Sie Registrierung überspringen. Bestätigen Sie die Warnmeldung mit OK und klicken Sie auf Weiter.

Wichtig
Wichtig: Überspringen der Registrierung

Das System und die Erweiterungen müssen registriert werden, damit Sie Aktualisierungen abrufen und Support in Anspruch nehmen können. Die Registrierung kann nur übersprungen werden, wenn die Installation von der Image-Datei SLE-15-SP6-Full-ARCH-GM-media1.iso aus ausgeführt wird.

Installation ohne Registrierung
Abbildung 9.8: Installation ohne Registrierung
Anmerkung
Anmerkung: Registrieren von SUSE Linux Enterprise Server

Das System und die Erweiterungen müssen registriert werden, damit Sie Aktualisierungen abrufen und Support in Anspruch nehmen können. Falls Sie die Registrierung nicht bei der Installation durchführen, können Sie sie jederzeit später aus dem laufenden System heraus nachholen. Führen Sie hierzu YaST › Produktregistrierung aus.

Tipp
Tipp: Kopieren der Image-Datei des Installationsmediums auf einen Flash-Wechseldatenträger

Kopieren Sie mit folgendem Kommando den Inhalt des Installations-Image auf einen Flash-Wechseldatenträger.

> sudo dd if=IMAGE of=FLASH_DISK bs=4M && sync

IMAGE muss durch den Pfad zur Image-Datei SLE-15-SP6-Online-ARCH-GM-media1.iso oder SLE-15-SP6-Full-ARCH-GM-media1.iso ersetzt werden. FLASH_DISK muss durch das Flash-Gerät ersetzt werden. Legen Sie das Gerät zur Identifizierung ein und führen Sie folgendes Kommando aus:

# grep -Ff <(hwinfo --disk --short) <(hwinfo --usb --short)
     disk:
     /dev/sdc             General USB Flash Disk

Stellen Sie sicher, dass die Größe des Geräts für das gewünschte Image ausreicht. Die Größe des Geräts prüfen Sie mit:

# fdisk -l /dev/sdc | grep -e "^/dev"
     /dev/sdc1  *     2048 31490047 31488000  15G 83 Linux

In diesem Beispiel hat das Gerät eine Kapazität von 15 GB. Das Kommando für die SLE-15-SP6-Full-ARCH-GM-media1.iso wäre:

dd if=SLE-15-SP6-Full-ARCH-GM-media1.iso of=/dev/sdc bs=4M && sync

Außerdem darf das Gerät beim Ausführen des Kommandos dd nicht eingehängt sein. Denken Sie daran, dass alle Daten in der Partition gelöscht werden.

9.8 Auswahl der Erweiterungen und Module

In diesem Dialogfeld werden die verfügbaren Module und Erweiterungen für SUSE Linux Enterprise Server angezeigt. Mit Modulen können Sie das Produkt an Ihre Anforderungen anpassen. Sie sind Ihrem SUSE Linux Enterprise Server-Abonnement enthalten. Erweiterungen liefern zusätzliche Funktionen für Ihr Produkt. Sie müssen separat erworben werden.

Die verfügbaren Module oder Erweiterungen ergeben sich aus dem Produkt, das Sie im ersten Schritt dieser Installation ausgewählt haben. Wenn Sie ein Modul auswählen, erhalten Sie eine Beschreibung der Module und deren Lebenszyklen. Weitere Informationen finden Sie in der Modules and Extensions Quick Start.

Die Auswahl von Modulen wirkt sich indirekt auf den Umfang der Installation aus, da hiermit die Software-Quellen (Repositorys) definiert werden, die für die Installation und im laufenden System bereitstehen.

Auswahl der Erweiterungen und Module
Abbildung 9.9: Auswahl der Erweiterungen und Module

Die folgenden Module und Erweiterungen stehen für SUSE Linux Enterprise Server zur Auswahl:

Basesystem Module

Dieses Modul ergänzt den Unified Installer mit einem Basissystem. Dies ist für alle anderen Module und Erweiterungen erforderlich. Der Umfang einer Installation, die lediglich das Basissystem umfasst, ist mit dem Installationsschema minimal system früherer Versionen von SUSE Linux Enterprise Server vergleichbar. Dieses Modul wird standardmäßig zur Installation ausgewählt und dessen Auswahl sollte nicht aufgehoben werden.

Abhängigkeiten: keine

Certifications Module

Enthält die FIPS-Zertifizierungspakete.

Abhängigkeiten: Server Applications

Confidential Computing – Technische Vorschau

Enthält Pakete in Bezug auf Confidential Computing.

Abhängigkeiten: Basesystem

Containers Module

Unterstützung und Tools für Container.

Abhängigkeiten: Basesystem

Desktop Applications Module

Fügt eine grafische Benutzeroberfläche und grundlegende Desktop-Anwendungen zum System hinzu.

Abhängigkeiten: Basesystem

Development Tools Module

Enthält Compiler (einschließlich gcc) und Bibliotheken, die zum Kompilieren und für die Fehlersuche von Anwendungen erforderlich sind. Ersetzt das frühere Softwareentwicklungskit (SDK).

Abhängigkeiten: Basesystem, Desktop Applications

Hochleistungscomputing-Modul

Stellt spezielle Tools bereit, die häufig für leistungsstarke, numerisch intensive Arbeitslasten verwendet werden.

Abhängigkeiten: Basesystem

Legacy Module

Unterstützt Sie bei der Migration von Anwendungen aus früheren Versionen von SUSE Linux Enterprise Server und anderen Systemen zu SLES 15 SP6. Dazu werden Pakete bereitgestellt, die in SUSE Linux Enterprise nicht mehr enthalten sind. Die Pakete in diesem Modul werden basierend auf den Anforderungen für die Migration und dem Grad der Komplexität der Konfiguration ausgewählt.

Dieses Modul wird bei der Migration von einer früheren Produktversion empfohlen.

Abhängigkeiten: Basesystem, Server Applications

NVIDIA Compute Module

Enthält die NVIDIA CUDA(Compute Unified Device Architecture)-Treiber.

Die Software in diesem Modul wird von NVIDIA unter dem CUDA End User License Agreement bereitgestellt und nicht von SUSE unterstützt.

Abhängigkeiten: Basesystem

Public Cloud-Modul

Enthält alle erforderlichen Tools zum Erstellen von Images für die Bereitstellung von SUSE Linux Enterprise Server in Cloud-Umgebungen, z. B. Amazon Web Services (AWS), Microsoft Azure, Google Compute Platform oder OpenStack.

Abhängigkeiten: Basesystem, Server Applications

Python 3 Module

Dieses Modul enthält die neueste Version der ausgewählten Python 3-Pakete.

Abhängigkeiten: Basesystem

SAP Business One Server

Dieses Modul enthält Pakete und Systemkonfigurationen speziell für SAP Business One Server. Es wird im Rahmen des SUSE Linux Enterprise Server-Produktabonnements gewartet und unterstützt.

Abhängigkeiten: Basesystem, Server Applications, Desktop Applications, Development Tools

Server Applications Module

Serverfunktionen in Form von Netzwerkdiensten wie DHCP-Server, Nameserver oder Webserver. Dieses Modul wird standardmäßig zur Installation ausgewählt und es wird davon abgeraten, die Auswahl aufzuheben.

Abhängigkeiten: Basesystem

SUSE Linux Enterprise High Availability

Clustering-Unterstützung für unternehmenswichtige Einrichtungen von SUSE Linux Enterprise Server. Für diese Erweiterung ist ein separater Lizenzschlüssel erforderlich.

Abhängigkeiten: Basesystem, Server Applications

SUSE Linux Enterprise Live Patching

Unterstützung für kritisches Patching, ohne das System herunterfahren zu müssen. Für diese Erweiterung ist ein separater Lizenzschlüssel erforderlich.

Abhängigkeiten: Basesystem, Server Applications

SUSE Linux Enterprise Workstation Extension

Erweitert die Funktionalität von SUSE Linux Enterprise Server durch Pakete aus SUSE Linux Enterprise Desktop, wie zum Beispiel zusätzliche Desktop-Anwendungen (Office-Suite, E-Mail-Client, grafischer Editor usw.) und Bibliotheken. Die beiden Produkte lassen sich zu einer Arbeitsstation mit großem Funktionsumfang kombinieren. Für diese Erweiterung ist ein separater Lizenzschlüssel erforderlich.

Abhängigkeiten: Basesystem, Desktop Applications

SUSE Package Hub

Zugriff auf Pakete für SUSE Linux Enterprise Server, die von der openSUSE-Community gepflegt werden. Diese Pakete bieten keine L3-Unterstützung und wirken sich nicht auf die Unterstützbarkeit von SUSE Linux Enterprise Server aus. Weitere Informationen hierzu finden Sie unter https://packagehub.suse.com/.

Abhängigkeiten: Basesystem

Transactional Server Module

Fügt die Unterstützung für Transaktionsaktualisierungen hinzu. Aktualisierungen werden entweder insgesamt in einer einzigen Transaktion auf das System angewendet oder gar nicht. Das laufende System wird dadurch nicht beeinflusst. Wenn eine Aktualisierung nicht durchgeführt werden kann oder wenn eine erfolgreiche Aktualisierung als nicht kompatibel oder anderweitig falsch erachtet wird, kann sie verworfen werden. Das System wird dadurch sofort in den früheren Funktionszustand versetzt.

Abhängigkeiten: Basesystem

Web and Scripting Module

Pakete für einen laufenden Webserver.

Abhängigkeiten: Basesystem, Server Applications

Einige Module sind abhängig von der Installation anderer Module. Wenn Sie also ein Modul auswählen, werden unter Umständen weitere Module ausgewählt, sodass die entsprechenden Abhängigkeiten erfüllt werden.

Je nach Produkt kennzeichnet der Registrierungsserver ggf. bestimmte Module und Erweiterungen als Empfehlung. Empfohlene Module und Erweiterungen sind bereits zur Registrierung und Installation ausgewählt. Wenn diese Empfehlungen nicht installiert werden sollen, heben Sie die Auswahl manuell auf.

Wählen Sie die zu installierenden Module und Erweiterungen aus, und fahren Sie fort mit Weiter. Falls Sie mindestens eine Erweiterung ausgewählt haben, werden Sie aufgefordert, die entsprechenden Registrierungscodes einzugeben. Je nach Auswahl müssen Sie auch zusätzliche Lizenzvereinbarungen akzeptieren.

Wichtig
Wichtig: Standardmodule für die Offline-Installation

Bei einer Offline-Installation von SLE-15-SP6-Full-ARCH-GM-media1.iso wird nur das Basesystem Module standardmäßig ausgewählt. Wählen Sie zur Installation des kompletten Standard-Paketsatzes von SUSE Linux Enterprise Server zusätzlich das Server Applications Module.

9.9 Add-on-Produkt

Im Dialogfeld Add-On-Produkt können Sie weitere Software-Quellen (sogenannte Repositorys) in SUSE Linux Enterprise Server aufnehmen, die nicht vom SUSE Customer Center bereitgestellt werden. Diese Add-On-Produkte können Produkte von Drittanbietern und Treiber oder andere Zusatzsoftware für Ihr System enthalten.

Add-On-Produkt
Abbildung 9.10: Add-on-Produkt

In diesem Dialogfeld können Sie zum YaST-Modul Netzwerkeinstellungen wechseln. Klicken Sie dazu auf Netzwerkkonfiguration. Weitere Informationen finden Sie unter Book “Verwaltungshandbuch”, Chapter 23 “Grundlegendes zu Netzwerken”, Section 23.4 “Konfigurieren von Netzwerkverbindungen mit YaST”.

Tipp
Tipp: Hinzufügen von Treibern während der Installation

Im Dialogfeld Add-On-Produkt können Sie weitere Repositorys für Treiberaktualisierungen hinzufügen. Treiberaktualisierungen für SUSE Linux Enterprise finden Sie unter https://drivers.suse.com/. Diese Treiber wurden über das SUSE SolidDriver-Programm erstellt.

Wenn Sie keine Add-ons installieren möchten, fahren Sie mit Weiter fort. Ansonsten aktivieren Sie die Option Ich möchte ein zusätzliches Add-on-Produkt installieren. Geben Sie den Medientyp an (CD, DVD, Festplatte, USB-Massenspeicher, ein lokales Verzeichnis oder ein lokales ISO-Image). Wenn der Netzwerkzugriff konfiguriert wurde, können Sie aus zusätzlichen Ferninstallationsquellen wie HTTP, SLP, FTP usw. auswählen. Alternativ können Sie auch direkt eine URL angeben. Aktivieren Sie Repository-Beschreibungsdateien herunterladen, um die Dateien, die das Repository beschreiben, sofort herunterzuladen. Wenn diese Option nicht aktiviert ist, werden die Dateien beim Starten der Installation heruntergeladen. Fahren Sie mit Weiter fort und legen Sie eine CD oder DVD ein, falls erforderlich.

Je nach Inhalt des Add-on-Produkts kann es erforderlich sein, weitere Lizenzvereinbarungen zu akzeptieren.

9.10 Systemrollen

Zur Vereinfachung der Installation stehen vordefinierte Anwendungsfälle zur Verfügung, die das System auf das gewählte Szenario zuschneiden.

Systemrolle
Abbildung 9.11: Systemrolle

Wählen Sie die Systemrolle aus, die Ihren Anforderungen am besten entspricht. Die Verfügbarkeit von Systemrollen ist abhängig von den ausgewählten Modulen und Erweiterungen. Das Dialogfeld wird unter den folgenden Bedingungen nicht angezeigt:

  • Die Kombination von Basisprodukt und Modulen erlaubt keine Rollenauswahl.

  • Die Kombination aus Basisprodukt und Modulen erlaubt nur eine einzige Rolle.

Bei der Standardauswahl sind die folgenden Systemrollen verfügbar:

Expertenmodus

Mit dieser Option wird ein Basis-SLES ohne Desktop-Umgebung, jedoch mit umfangreichen Befehlszeilen-Tools installiert.

Abhängigkeiten: Basesystem

Grundlegende Kenntnisse

Wählen Sie diese Funktion, wenn eine sehr kleine Installation mit den grundlegenden Befehlszeilen-Tools ausgeführt werden soll.

Abhängigkeiten: keine

KVM-Virtualisierungshost

Wählen Sie dieses Szenario, wenn Sie die Installation auf einem Rechner durchführen, der als KVM-Host dienen soll, welcher andere virtuelle Rechner ausführen kann. /var/lib/libvirt wird in einer separaten Partition abgelegt. Die Firewall und Kdump werden deaktiviert.

Abhängigkeiten: Basesystem, Server Applications

Xen-Virtualisierungshost

Wählen Sie dieses Szenario, wenn Sie die Installation auf einem Rechner durchführen, der als Xen-Host dienen soll, welcher andere virtuelle Rechner ausführen kann. /var/lib/libvirt wird in einer separaten Partition abgelegt. Die Firewall und Kdump werden deaktiviert.

Abhängigkeiten: Basesystem, Server Applications

9.11 Partitionierung

9.11.1 Wichtige Informationen

Warnung
Warnung: Bitte sorgfältig lesen

Lesen Sie diesen Abschnitt sorgfältig durch, bevor Sie mit Abschnitt 9.11.2, „Vorgeschlagene Partitionierung“ fortfahren.

Benutzerdefinierte Partitionierung auf UEFI-Computern

Für einen UEFI-Computer ist eine EFI-Systempartition erforderlich, die in /boot/efi eingehängt werden muss. Diese Partition muss mit dem FAT32-Dateisystem formatiert werden.

Wenn auf dem System bereits eine EFI-Systempartition vorhanden ist (beispielsweise aus einer früheren Windows-Installation), können Sie sie ohne Neuformatierung in /boot/efi einhängen.

Wenn auf Ihrem UEFI-Rechner keine EFI-Systempartition vorhanden ist, müssen Sie diese erstellen. Die EFI-Systempartition muss eine physische Partition oder RAID 1 sein. Andere RAID-Ebenen, LVM und andere Technologien werden nicht unterstützt. Sie muss mit dem FAT32-Dateisystem formatiert werden.

Benutzerdefinierte Partitionierung und Snapper

Wenn die Stammpartition größer als 16 GB ist, aktiviert SUSE Linux Enterprise Server standardmäßig Dateisystem-Snapshots.

SUSE Linux Enterprise Server stellt diese Funktion mithilfe von Snapper in Verbindung mit Btrfs bereit. Btrfs muss mit Snapshots eingerichtet werden, die für die root-Partition aktiviert sind.

Ist die Festplatte kleiner als 16 GB, werden alle Snapper-Funktionen und die automatischen Snapshots deaktiviert, damit der Speicherplatz auf der Systempartition / nicht vollständig belegt wird.

Zum Erstellen von System-Snapshots als Grundlage für Rollbacks müssen wichtige Systemverzeichnisse in einer einzelnen Partition eingehängt werden, beispielsweise /usr und /var. Nur Verzeichnisse, die von Snapshots ausgeschlossen sind, dürfen sich auf separaten Partitionen befinden, beispielsweise /usr/local, /var/log und /tmp.

Wenn Snapshots aktiviert sind, erstellt das Installationsprogramm automatisch single-Snapshots während und sofort nach der Installation.

Weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 10 “Systemwiederherstellung und Snapshot-Verwaltung mit Snapper”.

Wichtig
Wichtig: Größe der Btrfs-Snapshots und Stammpartition

Snapshots können erheblichen Speicherplatz beanspruchen. Im Allgemeinen gilt: Je älter ein Snapshot ist oder je größer der Änderungssatz ist, den er abdeckt, desto mehr Speicherplatz benötigt der Snapshot. Sie benötigen außerdem mehr Speicherplatz, je mehr Snapshots Sie beibehalten.

Sie müssen sicherstellen, dass die Stammpartition groß genug ist, um zu verhindern, dass sie mit Snapshot-Daten überfüllt ist. Sehen Sie mindestens 30 GB für die Stammpartition vor, falls Sie regelmäßig Updates oder sonstige Installationen durchführen. Sie sollten mindestens 40 GB dafür vorsehen, wenn Sie planen, Snapshots für ein System-Upgrade oder eine Service-Pack-Migration (für ein Rollback) aktiv zu halten.

Btrfs-Daten-Volumes

SUSE Linux Enterprise Server 15 SP6 unterstützt Btrfs für Daten-Volumes. Bei Anwendungen, für die Btrfs als Daten-Volume erforderlich ist, sollten Sie ein separates Dateisystem anlegen und dort die Quotengruppen deaktivieren. Dies ist bei Nicht-root-Dateisystemen bereits standardmäßig.

Btrfs auf einer verschlüsselten Stammpartition

In der standardmäßigen Partitionseinrichtung wird die Stammpartition als Btrfs vorgeschlagen. Soll die Stammpartition verschlüsselt werden, müssen Sie in jedem Fall die GPT-Partitionstabelle verwenden, nicht den MSDOS-Typ. Ansonsten findet der GRUB2-Bootloader nicht genügend Platz für den Loader der zweiten Phase.

IBM Z: Verwenden von Minidisks in z/VM

Wenn SUSE Linux Enterprise Server auf Minidisks in z/VM installiert ist, die sich auf demselben physischen Datenträger befinden, so ist der Zugriffspfad der Minidisk (/dev/disk/by-id/) nicht eindeutig. Der Grund hierfür liegt darin, dass er der ID des physischen Datenträgers entspricht. Wenn sich zwei oder mehr Minidisks auf demselben physischen Datenträger befinden, haben sie alle dieselbe ID.

Um beim Einhängen der Minidisks Probleme zu vermeiden, hängen Sie sie immer nach Pfad oder nach UUID ein.

IBM Z: Verwenden von FBA-DASD-Datenträgern in z/VM

Wenn SUSE Linux Enterprise Server auf FBA-DASD-Datenträgern in z/VM installiert ist, kann keine vorgeschlagene Partitionierung bereitgestellt werden. Wählen Sie stattdessen Festplatte vorbereiten: Expertenmodus › Start mit vorhandenen Partitionen.

FBA-DASD-Datenträger werden mit einer impliziten Partition geliefert, die nicht gelöscht werden darf, sondern ohne Änderungen wiederverwendet werden sollte. Partitionieren Sie die FBA-DASD-Datenträger nicht neu.

IBM Z: LVM-Root-Dateisystem

Wenn Sie das System mit einem root-Dateisystem auf LVM oder Software-RAID-Array konfigurieren, müssen Sie /boot auf einer separaten Nicht-LVM- oder Nicht-RAID-Partition ablegen, da das System ansonsten nicht gebootet werden kann. Für diese Partition wird eine Größe von 500 MB und das Dateisystem Ext4 empfohlen.

IBM POWER: Installation auf Systemen mit mehreren Fibre Channel-Datenträgern

Wenn mehr als ein Datenträger verfügbar ist, stellt das bei der Installation vorgeschlagene Partitionierungsschema die PReP- und BOOT-Partitionen auf verschiedene Datenträger. Handelt es sich bei diesen Datenträgern um Fibre Channel-Datenträger, dann findet der GRUB-Bootloader die BOOT-Partition nicht und das System wird nicht gebootet.

Wenn Sie aufgefordert werden, das Partitionsschema während der Installation auszuwählen, wählen Sie Geführtes Setup und vergewissern Sie sich, dass für die Installation nur ein Datenträger ausgewählt wurde. Führen Sie alternativ Festplatte vorbereiten: Expertenmodus aus, und richten Sie manuell ein Partitionierungsschema ein, das PReP und BOOT auf einem einzigen Datenträger vorsieht.

Unterstützte Software-RAID-Volumes

Die Installation auf vorhandenen Software-RAID-Volumes und das Booten von diesen Volumes wird für DDF-Volumes (Disk Data Format) und IMSM-Volumes (Intel Matrix Storage Manager) unterstützt. IMSM wird auch wie folgt bezeichnet:

Einhängepunkte für FCoE- und iSCSI-Geräte

FCoE- und iSCSI-Geräte werden beim Booten asynchron dargestellt. Die initrd sorgt dafür, dass diese Geräte fehlerfrei für das root-Dateisystem eingerichtet werden; bei anderen Dateisystemen oder Einhängepunkten wie /usr kann dies jedoch nicht gewährleistet werden. Aus diesem Grund werden Systemeinhängepunkte wie /usr oder /var nicht unterstützt. Zur Verwendung dieser Geräte müssen die entsprechenden Dienste und Geräte ordnungsgemäß synchronisiert werden.

9.11.2 Vorgeschlagene Partitionierung

In diesem Schritt definieren Sie eine Partitionseinrichtung für SUSE Linux Enterprise Server.

Vorgeschlagene Partitionierung
Abbildung 9.12: Vorgeschlagene Partitionierung

Abhängig von der Systemrolle erstellt das Installationsprogramm einen Vorschlag für eine der verfügbaren Festplatten. Alle Vorschläge umfassen eine mit Btrfs formatierte root-Partition (mit aktivierten Snapshots) und eine Auslagerungspartition. Bei Festplatten mit mehr als 20 GB schlagen der GNOME-Desktop und der Textmodus eine separate Home-Partition vor. Die Systemrollen für Virtualisierungshosts legen eine separate Partition für /var/lib/libvirt an, also für das Verzeichnis, in dem sich standardmäßig die Image-Dateien befinden. Wenn mindestens eine Auslagerungspartition auf den verfügbaren Festplatten erkannt wurde, werden diese vorhandenen Auslagerungspartitionen verwendet; es werden also keine neuen Auslagerungspartitionen vorgeschlagen. Sie haben nun mehrere Optionen:

Weiter

Mit Weiter akzeptieren Sie den Vorschlag ohne Änderungen, und der Installationsvorgang wird fortgesetzt.

Geführtes Setup

Mit Geführtes Setup können Sie den Vorschlag anpassen. Wählen Sie zunächst, welche Festplatten und Partitionen verwendet werden sollen. Im Bildschirm Partitionierungsschema können Sie Logical Volume Management (LVM) und die Festplattenverschlüsselung aktivieren. Geben Sie danach die Dateisystem-Optionen an. Sie können das Dateisystem für die root-Partition anpassen und eine separate Home- und mehrere Swap-Partitionen erstellen. Wenn Sie Ihren Rechner anhalten möchten, müssen Sie eine separate Swap-Partition erstellen und Zum Anhalten auf RAM-Größe vergrößern aktivieren. Wenn Btrfs als Format für das root-Dateisystem verwendet wird, können Sie hier außerdem Btrfs-Snapshots aktivieren oder deaktivieren.

Festplatte vorbereiten: Expertenmodus

Zum Erstellen einer benutzerdefinierten Partitionseinrichtung klicken Sie auf Festplatte vorbereiten: Expertenmodus. Wählen Sie entweder Start mit aktuellem Vorschlag, wenn das vorgeschlagene Festplatten-Layout als Grundlage fungieren soll, oder Start mit vorhandenen Partitionen, wenn das vorgeschlagene Layout ignoriert und stattdessen das vorhandene Layout auf der Festplatte herangezogen werden soll. Sie können die Partitionen hinzufügen, bearbeiten, ihre Größe anpassen oder sie löschen.

Darüber hinaus können Sie in Festplatte vorbereiten: Expertenmodus die Verwaltung von logischen Volumes (LVM) einrichten, Software-RAID und Gerätezuordnung (DM) konfigurieren, Partitionen verschlüsseln, NFS-Freigaben einhängen und TMPFS-Volumes verwalten. Mit Btrfs nehmen Sie die Feinabstimmung für die einzelnen Btrfs-Partitionen vor, z. B. die Behandlung von Subvolumes und Snapshots. Weitere Informationen zur benutzerdefinierten Partionierung und zur Konfiguration erweiterter Funktionen finden Sie in Abschnitt 11.1, „Verwenden von Festplatte vorbereiten: Expertenmodus.

Warnung
Warnung: Speicherplatzeinheiten

Beachten Sie, dass Speicherplatz aus Partitionierungsgründen in binären Einheiten statt in dezimalen Einheiten gemessen wird. Wenn Sie beispielsweise Größen von 1GB, 1GiB oder 1G eingeben, werden diese vom System immer als 1 GiB (Gibibyte) behandelt, im Gegensatz zu 1 GB (Gigabyte).

Binär

1 GiB = 1 073 741 824 Byte.

Dezimal

1 GB = 1 000 000 000 Byte.

Differenz

1 GiB ≈ 1,07 GB.

9.12 Uhr und Zeitzone

In diesem Dialogfeld können Sie Ihre Region und Zeitzone wählen. Beide Werte werden entsprechend der Installationssprache festgelegt.

Uhr und Zeitzone
Abbildung 9.13: Uhr und Zeitzone

Um die festgelegten Werte zu ändern, verwenden Sie entweder die Landkarte oder die Dropdown-Felder für die Region und die Zeitzone. Wenn Sie die Landkarte verwenden, zeigen Sie mit dem Cursor in die ungefähre Richtung Ihrer Region und betätigen Sie die linke Maustaste, um zu zoomen. Wählen Sie nun Ihr Land oder Ihre Region, indem Sie die linke Maustaste betätigen. Betätigen Sie die rechte Maustaste, um zur Weltkarte zurückzukehren.

Wählen Sie zum Einrichten der Uhr die Option Rechneruhr eingestellt auf UTC. Wenn auf Ihrem Rechner ein anderes Betriebssystem ausgeführt wird, beispielsweise Microsoft Windows, verwendet Ihr System höchstwahrscheinlich eher die lokale Zeit. Wenn Linux auf Ihrem Rechner ausgeführt wird, stellen Sie die Rechneruhr auf UTC (Universal Time Coordinated) ein. Hiermit wird die Umstellung von der Standardzeit auf die Sommerzeit automatisch durchgeführt.

Wichtig
Wichtig: Einstellen der Rechneruhr auf UTC

Die Umschaltung von der Standardzeit auf die Sommerzeit (und umgekehrt) erfolgt nur dann automatisch, wenn die Rechneruhr (CMOS-Uhr) auf UTC eingestellt ist. Dies gilt auch dann, wenn Sie die automatische Zeitsynchronisierung mit NTP nutzen, weil die automatische Synchronisierung nur dann vorgenommen wird, wenn die Zeitdifferenz zwischen der Rechneruhr und der Systemuhr weniger als 15 Minuten beträgt.

Eine falsche Systemzeit kann zu schwerwiegenden Problemen führen (verpasste Datensicherungen, verloren gegangene Emails, Fehler beim Einhängen in Ferndateisysteme usw.). Es wird daher dringend empfohlen, die Rechneruhr immer auf UTC einzustellen.

POWER, AMD/Intel Wenn ein Netzwerk bereits konfiguriert ist, können Sie Zeitsynchronisation mit einem NTP-Server konfigurieren. Klicken Sie auf Andere Einstellungen, um entweder die NTP-Einstellungen zu ändern oder die Uhrzeit manuell festzulegen. Weitere Informationen zum Konfigurieren des NTP-Diensts finden Sie im Book “Verwaltungshandbuch”, Chapter 38 “Zeitsynchronisierung mit NTP”. Klicken Sie anschließend auf Übernehmen, um die Installation fortzusetzen.

POWER, AMD/Intel Wenn NTP nicht konfiguriert ist, sollten Sie ggf. die Einstellung SYSTOHC=no (Variable sysconfig) festlegen, damit keine nicht synchronisierte Uhrzeit in der Hardware-Uhr gespeichert wird.

Anmerkung
Anmerkung: Änderung von Datum und Uhrzeit auf IBM Z nicht möglich

Da das Betriebssystem nicht berechtigt ist, die Uhrzeit und das Datum direkt zu ändern, ist die Option Andere Einstellungen für IBM Z nicht verfügbar.

9.13 Erstellen von neuen Benutzern

Erstellen Sie bei diesem Schritt einen lokalen Benutzer.

Erstellen von neuen Benutzern
Abbildung 9.14: Erstellen von neuen Benutzern

Nachdem Sie den Vor- und Nachnamen eingegeben haben, akzeptieren Sie entweder den Vorschlag oder legen Sie einen neuen Benutzernamen fest, der zum Anmelden verwendet wird. Verwenden Sie nur Kleinbuchstaben (a–z), Ziffern (0–9) und die Zeichen . (Punkt), - (Bindestrich) und _ (Unterstrich). Sonderzeichen, Umlaute und Zeichen mit Akzent sind nicht zulässig.

Geben Sie schließlich das Passwort für den Benutzer ein. Geben Sie es zur Bestätigung erneut ein (um sicherzustellen, dass Sie nicht versehentlich etwas anderes eingegeben haben). Damit eine effektive Sicherheit gewährleistet ist, muss ein Passwort mindestens sechs Zeichen lang sein und Großbuchstaben, Kleinbuchstaben, Ziffern und Sonderzeichen enthalten (7-Bit-ASCII). Umlaute und Buchstaben mit Akzent sind nicht zulässig. Eingegebene Passwörter werden auf Sicherheit geprüft. Wenn Sie ein Passwort eingeben, das leicht erraten werden kann (wie zum Beispiel ein Wort aus dem Wörterbuch oder einen Namen), so wird eine Warnung angezeigt. Zur Erhöhung der Sicherheit ist es wichtig, starke Passwörter zu verwenden.

Wichtig
Wichtig: Benutzername und Passwort

Prägen Sie sich sowohl Ihren Benutzernamen als auch Ihr Passwort ein, da Sie sie bei jeder Anmeldung beim System benötigen.

Wenn Sie SUSE Linux Enterprise Server auf einem Rechner installieren, auf dem bereits mindestens eine Linux-Installation vorhanden ist, können Sie in YaST Benutzerdaten wie Benutzernamen und Passwörter importieren. Wählen Sie Benutzerdaten aus einer vorherigen Installation importieren und anschließend mit Benutzer auswählen die Benutzer für den Import aus.

Falls Sie keine lokalen Benutzer konfigurieren möchten (beispielsweise beim Einrichten eines Clients in einem Netzwerk mit zentraler Authentifizierung), überspringen Sie diesen Schritt mit Weiter und bestätigen Sie die Warnmeldung. Die Netzwerkbenutzerauthentifizierung kann jederzeit nachträglich im installierten System vorgenommen werden. Weitere Anweisungen finden Sie im Book “Verwaltungshandbuch”, Chapter 6 “Verwalten von Benutzern mit YaST”.

Zwei zusätzliche Optionen stehen zur Auswahl:

Dieses Passwort für den Systemadministrator verwenden

Wenn diese Option aktiviert ist, wird dasselbe Passwort für den Systemadministrator root verwendet wie das, das Sie für den Benutzer angegeben haben. Diese Option ist für Standalone-Arbeitsplatzrechner oder Rechner in einem Heimnetzwerk geeignet, die von einem einzigen Benutzer verwaltet werden. Wenn diese Option nicht aktiviert ist, werden Sie im nächsten Schritt des Installations-Workflows dazu aufgefordert, ein Systemadministratorpasswort einzugeben (siehe Abschnitt 9.14, „Authentifizierung für den Systemadministrator-root).

Automatische Anmeldung

Mithilfe dieser Option wird der aktuelle Benutzer bereits beim Systemstart beim System angemeldet. Dies ist besonders dann sinnvoll, wenn der Computer nur von einem Benutzer verwendet wird. Damit die automatische Anmeldung funktioniert, muss die Option explizit aktiviert werden.

Warnung
Warnung: Automatische Anmeldung

Wenn die automatische Anmeldung aktiviert ist, wird nach dem Booten des Systems direkt ohne Authentifizierung der Desktop angezeigt. Wenn auf Ihrem System vertrauliche Daten gespeichert sind, sollten Sie diese Option nicht aktivieren, sofern auch andere Benutzer auf den Computer zugreifen können.

In einer Umgebung mit zentraler Benutzerverwaltung (beispielsweise durch NIS oder LDAP) sollte die Erstellung von lokalen Benutzern eventuell übersprungen werden. Wählen Sie in diesem Fall Benutzererstellung überspringen aus.

9.14 Authentifizierung für den Systemadministrator-root

Wenn Sie im vorherigen Schritt nicht Dieses Passwort für den Systemadministrator verwenden ausgewählt haben, werden Sie aufgefordert, ein Passwort für den Systemadministrator-root einzugeben oder einen öffentlichen SSH-Schlüssel bereitzustellen. Andernfalls wird dieser Konfigurationsschritt übersprungen.

Authentifizierung für den Systemadministrator root
Abbildung 9.15: Authentifizierung für den Systemadministrator-root

Geben Sie das Passwort für den Systemadministrator root ein. Zur Überprüfung muss das Passwort für root zweimal eingegeben werden. Vergessen Sie das Passwort nicht, da es später nicht mehr abgerufen werden kann.

Tipp
Tipp: Passwörter und Tastaturbelegung

Es wird empfohlen, nur US ASCII-Zeichen zu verwenden. Wenn ein Systemfehler auftritt oder das System im Rettungsmodus gestartet werden muss, stehen die landesspezifischen Tastaturbelegungen unter Umständen nicht zur Verfügung.

Wenn Sie das root-Passwort später im installierten System ändern möchten, führen Sie YaST aus und starten Sie Sicherheit und Benutzer › Benutzer- und Gruppenverwaltung.

Wichtig
Wichtig: Der Benutzer root

root ist der Name des Systemadministrators oder Superusers. Seine Benutzer-ID (uid) lautet 0. Im Gegensatz zu normalen Benutzern hat das root-Konto unbegrenzte Rechte.

Das root-Passwort sollten Sie nicht vergessen

Nur root hat die Berechtigung, die Systemkonfiguration zu ändern, Programme zu installieren, Benutzer zu verwalten und neue Hardware festzulegen. Zum Ausführen solcher Aufgaben ist das root-Passwort erforderlich. Vergessen Sie das Passwort nicht, da es später nicht mehr abgerufen werden kann.

Verwenden Sie den root-Benutzer nicht für die tägliche Arbeit

Sich bei der täglichen Arbeit als root anzumelden, ist ziemlich riskant: Kommandos von root werden in der Regel ohne zusätzliche Bestätigung ausgeführt, sodass ein einziger Fehler zu einem unwiederbringlichen Verlust von Systemdateien führen kann. Verwenden Sie das root-Konto nur für die Systemverwaltung, Wartung und Reparatur.

Benennen Sie das root-Benutzerkonto nicht um

YaST benennt immer den Systemadministrator root. Es ist zwar technisch möglich, das root-Konto umzubenennen, aber bestimmte Anwendungen, Skripte oder Produkte von Drittanbietern sind möglicherweise auf die Existenz eines Benutzers namens root angewiesen. Eine solche Konfiguration zielt zwar immer auf individuelle Umgebungen ab, aber die notwendigen Anpassungen können durch Aktualisierungen des Herstellers überschrieben werden, sodass dies eine laufende Aufgabe und keine einmalige Einstellung ist. Dies trifft vor allem bei sehr komplexen Konfigurationen mit Anwendungen von Drittanbietern zu, bei denen mit jedem beteiligten Anbieter abgeklärt werden muss, ob eine Umbenennung des root-Kontos unterstützt wird.

Da die Auswirkungen der Umbenennung des root-Kontos nicht vorhersehbar sind, unterstützt SUSE die Umbenennung des root-Kontos nicht.

In der Regel geht es bei der Umbenennung eines root-Kontos darum, es zu verbergen oder es unvorhersehbar zu machen. Für /etc/passwd sind jedoch 644 Berechtigungen für normale Benutzer erforderlich, sodass jeder Benutzer des Systems den Anmeldenamen für die Benutzer-ID 0 abrufen kann. Bessere Methoden zur Absicherung des root-Kontos finden Sie in Book “Security and Hardening Guide”, Chapter 14 “User management”, Section 14.5 “Restricting root logins” und Book “Security and Hardening Guide”, Chapter 14 “User management”, Section 14.5.3 “Restricting SSH logins”.

Wenn Sie über SSH mit einem öffentlichen Schlüssel aus der Ferne auf das System zugreifen möchten, importieren Sie einen Schlüssel von einem Wechselspeichergerät oder einer vorhandenen Partition. Nach Abschluss der Installation können Sie sich mit dem bereitgestellten SSH-Schlüssel über SSH anmelden.

Vorgehen 9.1: Hinzufügen eines öffentlichen SSH-Schlüssels für den Benutzer-root

Führen Sie zum Importieren eines öffentlichen SSH-Schlüssels von einer Medium-Partition folgende Schritte aus:

  1. Der öffentliche SSH-Schlüssel befindet sich in Ihrem ~/.ssh-Verzeichnis und hat die Dateiendung .pub. Kopieren Sie ihn auf ein Wechselspeichergerät oder eine vorhandene Partition, das/die bei der Installation nicht formatiert wird.

  2. Wenn sich Ihr Schlüssel auf einem Wechselspeichergerät befindet, stecken Sie ihn in Ihren Computer, und klicken Sie auf Aktualisieren. Sie sollten das Gerät im Dropdown-Feld unter Öffentlichen Schlüssel importieren finden.

  3. Klicken Sie auf Durchsuchen, wählen Sie den öffentlichen SSH-Schlüssel aus, und bestätigen Sie mit Öffnen.

  4. Fahren Sie mit Weiter fort.

Wenn Sie sowohl ein Passwort als auch einen öffentlichen SSH-Schlüssel hinzugefügt haben und direkt nach der Installation Fernzugriff benötigen, vergessen Sie nicht, den SSH-Port im Abschnitt Sicherheit der Übersicht der Installationseinstellungen zu öffnen. Wenn Sie kein Passwort festlegen, sondern nur einen Schlüssel hinzufügen, wird der Port automatisch geöffnet, um zu verhindern, dass Sie aus dem neu installierten System ausgesperrt werden.

9.15 Installationseinstellungen

Im abschließenden Schritt vor der eigentlichen Installation können Sie die vom Installationsprogramm vorgeschlagenen Einstellungen ändern. Zum Bearbeiten der Vorschläge klicken Sie auf die gewünschte Überschrift. Nach jeder Änderung einer Einstellung gelangen Sie zum Fenster „Installationseinstellungen“ zurück, das entsprechend aktualisiert wird.

Wenn Sie für Ihren root wie in Prozedur 9.1 beschrieben einen SSH-Schlüssel hinzugefügt haben, müssen Sie den SSH-Port in den Sicherheits-Einstellungen öffnen.

Installationseinstellungen
Abbildung 9.16: Installationseinstellungen

9.15.1 Software

SUSE Linux Enterprise Server enthält mehrere Software-Schemata für verschiedene Anwendungszwecke. Die verfügbaren Schemata und Pakete ergeben sich aus den ausgewählten Modulen und Erweiterungen.

Mit Software öffnen Sie den Bildschirm Software-Auswahl und System-Tasks, in dem Sie die Schemaauswahl gemäß Ihren Anforderungen bearbeiten können. Wählen Sie das gewünschte Schema in der Liste aus, um eine Beschreibung im rechten Teil des Fensters anzuzeigen.

Jedes Schema enthält eine Reihe von Softwarepaketen, die für bestimmte Funktionen (z. B. Web- und LAMP-Server oder Druckserver) erforderlich sind. Sie erhalten eine detailliertere Auswahl auf Basis der zu installierenden Softwarepakete, wenn Sie auf Details klicken, um zum YaST-Software-Manager zu wechseln.

Software-Auswahl und System-Tasks
Abbildung 9.17: Software-Auswahl und System-Tasks

Sie können mit dem YaST-Software-Manager weitere Softwarepakete installieren und später jederzeit Softwarepakete von Ihrem System entfernen. Weitere Informationen hierzu finden Sie im Book “Verwaltungshandbuch”, Chapter 8 “Installieren bzw. Entfernen von Software”.

Wenn Sie GNOME installieren, wird SUSE Linux Enterprise Servermit dem X.org-Display-Server installiert. Als Alternative zu GNOME kann der einfache Fenstermanager IceWM installiert werden. Wählen Sie die Option Details im Bildschirm Software-Auswahl und System-Tasks, und suchen Sie nach icewm.

Tipp
Tipp: IBM Z: Unterstützung für Hardware-Kryptographie

Der Hardware-Kryptographiestapel wird standardmäßig nicht installiert. Zum Installieren wählen Sie die Option System z HW crypto support (Unterstützung für System z-Hardware-Verschlüsselung) im Bildschirm Software-Auswahl und System-Tasks.

Tipp
Tipp: Hinzufügen von sekundären Sprachen

Die im ersten Schritt der Installation ausgewählte Sprache wird als primäre Sprache (Standardsprache) für das System verwendet. Im Dialogfeld Software können Sie sekundäre Sprachen hinzufügen. Wählen Sie hierzu Details › Anzeigen › Sprachen.

9.15.2 Booten

Das Installationsprogramm schlägt eine Bootkonfiguration für das System vor. Weitere auf dem Rechner enthaltene Betriebssysteme, wie z. B. Microsoft Windows oder weitere Linux-Installationen werden automatisch gefunden und dem Bootloader hinzugefügt. SUSE Linux Enterprise Server wird jedoch standardmäßig gebootet. Diese Einstellungen müssen in der Regel nicht geändert werden. Falls Sie eine benutzerdefinierte Einrichtung vornehmen möchten, ändern Sie den Vorschlag gemäß Ihren Anforderungen. Informationen hierzu erhalten Sie unterBook “Verwaltungshandbuch”, Chapter 18 “Der Bootloader GRUB 2”, Section 18.3 “Konfigurieren des Bootloaders mit YaST”.

Wichtig
Wichtig: Software RAID 1

Das Booten einer Konfiguration, bei der sich /boot auf einem Software-RAID-1-Gerät befindet, wird unterstützt. Hierzu muss allerdings der Bootloader im MBR installiert werden (Speicherort des Bootloaders › Booten vom Master Boot Record). /boot auf Software-RAID-Computern mit einer anderen RAID-Ebene (also nicht RAID 1) wird nicht unterstützt. Sehen Sie sich dazu auch Book “Storage Administration Guide”, Chapter 8 “Configuring software RAID for the root partition” an.

9.15.3 Sicherheit

Die CPU-Mitigationen gelten für Kernel-Boot-Befehlszeilenparameter für Software-Mitigationen, die zur Vorbeugung von CPU-Seitenkanalangriffen bereitgestellt wurden. Zum Auswählen einer anderen Option klicken Sie auf den ausgewählten Eintrag. Weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 18 “Der Bootloader GRUB 2” CPU-Mitigationen.

Standardmäßig ist die Firewall auf allen konfigurierten Netzwerkschnittstellen aktiviert. Klicken Sie auf Deaktivieren, um firewalld vollständig zu deaktivieren (nicht empfohlen).

Anmerkung
Anmerkung: Firewall-Einstellungen

Wenn die Firewall aktiviert ist, werden alle Schnittstellen der public Zone zugewiesen, in der standardmäßig alle Ports geschlossen sind, sodass größtmögliche Sicherheit gewährleistet ist. Während der Installation können Sie lediglich Port 22 (SSH) für den entfernten Zugriff öffnen. Andere Dienste, die einen Netzwerkzugriff benötigen (z. B. FTP, Samba, Webserver usw.), funktionieren erst, nachdem Sie die Firewall-Einstellungen angepasst haben. Detaillierte Informationen zur Konfiguration finden Sie in Book “Security and Hardening Guide”, Chapter 23 “Masquerading and firewalls”.

Anmerkung
Anmerkung: Firewall-Einstellungen zum Erhalten von Aktualisierungen

Standardmäßig blockiert die Firewall von SUSE Linux Enterprise Server nur eingehende Verbindungen. Wenn sich Ihr System hinter einer anderen Firewall befindet, die ausgehenden Datenverkehr blockiert, stellen Sie sicher, dass Sie auf den Ports 80 und 443 Verbindungen zu https://scc.suse.com/ und https://updates.suse.com zulassen, um Updates erhalten zu können.

Der SSH-Dienst ist standardmäßig aktiviert, aber sein Port (22) ist in der Firewall geschlossen. Klicken Sie auf Öffnen, um den Port zu öffnen, oder auf Deaktivieren, um den Dienst zu deaktivieren. Beachten Sie, dass Fernanmeldungen nicht möglich sind, wenn SSH deaktiviert ist. Weitere Informationen finden Sie im Book “Security and Hardening Guide”, Chapter 22 “Securing network operations with OpenSSH”.

Tipp
Tipp: Vorhandene SSH-Host-Schlüssel

Wenn Sie SUSE Linux Enterprise Server auf einem Computer mit vorhandenen Linux-Installationen installieren, importiert die Installationsroutine einen SSH-Hostschlüssel. Hierbei wird standardmäßig der Hostschlüssel ausgewählt, auf den zuletzt zugegriffen wurde. Sehen Sie sich dazu auch Abschnitt 9.15.9, „Importieren von SSH-Hostschlüsseln und Konfiguration an.

Wenn Sie die Fernverwaltung über VNC vornehmen, können Sie außerdem konfigurieren, ob der Rechner nach der Installation über VNC erreichbar sein soll. Wenn Sie VNC aktivieren, müssen Sie allerdings auch unter Default systemd Target (systemd-Standardziel) die Option graphical (Grafisch) festlegen.

Das standardmäßige Linux-Hauptsicherheitsmodul lautet AppArmor. Wenn Sie es deaktivieren möchten, wählen Sie in den Einstellungen für die Sicherheit als Modul Keine. Damit können Sie die Auswahl des AppArmor-Schemas in den Software-Einstellungen (Abschnitt 9.15.1, „Software) aufheben.

9.15.4 Sicherheitsprofile

Wichtig
Wichtig: Verfügbarkeit in SUSE Linux Enterprise 15 SP4

Diese Funktion ist für SUSE Linux Enterprise 15 SP4 GM über die Selbstaktualisierung des Installationsprogramms oder über das QU2-Medium verfügbar.

Anhand dieser Kategorie können Sie Ihr System mit OpenSCAP-Sicherheitsrichtlinien absichern. Die erste implementierte Richtlinie ist der Security Technical Implementation Guide (STIG) von der Defense Information Systems Agency (Amt für Verteidigungsinformationssysteme, DISA).

Klicken Sie, um die Sicherheitsrichtlinie zu aktivieren. Nicht konforme Installationseinstellungen werden aufgelistet und es wird angegeben, gegen welche Regel sie verstoßen. Einige Einstellungen können automatisch angepasst werden, indem Sie auf fix rule (Regel korrigieren) klicken. Bei Einstellungen, für die eine Benutzereingabe erforderlich ist, klicken Sie auf modify settings (Einstellungen ändern), um den entsprechenden Einstellungsbildschirm zu öffnen.

Tipp
Tipp: Überprüfen der Einhaltung von Richtlinien während der Installation

Wenn Sie nicht auf den Bildschirm mit den Installationseinstellungen warten möchten und das Installationsprogramm die Einstellungen von Beginn des Installationsvorgangs an überprüfen soll, können Sie das System mit dem Boot-Parameter YAST_SECURITY_POLICY=POLICY booten. Die Konformität mit der DISA STIG können Sie mit YAST_SECURITY_POLICY=stig überprüfen. Weitere Informationen zu Boot-Parametern finden Sie in Kapitel 8, Boot-Parameter.

Das Installationsprogramm prüft nicht alle Regeln des Profils, sondern nur diejenigen, die für die Installation erforderlich oder die im Nachhinein schwer zu korrigieren sind. Zur Anwendung der übrigen Regeln wird beim ersten Start eine vollständige SCAP-Behebung durchgeführt. Sie können auch nur einen Scan durchführen oder nichts unternehmen und das System später mit OpenSCAP manuell korrigieren. Weitere Informationen finden Sie in den Artikeln Hardening SUSE Linux Enterprise with STIG und Hardening SUSE Linux Enterprise with OpenSCAP.

9.15.5 Netzwerkkonfiguration

In dieser Kategorie werden die aktuellen Netzwerkeinstellungen angezeigt, so wie sie nach dem Booten der Installation automatisch konfiguriert werden (siehe Abschnitt 9.6) oder wie sie während des Installationsvorgangs manuell konfiguriert werden. Standardmäßig wird wicked für Serverinstallationen und NetworkManager für Desktop-Workloads verwendet.

Wenn Sie die Netzwerkeinstellungen überprüfen oder anpassen möchten, klicken Sie auf Netzwerkkonfiguration. Dies führt Sie zum YaST-Modul Netzwerkeinstellungen. Weitere Informationen finden Sie unter Book “Verwaltungshandbuch”, Chapter 23 “Grundlegendes zu Netzwerken”, Section 23.4 “Konfigurieren von Netzwerkverbindungen mit YaST”.

Wichtig
Wichtig: Unterstützung für NetworkManager

SUSE unterstützt NetworkManager nur für Desktop-Workloads mit SLED oder der Workstation-Erweiterung. Alle Serverzertifikate werden mit wicked als Netzwerkkonfigurationstool durchgeführt, und die Verwendung von NetworkManager kann diese ungültig machen. NetworkManager wird von SUSE nicht für Server-Arbeitslasten unterstützt.

9.15.6 Kdump

Mithilfe von Kdump können Sie (im Falle eines Absturzes) einen Speicherauszug des Kernels speichern, um das Problem zu analysieren. Verwenden Sie dieses Dialogfeld, um kdump zu aktivieren und zu konfigurieren. Ausführliche Informationen finden Sie im Book “System Analysis and Tuning Guide”, Chapter 20 “Kexec and Kdump”.

9.15.7 IBM Z: Blacklist-Geräte

Um den Arbeitsspeicher zu schonen, werden alle derzeit nicht verwendeten Geräte automatisch auf die Schwarze Liste (Blacklist) gesetzt. (Jeder Kanal ohne Blacklist-Status belegt etwa 50 KB Arbeitsspeicher.) Wenn weitere Hardware-Geräte im installierten System über Kanäle mit Blacklist-Status konfiguriert werden sollen, aktivieren Sie diese Kanäle zunächst mit dem entsprechenden YaST-Modul.

Mit Deaktivieren wird der Blacklist-Status deaktiviert.

9.15.8 Standard-systemd-Ziel

SUSE Linux Enterprise Server kann in zwei Ziele (bislang als Runlevel bezeichnet) booten. Mit dem grafischen Ziel wird ein Anzeige-Manager gestartet, mit dem Mehrbenutzer-Ziel dagegen die Kommandozeilenschnittstelle.

Das Standardziel lautet graphical (grafisch). Falls die X Window System-Schemata nicht installiert sind, ändern Sie diese Einstellung in multi-user (Mehrbenutzer). Wenn das System über VNC erreichbar sein soll, müssen Sie die Option graphical (grafisch) verwenden.

9.15.9 Importieren von SSH-Hostschlüsseln und Konfiguration

Wenn auf Ihrem Rechner eine vorhandene Linux-Installation gefunden wurde, importiert YaST standardmäßig den neuesten SSH-Hostschlüssel aus /etc/ssh und schließt optional auch andere Dateien im Verzeichnis ein. Dadurch kann die SSH-Identität der vorhandenen Installation wiederverwendet werden und bei der ersten Verbindung wird die Warnmeldung REMOTE HOST IDENTIFICATION HAS CHANGED (IDENTIFIKATION DES REMOTE-HOSTS HAT SICH GEÄNDERT) nicht angezeigt. Beachten Sie, dass dieser Eintrag nur dann in der Installationsübersicht angezeigt wird, wenn YaST andere Installationen gefunden hat. Es stehen Ihnen folgende Möglichkeiten zur Auswahl:

I would like to import SSH keys from a previous install (SSH-Schlüssel aus einer früheren Installation importieren):

Mit dieser Option importieren Sie den SSH-Hostschlüssel und optional auch die Konfiguration eines installierten Systems. Sie können die zu importierende Installation in der darunter angezeigten Optionsliste auswählen.

Import SSH Configuration (SSH-Konfiguration importieren)

Aktivieren Sie diese Option, wenn Sie zusätzlich zu den Hostschlüsseln weitere Dateien in /etc/ssh auf das installierte System kopieren möchten.

9.15.10 System

Dieser Bildschirm zeigt alle Hardware-Informationen, die das Installationsprogramm für den Rechner ermittelt hat. Beim ersten Öffnen wird die Hardware-Erkennung gestartet. Abhängig von Ihrem System kann dies unter Umständen eine Weile dauern. Wählen Sie einen beliebigen Eintrag in der Liste aus und klicken Sie auf Details, um detaillierte Informationen zum ausgewählten Eintrag anzuzeigen. Verwenden Sie In Datei speichern, um eine detaillierte Liste entweder auf einem lokalen Dateisystem oder auf einem Wechselmedium zu speichern.

Erfahrene·Benutzer können auch das PCI ID-Setup sowie die Kernel-Einstellungen ändern, indem sie Kernel-Einstellungen wählen. Daraufhin wird ein Dialogfeld mit zwei Karteireitern geöffnet:

PCI ID-Setup

Jeder Kernel-Treiber umfasst eine Liste mit den Geräte-IDs aller unterstützten Geräte. Wenn sich ein neues Gerät nicht in der Datenbank eines Treibers befindet, wird das Gerät so behandelt, als ob es nicht unterstützt wird, selbst wenn es mit einem vorhandenen Treiber verwendet werden kann. Hier können Sie PCI-IDs zu einem Gerätetreiber hinzufügen. Dies sollte fortgeschrittenen Benutzern vorbehalten bleiben.

Zum Hinzufügen einer ID klicken Sie auf Hinzufügen, und geben Sie an, ob Sie die Daten manuell eingeben oder in einer Liste auswählen möchten. Geben Sie die erforderlichen Daten ein. Der Name für das SysFS-Verzeichnis wird aus dem Verzeichnis /sys/bus/pci/drivers übernommen. Wenn dieses Verzeichnis leer ist, wird der Treiber-Name als Verzeichnisname verwendet. Mit Bearbeiten und Löschen verwalten Sie vorhandene Einträge.

Kernel-Einstellungen

Hier ändern Sie den globalen E/A-Planer. Bei Nicht konfiguriert wird die Standardeinstellung für die jeweilige Architektur verwendet. Sie können diese Einstellung jederzeit nachträglich über das installierte System ändern. Weitere Informationen zur E/A-Feinabstimmung finden Sie in Book “System Analysis and Tuning Guide”, Chapter 14 “Tuning I/O performance”.

Hier finden Sie außerdem die Option SysRq-Tasten aktivieren. Wenn das System ausfällt, können Sie mit diesen Tasten einfache Kommandos ausführen (beispielsweise das System neu booten oder einen Kernel-Dump anfertigen). Es wird empfohlen, diese Tasten während der Kernel-Entwicklung zu aktivieren. Weitere Informationen finden Sie unter https://www.kernel.org/doc/html/latest/admin-guide/sysrq.html.

9.16 Ausführen der Installation

Wenn Sie alle Installationseinstellungen konfiguriert haben, klicken Sie im Fenster „Installationseinstellungen“ zum Starten der Installation auf Installieren. Für manche Software ist möglicherweise eine Lizenzbestätigung erforderlich. Wenn Ihre Softwareauswahl diese Art von Software enthält, werden Dialogfelder für Lizenzbestätigungen angezeigt. Klicken Sie zur Installation des Softwarepakets auf Übernehmen. Wenn Sie die Lizenz nicht akzeptieren, klicken Sie auf Ablehnen, wodurch das Softwarepaket nicht installiert wird. Bestätigen Sie die Eingabe in dem darauffolgenden Dialogfeld noch einmal mit Installieren.

Die Installation dauert in der Regel 15 bis 30 Minuten, je nach Systemleistung und ausgewähltem Softwarebereich. Nachdem Sie die Festplatte vorbereitet und die Benutzereinstellungen gespeichert und wiederhergestellt haben, beginnt die Installation der Software. Wählen Sie Details, um zum Installationsprotokoll umzuschalten, oder Versionshinweise, um wichtige aktuelle Informationen zu lesen, die bei der Drucklegung des Handbuchs noch nicht verfügbar waren.

Nach Abschluss der Software-Installation wird das System in die neue Installation neu gebootet, und Sie können sich anmelden. Wenn Sie die Systemkonfiguration anpassen oder weitere Software-Pakete installieren möchten, starten Sie YaST.

9.16.1 IBM Z: Ausführen eines IPL-Vorgangs für das installierte System

YaST wird in der Regel in dem installierten System auf der IBM Z-Plattform neu gebootet. Ausnahmen sind Installationen, in denen sich der Bootloader auf einem FCP-Gerät in Umgebungen mit LPAR auf einem Computer älter als z196 oder mit z/VM älter als Version 5.4 befindet. Der Bootloader wird in eine separate Partition geschrieben, die als /boot/zipl/ eingehängt ist.

Bei Fällen, in denen kein automatischer Neustart möglich ist, wird in YaST ein Dialogfeld mit Informationen angzeigt, die angeben, von welchem Gerät aus ein IPL ausgeführt werden soll. Bestätigen Sie die Option zum Herunterfahren und führen Sie nach dem Herunterfahren einen IPL aus. Der Vorgang variiert abhängig vom Typ der Installation:

LPAR-Installation

Wählen Sie in IBM Z HMC die Optionen Laden und Löschen und geben Sie anschließend die Ladeadresse ein (die Adresse des Geräts mit dem Verzeichnis /boot/zipl, das den Bootloader enthält). Wenn Sie eine zFCP-Platte als Bootgerät verwenden, wählen Sie die Option Von SCSI laden und geben Sie die Ladeadresse Ihres FCP-Adapters sowie die WWPN und LUN des Bootgeräts an. Beginnen Sie nun den Ladevorgang.

z/VM-Installation

Melden Sie sich beim VM-Gast als LINUX1 an (Informationen zur Konfiguration finden Sie unter Beispiel 5.1, „Konfiguration eines z/VM-Verzeichnisses“), und fahren Sie damit fort, für das installierte System einen IPL auszuführen:

IPL 151 CLEAR

151 ist eine Beispieladresse des DASD-Boot-Geräts. Ersetzen Sie diesen Wert durch die korrekte Adresse.

Wenn Sie eine ZFCP-Festplatte als Bootgerät verwenden, geben Sie vor der Initialisierung des IPL sowohl ZFCP WWPN als auch LUN des Bootgeräts an. Die Parameterlänge ist auf acht Zeichen beschränkt. Längere Werte müssen durch Leerzeichen getrennt werden:

SET LOADDEV PORT 50050763 00C590A9 LUN 50010000 00000000

Starten Sie dann IPL:

IPL FC00

FC00 ist eine Beispieladresse des ZFCP-Adapters. Ersetzen Sie diesen Wert durch die korrekte Adresse.

Installation eines KVM-Gasts

Nach Abschluss der Installation wird der virtuelle Rechner heruntergefahren. Melden Sie sich nun am KVM-Host an, bearbeiten Sie die Beschreibungsdatei des virtuellen Rechners und starten Sie ihn erneut, um einen IPL-Vorgang im installierten System auszuführen:

  1. Melden Sie sich am KVM-Host an.

  2. Bearbeiten Sie die XML-Domänendatei, indem Sie Folgendes ausführen:

    > sudo virsh edit s12-1

    Entfernen Sie die folgenden Zeilen:

      <!-- Boot kernel - remove 3 lines after successfull installation -->
      <kernel>/var/lib/libvirt/images/s12-kernel.boot</kernel>
      <initrd>/var/lib/libvirt/images/s12-initrd.boot</initrd>
      <cmdline>linuxrcstderr=/dev/console</cmdline>
  3. Starten Sie den VM-Gast erneut, um einen IPL-Vorgang im installierten System auszuführen:

    > sudo virsh start s12-1 --console
Anmerkung
Anmerkung: cio_ignore ist bei KVM-Installationen deaktiviert

Der Kernel-Parameter cio_ignore verhindert, dass der Kernel alle verfügbaren Hardwaregeräte berücksichtigt. Bei KVM-Gästen sorgt jedoch bereits der Hypervisor dafür, dass nur Zugriff auf die richtigen Geräte bereitgestellt wird. Daher ist cio_ignore bei der Installation eines KVM-Gasts standardmäßig deaktiviert (bei z/VM- und LPAR-Installationen ist er standardmäßig aktiviert).

9.16.2 IBM Z: Herstellen einer Verbindung zum installierten System

Stellen Sie nach dem Ausführen eines IPL für das System eine Verbindung zum installierten System über VNC, SSH oder X her, und melden Sie sich an. Die Verwendung von VNC oder SSH wird empfohlen. Wenn Sie die Systemkonfiguration anpassen oder weitere Software-Pakete installieren möchten, starten Sie YaST.

9.16.2.1 Herstellen einer Verbindung mit VNC

Eine Meldung im 3270-Terminal fordert Sie auf, eine Verbindung zum Linux-System mithilfe eines VNC-Clients herzustellen. Diese Meldung wird jedoch leicht übersehen, da sie mit Kernel-Meldungen gemischt ist und der Terminalprozess eventuell beendet wird, bevor Sie die Meldung bemerken. Wenn nach fünf Minuten keine Verbindung hergestellt werden kann, versuchen Sie, die Verbindung zum Linux-System mit einem VNC-Viewer herzustellen.

Wenn die Verbindung mit einem JavaScript-fähigen Browser erfolgt, geben Sie die vollständige URL, bestehend aus der IP-Adresse des installierten Systems und der Portnummer, wie folgt ein:

http://IP_OF_INSTALLED_SYSTEM:5801/

9.16.2.2 Herstellen einer Verbindung mit SSH

Eine Meldung im 3270-Terminal fordert Sie auf, eine Verbindung zum Linux-System mithilfe eines SSH-Clients herzustellen. Diese Meldung wird leicht übersehen, da sie mit Kernel-Meldungen gemischt ist und der Terminalprozess eventuell beendet wird, bevor Sie die Meldung bemerken.

Wenn die Meldung angezeigt wird, melden Sie sich mit SSH als root am Linux-System an. Falls die Verbindung abgelehnt wird oder es während des Verbindungsversuchs zu einer Zeitüberschreitung kommt, warten Sie auf die Überschreitung der Anmeldezeit und versuchen Sie es anschließend erneut (der Zeitüberschreitungswert ist abhängig von den Servereinstellungen).

9.16.2.3 Herstellen einer Verbindung mit X

Stellen Sie beim Ausführen von IPL für das installierte System vor dem Start vom DASD aus sicher, dass der für die erste Installationsphase verwendete X-Server aktiv und immer noch verfügbar ist. YaST wird auf diesem X-Server geöffnet, um die Installation abzuschließen. Komplikationen können entstehen, wenn das System gestartet wird, aber nicht rechtzeitig eine Verbindung zum X-Server aufbauen kann.

10 Registrieren von SUSE Linux Enterprise und Verwalten von Modulen/Erweiterungen

Für technischen Support und Produktaktualisierungen müssen Sie SUSE Linux Enterprise Server beim SUSE Customer Center registrieren und aktivieren. Es wird empfohlen, die Registrierung während der Installation vorzunehmen, da Sie so in der Lage sind, das System mit den neuesten verfügbaren Aktualisierungen und Patches zu installieren. Falls Sie gerade offline sind oder den Registrierungsschritt überspringen möchten, können Sie die Registrierung jederzeit später aus dem installierten System heraus nachholen.

Durch Module und Erweiterungen werden dem System Funktionen hinzugefügt und Sie können das System an Ihre Bedürfnisse anpassen. Diese Komponenten müssen ebenfalls registriert werden und lassen sich mithilfe von YaST oder Kommandozeilenwerkzeugen verwalten. Detaillierte Informationen finden Sie im Article “Modules and Extensions Quick Start”.

Anmerkung
Anmerkung: SUSE-Konto

Für die Registrierung beim SUSE Customer Center ist ein SUSE-Konto erforderlich. Falls Sie noch kein SUSE-Konto besitzen, wechseln Sie zur SUSE Customer Center-Startseite (https://scc.suse.com/), und erstellen Sie dort ein Konto.

Tipp
Tipp: Aufheben der Registrierung eines Systems

Die Registrierung eines Systems und aller darin enthaltenen Module und Erweiterungen kann vollständig mithilfe des Kommandozeilenwerkzeugs SUSEConnect aufgehoben werden. Durch die Aufhebung der Registrierung eines Systems wird der Eintrag vom Registrierungsserver entfernt und alle Repositorys für Module, Erweiterungen und das Produkt selbst werden entfernt.

> sudo SUSEConnect -d

10.1 Registrierung während der Installation

Die Registrierung während der Installation ist die einfachste und empfohlene Methode zur Registrierung. Dadurch wird nicht nur die neueste Patchebene von SUSE Linux Enterprise Server installiert, sondern Sie erhalten auch Zugriff auf alle Module und Erweiterungen, ohne ein weiteres Installationsmedium bereitstellen zu müssen. Dies trifft auch auf alle installierten Module und Erweiterungen zu. Weitere Informationen zum Registrierungsvorgang finden Sie in Abschnitt 9.7, „Registrierung“.

Wenn das System bei der Installation erfolgreich registriert wurde, fügt YaST Online-Repositorys hinzu, die vom SUSE Customer Center bereitgestellt wurden. Dadurch werden Probleme durch nicht mehr verfügbare lokale Installationsquellen vermieden und es wird sichergestellt, dass Sie stets die neuesten Aktualisierungen aus den Online-Repositorys erhalten.

10.2 Registrieren bei der automatisierten Bereitstellung

Wenn Sie die Instanzen automatisch mit AutoYaST bereitstellen, können Sie das System während der Installation registrieren. Geben Sie hierzu die entsprechenden Informationen in der AutoYaST-Steuerungsdatei an. Weitere Informationen finden Sie im Book “AutoYaST Guide”, Chapter 4 “Configuration and installation options”, Section 4.3 “System registration and extension selection”.

10.3 Registrieren vom installierten System aus

Sollten Sie die Registrierung während der Installation übersprungen haben oder das System erneut registrieren wollen, können Sie dies jederzeit mit dem YaST-Modul Produktregistrierung oder dem Kommandozeilen-Tool SUSEConnect erledigen.

10.3.1 Registrieren mit YaST

Starten Sie zum Registrieren des Systems den Vorgang über YaST › Software › Produktregistrierung. Registrieren Sie zunächst SUSE Linux Enterprise Server und wählen Sie dann die Module und Erweiterungen, die Sie zur Verfügung stellen möchten.

Wichtig
Wichtig: Module und Erweiterungen

Wenn Sie das System vom Medium SLE-15-SP6-Full-ARCH-GM-media1.iso installiert und die Registrierung übersprungen haben, müssen Sie alle Module und Erweiterungen, die Sie während der Installation ausgewählt haben, registrieren. Sicherheitsupdates und Patches erhalten Sie nur für registrierte Module und Erweiterungen.

Vorgehen 10.1: Produktregistrierung mit YaST
  1. Starten Sie YaST › Software › Produktregistrierung.

    Registration dialog
  2. Geben Sie die Email-Adresse für das SUSE-Konto ein, mit dem Sie oder Ihr Unternehmen die Abonnements verwalten. Geben Sie außerdem den Registrierungscode ein, den Sie zusammen mit Ihrem Exemplar von SUSE Linux Enterprise Server erhalten haben.

  3. Standardmäßig wird das System beim SUSE Customer Center registriert.

    Sollte Ihr Unternehmen lokale Registrierungsserver bereitstellen, wählen Sie einen Server in der Liste der automatisch erkannten Server aus oder geben Sie die URL über System über lokalen RMT-Server registrieren an.

  4. Starten Sie den Registrierungsvorgang mit Weiter. SUSE Linux Enterprise Server wird beim gewählten Server registriert und die zugehörigen Repositorys werden dem System hinzugefügt. Das Dialogfeld Auswahl der Erweiterungen und Module wird geöffnet.

    Extension and Module Selection dialog
  5. Wählen Sie alle Module und Erweiterungen aus, die Sie im System zur Verfügung stellen möchten. Wählen Sie mindestens die Standardmodule (Basesystem Module und Server Applications Module). Wählen Sie zudem alle weiteren Module und Erweiterungen, die Sie bei der Installation hinzugefügt haben. Beachten Sie, dass für alle Erweiterungen zusätzliche Registrierungscodes erforderlich sind, die Sie erwerben müssen. Fahren Sie mit Weiter fort.

  6. Abhängig von Ihrer Auswahl müssen Sie möglicherweise auch eine oder mehrere Lizenzvereinbarungen akzeptieren. Alle Komponenten, die mit dem gewählten Server registriert sind, und die zugehörigen Repositorys werden dem System hinzugefügt.

  7. Das Installationsprogramm für das YaST-Paket wird geöffnet, um die Versionspakete für jedes Modul sowie weitere Pakete je nach den ausgewählten Modulen und Erweiterungen zu installieren. Es wird dringend empfohlen, keinesfalls die Auswahl für vorausgewählte Pakete aufzuheben. Weitere Pakete können jedoch noch hinzugefügt werden.

    Installation Summary screen

    Wählen Sie Akzeptieren und Fertigstellen aus, um den Registrierungsvorgang abzuschließen.

10.3.2 Registrieren mit SUSEConnect

Die Registrierung des Systems zusammen mit Modulen und Erweiterungen kann über die Kommandozeile mit SUSEConnect durchgeführt werden. Informationen zu diesem Thema finden Sie in der Inline-Dokumentation unter man 8 SUSEConnect.

Vorgehen 10.2: Produktregistrierung mit SUSE Connect
  1. Führen Sie zur Registrierung von SUSE Linux Enterprise Server am SUSE Customer Center SUSEConnect wie folgt aus:

    > sudo SUSEConnect -r REGISTRATION_CODE -e EMAIL_ADDRESS

    Soll die Registrierung über einen lokalen Registrierungsserver erfolgen, geben Sie die URL des Servers an:

    > sudo SUSEConnect -r REGISTRATION_CODE -e EMAIL_ADDRESS \
    --url "https://suse_register.example.com/"

    Ersetzen Sie REGISTRATION_CODE durch den Registrierungscode, den Sie mit Ihrer Version von SUSE Linux Enterprise Server erhalten haben. Ersetzen Sie EMAIL_ADDRESS durch die E-Mail-Adresse für das SUSE-Konto, mit dem Sie oder Ihr Unternehmen die Abonnements verwalten.

    Durch diesen Vorgang wird das Basesystem Module und das Server Applications Module registriert und die zugehörigen Repositorys werden dem System hinzugefügt.

  2. SUSE Linux Enterprise Server einschließlich der beiden Standard-Repositorys ist nun registriert. Sollten Sie weitere Module oder Erweiterungen registrieren wollen, fahren Sie fort wie in Abschnitt 10.4, „Verwalten von Modulen und Erweiterungen in einem laufenden System“ beschrieben.

10.4 Verwalten von Modulen und Erweiterungen in einem laufenden System

Sie können Module und Erweiterungen auch nach der Installation und Registrierung eines Systems hinzufügen und entfernen. Sie können dazu entweder YaST oder SUSEConnect verwenden. Weitere Informationen finden Sie im Article “Modules and Extensions Quick Start”.

10.4.1 Hinzufügen von Modulen und Erweiterungen mit YaST

  1. Starten Sie die YaST › Software › Systemerweiterungen.

    Extension and Module Selection dialog
  2. Wählen Sie zum Hinzufügen von Modulen oder Erweiterungen alle Komponenten aus, die Sie installieren möchten. Beachten Sie, dass für alle Erweiterungen zusätzliche Registrierungscodes erforderlich sind.

  3. Alle zusätzlichen Komponenten werden beim Registrierungsserver registriert und die zugehörigen Repositorys werden dem System hinzugefügt.

  4. Das Installationsprogramm für das YaST-Paket wird geöffnet, um die Versionspakete für jedes Modul sowie weitere Pakete je nach den ausgewählten Modulen und Erweiterungen zu installieren. Es wird dringend empfohlen, keinesfalls die Auswahl für vorausgewählte Pakete aufzuheben. Weitere Pakete können jedoch noch hinzugefügt werden.

    Wählen Sie Akzeptieren und Fertigstellen aus, um den Vorgang abzuschließen.

Tipp
Tipp: Modulabhängigkeiten

Wie bei Softwarepaketen, deren Funktionsfähigkeit möglicherweise von anderen Paketen abhängt, kann auch ein Modul von anderen Modulen abhängig sein. In diesem Fall werden alle Module, von denen es abhängt, automatisch zur Installation ausgewählt.

10.4.2 Löschen von Modulen und Erweiterungen mit YaST

  1. Starten Sie YaST › Software › Add-on-Produkte.

    Installed Add-on Products dialog
  2. Wählen Sie das Modul oder die Erweiterung, das/die entfernt werden sollte, und klicken Sie auf Löschen. Bestätigen Sie die Warnung, die darauf hinweist, dass alle Pakete der ausgewählten Komponente gelöscht werden.

  3. Der YaST-Software-Manager wird geöffnet und eine Liste aller installierten Pakete des gelöschten Moduls oder der gelöschten Erweiterung werden angezeigt. Klicken Sie auf Akzeptieren, um alle zu entfernen. Es wird dringend empfohlen, diesen Vorgang auszuführen, da Sie für Pakete gelöschter Module oder Erweiterungen keine Updates mehr erhalten. Falls Sie die Pakete beibehalten, sollten Sie auf jeden Fall das Paket *-release für alle zu löschenden Module oder Erweiterungen entfernen.

    Fahren Sie mit Akzeptieren und dann OK fort.

Warnung
Warnung: Löschen von Modulen

Beachten Sie, dass Sie niemals das Basesystem Module löschen sollten. Es wird zudem nicht empfohlen, das Server Applications Module zu löschen.

Warnung
Warnung: Keine Updates für Pakete von gelöschten Modulen und Erweiterungen

Wenn Sie Pakete von gelöschten Modulen oder Erweiterungen beibehalten möchten, erhalten Sie für diese Pakete keine Updates mehr. Da dies auch auf Sicherheitspatches zutrifft, stellt es möglicherweise ein Sicherheitsrisiko für das System dar, wenn diese Pakete beibehalten werden.

10.4.3 Hinzufügen/Löschen von Modulen und Erweiterungen mit SUSEConnect

  1. Führen Sie SUSEConnect -list-extensions aus, um einen Überblick über verfügbare Erweiterungen zu erhalten:

    > sudo SUSEConnect -list-extensions
    AVAILABLE EXTENSIONS AND MODULES
    
      Basesystem Module 15 SP6 x86_64 (Installed)
      Deactivate with: SUSEConnect -d -p sle-module-basesystem/15.6/x86_64
    
        Containers Module 15 SP6 x86_64
        Activate with: SUSEConnect -p sle-module-containers/15.6/x86_64
    
        Desktop Applications Module 15 SP6 x86_64
        Activate with: SUSEConnect -p sle-module-desktop-applications/15.6/x86_64
    
          Development Tools Module 15 SP6 x86_64
          Activate with: SUSEConnect -p sle-module-development-tools/15.6/x86_64
    
          SUSE Linux Enterprise Workstation Extension 15 SP6 x86_64
          Activate with: SUSEConnect -p sle-we/15.6/x86_64 -r ADDITIONAL REGCODE
    
        SUSE Cloud Application Platform Tools Module 15 SP6 x86_64
        Activate with: SUSEConnect -p sle-module-cap-tools/15.6/x86_64
    
        SUSE Linux Enterprise Live Patching 15 SP6 x86_64
        Activate with:
          SUSEConnect -p sle-module-live-patching/15.6/x86_64 -r ADDITIONAL REGCODE
    
        SUSE Package Hub 15 SP6 x86_64
        Activate with: SUSEConnect -p PackageHub/15.6/x86_64
    
        Server Applications Module 15 SP6 x86_64 (Installed)
        Deactivate with: SUSEConnect -d -p sle-module-server-applications/15.6/x86_64
    
          Legacy Module 15 SP6 x86_64
          Activate with: SUSEConnect -p sle-module-legacy/15.6/x86_64
    
          Public Cloud Module 15 SP6 x86_64
          Activate with: SUSEConnect -p sle-module-public-cloud/15.6/x86_64
    
          SUSE Enterprise Storage 6 x86_64
          Activate with: SUSEConnect -p ses/6/x86_64 -r ADDITIONAL REGCODE
    
          SUSE Linux Enterprise High Availability Extension 15 SP6 x86_64
          Activate with: SUSEConnect -p sle-ha/15.6/x86_64 -r ADDITIONAL REGCODE
    
          Web and Scripting Module 15 SP6 x86_64
          Activate with: SUSEConnect -p sle-module-web-scripting/15.6/x86_64
    
    MORE INFORMATION
    
    You can find more information about available modules here:
    https://www.suse.com/products/server/features/modules.html
  2. Führen Sie das entsprechende Kommando aus, um eine Komponente hinzuzufügen oder zu löschen. Beachten Sie, dass zum Hinzufügen von Erweiterungen zusätzliche Registrierungscodes erforderlich sind.

Warnung
Warnung: Löschen von Modulen

Das Basesystem Module darf nicht gelöscht werden. Es wird zudem nicht empfohlen, das Server Applications Module zu löschen.

Wichtig
Wichtig: Kein automatisches Installieren oder Entfernen von Paketen

SUSEConnect fügt nur Module und Erweiterungen hinzu oder entfernt diese. Es registriert die Komponenten oder hebt deren Registrierung auf und aktiviert oder deaktiviert ihre Repositorys, installiert oder entfernt jedoch keine Pakete. Nutzen Sie YaST zum Verwalten von Modulen und Erweiterungen, falls dieser Vorgang automatisch ausgeführt werden soll.

Wenn Sie ein Modul oder eine Erweiterung hinzufügen, installiert SUSEConnect keine Standardpakete oder -schemata. Wenn Sie dies manuell tun möchten, verwenden Sie Zypper oder YaST › Software-Verwaltung.

Wenn Sie ein Modul oder eine Erweiterung löschen, führt SUSEConnect keine Bereinigung durch. Die Pakete des Moduls oder der Erweiterung bleiben zwar auf dem System installiert, werden aber nicht mehr aus einem Repository aktualisiert. Führen Sie zum Auflisten dieser verwaisten Pakete zypper packages --orphaned aus. Führen Sie zum Entfernen eines oder mehrerer Pakete zypper remove PACKAGE [ANOTHER_PACKAGE] aus. Alternativ können Sie YaST › -Softwareverwaltung und dann Paketklassifizierung › anzeigen › Verwaiste Pakete wählen, um eine Auflistung der verwaisten Pakete anzuzeigen und diese zu löschen.

Warnung
Warnung: Keine Updates für Pakete von gelöschten Modulen und Erweiterungen

Wenn Sie Pakete von gelöschten Modulen oder Erweiterungen beibehalten möchten, erhalten Sie für diese Pakete keine Updates mehr. Da dies auch auf Sicherheitspatches zutrifft, stellt es möglicherweise ein Sicherheitsrisiko für das System dar, wenn diese Pakete beibehalten werden.

10.5 Keep-Alive-Zeitgeber in SUSEConnect

Ab Version 0.3.33 umfasst das SUSEConnect-Paket zwei systemd-Einheiten:

  • suseconnect-keepalive.service: einen Dienst, der das Kommando SUSEConnect ‑‑keep-alive bei Bedarf ausführt.

  • suseconnect-keepalive.timer: einen Zeitgeber, der den Dienst suseconnect-keepalive.service einmal pro Tag ausführt.

Diese Einheiten sind dafür verantwortlich, die Systeminformationen mit dem SUSE Customer Center oder dem Registrierungsserver auf dem neuesten Stand zu halten und genaue Daten über die Abonnementnutzung bereitzustellen.

Das Kommando SUSEConnect --keep-alive aktualisiert die Angabe für die letzte Anzeige eines Systems und seine Hardwareinformationen mit dem Registrierungsdienst.

Anmerkung
Anmerkung: Der Zeitgeber wird automatisch aktiviert.

Wenn das SUSEConnect-Paket installiert oder aktualisiert wird und seine Version gleich oder höher als die oben beschriebene ist, wird der Keep-Alive-Zeitgeber automatisch aktiviert.

Tipp
Tipp: Deaktivieren des Keep-Alive-Zeitgebers von SUSEConnect

Wenn der Keep-Alive-Zeitgeber von SUSEConnect nicht auf Ihrem System ausgeführt werden soll, können Sie ihn mit systemctl deaktivieren:

> sudo systemctl disable --now suseconnect-keepalive.timer

Wenn der Zeitgeber einmal deaktiviert ist, kann er durch nachfolgende Aktualisierungen des SUSEConnect-Pakets nicht wieder aktiviert werden.

11 Festplatte vorbereiten: Expertenmodus

Komplexe Systemkonfigurationen erfordern besondere Festplatteneinrichtungen. Sie können alle gängigen Partitionierungsaufgaben während der Installation durchführen.

Wenn Sie persistente Gerätenamen für Blockgeräte erhalten möchten, verwenden Sie die Geräte unter /dev/disk/by-id oder /dev/disk/by-uuid.

Das Logical Volume Management (LVM) ist ein Schema für die Festplattenpartitionierung, das viel flexibler als die physische Partitionierung in Standardkonfigurationen ist. Mit der Snapshop-Funktion können Sie Datensicherungen einfach erstellen. Ein RAID (Redundant Array of Independent Disks) bietet verbesserte Datenintegrität, Leistung und Fehlertoleranz. SUSE Linux Enterprise Server unterstützt auch die Multipath-E/A (weitere Details finden Sie im Book “Storage Administration Guide”, Chapter 18 “Managing multipath I/O for devices”). Es gibt auch die Möglichkeit, iSCSI als vernetzte Festplatte zu verwenden (lesen Sie mehr über iSCSI im Book “Storage Administration Guide”, Chapter 15 “Mass storage over IP networks: iSCSI”).

Warnung
Warnung: Speicherplatzeinheiten

Beachten Sie, dass Speicherplatz aus Partitionierungsgründen in binären Einheiten statt in dezimalen Einheiten gemessen wird. Wenn Sie beispielsweise Größen von 1GB, 1GiB oder 1G eingeben, werden diese vom System immer als 1 GiB (Gibibyte) behandelt, im Gegensatz zu 1 GB (Gigabyte).

Binär

1 GiB = 1 073 741 824 Byte.

Dezimal

1 GB = 1 000 000 000 Byte.

Differenz

1 GiB ≈ 1,07 GB.

11.1 Verwenden von Festplatte vorbereiten: Expertenmodus

Mit dem Festplatte vorbereiten: Expertenmodus (Abbildung 11.1, „YaST-Partitionierung“) können Sie Partitionen hinzufügen, löschen, bearbeiten und deren Größe verändern sowie auf die Soft-RAID und LVM-Konfiguration zugreifen.

Warnung
Warnung: Neupartitionierung des laufenden Systems

Auch wenn es möglich ist, ein laufendes System neu zu partitionieren, ist das Risiko eines Fehlers mit daraus folgendem Datenverlust sehr hoch. Versuchen Sie daher eine Neupartitionierung des installierten Systems möglichst zu vermeiden. Sollten Sie dies trotzdem versuchen, führen Sie zuvor unbedingt eine vollständige Datensicherung durch.

YaST-Partitionierung
Abbildung 11.1: YaST-Partitionierung
Tipp
Tipp: IBM Z: Gerätenamen

IBM Z erkennt nur DASD-, zFCP- und SCSI-Festplatten. IDE-Festplatten werden nicht unterstützt. Aus diesem Grund werden die Geräte in der Partitionstabelle für das erste erkannte Gerät als dasda oder sda angezeigt.

Alle bestehenden oder vorgeschlagenen Partitionen auf allen angeschlossenen Festplatten werden in der Liste Verfügbarer Speicher im YaST-Dialogfeld Festplatte vorbereiten: Expertenmodus angezeigt. Ganze Festplatten werden als Geräte ohne Nummern aufgeführt, beispielsweise als /dev/sda (oder /dev/dasda). Partitionen werden als Teile dieser Geräte aufgelistet, beispielsweise als /dev/sda1 (bzw. als /dev/dasda1). Größe, Typ, Verschlüsselungsstatus, Dateisystem und Einhängepunkt der Festplatten und ihrer Partitionen werden ebenfalls angezeigt. Der Einhängepunkt gibt an, wo sich die Partition im Linux-Dateisystembaum befindet.

Mehrere funktionale Ansichten sind in der Systemansicht im linken Fensterbereich verfügbar. Verwenden Sie die Ansichten, um Informationen zu vorhandenen Speicherkonfigurationen zu erhalten oder um Funktionen (wie RAID, Volume Management, Crypt Files) zu konfigurieren und Dateisysteme mit zusätzlichen Funktionen wie BTRFS, NFS oder TMPFS anzuzeigen.

Wenn Sie das Experten-Dialogfeld während der Installation ausführen, wird auch sämtlicher freier Speicherplatz aufgeführt und automatisch ausgewählt. Soll zusätzlicher Speicherplatz für SUSE Linux Enterprise Server bereitgestellt werden, gehen Sie die Liste der Partitionen von unten nach oben durch und geben Sie den erforderlichen Speicherplatz frei.

11.1.1 Partitionstabellen

Mit SUSE Linux Enterprise Server können Sie verschiedene Partitionstabellen erstellen und verwenden. In einigen Fällen wird die Partitionstabelle als Festplattenkennung bezeichnet. Die Partitionstabelle ist für den Boot-Vorgang des Computers unverzichtbar. Soll der Computer aus einer Partition in einer soeben erstellten Partitionstabelle gebootet werden, überprüfen Sie, ob das Tabellenformat durch die Firmware unterstützt wird.

Führen Sie den YaST-Partitioner aus, klicken Sie in der Systemansicht auf den Namen der entsprechenden Festplatte und wählen Sie Experte › Erstellen einer neuen Partitionstabelle.

11.1.1.1 Master Boot Record

Der Master-Boot-Record (MBR) ist die ältere Partitionstabelle auf IBM-PCs. Dies wird auch als MS-DOS-Partitionstabelle bezeichnet. Der MBR unterstützt lediglich vier primäre Partitionen. Falls die Festplatte bereits einen MBR aufweist, können Sie mit SUSE Linux Enterprise Server zusätzliche Partitionen in dieser Tabelle anlegen und als Installationsziel heranziehen.

Die Beschränkung auf vier Partitionen lässt sich mithilfe einer erweiterten Partition umgehen. Die erweiterte Partition selbst ist eine primäre Partition und kann wiederum weitere logische Partitionen aufnehmen.

Die UEFI-Firmware unterstützt in der Regel das Booten vom MBR im Legacy-Modus.

11.1.1.2 GPT-Partitionstabelle

UEFI-Computer arbeiten standardmäßig mit einer GUID-Partitionstabelle (GPT). Falls eine Festplatte noch keine Partitionstabelle enthält, legt SUSE Linux Enterprise Server eine GPT an.

Ältere BIOS-Firmware unterstützt das Booten von GPT-Partitionen nicht.

Für die folgenden Funktionen benötigen Sie eine GPT-Partitionstabelle:

  • Mehr als vier primäre Partitionen

  • UEFI Secure Boot

  • Festplatten mit mehr als 2 TB Kapazität

Anmerkung
Anmerkung: Falsch beschriftete Partitionen, die mit Parted 3.1 oder früheren Versionen erstellt wurden

Bei GPT-Partitionen, die mit Parted 3.1 oder früheren Versionen erstellt wurden, wurde der Microsoft Basic Data-Partitionstyp anstelle der neueren, Linux-spezifischen GPT-GUID herangezogen. Neuere Parted-Versionen legen für solche Partitionen das irreführende Flag msftdata fest. Dies führt dazu, dass verschiedene Festplattentools die Partition als Windows-Datenpartition oder ähnlich bezeichnen.

Mit dem folgenden Befehl entfernen Sie das Flag:

# parted DEVICE set PARTITION_NUMBER msftdata off

11.1.1.3 Partitionierungstabellen unter IBM Z

Auf IBM Z-Plattformen unterstützt SUSE Linux Enterprise Server sowohl SCSI-Festplatten als auch Direct Access Storage Devices (DASD). Während sich SCSI-Datenträger wie oben beschrieben partitionieren lassen, sind für DASDs maximal drei Partitionseinträge in den entsprechenden Partitionstabellen möglich.

11.1.2 Partitionen

Der YaST-Partitionierer kann Partitionen mit verschiedenen Dateisystemen erstellen und formatieren. In SUSE Linux Enterprise Server wird standardmäßig das Dateisystem Btrfs verwendet. Weitere Informationen finden Sie im Abschnitt 11.1.2.2, „Btrfs-Partitionierung“.

Andere häufig verwendete Dateisysteme sind verfügbar: Ext2, Ext3, Ext4, FAT, XFS, Swap und UDF.

11.1.2.1 Erstellen von Partitionen

Zum Erstellen einer Partition wählen Sie Festplatten und wählen Sie dann eine Festplatte mit freiem Speicherplatz aus. Die tatsächliche Modifikation kann im Karteireiter Partitionen erfolgen:

  1. Mit Hinzufügen erstellen Sie eine neue Partition. Wenn ein MBR vorliegt, geben Sie an, ob eine primäre oder eine erweiterte Partition erstellt werden soll. In der erweiterten Partition können Sie mehrere logische Partitionen anlegen. Weitere Informationen finden Sie in Abschnitt 11.1.1, „Partitionstabellen“.

  2. Geben Sie die Größe der neuen Partition an. Sie können auswählen, dass der gesamte freie Speicherplatz belegt werden soll oder eine Größe eingeben.

  3. Wählen Sie das zu verwendende Dateisystem und einen Einhängepunkt aus. YaST schlägt für jede erstellte Partition einen Einhängepunkt vor. Für eine andere Einhängemethode, z. B. Einhängen nach Label, wählen Sie Fstab-Optionen.

  4. Geben Sie, falls erforderlich, zusätzliche Dateisystemoptionen an. Dies ist zum Beispiel für persistente Dateinamen erforderlich. Weitere Informationen zu den verfügbaren Optionen finden Sie in Abschnitt 11.1.3, „Bearbeiten einer Partition“.

  5. Klicken Sie auf Fertig stellen, um die Partitionierungseinrichtung zu übernehmen und das Partitionierungsmodul zu verlassen.

    Wenn Sie die Partition bei der Installation angelegt haben, wird wieder das Fenster mit der Installationsübersicht angezeigt.

11.1.2.2 Btrfs-Partitionierung

Das Standard-Dateisystem für die root-Partition ist Btrfs. Weitere Informationen hierzu finden Sie in Book “Verwaltungshandbuch”, Chapter 10 “Systemwiederherstellung und Snapshot-Verwaltung mit Snapper” und Book “Storage Administration Guide”, Chapter 1 “Overview of file systems in Linux”. Das root-Dateisystem ist das Standard-Subvolume und wird nicht in der Liste der erstellten Subvolumes aufgeführt. Als Btrfs-Standard-Subvolume kann es als normales Dateisystem eingehängt werden.

Wichtig
Wichtig: Btrfs auf einer verschlüsselten Stammpartition

Die standardmäßige Partitionierungseinrichtung schlägt die Stammpartition als Btrfs mit /boot als Verzeichnis vor. Soll die Stammpartition verschlüsselt werden, müssen Sie in jedem Fall die GPT-Partitionstabelle verwenden, nicht den standardmäßigen MSDOS-Typ. Ansonsten findet der GRUB2-Bootloader nicht genügend Platz für den Loader der zweiten Phase.

Sie können Snapshots von Btrfs-Subvolumes erstellen, wahlweise manuell oder auch automatisch bei bestimmten Systemereignissen. Wenn beispielsweise Änderungen am Dateisystem vorgenommen werden, ruft zypper das Kommando snapper auf, mit dem Snapshots vor und nach der Änderung angefertigt werden. Dies ist von Nutzen, wenn Sie mit den Änderungen von zypper nicht zufrieden sind und den vorherigen Zustand wiederherstellen möchten. Wenn snapper über zypper aufgerufen wird, werden standardmäßig Snapshots des root-Dateisystems angelegt, weshalb bestimmte Verzeichnisse von den Snapshots ausgeschlossen werden sollten. Aus diesem Grund schlägt YaST die Erstellung der folgenden separaten Subvolumes vor:

/boot/grub2/i386-pc, /boot/grub2/x86_64-efi, /boot/grub2/powerpc-ieee1275, /boot/grub2/s390x-emu

Ein Rollback der Bootloader-Konfiguration wird nicht unterstützt. Die obigen Verzeichnisse sind abhängig von der Architektur. Die ersten beiden Verzeichnisse gelten für AMD64-/Intel 64-Computer und die letzten beiden Verzeichnisse für IBM POWER bzw. für IBM Z.

/home

Wenn sich /home nicht auf einer separaten Partition befindet, wird dieses Verzeichnis ausgeschlossen, damit bei einem Rollback kein Datenverlust eintritt.

/opt

Produkte von Drittanbietern werden in der Regel im Verzeichnis /opt installiert. Dieses Verzeichnis wird ausgeschlossen, damit die betreffenden Anwendungen bei einem Rollback nicht deinstalliert werden.

/srv

Enthält Daten für Web- und FTP-Server. Ausgeschlossen, damit bei einem Rollback kein Datenverlust eintritt.

/tmp

Alle Verzeichnisse, die temporäre Dateien und Caches enthalten, werden aus den Snapshots ausgeschlossen.

/usr/local

Dieses Verzeichnis wird bei der manuellen Installation von Software verwendet. Dieses Verzeichnis wird ausgeschlossen, damit die betreffenden Installationen bei einem Rollback nicht deinstalliert werden.

/var

Dieses Verzeichnis enthält viele Variablendateien, einschließlich Protokolle, temporäre Caches und Drittanbieterprodukte in /var/opt. Es ist der Standardspeicherort für Images und Datenbanken von virtuellen Maschinen. Daher wird dieses Subvolume so erstellt, dass alle Variablendaten von Snapshots ausgeschlossen werden und „Kopie beim Schreiben“ deaktiviert ist.

Tipp
Tipp: Größe der Btrfs-Partition

Gespeicherte Snapshots belegen mehr Speicherplatz. Sie sollten daher ausreichend Speicherplatz für Btrfs reservieren. Während die Mindestgröße für eine Root-Btrfs-Partition mit Snapshots und Standard-Subvolumes 16 GB beträgt, empfiehlt SUSE mindestens 32 GB oder mehr, wenn /home sich nicht auf einer separaten Partition befindet.

11.1.2.3 Verwalten von Btrfs-Subvolumes mit YaST

Die Subvolumes einer Btrfs-Partition können nunmehr mit dem YaST-Modul Festplatte vorbereiten: Expertenmodus verwaltet werden. Sie können neue Subvolumes hinzufügen und bestehende Subvolumes löschen.

Vorgehen 11.1: Btrfs-Subvolumes mit YaST
  1. Wählen Sie im linken Fensterbereich Btrfs.

  2. Wählen Sie die Btrfs-Partition aus, deren Subvolumes verwaltet werden sollen.

  3. Je nachdem, ob Subvolumes bearbeitet, hinzugefügt oder gelöscht werden sollen, gehen Sie wie folgt vor:

    1. Um ein Subvolume zu bearbeiten, wählen Sie dieses in der Liste aus, und klicken Sie auf Bearbeiten. Sie können dann für das Volume copy-on-write deaktivieren (aktivieren Sie dazu das Kontrollkästchen für noCoW) oder dessen Größe beschränken. Klicken Sie auf Akzeptieren, um den Vorgang fertigzustellen.

    2. Um ein neues Subvolume hinzuzufügen, klicken Sie auf Subvolume hinzufügen, und geben Sie den entsprechenden Pfad ein. Optional können Sie dann für das Volume copy-on-write deaktivieren (aktivieren Sie dazu das Kontrollkästchen für noCoW) oder dessen Größe beschränken. Klicken Sie auf Akzeptieren, um den Vorgang fertigzustellen.

    3. Um ein Subvolume zu löschen, wählen Sie dieses in der Liste aus, und klicken Sie auf Löschen. Bestätigen Sie die Löschung durch Klicken auf Ja.

    4. Btrfs-Subvolumes im YaST-Partitionierer
      Abbildung 11.2: Btrfs-Subvolumes im YaST-Partitionierer
  4. Schließen Sie die Partitionierung mit Beenden.

11.1.3 Bearbeiten einer Partition

Wenn Sie eine neue Partition erstellen oder eine bestehende Partition bearbeiten, können verschiedene Parameter festgelegt werden. Bei neuen Partitionen reichen die von YaST festgelegten Standardparameter in der Regel aus und müssen nicht geändert werden. Gehen Sie wie folgt vor, um Ihre Partitionseinstellungen manuell zu bearbeiten:

  1. Wählen Sie die Partition aus.

  2. Klicken Sie auf Bearbeiten, um die Partition zu bearbeiten und die Parameter festzulegen:

    Dateisystem-ID

    Auch wenn Sie die Partition zu diesem Zeitpunkt nicht formatieren möchten, sollten Sie ihr eine Dateisystem-ID zuweisen, um sicherzustellen, dass sie richtig registriert wird. Übliche Werte sind Linux, Linux Swap, Linux LVM und Linux RAID.

    Dateisystem

    Klicken Sie zum Ändern des Partitionsdateisystems auf Partition formatieren und wählen Sie den Dateisystemtyp in der Liste Dateisystem aus.

    SUSE Linux Enterprise Server unterstützt mehrere Typen von Dateisystemen. Btrfs ist aufgrund seiner erweiterten Funktionen das bevorzugte Linux-Dateisystem für die root-Partition. Es unterstützt das Copy-on-Write-Verfahren, das Erstellen vob Snapshots, Multi-Device-Spanning, Subvolumes und weitere nützliche Techniken. XFS, Ext3 und Ext4 sind Journaling-Dateisysteme. Mit diesen Dateisystemen kann das System nach einem Systemabsturz schnell wiederhergestellt werden, da die Schreibvorgänge während des Betriebs protokolliert werden. Ext2 ist kein Journaling-Dateisystem, eignet sich aber für kleinere Partitionen, da für die Verwaltung nicht viel Speicherplatz benötigt wird.

    Das Standard-Dateisystem für die root-Partition ist Btrfs. Das Standard-Dateisystem für weitere Partitionen ist XFS.

    Das UDF-Dateisystem wird auf optischen wiederbeschreibbaren und nicht wiederbeschreibbaren Medien, USB-Flash-Laufwerken und Festplatten verwendet. Es wird von mehreren Betriebssystemen unterstützt.

    Swap ist ein Sonderformat, das die Verwendung der Partition als virtuellen Arbeitspeicher ermöglicht. Bei einer manuellen Partitionierung müssen Sie eine Swap-Partition mit mindestens 256 MB erstellen. Sollte der Swap-Speicher nicht ausreichen, sollten Sie nicht den Swap-Speicher vergrößern, sondern das System mit zusätzlichem Arbeitsspeicher ausstatten.

    Warnung
    Warnung: Ändern des Dateisystems

    Wenn Sie das Dateisystem ändern und Partitionen neu formatieren, werden alle Daten der Partition unwiederbringlich gelöscht.

    Weitere Informationen zu den verschiedenen Dateisystemen finden Sie im Storage Administration Guide (Speicherverwaltungshandbuch).

    Verschlüsseln von Geräten

    Wenn Sie die Verschlüsselung aktivieren, werden alle Daten in verschlüsselter Form geschrieben. Dies erhöht zwar die Sicherheit sensibler Daten, die Systemgeschwindigkeit wird jedoch reduziert, da die Verschlüsselung einige Zeit in Anspruch nimmt. Weitere Informationen zur Verschlüsselung der Dateisysteme finden Sie in Abschnitt 11.2, „Geräte-Verschlüsselung“ und Book “Security and Hardening Guide”, Chapter 12 “Encrypting partitions and files”..

    Einhängepunkt

    Geben Sie das Verzeichnis an, in dem die Partition im Dateisystembaum eingehängt werden soll. Treffen Sie eine Auswahl aus den YaST-Vorschlägen, oder geben Sie einen beliebigen anderen Namen ein.

    Fstab-Optionen

    Legen Sie verschiedene Parameter in der globalen Systemverwaltungsdatei (/etc/fstab) fest. In der Regel reichen die Standardeinstellungen für die meisten Konfigurationen aus. Sie können beispielsweise die Dateisystemkennung von einem Gerätenamen in eine Volume-Bezeichnung ändern. In Volume-Bezeichnungen können Sie alle Zeichen mit Ausnahme von / und dem Leerzeichen verwenden.

    Für persistente Gerätenamen verwenden Sie die Einhängeoption Geräte-ID, UUID oder LABEL. In SUSE Linux Enterprise Server sind persistente Gerätenamen standardmäßig aktiviert.

    Anmerkung
    Anmerkung: IBM Z: Einhängen nach Pfad

    Da das Einhängen nach ID auf IBM Z Probleme verursacht, wenn Platte-zu-Platte-Kopien zum Klonen verwendet werden, werden Geräte standardmäßig nach Pfad in /etc/fstab auf IBM Z eingehängt.

    Wenn Sie die Partition lieber über ihre Bezeichnung einhängen möchten, müssen Sie diese als Texteintrag in der Volume-Bezeichnung angeben. Sie könnten beispielsweise die Partitionsbezeichnung HOME für eine Partition verwenden, die in /home eingehängt werden soll.

    Wenn Sie für das Dateisystem Quotas verwenden möchten, verwenden Sie die Einhängeoption Quota-Unterstützung aktivieren. Diese Konfiguration ist erforderlich, bevor Sie in der Benutzerverwaltung von YaST Quotas für Benutzer festlegen. Weitere Informationen zur Konfiguration von Benutzerquoten finden Sie unter Book “Verwaltungshandbuch”, Chapter 6 “Verwalten von Benutzern mit YaST”, Section 6.3.3 “Verwalten von Quoten”.

    Wenn Sie beabsichtigen, Quoten für Btrfs-Subvolumes festzulegen, finden Sie Informationen dazu im Book “Storage Administration Guide”, Chapter 1 “Overview of file systems in Linux”, Section 1.2.5 “Btrfs quota support for subvolumes”.

  3. Wählen Sie Beenden, um die Änderungen zu speichern.

Anmerkung
Anmerkung: Ändern der Größe von Dateisystemen

Die Größe eines bestehenden Dateisystems können Sie ändern, indem Sie die Partition auswählen und Größe ändern verwenden. Beachten Sie, dass die Größe von eingehängten Partitionen nicht verändert werden kann. Um die Größe von Partitionen zu ändern, hängen Sie die entsprechende Partition aus, bevor Sie den Partitionierer ausführen.

11.1.4 Optionen für Experten

Nach Auswahl eines Festplattengeräts (wie sda) im Bereich Systemansicht können Sie im unteren rechten Bereich im Fenster Festplatte vorbereiten: Expertenmodus auf das Menü Experte zugreifen. Im Menü stehen folgende Kommandos zur Verfügung:

Erstellen einer neuen Partitionstabelle

Mithilfe dieser Option können Sie eine neue Partitionstabelle am ausgewählten Gerät erstellen.

Warnung
Warnung: Erstellen einer neuen Partitionstabelle

Durch Erstellen einer neuen Partitionstabelle auf einem Gerät werden alle Partitionen und deren Daten unwiederbringlich von diesem Gerät gelöscht.

Diesen Datenträger klonen

Mit dieser Option können Sie das Layout einer Gerätepartition ohne den Inhalt auf andere verfügbare Datenträger klonen.

11.1.5 Optionen "Erweitert"

Nach Auswahl des Hostnamens des Rechners (obere Ebene des Baums in der Systemansicht) können Sie unten rechts im Fenster Festplatte vorbereiten: Expertenmodus auf das Menü Konfigurieren zugreifen. Im Menü stehen folgende Kommandos zur Verfügung:

Konfigurieren von iSCSI

Für den Zugriff auf SCSI über IP-Block-Geräte müssen Sie zunächst iSCSI konfigurieren. Dadurch erhalten Sie weitere verfügbare Geräte in der Hauptpartitionsliste.

Konfigurieren von Multipath

Durch Auswahl dieser Option können Sie die Multipath-Optimierung an den unterstützten Massenspeichergeräten konfigurieren.

11.1.6 Weitere Tipps zur Partitionierung

Im folgenden Abschnitt finden Sie einige Hinweise und Tipps für die Partitionierung, die Ihnen bei der Einrichtung Ihres Systems helfen, die richtigen Entscheidungen zu treffen.

11.1.6.1 Anzahl der Zylinder

Einige Partitionierungstools beginnen bei der Nummerierung der Zylinder mit 0 andere mit 1. Die Zylinderzahl berechnet sich immer aus der Differenz zwischen der letzten und der ersten Zylindernummer plus eins.

11.1.6.2 Wenn Sie swap

Mittels Swap wird der verfügbare physikalische Arbeitsspeicher erweitert. Ihnen steht dadurch über das physische RAM hinaus mehr Arbeitsspeicher zur Verfügung. Die Arbeitsspeicherverwaltungssysteme der Kernels vor Version 2.4.10 benötigten Swap als Sicherheitszugabe. Wenn Ihr Swap zu dieser Zeit nicht zweimal so groß war wie Ihr RAM, kam es zu erheblichen Leistungseinbußen. Diese Einschränkungen gibt es nicht mehr.

Linux verwendet eine Seite namens Kürzlich verwendet (LRU) zur Auswahl von Seiten, die eventuell vom Arbeitsspeicher auf die Festplatte verschoben werden. Den aktiven Anwendungen steht dadurch mehr Arbeitsspeicher zur Verfügung und das Zwischenspeichern läuft reibungsloser ab.

Wenn eine Anwendung versucht, den maximal zulässigen Arbeitsspeicher zu belegen, können Probleme mit Swap auftreten. Wir sollten uns hierzu drei der wichtigsten Szenarien näher ansehen:

System ohne Swap

Die Anwendung kann den maximal zulässigen Arbeitsspeicher auslasten. Der gesamte Cache-Speicher wird freigegeben, wodurch sich alle anderen Anwendungen verlangsamen. Nach einigen Minuten wird der „Out-of-Memory-Killer“ des Kernels aktiviert und der Vorgang wird beendet.

System mit mittelgroßem Swap (128 MB bis 512 MB)

Zunächst verlangsamt sich das Systems wie ein System ohne Swap. Sobald das gesamte physikalische RAM aufgebraucht ist, wird auch auf den Swap-Speicher zurückgegriffen. An diesem Punkt wird das System sehr langsam; die Fernausführung von Kommandos wird unmöglich. Je nach Geschwindigkeit der Festplatten, die den Swap-Speicher stellen, verbleibt das System etwa 10 bis 15 Minuten in diesem Zustand, bevor das Problem vom „Out of Memory-Killer“ des Kernels endgültig behoben wird. Beachten Sie, dass Sie eine bestimmte Swap-Größe benötigen, wenn der Computer einen Suspend to Disk ausführen soll. In diesem Fall sollte der Swap-Speicher groß genug sein, um die benötigten Daten vom Arbeitsspeicher (512 MB – 1 GB) aufnehmen zu können.

System mit großem Swap (mehrere GB)

In einem solchen Fall sollte besser keine Anwendung ausgeführt werden, die völlig außer Rand und Band gerät und den Swap-Speicher grenzenlos nutzt. Wenn Sie eine derartige Anwendung ausführen, nimmt die Wiederherstellung des Systems mehrere Stunden in Anspruch. Sehr wahrscheinlich treten in diesem Fall bei anderen Prozessen Zeitüberschreitungen und Fehler auf, wodurch das System in einem undefinierten Zustand zurückbleibt, selbst wenn der fehlerhafte Prozess beendet wird. Starten Sie in diesem Fall den Computers von Anfang an neu und versuchen Sie, das System wieder zum Laufen zu bringen. Sehr viel Swap-Speicher ist nur dann sinnvoll, wenn Sie eine Anwendung verwenden, die diese Menge an Swap tatsächlich benötigt. Solche Anwendungen (wie Datenbanken oder Bildbearbeitungsprogramme) verfügen häufig über eine Option, mit der sie den benötigten Festplattenspeicher direkt abrufen können. Die Verwendung dieser Option ist auf jeden Fall einem übergroßen Swap-Speicher vorzuziehen.

Falls Ihre Anwendungen nicht außer Kontrolle geraten, aber dennoch nach einiger Zeit mehr Swap erforderlich ist, können Sie den Swap-Speicher auch online erweitern. Wenn Sie eine Partition als Swap-Speicher vorbereitet haben, fügen Sie diese Partition mithilfe von YaST hinzu. Falls Sie auf keine Swap-Partition zurückgreifen können, können Sie den Swap-Speicher auch durch eine Swap-Datei erweitern. Swap-Dateien sind im Allgemeinen langsamer als Partitionen, aber verglichen mit physischem RAM sind beide extrem langsam, sodass der eigentliche Unterschied unerheblich ist.

Vorgehen 11.2: Manuelles Hinzufügen einer Swap-Datei

So fügen Sie dem laufenden System eine Swap-Datei hinzu:

  1. Erstellen Sie auf Ihrem System eine leere Datei. Zum Beispiel können Sie mit den folgenden Kommandos eine Swap-Datei mit 128 MB Swap unter /var/lib/swap/swapfile hinzufügen:

    > sudo mkdir -p /var/lib/swap
    > sudo dd if=/dev/zero of=/var/lib/swap/swapfile bs=1M count=128
  2. Initialisieren Sie die Swap-Datei mit folgendem Kommando:

    > sudo mkswap /var/lib/swap/swapfile
    Anmerkung
    Anmerkung: Geänderte UUID für Swap-Partitionen bei Formatierung über mkswap

    Falls möglich, sollten bestehende Swap-Partitionen nicht mit mkswap neu formatiert werden. Durch die Neuformatierung mit mkswap ändert sich der UUID-Wert der Swap-Partition. Führen Sie die Neuformatierung entweder über YaST aus (/etc/fstab wird dabei aktualisiert) oder passen Sie /etc/fstab manuell an.

  3. Aktivieren Sie den Swap-Speicher mit folgendem Kommando:

    > sudo swapon /var/lib/swap/swapfile

    Zum Deaktivieren der Swap-Datei verwenden Sie folgendes Kommando:

    > sudo swapoff /var/lib/swap/swapfile
  4. Zum Überprüfen des aktuell verfügbaren Swap-Speichers verwenden Sie folgendes Kommando:

    > cat /proc/swaps

    Bislang handelt es sich hier lediglich um einen temporären Swap-Speicher. Nach dem nächsten Reboot wird er nicht mehr verwendet.

  5. Wenn Sie die Swap-Datei permanent aktivieren möchten, fügen Sie /etc/fstab folgende Zeile hinzu:

    /var/lib/swap/swapfile swap swap defaults 0 0

11.1.7 Partitionierung und LVM

Greifen Sie über Festplatte vorbereiten: Expertenmodus auf die LVM-Konfiguration zu, indem Sie im Fenster Systemansicht auf das Element Volume-Verwaltung klicken. Wenn auf Ihrem System jedoch bereits eine aktive LVM-Konfiguration vorhanden ist, wird sie automatisch bei der Eingabe der ersten LVM-Konfiguration einer Sitzung aktiviert. In diesem Fall kann keine der Festplatten, die eine Partition enthalten (die zu einer aktivierten Volume-Gruppe gehört) neu partitioniert werden. Der Linux-Kernel kann die geänderte Partitionstabelle einer Festplatte nicht erneut lesen, wenn eine der Partitionen auf dieser Festplatte verwendet wird. Wenn bereits eine funktionierende LVM-Konfiguration auf Ihrem System vorhanden ist, sollte eine physische Neupartitionierung nicht erforderlich sein. Ändern Sie stattdessen die Konfiguration des logischen Volumes.

Am Anfang der physischen Volumes (PVs) werden Informationen zum Volume auf die Partition geschrieben. Um eine solche Partition für andere Zwecke, die nichts mit LVM zu tun haben, wiederzuverwenden, sollten Sie den Anfang dieses Volumes löschen. Bei der VG system dem PV /dev/sda2 beispielsweise ist dies über das folgende Kommando möglich:

dd if=/dev/zero of=/dev/sda2 bs=512 count=1
Warnung
Warnung: Dateisystem zum Booten

Das zum Booten verwendete Dateisystem (das root-Dateisystem oder /boot) darf nicht auf einem logischen LVM-Volume gespeichert werden. Speichern Sie es stattdessen auf einer normalen physischen Partition.

Weitere Details zu LVM finden Sie im Book “Storage Administration Guide”.

11.2 Geräte-Verschlüsselung

Linux Unified Key Setup (LUKS) ist der Standard für die Festplattenverschlüsselung von Linux. Es bietet ein standardisiertes On-Disk-Format und ermöglicht es Benutzern, Daten nahtlos zu übertragen oder zu migrieren.

LUKS wird verwendet, um Block-Geräte zu verschlüsseln. Die Inhalte des verschlüsselten Geräts können beliebig sein. Daher kann jedes Dateisystem verschlüsselt werden, einschließlich Swap-Partitionen. Alle erforderlichen Informationen zur Einrichtung, wie Verschlüsselungsschlüssel und -Parameter, wie Codetyp und Schlüsselgröße, werden im Partitions-Header gespeichert.

Die Verschlüsselung erfolgt mit einem mehrschichtigen Ansatz. Zunächst wird das Block-Gerät mit einem Hauptschlüssel verschlüsselt. Anschließend wird dieser Hauptschlüssel mit sämtlichen aktiven Benutzerschlüsseln verschlüsselt. Benutzerschlüssel werden von Passphrasen, FIDO2-Sicherheitsschlüsseln, TPMs oder Smart Cards abgeleitet. Mit diesem mehrschichtigen Ansatz können Benutzer ihre Passphrase ändern, ohne das gesamte Block-Gerät erneut zu verschlüsseln.

Weitere Informationen zu LUKS finden Sie im Book “Security and Hardening Guide”, Chapter 13 “Storage encryption for hosted applications with cryptctl”.

11.2.1 Verschlüsselungsmethoden

Befolgen Sie die Anweisungen unter Abschnitt 11.1.3, „Bearbeiten einer Partition“, um ein Gerät zu verschlüsseln.

Tipp
Tipp: Aktivieren der LUKS2-Unterstützung in YaST

Die LUKS2-Verschlüsselung wird ab SUSE Linux Enterprise 15 SP4 vom YaST-Partitionierer unterstützt, muss jedoch explizit aktiviert werden. Es gibt zwei Möglichkeiten, ein Teilnehmer-Ticket zu erhalten:

  1. Beim Booten durch Hinzufügen des Parameters YAST_LUKS2_AVAILABLE zur Kernel-Kommandozeile. Zusätzliche Informationen zu Boot-Parametern finden Sie in Kapitel 8, Boot-Parameter.

  2. Während der Installation in der YaST-Konfiguration:

    • Drücken Sie in der grafischen Benutzeroberfläche StrgAltUmschaltC.

    • Drücken Sie in der textbasierten Benutzeroberfläche StrgD und dann UmschaltC.

    Aktivieren Sie Enable Experimental LUKS2 Encryption Support, und verlassen Sie den Konfigurationsbildschirm mit OK.

Wenn Sie die LUKS2-Unterstützung nicht aktivieren, ist die Auswahl der Verschlüsselungsmethode nicht sichtbar, und Sie müssen nur das Verschlüsselungspasswort eingeben.

Normales LUKS1

Mit dieser Methode können Sie das Gerät mit LUKS1 verschlüsseln. Sie müssen das Verschlüsselungspasswort angeben. Zusätzliche Passwörter – insgesamt bis zu acht – können später mit cryptsetup luksAddKey hinzugefügt werden.

Normales LUKS2

LUKS2 verwendet eine neuere Version des Header-Formats, die robust gegenüber Fehlern ist und bis zu 32 Benutzerschlüssel und Gerätebezeichnungen unterstützt. Sie müssen das Verschlüsselungspasswort und die passwortbasierte Schlüsselableitungsfunktion (PBKDF) angeben, die zum Schutz dieser Passphrase verwendet wird (siehe Abschnitt 11.2.2, „Passwortbasierte Schlüsselableitungsfunktionen“).

Umfassendes LUKS2 (nur auf IBM Z)

Diese Methode ermöglicht es, das Gerät mit LUKS2 mit einem sicheren Hauptschlüssel zu verschlüsseln, der von einem kryptografischen Co-Prozessor von Crypto Express verarbeitet wird, der im CCA-Modus konfiguriert ist. Wenn das kryptografische System bereits einen sicheren Schlüssel enthält, der diesem Volume zugeordnet ist, wird dieser Schlüssel verwendet. Andernfalls wird ein neuer sicherer Schlüssel generiert und im System registriert. Sie müssen ein Verschlüsselungspasswort angeben, das zum Schutz des Zugriffs auf diesen Hauptschlüssel verwendet wird. Wenn mehrere APQNs im System vorhanden sind, können Sie außerdem auswählen, welche verwendet werden sollen.

Weitere Informationen zur umfassenden Verschlüsselung finden Sie in https://www.ibm.com/docs/en/linux-on-systems?topic=security-pervasive-encryption.

Verschlüsselung mit flüchtigem, zufälligem Schlüssel (nur für Swap-Geräte)

Diese Methode verschlüsselt ein Swap-Gerät beim Booten mit einem zufällig generierten Schlüssel und unterstützt daher auf der Festplatte keinen Ruhezustand. Das Swap-Gerät wird bei jedem Boot neu verschlüsselt, und sein vorheriger Inhalt wird vernichtet. Deaktivieren Sie zur Vermeidung von Datenverlust den Ruhezustand, und konfigurieren Sie Ihr System stattdessen so, dass es heruntergefahren werden kann.

Zusätzlich zum Verschlüsselungsschlüssel ändern sich die Gerätebezeichnung und die UUID jedes Mal, wenn das Swap-Gerät erneut verschlüsselt wird, sodass diese keine gültigen Optionen zum Einhängen eines zufällig verschlüsselten Swap-Geräts darstellen. Stellen Sie sicher, dass das Swap-Gerät durch einen stabilen Namen referenziert wird, der in der Datei /etc/crypttab nicht bei jedem Neustart geändert werden kann. Für eine Swap-Partition ist es beispielsweise sicherer, die udev-Geräte-ID oder den udev-Geräte-Pfad anstelle des Gerätenamens der Partition zu verwenden, da dieser Gerätename beim nächsten Start einer anderen Partition zugewiesen werden kann. In diesem Fall könnte ein falsches Gerät anstelle Ihres Swap-Geräts verschlüsselt werden!

YaST versucht, stabile Namen in /etc/crypttab zu verwenden, es sei denn, die Konfiguration sieht vor, dass immer Gerätenamen verwendet werden (siehe Abschnitt Einstellungen des Partitionierers). Bei einigen Geräten ist es jedoch u. U. nicht möglich, einen vollständig stabilen Namen zu finden. Verwenden Sie die Verschlüsselung mit flüchtigen Schlüsseln nur, wenn Sie sich über die Auswirkungen im Klaren sind.

Geschütztes Swap (nur für Swap-Geräte)

Diese Methode verschlüsselt ein Swap-Gerät mit einem flüchtigen, geschützten AES-Schlüssel, ohne dass ein kryptografischer Co-Prozessor erforderlich ist. Dabei handelt es sich um eine Verbesserung gegenüber der Methode Encryption with Volatile Random Key, und alle Hinweise für diese Methode gelten auch hier.

Sicheres Swap (nur für Swap-Geräte)

Diese Methode verschlüsselt ein Swap-Gerät mit einem flüchtigen, sicheren AES-Schlüssel, der von einem kryptografischen Co-Prozessor generiert wird. Dabei handelt es sich um eine Verbesserung gegenüber der Methode Encryption with Volatile Random Key und alle Hinweise für diese Methode gelten auch hier.

11.2.2 Passwortbasierte Schlüsselableitungsfunktionen

Die zu verwendende passwortbasierte Schlüsselableitungsfunktion (PBKDF) hängt vom Kontext, den Hardwarefunktionen und dem erforderlichen Grad an Kompatibilität mit anderen Systemkomponenten ab:

PBKDF2

PBKDF2 ist die Funktion, die von LUKS1 verwendet wird. Sie wird unter RFC 2898 definiert.

Argon2i

Argon2 ist eine Funktion, die auf höhere Sicherheit ausgerichtet ist und für deren Berechnung sehr viel mehr Speicherplatz erforderlich ist. Sie wird unter RFC 9106 definiert. Argon2i ist eine Variante von Argon2, die optimiert wurde, um Seitenkanalangriffen standzuhalten, indem sie in passwortunabhängiger Reihenfolge auf das Speicher-Array zugreift.

Argon2id

Argon2id ist eine Hybridversion von Argon2. Sie folgt dem Argon2i-Ansatz für die erste Hälfte des Pass-Over-Speichers und dem Argon2d-Ansatz (nicht von YaST unterstützt), um GPU-Cracking-Angriffe für nachfolgende Durchläufe zu begrenzen. RFC 9106 empfiehlt die Verwendung von Argon2id, wenn Sie den Unterschied zwischen den Typen nicht kennen oder Seitenkanalangriffe für eine realistische Bedrohung halten.

Obwohl Argon2 sicherer ist, gibt es immer noch Anwendungsfälle für PBKDF2:

  • Als beabsichtigte Sicherheitsfunktion benötigt Argon2 zur Berechnung viel mehr Speicherplatz. Dies kann auf einigen Systemen zu Problemen führen. Wenn starke Passwörter voll und ganz gewährleistet sind, kann die Verwendung von PBKDF2 immer noch sicher sein und den Speicherplatz schonen.

  • grub2 bietet eingeschränkte Unterstützung für das Booten von Geräten, die mit LUKS2 verschlüsselt sind. Dies aber nur, wenn PBKDF2 verwendet wird. Das bedeutet, dass Sie Argon2 nicht für ein Dateisystem verwenden können, das das /boot-Verzeichnis enthält. Beachten Sie, dass selbst bei Verwendung von PBKDF2 möglicherweise eine manuelle grub2-Konfiguration erforderlich ist, um von einem LUKS2-Gerät zu booten.

Weitere Informationen zur Konfiguration der Geräteverschlüsselung mit LUKS erhalten Sie über die Schaltfläche Help im Installationsprogramm und unter Book “Security and Hardening Guide”, Chapter 13 “Storage encryption for hosted applications with cryptctl”.

11.3 LVM-Konfiguration

In diesem Abschnitt werden die Schritte erläutert, die bei der LVM-Konfiguration ausgeführt werden müssen. Allgemeine Informationen zum Logical Volume Manager finden Sie im Book “Storage Administration Guide”, Chapter 5 “LVM configuration”, Section 5.1 “Understanding the logical volume manager”.

Warnung
Warnung: Sichern Sie Ihre Daten

Der Einsatz von LVM ist manchmal mit einem höheren Risiko (etwa des Datenverlusts) verbunden. Risiken umfassen auch Anwendungsausfälle, Stromausfälle und fehlerhafte Befehle. Speichern Sie Ihre Daten, bevor Sie LVM implementieren oder Volumes neu konfigurieren. Arbeiten Sie nie ohne Backup.

Die YaST-LVM-Konfiguration kann von Festplatte vorbereiten: Expertenmodus in YaST (siehe Abschnitt 11.1, „Verwenden von Festplatte vorbereiten: Expertenmodus) unter Volume-Verwaltung im Bereich Systemansicht aus erreicht werden. Mit Festplatte vorbereiten: Expertenmodus können Sie Festplatten und Partitionen verwalten sowie RAID- und LVM-Konfigurationen einrichten.

11.3.1 Erstellen eines physischen Volumes

Als erste Aufgabe müssen physische Volumes erstellt werden, die Platz für eine Volume-Gruppe bieten:

  1. Wählen Sie unter Festplatten eine Festplatte aus.

  2. Wechseln Sie in den Karteireiter Partitionen.

  3. Klicken Sie auf Hinzufügen und geben Sie die gewünschte Größe des PV auf dieser Platte ein.

  4. Verwenden Sie Do not Format Partition (Partition nicht formatieren) und ändern Sie die Dateisystem-ID in 0x8E Linux LVM. Hängen Sie diese Partition nicht ein.

  5. Wiederholen Sie diesen Vorgang, bis alle gewünschten physischen Volumes auf den verfügbaren Platten definiert sind.

11.3.2 Erstellen von Volume-Gruppen

Wenn auf Ihrem System keine Volume-Gruppe existiert, müssen Sie eine hinzufügen (siehe Abbildung 11.3, „Anlegen einer Volume-Gruppe“). Sie können zusätzliche Gruppen erstellen, indem Sie auf Volume-Verwaltung im Bereich Systemansicht und anschließend auf Volume-Gruppe hinzufügen klicken. Eine einzige Volume-Gruppe genügt in der Regel.

  1. Geben Sie einen Namen für die VG ein, z. B. system.

  2. Wählen Sie die gewünschte Größe (Physical Extent Size). Dieser Wert definiert die Größe eines physischen Blocks in der Volume-Gruppe. Der gesamte Plattenplatz in einer Volume-Gruppe wird in Blöcken dieser Größe verwaltet.

  3. Fügen Sie der VG die vorbereiteten PVs hinzu, indem Sie das Gerät auswählen und auf Hinzufügen klicken. Die Auswahl mehrerer Geräte ist möglich, wenn Sie Strg gedrückt halten, während Sie auf die gewünschten Geräte klicken.

  4. Wählen Sie Beenden, um die VG für weitere Konfigurationsschritte bereitzustellen.

Anlegen einer Volume-Gruppe
Abbildung 11.3: Anlegen einer Volume-Gruppe

Wenn mehrere Volume-Gruppen definiert sind und PVs hinzugefügt oder entfernt werden sollen, wählen Sie die Volume-Gruppe in der Liste Volume-Verwaltung aus und klicken Sie auf Größe ändern. Im folgenden Fenster können Sie der ausgewählten Volume-Gruppe PVs hinzufügen oder sie daraus entfernen.

11.3.3 Konfigurieren von logischen Volumes

Nachdem die Volume-Gruppe mit PVs gefüllt ist, definieren Sie im nächsten Dialogfeld die LVs, die das Betriebssystem verwenden soll. Wählen Sie die aktuelle Volume-Gruppe aus und wechseln Sie zum Karteireiter Logische Volumes. Sie können nach Bedarf LVs mithilfe der entsprechenden Schaltflächen Hinzufügen, Bearbeiten, ihre Größe ändern und sie Löschen, bis der Platz in der Volume-Gruppe verbraucht ist. Weisen Sie jeder Volume-Gruppe mindestens ein LV zu.

Verwaltung von logischen Volumes
Abbildung 11.4: Verwaltung von logischen Volumes

Klicken Sie auf Hinzufügen und führen Sie die Anweisungen im Assistenten-ähnlichen Pop-up-Fenster aus, das geöffnet wird:

  1. Geben Sie den Namen des LV ein. Für eine Partition, die in /home eingehängt werden soll, kann ein Name wie HOME verwendet werden.

  2. Wählen Sie den Typ des LV aus. Zur Wahl stehen Normal Volume, Thin Pool und Thin Volume. Sie müssen zunächst einen Thin Pool erstellen, in dem dann die einzelnen Thin Volumes gespeichert werden können. Das Thin Provisioning bietet den großen Vorteil, dass die Summe aller in einem Thin-Pool gespeicherten Thin-Volumes die Größe des Pools selbst übersteigen kann.

  3. Wählen Sie die Größe und Anzahl der Stripes für das LV. Wenn Sie nur ein PV haben, ist es nicht sinnvoll, mehrere Stripes auszuwählen.

  4. Wählen Sie das Dateisystem, das auf dem LV verwendet werden soll, und den Einhängepunkt.

Durch die Verwendung von Stripes ist es möglich, den Datenstrom im LV auf mehrere PVs aufzuteilen (Striping). Das Striping eines Volumes kann nur über unterschiedliche PVs erfolgen, von denen jedes mindestens den Speicherplatz des Volumes besitzt. Die maximale Anzahl der Stripes entspricht der Anzahl der PVs, wobei Stripe „1“ für „no striping“ (kein Striping) steht. Das Striping ist nur mit PVs sinnvoll, die sich auf unterschiedlichen Festplatten befinden. Andernfalls verschlechtert sich die Leistung.

Warnung
Warnung: Striping

YaST kann Ihre Eingaben zum Striping zu diesem Zeitpunkt nicht überprüfen. Fehler, die hier gemacht werden, zeigen sich später, wenn die LVM auf der Festplatte implementiert wird.

Falls Sie auf Ihrem System LVM bereits konfiguriert haben, können Sie auch die vorhandenen logischen Volumes verwenden. Bevor Sie fortfahren, weisen Sie diesen LVs passende Einhängepunkte zu. Klicken Sie auf Fertig stellen, um zu Festplatte vorbereiten: Expertenmodus in YaST zurückzukehren und Ihre Arbeit dort abzuschließen.

11.4 Soft-RAID

In diesem Abschnitt werden die Aktionen beschrieben, die für die Erstellung und Konfiguration der verschiedenen RAID-Typen erforderlich sind. Hintergrundinformationen zu RAID finden Sie im Book “Storage Administration Guide”, Chapter 7 “Software RAID configuration”, Section 7.1 “Understanding RAID levels”.

11.4.1 Soft-RAID-Konfiguration

Zur YaST-RAID-Konfiguration gelangen Sie über Festplatte vorbereiten: Expertenmodus in YaST, wie in Abschnitt 11.1, „Verwenden von Festplatte vorbereiten: Expertenmodus beschrieben. Mit diesem Partitionierungswerkzeug können Sie vorhandene Partitionen bearbeiten und löschen sowie neue Partitionen erstellen, die mit Soft-RAID verwendet werden sollen:

  1. Wählen Sie unter Festplatten eine Festplatte aus.

  2. Wechseln Sie in den Karteireiter Partitionen.

  3. Klicken Sie auf Hinzufügen und geben Sie die gewünschte Größe der RAID-Partition auf dieser Platte ein.

  4. Verwenden Sie Partition nicht formatieren und ändern Sie die Dateisystem-ID in 0xFD Linux RAID. Hängen Sie diese Partition nicht ein.

  5. Wiederholen Sie diesen Vorgang, bis alle gewünschten physischen Volumes auf den verfügbaren Platten definiert sind.

Für RAID 0 und RAID 1 sind mindestens zwei Partitionen erforderlich, für RAID 1 in der Regel exakt zwei. Bei RAID 5 sind mindestens drei Partitionen erforderlich, bei RAID 6 und RAID 10 dagegen mindestens vier Partitionen. Es empfiehlt sich, nur Partitionen derselben Größe zu verwenden. Die RAID-Partitionen sollten sich auf verschiedenen Festplatten befinden, um das Risiko eines Datenverlusts gering zu halten, falls eine (RAID 1 und 5) defekt ist, und die Leistung von RAID 0 zu optimieren. Nachdem alle gewünschten Partitionen für RAID erstellt sind, klicken Sie auf RAID › RAID hinzufügen, um mit der RAID-Konfiguration zu beginnen.

Wählen Sie im nächsten Dialogfeld zwischen RAID-Level 0, 1, 5, 6 oder 10. Wählen Sie dann alle Partitionen mit dem Typ Linux RAID oder Linux native aus, die das RAID-System benutzen soll. Swap- oder DOS-Partitionen werden nicht angezeigt.

RAID-Partitionen
Abbildung 11.5: RAID-Partitionen

Um dem ausgewählten RAID-Volume eine zuvor nicht zugewiesene Partition zuzuweisen, klicken Sie zuerst auf die Partition und anschließend auf Hinzufügen. Weisen Sie alle für RAID reservierten Partitionen zu. Anderenfalls bleibt der Speicherplatz in den Partitionen unbenutzt. Klicken Sie nach dem Zuweisen aller Partitionen auf Weiter, um die verfügbaren RAID-Optionen auszuwählen.

Legen Sie in diesem letzten Schritt das zu verwendende Dateisystem sowie die Verschlüsselung und den Einhängepunkt für das RAID-Volume fest. Wenn Sie die Konfiguration mit Finish (Fertigstellen) abgeschlossen haben, finden Sie das Gerät /dev/md0 und andere mit RAID gekennzeichnete Geräte im Festplatte vorbereiten: Expertenmodus.

11.4.2 Fehlersuche

Prüfen Sie die Datei /proc/mdstat, um festzustellen, ob eine RAID-Partition beschädigt ist. Die grundsätzliche Vorgehensweise bei einem Systemfehler besteht darin, Ihren Rechner herunterzufahren und die defekte Festplatte durch eine neue, gleichartig partitionierte Platte zu ersetzen. Starten Sie dann Ihr System neu und führen Sie mdadm /dev/mdX --add /dev/sdX aus. Ersetzen Sie „X“ durch die entsprechende Geräte-ID. Damit wird die neue Festplatte automatisch in das RAID-System integriert und vollautomatisch rekonstruiert.

Beachten Sie, dass Sie zwar bei einem Neuaufbau auf alle Daten zugreifen können, jedoch bis zum vollständigen RAID-Neuaufbau einige Probleme in der Leistung auftreten können.

11.4.3 Zusätzliche Informationsquellen

Weitere Informationen sowie eine Anleitung zur Konfiguration von Soft-RAID finden Sie unter:

Linux-RAID-Mailinglisten sind beispielsweise unter folgender URL verfügbar: https://marc.info/?l=linux-raid.

12 Ferninstallation

SUSE® Linux Enterprise Server kann vollständig über das Netzwerk installiert werden. In diesem Kapitel wird beschrieben, wie Sie die erforderliche Umgebung für den Boot-Vorgang, die Installation und die Steuerung über das Netzwerk bereitstellen.

12.1 Übersicht

Bei einer Ferninstallation ist zu überlegen, wie der Bootvorgang und die Installationssteuerung erfolgen sollen und welche Installationsdatenquelle zu verwenden ist. Alle verfügbaren Optionen können miteinander kombiniert werden, sofern sie für Ihre Hardware-Plattform zur Verfügung stehen.

Boot-Methode

Je nach Hardware stehen verschiedene Optionen zum Booten eines Systems zur Auswahl. Gängige Optionen sind DVD, USB-Laufwerk oder PXE-Booten. Weitere Informationen zu Ihrer Plattform finden Sie in Teil I, „Installationsvorbereitung“.

Weitere Informationen zum Einrichten eines Servers für das Booten über PXE finden Sie in Kapitel 18, Vorbereiten der Netzwerk-Boot-Umgebung.

Datenquelle

In aller Regel fungieren DVDs oder USB-Laufwerke als Installationsquelle für SUSE Linux Enterprise Server. Alternativ können Sie einen Installationsserver heranziehen. In diesem Fall geben Sie die Quelle mit dem Boot-Parameter install an. Detaillierte Informationen finden Sie im Abschnitt 8.3.3, „Angeben der Installationsquelle“.

Soll die Installation über eine Netzwerkquelle erfolgen, bereiten Sie einen Server gemäß den Anweisungen in Kapitel 17, Einrichten einer Netzwerkinstallationsquelle vor.

Installationsmethoden

Sie können die Installation wahlweise über eine Tastatur und einen Monitor durchführen, die direkt mit dem Zielcomputer verbunden sind, oder auch über SSH, VNC oder die serielle Konsole eines Computers. Dies wird in den Abschnitten Abschnitt 12.3, „Überwachen der Installation über VNC“, Abschnitt 12.4, „Überwachen der Installation über SSH“ und Abschnitt 12.5, „Installation über die serielle Konsole“ beschrieben.

AutoYaST kann verwendet werden, um den Installationsprozess vollständig zu automatisieren. Weitere Einzelheiten finden Sie im Book “AutoYaST Guide”.

12.2 Szenarien einer Ferninstallation

In diesem Abschnitt werden die gängigsten Installationsszenarien für Installationen auf entfernten Systemen beschrieben. Prüfen Sie für jedes Szenario die Liste der Voraussetzungen und befolgen Sie das für dieses Szenario beschriebene Verfahren. Falls Sie für einen bestimmten Schritt ausführliche Anweisungen benötigen, folgen Sie den entsprechenden Links.

12.2.1 Installation von Quellenmedien über VNC

Diese Art der Installation erfordert physischen Zugriff auf das Zielsystem, um dieses für die Installation zu booten. Die Installation wird von einer entfernten Arbeitsstation gesteuert, die mit dem Installationsprogramm über VNC verbunden ist. Das Eingreifen des Benutzers ist wie bei der manuellen Installation erforderlich (siehe Kapitel 9, Installationsschritte).

Stellen Sie bei dieser Art der Installation sicher, dass die folgenden Anforderungen erfüllt sind.

  • Zielsystem mit einer funktionierenden Netzwerkverbindung

  • Steuersystem mit funktionierender Netzwerkverbindung und VNC-Viewer-Software oder JavaScript-fähigem Browser (Firefox, Chromium, Internet Explorer, Opera usw.)

  • Installations-DVD oder USB-Flash-Laufwerk

Gehen Sie wie folgt vor, um diese Art der Installation durchzuführen:

  1. Booten Sie das Zielsystem vom Installationsmedium (USB-Flash-Laufwerk) des Medienkits von SUSE Linux Enterprise Server.

  2. Wenn der Boot-Bildschirm des Zielsystems geöffnet wird, legen Sie die VNC-Optionen sowie ggf. die statische Netzwerkkonfiguration über die Boot-Parameter fest. Weitere Informationen zu den Boot-Parametern finden Sie im Kapitel 8, Boot-Parameter.

    1. Boot-Parameter für eine statische Netzwerkkonfiguration:

      netdevice=NETDEVICE hostip=IP_ADDRESS netmask=NETMASK gateway=IP_GATEWAY vnc=1 VNCPassword=PASSWORD
    2. Boot-Parameter für eine dynamische Netzwerkkonfiguration (DHCP):

      vnc=1 VNCPassword=PASSWORD
  3. Das Zielsystem bootet in eine textbasierte Umgebung und zeigt die Netzwerkadresse und die Anzeigenummer an. VNC-Installationen geben sich selbst über OpenSLP bekannt, sofern die Firewall-Einstellungen entsprechend konfiguriert sind. Sie finden sie mit slptool, wie im Abschnitt 12.3.1, „Vorbereiten der VNC-Installation“ beschrieben.

  4. Öffnen Sie auf der steuernden Arbeitsstation einen VNC-Viewer oder einen Webbrowser und stellen Sie eine Verbindung zum Zielsystem her, indem Sie die angegebene Netzwerkadresse und Anzeigenummer verwenden, wie im Abschnitt 12.3, „Überwachen der Installation über VNC“ beschrieben.

  5. Führen Sie die Installation wie in Kapitel 9, Installationsschritte beschrieben aus.

12.2.2 Netzwerkinstallation über VNC

Bei dieser Installationsmethode ist keine direkte Interaktion mit dem Zielcomputer erforderlich. Das System wird über PXE gebootet und die Installationsdaten werden von einem Server abgerufen.

Stellen Sie bei dieser Art der Installation sicher, dass die folgenden Anforderungen erfüllt sind.

  • Mindestens ein Computer, über den ein DHCP-, NFS-, HTTP-, FTP-, TFTP- oder SMB-Server installiert werden kann.

  • Zielsystem, das PXE-Boot-, Netzwerk- und Wake-on-LAN-fähig, angeschlossen und mit dem Netzwerk verbunden ist.

  • Steuersystem mit einer funktionierender Netzwerkverbindung und VNC-Viewer-Software oder JavaScript-fähiger Browser (Firefox, Chromium, Microsoft Edge, Opera usw.)

Gehen Sie wie folgt vor, um diese Art der Installation auszuführen.

  1. Richten Sie den Server ein, auf dem sich die Installationsdaten befinden. Detaillierte Informationen finden Sie im Teil IV, „Einrichten eines Installationsservers“.

  2. Richten Sie einen DHCP- und einen TFTP-Server für das Netzwerk ein. Dies wird in Kapitel 18, Vorbereiten der Netzwerk-Boot-Umgebung beschrieben. Fügen Sie die erforderlichen Boot-Parameter hinzu, um den VNC-Server zu aktivieren.

  3. Aktivieren Sie das PXE-Booten in der Firmware des Zielcomputers. Weitere Informationen finden Sie in Abschnitt 18.4, „Vorbereiten des Zielsystems für PXE-Boot“.

  4. Initiieren Sie den Bootvorgang des Zielsystems mithilfe von Wake-on-LAN. Dies wird in Abschnitt 18.5, „Verwenden von Wake-on-LAN für Fernaktivierungen“ beschrieben.

  5. Öffnen Sie auf der steuernden Arbeitsstation eine VNC-Viewer-Anwendung oder einen Webbrowser, und stellen Sie wie in Abschnitt 12.3, „Überwachen der Installation über VNC“ beschrieben eine Verbindung zum Zielsystem her.

  6. Führen Sie die Installation wie im Kapitel 9, Installationsschritte beschrieben aus.

12.2.3 Installation von Quellenmedien über SSH

Diese Art der Installation erfordert physischen Zugriff auf das Zielsystem, um dieses für die Installation zu booten und um die IP-Adresse des Installationsziels zu ermitteln. Die Installation selbst wird vollständig von einer entfernten Arbeitsstation gesteuert, die mit dem Installationsprogramm über SSH verbunden ist. Das Eingreifen des Benutzers ist wie bei der regulären Installation erforderlich (siehe Kapitel 9, Installationsschritte).

Stellen Sie bei dieser Art der Installation sicher, dass die folgenden Anforderungen erfüllt sind.

  • Zielsystem mit funktionierender Netzwerkverbindung.

  • Steuersystem mit funktionierender Netzwerkverbindung und funktionierender SSH-Client-Software.

  • Installations-DVD oder USB-Flash-Laufwerk

Gehen Sie wie folgt vor, um diese Art der Installation durchzuführen:

  1. Richten Sie das Installationsziel und den Installationsserver gemäß Teil IV, „Einrichten eines Installationsservers“ ein.

  2. Booten Sie das Zielsystem vom Installationsmedium (USB-Flash-Laufwerk) des Medienkits von SUSE Linux Enterprise Server.

  3. Wenn der Boot-Bildschirm des Zielsystems geöffnet wird, legen Sie die SSH-Optionen sowie ggf. die statische Netzwerkkonfiguration über die Boot-Parameter-Eingabeaufforderung fest. Weitere Informationen zu den Boot-Parametern finden Sie im Kapitel 8, Boot-Parameter.

    1. Boot-Parameter für eine statische Netzwerkkonfiguration:

      netdevice=NETDEVICE hostip=IP_ADDRESS netmask=NETMASK gateway=IP_GATEWAY ssh=1 ssh.password=PASSWORD
    2. Boot-Parameter für eine dynamische Netzwerkkonfiguration (DHCP):

      ssh=1 ssh.password=PASSWORD
  4. Das Zielsystem bootet in eine textbasierte Umgebung und gibt die Netzwerkadresse an, unter der die grafische Installationsumgebung von einen beliebigen SSH-Client adressiert werden kann.

  5. Öffnen Sie auf der steuernden Arbeitsstation ein Terminalfenster und stellen Sie wie in Abschnitt 12.4.2, „Herstellen der Verbindung mit dem Installationsprogramm“ beschrieben eine Verbindung zum Zielsystem her.

  6. Führen Sie die Installation wie in Kapitel 9, Installationsschritte beschrieben aus.

12.2.4 Installation vom Netzwerk über SSH

Bei dieser Installationsmethode ist keine direkte Interaktion mit dem Zielcomputer erforderlich. Das System wird über PXE gebootet und die Installationsdaten werden von einem Server abgerufen.

Stellen Sie bei dieser Art der Installation sicher, dass die folgenden Anforderungen erfüllt sind:

  • Mindestens ein Computer, über den ein DHCP-, NFS-, HTTP-, FTP-, TFTP- oder SMB-Server installiert werden kann.

  • Zielsystem, das PXE-Boot-, Netzwerk- und Wake-on-LAN-fähig, angeschlossen und mit dem Netzwerk verbunden ist.

  • Steuersystem mit funktionierender Netzwerkverbindung und SSH-Viewer-Software.

Gehen Sie wie folgt vor, um diese Art der Installation auszuführen.

  1. Richten Sie den Server ein, auf dem sich die Installationsdaten befinden. Detaillierte Informationen finden Sie im Teil IV, „Einrichten eines Installationsservers“.

  2. Richten Sie einen DHCP- und einen TFTP-Server für das Netzwerk ein. Dies wird in Kapitel 18, Vorbereiten der Netzwerk-Boot-Umgebung beschrieben. Fügen Sie die erforderlichen Boot-Parameter hinzu, um den SSH-Server zu aktivieren.

  3. Aktivieren Sie das PXE-Booten in der Firmware des Zielcomputers. Weitere Informationen finden Sie in Abschnitt 18.4, „Vorbereiten des Zielsystems für PXE-Boot“.

  4. Initiieren Sie den Bootvorgang des Zielsystems mithilfe von Wake-on-LAN. Dies wird in Abschnitt 18.5, „Verwenden von Wake-on-LAN für Fernaktivierungen“ beschrieben.

  5. Öffnen Sie auf der steuernden Arbeitsstation eine SSH-Client-Software, und stellen Sie wie in Abschnitt 12.4, „Überwachen der Installation über SSH“ beschrieben eine Verbindung zum Zielsystem her.

  6. Führen Sie die Installation wie im Kapitel 9, Installationsschritte beschrieben aus.

12.3 Überwachen der Installation über VNC

Mithilfe eines VNC-Viewers können Sie die Installation von SUSE Linux Enterprise Server von praktisch jedem Betriebssystem aus überwachen. In diesem Abschnitt wird das Setup mithilfe eines VNC-Viewers oder eines Webbrowsers beschrieben.

12.3.1 Vorbereiten der VNC-Installation

Zum Aktivieren von VNC auf dem Installationsziel geben Sie die entsprechenden Boot-Parameter beim ersten Booten für die Installation an (siehe Kapitel 8, Boot-Parameter). Das Zielsystem bootet in eine textbasierte Umgebung und wartet darauf, dass ein VNC-Client eine Verbindung zum Installationsprogramm herstellt.

Das Installationsprogramm gibt die IP-Adresse bekannt und zeigt die für die Verbindung zum Installationsprogramm erforderliche Nummer an. Wenn Sie physischen Zugriff auf das Zielsystem haben, werden diese Informationen sofort nach dem Booten des Systems für die Installation zur Verfügung gestellt. Geben Sie diese Daten ein, wenn Sie von der VNC-Client-Software dazu aufgefordert werden, und geben Sie Ihr Passwort ein.

Das Installationsziel gibt sich selbst über OpenSLP bekannt, sodass Sie die Adressangaben des Installationsziels über einen SLP-Browser abrufen können. Sie benötigen keinen physischen Zugriff auf das Installationsziel, sofern die Netzwerkeinrichtung und alle Computer OpenSLP unterstützen:

Vorgehen 12.1: Auffinden von VNC-Installationen über OpenSLP
  1. Führen Sie slptool findsrvtypes | grep vnc aus, um eine Liste aller Dienste zu erhalten, die VNC anbieten. Die VNC-Installationsziele müssen unter einem Dienst mit dem Namen YaST.installation.suse bereitstehen.

  2. Mit slptool findsrvs YaST.installation.suse erhalten Sie eine Liste der verfügbaren Installationen. Geben Sie die IP-Adresse und den Port (in der Regel 5901) an; diese Angaben sind dem VNC-Viewer beigelegt.

12.3.2 Herstellen der Verbindung mit dem Installationsprogramm

Es gibt zwei Möglichkeiten, eine Verbindung zu einem VNC-Server (dem Installationsziel in diesem Fall) herzustellen. Sie können entweder einen VNC-Viewer starten oder eine Verbindung über einen JavaScript-fähigen Webbrowser herstellen.

Mit VNC können Sie die Installation eines Linux-Systems von jedem Betriebssystem aus, einschließlich anderer Linux-Distributionen, Windows oder macOS, steuern.

Stellen Sie auf einem Linux-Computer sicher, dass das Paket tightvnc installiert ist. Installieren Sie auf einem Windows-Computer den Windows-Port dieser Anwendung (siehe https://www.tightvnc.com/download.html).

Gehen Sie wie folgt vor, um eine Verbindung zu dem auf dem Zielcomputer ausgeführten Installationsprogramm herzustellen.

  1. Starten Sie den VNC-Viewer.

  2. Geben Sie die IP-Adresse und die Anzeigenummer des Installationsziels ein:

    IP_ADDRESS:DISPLAY_NUMBER

    Dadurch wird ein Fenster geöffnet, das den YaST-Bildschirm wie bei einer normalen lokalen Installation anzeigt.

Anstelle eines VNC-Viewers können Sie auch einen JavaScript-fähigen Browser mit aktivierter JavaScript-Unterstützung verwenden, um die Installation durchzuführen.

Die Browser-VNC-Verbindung ist nicht verschlüsselt.

Gehen Sie wie folgt vor, um eine VNC-Installation auszuführen.

  1. Starten Sie den Webbrowser, und geben Sie an der Eingabeaufforderung für die Adresse Folgendes ein:

    http://IP_ADDRESS_OF_TARGET:5801
  2. Wenn Sie dazu aufgefordert werden, geben Sie das VNC-Passwort ein. Dadurch wird ein Fenster mit einem YaST-Bildschirm wie bei einer normalen lokalen Installation anzeigt.

12.4 Überwachen der Installation über SSH

Mit einem SSH-Client können Sie die Installation im Fernverfahren über SSH ausführen.

12.4.1 Vorbereiten der SSH-Installation

Zusätzlich zum Installieren des erforderlichen Softwarepakets (OpenSSH für Linux und PuTTY für Windows) müssen Sie die entsprechenden Boot-Parameter angeben, um SSH für die Installation zu aktivieren. Ausführliche Informationen finden Sie in Kapitel 8, Boot-Parameter. OpenSSH wird auf allen SUSE Linux-basierten Betriebssystemen standardmäßig installiert.

12.4.2 Herstellen der Verbindung mit dem Installationsprogramm

Sobald Sie die SSH-Installation gestartet haben, stellen Sie mit diesem Verfahren die Verbindung zur SSH-Sitzung her.

  1. Rufen Sie die IP-Adresse des Installationsziels ab. Wenn Sie physischen Zugriff auf den Zielcomputer haben, rufen Sie die IP-Adresse auf, die von der Installationsroutine nach dem anfänglichen Bootvorgang in der Konsole angezeigt wird. Rufen Sie andernfalls die IP-Adresse auf, die dem Zielcomputer bei der DHCP-Serverkonfiguration zugewiesen wurde.

  2. Führen Sie folgenden Befehl im Terminal aus:

    ssh -X root@TARGET_IP_ADDRESS

    Ersetzen Sie TARGET_IP_ADDRESS durch die IP-Adresse des Installationsziels.

  3. Wenn Sie zur Eingabe eines Benutzernamens aufgefordert werden, geben Sie root ein.

  4. Wenn Sie zur Eingabe eines Passworts aufgefordert werden, geben Sie das Passwort ein, das mit dem SSH-Boot-Parameter festgelegt wurde. Wenn die Authentifizierung erfolgreich war, sollten Sie eine Befehlszeilen-Eingabeaufforderung für das Installationsziel sehen.

  5. Geben Sie yast ein, um das Installationsprogramm zu starten. Dadurch wird ein Fenster geöffnet, das den YaST-Bildschirm zeigt, wie in Kapitel 9, Installationsschritte beschrieben.

12.5 Installation über die serielle Konsole

Für diese Installationsmethode benötigen Sie einen Computer, der über ein Nullmodem-Kabel mit dem Zielcomputer verbunden ist, auf dem SUSE Linux Enterprise Server installiert werden soll. Beide Computer müssen die serielle Konsole unterstützen. Bestimmte Firmware-Implementierungen sind bereits so konfiguriert, dass sie die Ausgabe der Boot-Konsole an eine serielle Konsole senden. In diesem Fall ist keine zusätzliche Konfiguration erforderlich.

Falls die Firmware nicht die serielle Konsole für die Ausgabe der Boot-Konsole heranzieht, legen Sie den folgenden Boot-Parameter für die Installation fest: console=TTY,BAUDRATE. Weitere Informationen hierzu finden Sie unter Kapitel 8, Boot-Parameter und Book “Verwaltungshandbuch”, Chapter 18 “Der Bootloader GRUB 2”, Section 18.2.5 “Ändern von Menüeinträgen während des Bootvorgangs”.

Ersetzen Sie BAUDRATE durch die Baudrate der Schnittstelle. Gültige Werte: 115200, 38400 oder 9600. Ersetzen Sie TTY durch den Namen der Schnittstelle. Die meisten Computer verfügen über mindestens eine serielle Schnittstelle. Die Namen der Schnittstellen können je nach Hardware variieren:

  • ttyS0 bei APM

  • ttyAMA0 bei Server Base System Architecture (SBSA)

  • ttyPS0 bei Xilinx

Für die Installation benötigen Sie ein Terminalprogramm, z. B. minicom oder screen. Initiieren Sie die serielle Verbindung, indem Sie das screen-Programm in einer lokalen Konsole durch die Eingabe des folgenden Kommandos starten:

> screen /dev/ttyUSB0 115200

Das bedeutet, dass screen den ersten seriellen Port mit einer Baudrate von 115200 überwacht. Von nun an fährt die Installation ähnlich der textbasierten Installation über dieses Terminal fort.

13 Fehlersuche

In diesem Abschnitt werden einige häufige Installationsprobleme behandelt und mögliche Lösungen beschrieben.

13.1 Überprüfen von Medien

Wenn Probleme bei der Verwendung des SUSE Linux Enterprise Server-Installationsmediums auftreten, sollten sie dessen Integrität überprüfen. Booten Sie von dem Medium aus und wählen Sie im Startmenü die Option Weitere › Installationsmedium prüfen aus. Ein minimalistisches System wird gebootet und Sie haben die Wahl, welches Gerät geprüft werden soll. Wählen Sie das entsprechende Gerät aus und bestätigen Sie mit OK, um die Prüfung durchzuführen.

Starten Sie in einem aktiven System YaST, und wählen Sie Software › Medienprüfung. Legen Sie das Medium ein und klicken Sie auf Prüfvorgang starten. Die Integritätsprüfung kann einige Zeit in Anspruch nehmen.

Wenn bei der Prüfung Fehler gefunden werden, sollten Sie dieses Medium nicht für die Installation verwenden. Probleme mit den Medien treten beispielsweise dann auf, wenn Sie das Medium selbst auf DVD gebrannt haben. Durch Brennen des Mediums bei niedriger Geschwindigkeit (4x) können Probleme vermieden werden.

13.2 Kein bootfähiges Laufwerk verfügbar

Sie haben verschiedene Alternativen, falls Ihr Rechner nicht vom USB- oder DVD-Laufwerk aus booten kann.

Verwenden eines externen USB-Flash- oder DVD-Laufwerks

Linux unterstützt die meisten verfügbaren USB-Flash- und DVD-Laufwerke. Wenn das System nicht über ein USB-Flash- oder DVD-Laufwerk verfügt, kann ein externes, über USB, FireWire oder SCSI angeschlossenes Laufwerk zum Booten des Systems verwendet werden. In einigen Fällen kann bei Problemen ein Firmware-Update hilfreich sein.

Netzwerk-Boot über PXE

Sie können eine netzwerkbasierte Installation durchführen, wenn der Computer kein USB-Flash oder DVD-Laufwerk aufweist, dieser jedoch eine funktionierende Ethernet-Verbindung hat. Details finden Sie in Abschnitt 12.2.2, „Netzwerkinstallation über VNC“ und Abschnitt 12.2.4, „Installation vom Netzwerk über SSH“.

USB-Flash-Laufwerk

Falls der Computer weder ein DVD-Laufwerk noch eine Netzwerkverbindung aufweist, können Sie ein USB-Flash-Laufwerk verwenden. Weitere Informationen finden Sie unter:

13.3 Vom Installationsmedium kann nicht gebootet werden

Der Computer kann möglicherweise nicht vom Installationsmedium booten, weil die Bootsequenz im BIOS falsch eingestellt ist. Das USB-Flash-Laufwerk oder DVD-Laufwerk muss als erstes Boot-Gerät in der BIOS-Bootsequenz festgelegt werden.

Vorgehen 13.1: Ändern der BIOS-Bootsequenz
  1. Drücken Sie die in den Bootroutinen angezeigte Taste, um ins BIOS zu gelangen, und warten Sie, bis der BIOS-Bildschirm angezeigt wird.

  2. Wenn Sie die Bootsequenz in einem AWARD BIOS ändern möchten, suchen Sie nach dem Eintrag BIOS FEATURES SETUP (SETUP DER BIOS-FUNKTIONEN). Andere Hersteller verwenden hierfür eine andere Bezeichnung, beispielsweise ADVANCED CMOS SETUP (ERWEITERTES CMOS-SETUP). Wenn Sie den Eintrag gefunden haben, wählen Sie ihn aus, und bestätigen Sie ihn mit der Eingabetaste.

  3. Suchen Sie nach einem Untereintrag mit dem Namen BOOT SEQUENCE (BOOTSEQUENZ) oder BOOT ORDER (BOOTREIHENFOLGE). Zum Ändern der Einstellungen drücken Sie Bild ↑ oder Bild ↓, bis das USB-Flash oder DVD-Laufwerk an erster Stelle aufgeführt wird.

  4. Drücken Sie Esc, um den Bildschirm „BIOS-Setup“ zu verlassen. Zum Speichern der Änderungen wählen Sie SAVE & EXIT SETUP (SPEICHERN & SETUP BEENDEN) oder drücken Sie F10. Zum Speichern der geänderten Einstellungen drücken Sie Y.

Vorgehen 13.2: Ändern der Bootsequenz in einem SCSI-BIOS (Adaptec-Hostadapter)
  1. Öffnen Sie das Setup, indem Sie die Tastenkombination StrgA drücken.

  2. Wählen Sie Disk Utilities (Festplattendienstprogramme) aus. Nun werden die angeschlossenen Hardwarekomponenten angezeigt.

    Notieren Sie sich die SCSI-ID Ihres USB-Flash- oder DVD-Laufwerks.

  3. Verlassen Sie das Menü mit Esc.

  4. Öffnen Sie Configure Adapter Settings (Adaptereinstellungen konfigurieren). Wählen Sie unter Additional Options (Zusätzliche Optionen) den Eintrag Boot Device Options (Boot-Gerät-Optionen) aus, und drücken Sie Eingabetaste.

  5. Geben Sie die ID des USB-Flash- oder DVD-Laufwerks ein und drücken Sie erneut auf die Eingabetaste.

  6. Drücken Sie zweimal Esc, um zum Startbildschirm des SCSI-BIOS zurückzukehren.

  7. Schließen Sie diesen Bildschirm und bestätigen Sie mit Yes (Ja), um den Computer zu booten.

Unabhängig davon, welche Sprache und Tastaturbelegung das installierte System verwendet, verwenden die meisten BIOS-Konfigurationen die US-Tastaturbelegung wie unten gezeigt.

US-Tastaturbelegung
Abbildung 13.1: US-Tastaturbelegung

13.4 Boot-Fehler

Bei bestimmter Hardware, insbesondere bei sehr alter bzw. sehr neuer, kann beim Booten ein Fehler auftreten. Beispielsweise wird die Hardware nicht durch den Installations-Kernel unterstützt oder die Treiber verursachen Probleme auf bestimmten Hardwareprodukten.

Wenn die Installation über den Standardmodus für die Installation fehlschlägt, versuchen Sie Folgendes.

  1. Belassen Sie das Installationsmedium im Laufwerk und booten Sie den Rechner über die Tastenkombination StrgAltEntf bzw. über die Reset-Taste der Hardware neu.

  2. Drücken Sie, sobald der Bootbildschirm angezeigt wird, F5, navigieren Sie mithilfe der Pfeiltasten der Tastatur zu Keine ACPI, und drücken Sie Eingabetaste, um den Installationsvorgang zu booten und zu starten. Mit dieser Option wird die Unterstützung für ACPI-Energieverwaltungstechniken deaktiviert.

  3. Fahren Sie wie in Kapitel 9, Installationsschritte beschrieben mit der Installation fort.

Wenn es hierbei zu Problemen kommt, fahren Sie wie oben beschrieben fort, wählen Sie jedoch in diesem Fall Sichere Einstellungen aus. Mit dieser Option wird die Unterstützung für ACPI und DMA (Direct Memory Access) deaktiviert. Diese Option funktioniert bei der meisten Hardware.

Wenn beide Optionen fehlschlagen, geben Sie an der Boot-Parameter-Eingabeaufforderung die Kernel-Parameter an, um Unterstützung für die verwendete Hardware zu aktivieren. Weitere Informationen zu den Parametern, die als Boot-Parameter zur Verfügung stehen, finden Sie in der Kernel-Dokumentation unter /usr/src/linux/Documentation/kernel-parameters.txt.

Tipp
Tipp: Aufrufen der Kernel-Dokumentation

Installieren Sie das Paket kernel-source. Darin ist die Kernel-Dokumentation enthalten.

Es gibt noch weitere mit ACPI in Zusammenhang stehende Kernel-Parameter, die vor dem Booten zu Installationszwecken an der Booteingabeaufforderung eingegeben werden können:

acpi=off

Mit diesem Parameter wird das vollständige ACPI-Subsystem auf Ihrem Computer deaktiviert. Dies kann hilfreich sein, wenn ACPI von Ihrem Computer nicht unterstützt wird bzw. Sie vermuten, dass ACPI auf Ihrem Computer zu Problemen führt.

acpi=force

Aktivieren Sie immer ACPI, auch wenn Ihr Computer ein BIOS hat, das vor 2000 veröffentlicht wurde. Dieser Parameter aktiviert auch ACPI, wenn er zusätzlich zu acpi=off festgelegt ist.

acpi=noirq

ACPI nicht für IRQ-Routing verwenden.

acpi=ht

Nur genügend ACPI ausführen, um Hyper-Threading zu aktivieren.

acpi=strict

Geringere Toleranz von Plattformen, die nicht vollständig ACPI-konform sind.

pci=noacpi

Deaktiviert das PCI-IRQ-Routing des neuen ACPI-Systems.

pnpacpi=off

Aktivieren Sie diese Option, um Probleme zu vermeiden, die durch falsch konfigurierte Geräteressourcen im BIOS verursacht werden.

notsc

Hiermit wird der Zeitstempelzähler deaktiviert. Diese Option dient der Umgehung von Timing-Problemen auf Ihren Systemen. Es handelt sich um eine recht neue Funktion, die insbesondere dann nützlich sein kann, wenn Sie auf Ihrem Rechner Rückwärtsentwicklungen bemerken, insbesondere zeitbezogene Rückwärtsentwicklungen. Gilt auch für Fälle, in denen keinerlei Reaktion mehr zu verzeichnen ist.

nohz=off

Hiermit wird die nohz-Funktion deaktiviert. Wenn der Rechner nicht mehr reagiert, ist die Aktivierung dieser Option vielleicht die Lösung.

Wenn Sie die richtige Parameterkombination ermittelt haben, schreibt YaST sie automatisch in die Bootloader-Konfiguration, um sicherzustellen, dass das System beim nächsten Mal vorschriftsmäßig gebootet wird.

Falls beim Laden des Kernel oder bei der Installation Fehler auftreten, wählen Sie im Startmenü die Option Speichertest, um den Arbeitsspeicher zu überprüfen. Wenn von Speichertest ein Fehler zurückgegeben wird, deutet dies normalerweise auf einen Hardwarefehler hin.

13.5 Grafisches Installationsprogramm wird nicht gestartet

Der Rechner bootet in die Installationsoberfläche, aber das grafische Installationsprogramm startet nicht, wenn Sie Installation wählen.

In diesem Fall haben Sie mehrere Möglichkeiten.

  • Wählen Sie eine andere Bildschirmauflösung für die installationsbezogenen Dialogfelder.

  • Wählen Sie den Expertenmodus für die Installation aus.

  • Führen Sie über VNC und unter Verwendung des grafischen Installationsprogramms eine Ferninstallation durch.

Vorgehen 13.3: Ändert die Bildschirmauflösung für die Installation
  1. Booten Sie zu Installationszwecken.

  2. Drücken Sie F3, um ein Menü zu öffnen, in dem Sie für Installationszwecke eine niedrigere Auflösung auswählen können.

  3. Wählen Sie Installation aus und fahren Sie, wie in Kapitel 9, Installationsschritte beschrieben, mit der Installation fort.

Vorgehen 13.4: Installation im Textmodus
  1. Booten Sie zu Installationszwecken.

  2. Drücken Sie F3 und wählen Sie Text Mode (Expertenmodus) aus.

  3. Wählen Sie Installation aus und fahren Sie, wie in Kapitel 9, Installationsschritte beschrieben, mit der Installation fort.

Vorgehen 13.5: VNC-Installation
  1. Booten Sie zu Installationszwecken.

  2. Geben Sie an der Boot-Parameter-Eingabeaufforderung folgenden Text ein:

    vnc=1 vncpassword=SOME_PASSWORD

    Ersetzen Sie SOME_PASSWORD durch das für die VNC-Installation zu verwendende Passwort.

  3. Wählen Sie Installation aus und drücken Sie dann die Eingabetaste, um die Installation zu starten.

    Das System wird nicht direkt in der grafischen Installationsroutine gestartet, sondern wird weiterhin im Textmodus ausgeführt. Das System wird dann angehalten und es wird eine Meldung mit der IP-Adresse und der Port-Nummer angezeigt, unter der das Installationsprogramm über eine Browser-Oberfläche oder eine VNC-Viewer-Anwendung erreicht werden kann.

  4. Wenn Sie über einen Browser auf das Installationsprogramm zugreifen, starten Sie den Browser, geben Sie die Adressinformationen ein, die von den Installationsroutinen auf dem zukünftigen SUSE Linux Enterprise Server-Computer bereitgestellt werden, und drücken Sie Eingabetaste:

    http://IP_ADDRESS_OF_MACHINE:5801

    Im Browserfenster wird ein Dialogfeld geöffnet, in dem Sie zur Eingabe des VNC-Passworts aufgefordert werden. Geben Sie das Passwort ein und fahren Sie, wie in Kapitel 9, Installationsschritte beschrieben, mit der Installation fort.

    Wichtig
    Wichtig: Plattformübergreifende Unterstützung

    Die Installation über VNC kann mit jedem Browser und unter jedem beliebigen Betriebssystem vorgenommen werden, vorausgesetzt, die Java-Unterstützung ist aktiviert.

    Geben Sie auf Aufforderung die IP-Adresse und das Passwort für Ihren VNC-Viewer ein. Daraufhin wird ein Fenster mit den installationsbezogenen Dialogfeldern geöffnet. Fahren Sie wie gewohnt mit der Installation fort.

13.6 Nur ein minimalistischer Bootbildschirm wird angezeigt

Sie haben das Medium in das Laufwerk eingelegt, die BIOS-Routinen sind abgeschlossen, und das System startet eine minimalistische, textbasierte Benutzeroberfläche. Dies kann auf Computern der Fall sein, die für die Darstellung eines grafischen Bootbildschirms nicht ausreichend Grafikspeicher aufweisen.

Obwohl der textbasierte Bootbildschirm minimalistisch wirkt, bietet er nahezu dieselbe Funktionalität wie der grafische Bootbildschirm.

Bootoptionen

Im Gegensatz zur grafischen Oberfläche können die unterschiedlichen Boot-Parameter nicht mithilfe der Cursortasten der Tastatur ausgewählt werden. Das Startmenü des Bootbildschirms im Textmodus enthält Schlüsselwörter, die am Bootprompt eingegeben werden können. Diese Schlüsselwörter entsprechen den Optionen in der grafischen Version. Treffen Sie Ihre Wahl und drücken Sie Eingabetaste, um den Bootvorgang zu starten.

Benutzerdefinierte Bootoptionen

Geben Sie nach der Auswahl eines Boot-Parameters das entsprechende Schlüsselwort an der Boot-Eingabeaufforderung ein; Sie können auch einige benutzerdefinierte Boot-Parameter eingeben (siehe Beschreibung in Abschnitt 13.4, „Boot-Fehler“). Wenn Sie den Installationsvorgang starten möchten, drücken Sie Eingabetaste.

Bildschirmauflösungen

Ermitteln Sie mit den Funktionstasten (F1 bis F12) die Bildschirmauflösung für die Installation. Wenn Sie im Expertenmodus, also im Textmodus, booten müssen, drücken Sie F3.

13.7 Protokolldateien

Weitere Informationen zu Protokolldateien, die während der Installation erstellt werden, finden Sie in Book “Verwaltungshandbuch”, Chapter 47 “Erfassen der Systeminformationen für den Support”, Section 47.5 “Sammeln von Informationen bei der Installation”.

Teil III Anpassen von Installations-Images

  • 14 Vorbereiten eines Datenträgers zum Klonen mit dem Systembereinigungstool
  • Mit dem im Lieferumfang von clone-master-clean-upSUSE Linux Enterprise Server enthaltenen Tool können Sie Daten vom Datenträger entfernen, die Sie nicht in einen Klon aufnehmen möchten. In diesem Kapitel wird die Verwendung des Tools beschrieben.

  • 15 Anpassen von Installations-Images mit mksusecd
  • mksusecd ist ein nützliches Tool zum Erstellen eines angepassten Installations-Image. Bearbeiten Sie damit die normalen Installations-Images für SUSE Linux Enterprise, um Dateien hinzuzufügen und zu entfernen, ein minimales Netzwerkinstallations-Image zu erstellen, Boot-Optionen oder Software-Repositorys anzupassen und ein minimales Boot-Image als Alternative zum Booten eines Systems von einem PXE-Server aus zu erstellen.

  • 16 Manuelles Anpassen von Installations-Images
  • Die standardmäßigen Installations-Images für SUSE Linux Enterprise lassen sich durch Bearbeiten einer Datei im Installations-ISO-Image media.1/products anpassen. Fügen Sie zum Erstellen eines einzelnen benutzerdefinierten Installations-Image alle Module und Erweiterungen hinzu. Kopieren Sie dann das benutzerdefinierte Image auf CD, DVD oder ein USB-Flash-Laufwerk, um ein benutzerdefiniertes bootfähiges Installationsmedium zu erstellen. Vollständige Anweisungen finden Sie unter the SUSE Best Practices paper on How to Create a Custom Installation Medium for SUSE Linux Enterprise 15.

14 Vorbereiten eines Datenträgers zum Klonen mit dem Systembereinigungstool

Mit dem im Lieferumfang von clone-master-clean-upSUSE Linux Enterprise Server enthaltenen Tool können Sie Daten vom Datenträger entfernen, die Sie nicht in einen Klon aufnehmen möchten. In diesem Kapitel wird die Verwendung des Tools beschrieben.

14.1 Bereinigen von eindeutigen Systemkennungen

Warnung
Warnung: Verwenden Sie das Tool nicht auf einem Produktionssystem

Da das Bereinigungstool wichtige Systemkonfigurationsdaten entfernt, ist es nicht empfehlenswert, es auf einem System zu verwenden, das in der Produktion eingesetzt wird. Führen Sie das Tool stattdessen auf dem geklonten Image aus.

Das Tool clone-master-clean-up entfernt die folgenden Daten:

  • Swap-Dateien

  • Zypper-Repositorys

  • SSH-Host- und Client-Schlüssel

  • Temporäre Verzeichnisse wie /tmp/*

  • Postfix-Daten

  • HANA-Firewall-Skript

  • systemd-Journal

  1. Führen Sie zur Installation von clone-master-clean-up folgendes Kommando aus:

    > sudo zypper install clone-master-clean-up
  2. Konfigurieren Sie das Tool durch Bearbeiten der Datei /etc/sysconfig/clone-master-clean-up. Hier können Sie angeben, welche spezifischen Daten das Tool entfernen soll.

  3. Führen Sie das Skript aus, um eine Bereinigung durchzuführen:

    > sudo clone-master-clean-up

15 Anpassen von Installations-Images mit mksusecd

mksusecd ist ein nützliches Tool zum Erstellen eines angepassten Installations-Image. Bearbeiten Sie damit die normalen Installations-Images für SUSE Linux Enterprise, um Dateien hinzuzufügen und zu entfernen, ein minimales Netzwerkinstallations-Image zu erstellen, Boot-Optionen oder Software-Repositorys anzupassen und ein minimales Boot-Image als Alternative zum Booten eines Systems von einem PXE-Server aus zu erstellen.

15.1 Installieren von mksusecd

In SLE 15 befindet sich mksusecd im Modul Development Tools. Falls dieses Modul nicht aktiviert ist, müssen Sie es zuerst aktivieren. Finden Sie den genauen Modulnamen und das SUSEConnect-Aktivierungskommando mit zypper:

> zypper search-packages mksusecd
Following packages were found in following modules:

Package              Module or Repository
-------------------- -------------------------------------------------------------------
---------------------- -----------------------------------------------------------------
mksusecd             Development Tools Module (sle-module-development-tools/15.4/x86_64)
                       SUSEConnect --product sle-module-development-tools/15.4/x86_64

To activate the respective module or product, use SUSEConnect --product.
Use SUSEConnect --help for more details.

Aktivieren Sie das Modul mit SUSEConnect:

> sudo SUSEConnect --product sle-module-development-tools/15.4/x86_64

Installieren mksusecd:

> sudo zypper in mksusecd

Führen Sie mksusecd --help aus, um eine vollständige Liste der Kommandos anzuzeigen.

Nach dem Erstellen eines benutzerdefinierten Image brennen Sie es mit Ihrem bevorzugten Brennprogramm auf CD/DVD oder erstellen Sie ein bootfähiges USB-Flash-Laufwerk mit dem Kommando dd. Vergewissern Sie sich, dass das Gerät nicht eingehängt ist und führen Sie dann folgendes Kommando aus:

# dd if=myinstaller.iso of=/dev/SDB bs=4M

Danach ist Ihr neues bootfähiges Gerät betriebsbereit.

15.2 Erstellen eines minimalen Boot-Image

Erstellen Sie mit mksusecd ein minimales Boot-Image zum Starten von Client-Rechnern von CD/DVD oder einem USB-Flash-Laufwerk statt von einem PXE-Boot-Server. Das minimale Boot-Image startet den Kernel und initrd. Danach werden die verbleibenden Installationsdateien von einem lokalen NFS-Server abgerufen (weitere Informationen finden Sie in Abschnitt 17.1, „Einrichten eines Installationsservers mithilfe von YaST“).

Führen Sie zum Erstellen des minimalen ISO-Image folgendes Kommando aus:

> sudo mksusecd --create min-install.iso \
--net=nfs://192.168.1.1:/srv/install/ARCH/OS_VERSION/SP_VERSION/cd1  \
/srv/tftpboot/EFI/ARCH/boot

Ersetzen Sie die NFS-Server-Adresse durch Ihre Adresse. Ersetzen Sie ARCH durch das entsprechende Verzeichnis für die Zielsystemarchitektur. Ersetzen Sie auch OS_version und SP_VERSION (Service-Pack) entsprechend Ihren Pfaden in Abschnitt 17.1, „Einrichten eines Installationsservers mithilfe von YaST“.

15.3 Festlegen von standardmäßigen Kernel-Boot-Parametern

Konfigurieren Sie Ihre benutzerdefinierten Kernel-Boot-Parameter in einem benutzerdefinierten mksusecd-Image anstatt auf eine Boot-Eingabeaufforderung zu warten:

> sudo mksusecd --create install.iso \
--boot "textmode=1 splash=silent mitigations=auto"

Überprüfen Sie durch Abfragen von /proc, ob Ihre benutzerdefinierten Parameter nach dem Start korrekt geladen wurden:

> cat /proc/cmdline

15.4 Module, Erweiterungen und Repositorys anpassen

SUSE Linux Enterprise 15 unterstützt Module (nicht zu verwechseln mit Kernel-Modulen) und Erweiterungen für verschiedene Produktkomponenten. Dies sind Add-Ons zum Standard-Basesystem, z. B. Development Tools, Desktop Applications und SUSE Linux Enterprise Live Patching. Weitere Informationen finden Sie im Handbuch „Modules and Extensions Quick Start“ (Kurzanleitung zu Modulen und Erweiterungen).

Mit mksusecd erstellen Sie ein Installations-Image, das alle gewünschten zusätzlichen Module und Erweiterungen enthält. Beginnen Sie mit der Abfrage bestehender Images wie bei diesem Beispiel für SUSE Linux Enterprise 15 SP6:

> sudo mksusecd --list-repos SLE-15-SP6-Full-ARCH-GM-media1.iso
Repositories:
  Basesystem-Module [15.6-0]
  SUSE-CAP-Tools-Module [15.6-0]
  Containers-Module [15.6-0]
  Desktop-Applications-Module [15.6-0]
  Development-Tools-Module [15.6-0]
  HPC-Module [15.6-0]
  Legacy-Module [15.6-0]
  Live-Patching [15.6-0]
  Public-Cloud-Module [15.6-0]
  Python2-Module [15.6-0]
  SAP-Applications-Module [15.6-0]
  Server-Applications-Module [15.6-0]
  Transactional-Server-Module [15.6-0]
  Web-Scripting-Module [15.6-0]
  SLEHA15-SP6 [15.6-0]
  SLE-15-SP6-HPC [15.6-0]
  SLED15-SP6 [15.6-0]
  SLES15-SP6 [15.6-0]
  SLE-15-SP6-SAP [15.6-0]
  SLEWE15-SP6 [15.6-0]
  [...]

Erstellen Sie ein neues Installations-Image, das aus den ausgewählten Modulen, Erweiterungen und Repositorys besteht, und aktivieren Sie es automatisch:

> sudo mksusecd --create myinstaller.iso --enable-repos auto \
--include-repos Basesystem-Module,Desktop-Applications-Module \
SLE-15-SP6-Full-ARCH-GM-media1.iso

In diesem Beispiel wird ein Image für die Installation aus dem Internet erstellt. Wenn Sie ein Image für die Offline-Installation erstellen möchten, fügen Sie zusätzlich das Repository des Basisprodukts hinzu, zum Beispiel SLES15-SP6 für SUSE Linux Enterprise Server.

> sudo mksusecd --create myinstaller.iso --enable-repos auto \
   --include-repos SLES15-SP6,Basesystem-Module,Desktop-Applications-Module \
   SLE-15-SP6-Full-ARCH-GM-media1.iso

Ersetzen Sie --enable-repos auto durch --enable-repos ask, damit das Installationsprogramm ein Dialogfeld zur Auswahl von Modulen anzeigt.

Anmerkung
Anmerkung: AutoYaST-Steuerdatei

Wenn Sie die Option --enable-repos verwenden, fügt mksusecd dem neuen Image eine Datei add_on_products.xml zur Verwendung mit AutoYaST hinzu. Die Module in dieser Datei müssen nicht in der Steuerdatei von AutoYaST aufgeführt sein.

15.5 Erstellen einer minimalen Netzinstallations-ISO

Mit der Option --nano können Sie ein minimales Installations-Image zum Starten einer Netzwerkinstallation erstellen:

> sudo mksusecd --create netinstall.iso \
--nano SLE-15-SP6-Online-ARCH-GM-media1.iso

15.6 Standard-Repository ändern

Mit der Option --net legen Sie ein anderes Repository fest, beispielsweise ein eigenes lokales:

> sudo mksusecd --create localinstall.iso \
--net "https://example.com/local" SLE-15-SP6-Online-ARCH-GM-media1.iso

16 Manuelles Anpassen von Installations-Images

Die standardmäßigen Installations-Images für SUSE Linux Enterprise lassen sich durch Bearbeiten einer Datei im Installations-ISO-Image media.1/products anpassen. Fügen Sie zum Erstellen eines einzelnen benutzerdefinierten Installations-Image alle Module und Erweiterungen hinzu. Kopieren Sie dann das benutzerdefinierte Image auf CD, DVD oder ein USB-Flash-Laufwerk, um ein benutzerdefiniertes bootfähiges Installationsmedium zu erstellen. Vollständige Anweisungen finden Sie unter the SUSE Best Practices paper on How to Create a Custom Installation Medium for SUSE Linux Enterprise 15.

Teil IV Einrichten eines Installationsservers

  • 17 Einrichten einer Netzwerkinstallationsquelle
  • In diesem Kapitel wird beschrieben, wie Sie einen Server erstellen, auf dem die erforderlichen Daten für die Installation von SUSE Linux Enterprise Server über das Netzwerk bereitgestellt werden.

  • 18 Vorbereiten der Netzwerk-Boot-Umgebung
  • In diesem Kapitel wird beschrieben, wie Sie einen DHCP- und einen TFTP-Server konfigurieren, die die erforderliche Infrastruktur für das Booten über PXE bilden.

  • 19 Einrichten eines UEFI HTTP-Boot-Servers
  • In diesem Kapitel wird beschrieben, wie Sie einen UEFI HTTP-Boot-Server einrichten und konfigurieren.

  • 20 Installieren von benutzerdefinierten Vorinstallationen
  • Durch die Verteilung angepasster Vorinstallationen von SUSE Linux Enterprise Server auf einer großen Anzahl identischer Rechner können Sie es vermeiden, die Installation auf jedem einzelnen Rechner durchführen zu müssen. Gleichzeitig erhalten die Endbenutzer ein standardisiertes Installationsverfahren.

17 Einrichten einer Netzwerkinstallationsquelle

In diesem Kapitel wird beschrieben, wie Sie einen Server erstellen, auf dem die erforderlichen Daten für die Installation von SUSE Linux Enterprise Server über das Netzwerk bereitgestellt werden.

Abhängig vom Betriebssystem auf dem Computer, der als Netzwerk-Installationsquelle für SUSE Linux Enterprise Server fungiert, stehen für die Serverkonfiguration mehrere Möglichkeiten zur Auswahl. Am einfachsten lässt sich ein Installationsserver mit YaST einrichten.

Tipp
Tipp: Betriebssystem des Installationsservers

Für die Linux-Implementierung kann auch ein Microsoft Windows-Computer als Installationsserver verwendet werden. Ausführliche Informationen finden Sie in Abschnitt 17.5, „Verwalten eines SMB-Repositorys“.

17.1 Einrichten eines Installationsservers mithilfe von YaST

YaST bietet ein grafisches Werkzeug zum Erstellen von Repositorys. Es unterstützt HTTP-, FTP- und NFS-Netzwerk-Installationsserver.

  1. Melden Sie sich bei dem Rechner an, der als Installationsserver verwendet werden soll.

  2. Installieren Sie das Paket yast2-instserver:

    > sudo zypper in yast2-instserver
  3. Starten Sie YaST › Verschiedenes › Installationsserver.

  4. Wählen Sie den gewünschten Repositorytyp (HTTP, FTP oder NFS). Der ausgewählte Dienst wird bei jedem Systemstart automatisch gestartet. Wenn ein Dienst des ausgewählten Typs auf dem System bereits ausgeführt wird und Sie diesen Dienst für den Server manuell konfigurieren möchten, deaktivieren Sie die automatische Konfiguration des Serverdiensts, indem Sie Keine Netzwerkdienste konfigurieren wählen. Geben Sie in beiden Fällen das Verzeichnis an, in dem die Installationsdaten auf dem Server zur Verfügung gestellt werden sollen.

  5. Konfigurieren Sie den erforderlichen Repositorytyp. Dieser Schritt bezieht sich auf die automatische Konfiguration der Serverdienste. Wenn die automatische Konfiguration deaktiviert ist, wird dieser Schritt übersprungen.

    Legen Sie einen Aliasnamen für das root-Verzeichnis auf dem FTP- oder HTTP-Server fest, in dem die Installationsdaten gespeichert werden sollen. Das Repository befindet sich später unter ftp://Server-IP/Alias/Name (FTP) oder unter http://Server-IP/Alias/Name (HTTP). Name steht für den Namen des Repositorys, das im folgenden Schritt definiert wird. Wenn Sie im vorherigen Schritt NFS ausgewählt haben, legen Sie Platzhalter und Exportoptionen fest. Der Zugriff auf den NFS-Server erfolgt über nfs://Server-IP/Name. Informationen zu NFS und Exportvorgängen finden Sie in Book “Storage Administration Guide”, Chapter 19 “Sharing file systems with NFS”.

    Tipp
    Tipp: Firewall-Einstellungen

    Stellen Sie sicher, dass die Firewall-Einstellungen Ihres Server-Systems Datenverkehr an den entsprechenden Ports für HTTP, NFS und FTP erlauben. Ist dies nicht der Fall, aktivieren Sie zuvor Firewall-Port öffnen oder Firewall-Details.

  6. Konfigurieren Sie das Repository. Bevor die Installationsmedien in ihr Zielverzeichnis kopiert werden, müssen Sie den Namen des Repositorys angeben (dies sollte im Idealfall eine leicht zu merkende Abkürzung des Produkts und der Version sein). YaST ermöglicht das Bereitstellen von ISO-Images der Medien an Stelle von Kopien der Installations-DVDs. Wenn Sie diese Funktion verwenden möchten, aktivieren Sie das entsprechende Kontrollkästchen und geben Sie den Verzeichnispfad an, in dem sich die ISO-Dateien lokal befinden. Abhängig vom Produkt, das über diesen Installationsserver verteilt werden soll, müssen Sie ggf. Medien als zusätzliche Repositorys hinzufügen, z. B. ServicePack-DVDs. Wenn Sie den Installationsserver über OpenSLP im Netzwerk bekannt geben möchten, aktivieren Sie die entsprechende Option.

    Tipp
    Tipp: Bekanntgabe des Repositorys

    Wenn Ihr Netzwerk diese Option unterstützt, sollten Sie Ihr Repository auf jeden Fall über OpenSLP bekannt machen. Dadurch ersparen Sie sich die Eingabe des Netzwerk-Installationspfads auf den einzelnen Zielcomputern. Die Zielsysteme werden unter Verwendung des SLP-Boot-Parameters gebootet und finden das Netzwerk-Repository ohne weitere Konfigurationsschritte. Weitere Informationen zu dieser Option finden Sie in Kapitel 8, Boot-Parameter.

  7. Konfiguration weiterer Repositorys. In YaST gilt eine bestimmte Namenskonvention für die Konfiguration von Repositorys mit Add-on-CDs oder Service Pack-CDs. Die Konfiguration wird nur dann akzeptiert, wenn der Repository-Name der Add-on-CDs mit dem Repository-Namen der Installationsmedien beginnt. Wenn Sie also beispielsweise SLES12SP1 als Repository-Namen für DVD angeben, müssen Sie SLES12SP1addon als Repository-Namen für DVD2 auswählen.

  8. Laden Sie die Installationsdaten hoch. Der die meiste Zeit in Anspruch nehmende Schritt bei der Konfiguration eines Installationsservers ist das Kopieren der eigentlichen Installations-DVDs. Legen Sie die Medien in der von YaST angegebenen Reihenfolge ein und warten Sie, bis der Kopiervorgang abgeschlossen ist. Wenn alle Quellen erfolgreich kopiert wurden, kehren Sie zur Übersicht der vorhandenen Repositorys zurück und schließen Sie die Konfiguration, indem Sie Verlassen wählen.

    Der Installationsserver ist jetzt vollständig konfiguriert und betriebsbereit. Er wird bei jedem Systemstart automatisch gestartet. Es sind keine weiteren Aktionen erforderlich. Sie müssen diesen Dienst nur dann ordnungsgemäß manuell konfigurieren und starten, wenn die automatische Konfiguration der ausgewählten Netzwerkdienste mit YaST anfänglich deaktiviert wurde.

Wählen Sie zum Deaktivieren eines Repositorys das zu entfernende Repository aus und wählen Sie dann Löschen. Die Installationsdaten werden vom System entfernt. Um den Netzwerkdienst zu deaktivieren, verwenden Sie das entsprechende YaST-Modul.

Wenn Ihr Installationsserver die Installationsdaten für mehrere Produkte der Produktversion bereitstellen muss, starten Sie das YaST-Installationsserver-Modul. Wählen Sie dann in der Übersicht der vorhandenen Repositorys die Option Hinzufügen und konfigurieren Sie das neue Repository.

Warnung
Warnung: YaST-Installationsserver verursacht einen Konflikt mit dem RMT-Server

Durch die Konfiguration eines Servers als Installationsserver mit YaST wird automatisch der Apache Web-Server installiert und zur Überwachung auf Port 80 konfiguriert.

Wird ein Rechner jedoch als RMT-Server (Repository Mirroring Tool) konfiguriert, dann wird automatisch der NGINX Web-Server installiert und zur Überwachung auf Port 80 konfiguriert.

Versuchen Sie nicht, beide Funktionen auf demselben Server zu aktivieren. Ein einzelner Server kann nicht beide hosten.

17.2 Manuelles Einrichten eines NFS-Repositorys

Das Einrichten einer NFS-Quelle für die Installation erfolgt in zwei Hauptschritten. Erstellen Sie zunächst die Verzeichnisstruktur für die Installationsdaten und kopieren diese in die Struktur. Im zweiten Schritt exportieren Sie das Verzeichnis mit den Installationsdaten in das Netzwerk.

Gehen Sie wie folgt vor, um ein Verzeichnis für die Installationsdaten zu erstellen:

  1. Melden Sie sich als root an.

  2. Erstellen Sie ein Verzeichnis, in dem die Installationsdaten gespeichert werden sollen, und wechseln Sie in dieses Verzeichnis. Beispiel:

    # mkdir -p /srv/install/PRODUCT/PRODUCTVERSION
    # cd /srv/install/PRODUCT/PRODUCTVERSION

    Ersetzen Sie PRODUCT durch eine Abkürzung des Produktnamens und PRODUCTVERSION durch eine Zeichenkette, die den Produktnamen und die Version (beispielsweise /srv/install/SLES/15.1) enthält.

  3. Führen Sie für die einzelnen im Medienkit enthaltenen Installationsmedien die folgenden Kommandos aus:

    1. Kopieren Sie den gesamten Inhalt des Installationsmediums in das Server-Installationsverzeichnis:

      # cp -a /media/PATH_TO_YOUR_MEDIA_DRIVE .

      Ersetzen Sie PATH_TO_YOUR_MEDIA_DRIVE durch den Einhängepunkt des Installationsmediums.

    2. Benennen Sie das Verzeichnis in die Mediennummer um:

      # mv PATH_TO_YOUR_MEDIA_DRIVE DVDX

      Ersetzen Sie X durch die Nummer des Installationsmediums.

In SUSE Linux Enterprise Server können Sie das Repository mit NFS unter Verwendung von YaST exportieren. Führen Sie dazu die folgenden Schritte aus:

  1. Melden Sie sich als root an.

  2. Starten Sie YaST › Netzwerkdienste › NFS-Server.

  3. Wählen Sie Starten und Firewall-Port öffnen und klicken Sie auf Weiter.

  4. Wählen Sie Verzeichnis hinzufügen und navigieren Sie zum Verzeichnis mit den Installationsquellen, in diesem Fall PRODUCTVERSION.

  5. Wählen Sie Host hinzufügen, und geben Sie die Hostnamen der Computer ein, auf die die Installationsdaten exportiert werden sollen. An Stelle der Hostnamen können Sie hier auch Platzhalter, Netzwerkadressbereiche oder den Domänennamen Ihres Netzwerks eingeben. Geben Sie die gewünschten Exportoptionen an oder übernehmen Sie die Vorgabe, die für die meisten Konfigurationen ausreichend ist. Weitere Informationen dazu, welche Syntax beim Exportieren von NFS-Freigaben verwendet wird, finden Sie auf der man-Seite zu exports.

  6. Klicken Sie auf Finish (Fertig stellen). Der NFS-Server, auf dem sich das SUSE Linux Enterprise Server-Repository befindet, wird automatisch gestartet und in den Bootvorgang integriert.

Wenn Sie das Repository manuell über NFS exportieren möchten, anstatt das NFS-Server-Modul von YaST zu verwenden, gehen Sie wie folgt vor:

  1. Melden Sie sich als root an.

  2. Öffnen Sie die Datei /etc/exports und geben Sie die folgende Zeile ein:

    /PRODUCTVERSION *(ro,root_squash,sync)

    Dadurch wird das Verzeichnis /PRODUCTVERSION auf alle Hosts exportiert, die Teil dieses Netzwerks sind oder eine Verbindung zu diesem Server herstellen können. Wenn der Zugriff auf diesen Server beschränkt werden soll, geben Sie anstelle des allgemeinen Platzhalters * Netzmasken oder Domänennamen an. Weitere Informationen hierzu finden Sie auf der man-Seite für das Kommando export. Speichern und schließen Sie diese Konfigurationsdatei.

  3. Um den NFS-Dienst zu der beim Booten des System generierten Liste der Server hinzuzufügen, führen Sie die folgenden Befehle aus:

    # systemctl enable nfsserver
  4. Starten Sie den NFS-Server mit systemctl start nfsserver. Wenn Sie die Konfiguration des NFS-Servers zu einem späteren Zeitpunkt ändern müssen, ändern Sie die Konfigurationsdatei wie erforderlich, und starten Sie den NFS-Dämon neu, indem Sie systemctl restart nfsserver eingeben.

Die Bekanntgabe des NFS-Servers über OpenSLP stellt dessen Adresse allen Clients im Netzwerk zur Verfügung.

  1. Melden Sie sich als root an.

  2. Erstellen Sie die Konfigurationsdatei /etc/slp.reg.d/install.suse.nfs.reg mit folgenden Zeilen:

    # Register the NFS Installation Server
    service:install.suse:nfs://$HOSTNAME/PATH_TO_REPOSITORY/DVD1,en,65535
    description=NFS Repository

    Ersetzen Sie PATH_TO_REPOSITORY durch den eigentlichen Pfad der Installationsquelle auf dem Server.

  3. Starten Sie den OpenSLP-Daemon mit systemctl start slpd.

Weitere Informationen zu OpenSLP finden Sie in der Paket-Dokumentation im Verzeichnis /usr/share/doc/packages/openslp/ oder im Book “Verwaltungshandbuch”, Chapter 41 “SLP”. Weitere Informationen zu NFS finden Sie im Book “Storage Administration Guide”, Chapter 19 “Sharing file systems with NFS”.

17.3 Manuelles Einrichten eines FTP-Repositorys

Das Erstellen eines FTP-Repositorys ist dem Erstellen eines NFS-Repositorys sehr ähnlich. Ein FTP-Repository kann ebenfalls mit OpenSLP im Netzwerk bekannt gegeben werden.

  1. Erstellen Sie wie in Abschnitt 17.2, „Manuelles Einrichten eines NFS-Repositorys“ beschrieben ein Verzeichnis für die Installationsquellen.

  2. Konfigurieren Sie den FTP-Server für die Verteilung des Inhalts des Installationsverzeichnisses:

    1. Melden Sie sich als root an, und installieren Sie mithilfe der YaST-Softwareverwaltung das Paket vsftpd.

    2. Wechseln Sie in das root-Verzeichnis des FTP-Servers:

      # cd /srv/ftp
    3. Erstellen Sie im root-Verzeichnis des FTP-Servers ein Unterverzeichnis für die Installationsquellen:

      # mkdir REPOSITORY

      Ersetzen Sie REPOSITORY durch den Produktnamen.

    4. Hängen Sie den Inhalt des Installations-Repository in der change-root-Umgebung des FTP-Servers ein:

      # mount --bind PATH_TO_REPOSITORY /srv/ftp/REPOSITORY

      Ersetzen Sie PATH_TO_REPOSITORY und REPOSITORY durch Werte, die Ihrem Setup entsprechen. Wenn diese Einstellungen dauerhaft übernommen werden sollen, fügen Sie sie zu /etc/fstab hinzu.

    5. Starten Sie mit vsftpdvsftpd.

  3. Geben Sie das Repository über OpenSLP bekannt, sofern dies von Ihrer Netzwerkkonfiguration unterstützt wird:

    1. Erstellen Sie die Konfigurationsdatei /etc/slp.reg.d/install.suse.ftp.reg mit folgenden Zeilen:

      # Register the FTP Installation Server
      service:install.suse:ftp://$HOSTNAME/REPOSITORY/DVD1,en,65535
      description=FTP Repository

      Ersetzen Sie REPOSITORY durch den Namen des Repository-Verzeichnisses auf Ihrem Server. Die Zeile service: sollte als eine fortlaufende Zeile eingegeben werden.

    2. Starten Sie den OpenSLP-Daemon mit systemctl start slpd.

Tipp
Tipp: Konfigurieren eines FTP-Servers mit YaST

Wenn Sie den FTP-Installationsserver nicht manuell, sondern über YaST konfigurieren möchten, beachten Sie Book “Verwaltungshandbuch”, Chapter 43 “Einrichten eines FTP-Servers mit YaST”.

17.4 Manuelles Einrichten eines HTTP-Repositorys

Das Erstellen eines HTTP-Repositorys ist dem Erstellen eines NFS-Repositorys sehr ähnlich. Ein HTTP-Repository kann ebenfalls mit OpenSLP im Netzwerk bekannt gegeben werden.

  1. Erstellen Sie wie in Abschnitt 17.2, „Manuelles Einrichten eines NFS-Repositorys“ beschrieben ein Verzeichnis für die Installationsquellen.

  2. Konfigurieren Sie den HTTP-Server für die Verteilung des Inhalts des Installationsverzeichnisses:

    1. Installieren Sie den Webserver Apache wie in Book “Verwaltungshandbuch”, Chapter 42 “Der HTTP-Server Apache”, Section 42.1.2 “Installation” beschrieben.

    2. Wechseln Sie in das root-Verzeichnis des HTTP-Servers (/srv/www/htdocs), und erstellen Sie ein Unterverzeichnis für die Installationsquellen:

      # mkdir REPOSITORY

      Ersetzen Sie REPOSITORY durch den Produktnamen.

    3. Erstellen Sie einen symbolischen Link vom Speicherort der Installationsquellen zum root-Verzeichnis des Webservers (/srv/www/htdocs):

      # ln -s /PATH_TO_REPOSITORY/srv/www/htdocs/REPOSITORY
    4. Ändern Sie die Konfigurationsdatei des HTTP-Servers (/etc/apache2/default-server.conf) so, dass sie symbolischen Links folgt. Ersetzen Sie die folgende Zeile:

      Options None

      mit

      Options Indexes FollowSymLinks
    5. Laden Sie die HTTP-Server-Konfiguration mit systemctl reload apache2 neu.

  3. Geben Sie das Repository über OpenSLP bekannt, sofern dies von Ihrer Netzwerkkonfiguration unterstützt wird:

    1. Erstellen Sie die Konfigurationsdatei /etc/slp.reg.d/install.suse.http.reg mit folgenden Zeilen:

      # Register the HTTP Installation Server
      service:install.suse:http://$HOSTNAME/REPOSITORY/DVD1/,en,65535
      description=HTTP Repository

      Ersetzen Sie REPOSITORY durch den eigentlichen Pfad des Repositorys auf dem Server. Die Zeile service: sollte als eine fortlaufende Zeile eingegeben werden.

    2. Starten Sie den OpenSLP-Daemon mit systemctl start slpd.

17.5 Verwalten eines SMB-Repositorys

Mithilfe von SMB können Sie die Installationsquellen von einem Microsoft Windows-Server importieren und die Linux-Implementierung starten, ohne dass ein Linux-Computer vorhanden sein muss.

Gehen Sie wie folgt vor, um eine exportierte Windows Share mit demSUSE Linux Enterprise Server-Repository einzurichten:

  1. Melden Sie sich auf dem Windows-Computer an.

  2. Erstellen Sie ein neues Verzeichnis, das die gesamte Baumstruktur der Installation aufnehmen soll, und nennen Sie es beispielsweise INSTALL.

  3. Geben Sie dieses Verzeichnis wie in der Windows-Dokumentation beschrieben im Netzwerk frei.

  4. Wechseln Sie in das freigegebene Verzeichnis und erstellen Sie ein Unterverzeichnis mit dem Namen PRODUCT. Ersetzen Sie PRODUCT durch den tatsächlichen Produktnamen.

  5. Wechseln Sie in das Verzeichnis INSTALL/PRODUCT und kopieren Sie jedes Medium in ein separates Verzeichnis, z. B. DVD1 und DVD2.

Gehen Sie wie folgt vor, um eine SMB-eingehängte Freigabe als Repository zu verwenden:

  1. Booten Sie das Installationsziel.

  2. Wählen Sie Installation.

  3. Drücken Sie F4, um eine Auswahl der Repositorys anzuzeigen.

  4. Wählen Sie „SMB“ und geben Sie den Namen oder die IP-Adresse des Windows-Computers, den Freigabenamen (in diesem Beispiel INSTALL/PRODUCT/DVD1), den Benutzernamen und das Passwort ein. Beispiel für die Syntax:

    smb://workdomain;user:password@server/INSTALL/DVD1

    Wenn Sie Eingabetaste drücken, wird YaST gestartet und Sie können die Installation ausführen.

17.6 Verwenden von ISO-Images der Installationsmedien auf dem Server

Statt physische Medien manuell in Ihr Serververzeichnis zu kopieren, können Sie auch die ISO-Images der Installationsmedien in Ihrem Installationsserver einhängen und als Repository verwenden. Gehen Sie wie folgt vor, um einen HTTP-, NFS- oder FTP-Server einzurichten, der ISO-Images anstelle von Medienkopien verwendet:

  1. Laden Sie die ISO-Images herunter und speichern Sie sie auf dem Rechner, den Sie als Installationsserver verwenden möchten.

  2. Melden Sie sich als root an.

  3. Wählen und erstellen Sie einen geeigneten Speicherort für die Installationsdaten. Siehe dazu Abschnitt 17.2, „Manuelles Einrichten eines NFS-Repositorys“, Abschnitt 17.3, „Manuelles Einrichten eines FTP-Repositorys“ oder Abschnitt 17.4, „Manuelles Einrichten eines HTTP-Repositorys“.

  4. Erstellen Sie für jedes Installationsmedium ein Unterverzeichnis.

  5. Erteilen Sie folgenden Befehl, um jedes ISO-Image an der endgültigen Position einzuhängen und zu entpacken:

    # mount -o loop PATH_TO_ISO PATH_TO_REPOSITORY/PRODUCT/MEDIUMX

    Ersetzen Sie PATH_TO_ISO durch den Pfad zur lokalen Kopie des ISO-Images. Ersetzen Sie PATH_TO_REPOSITORY durch das Quellverzeichnis des Servers. Ersetzen Sie PRODUCT durch den Produktnamen und MEDIUMX durch den Typ (CD oder DVD) und die Nummer des verwendeten Mediums.

  6. Wiederholen Sie die vorherigen Schritte, um alle erforderlichen ISO-Images für Ihr Produkt einzuhängen.

  7. Starten Sie den Installationsserver wie gewohnt wie in Abschnitt 17.2, „Manuelles Einrichten eines NFS-Repositorys“, Abschnitt 17.3, „Manuelles Einrichten eines FTP-Repositorys“ oder Abschnitt 17.4, „Manuelles Einrichten eines HTTP-Repositorys“ beschrieben.

Wenn die ISO-Images beim Systemstart automatisch eingehängt werden sollen, fügen Sie die entsprechenden Einhänge-Einträge zu /etc/fstab hinzu. Ein Eintrag würde dann gemäß dem vorherigen Beispiel wie folgt aussehen:

PATH_TO_ISO PATH_TO_REPOSITORY/PRODUCTMEDIUM auto loop

18 Vorbereiten der Netzwerk-Boot-Umgebung

In diesem Kapitel wird beschrieben, wie Sie einen DHCP- und einen TFTP-Server konfigurieren, die die erforderliche Infrastruktur für das Booten über PXE bilden.

SUSE® Linux Enterprise Server kann über PXE (Preboot Execution Environment) installiert werden. Die Client-Hardware muss das Booten über PXE unterstützen. Das Netzwerk muss einen DHCP-Server und einen TFTP-Server umfassen, die den Clients die erforderlichen Daten bereitstellen. Dieses Kapitel führt Sie durch die Einrichtung der erforderlichen Server.

Mit PXE werden lediglich ein Kernel und initrd gebootet. Hiermit können Sie in eine Installationsumgebung oder in Live-Systeme booten. Weitere Informationen zum Einrichten der Installationsquellen finden Sie in Kapitel 17, Einrichten einer Netzwerkinstallationsquelle.

In diesem Abschnitt werden die für komplexe Boot-Szenarien erforderlichen Konfigurationsschritte beschrieben. Er enthält zudem Konfigurationsbeispiele für DHCP, PXE-Boot, TFTP und Wake-on-LAN.

In den Beispielen wird davon ausgegangen, dass sich der DHCP-, TFTP- und NFS-Server auf demselben Computer wie die IP 192.168.1.1 befinden. Alle Dienste können sich problemlos auf verschiedenen Rechnern befinden. Ändern Sie die IP-Adressen in jedem Fall entsprechend.

18.1 Einrichten eines DHCP-Servers

Ein DHCP-Server weist Ihren Netzwerk-Clients sowohl dynamische (Abschnitt 18.1.1, „Dynamische Adressenzuweisung“) als auch statische (Abschnitt 18.1.2, „Zuweisen von statischen IP-Adressen“) IP-Adressen zu. Er gibt Server, Routen und Domänen bekannt. Für TFTP-Server gibt DHCP auch den Kernel und die initrd-Dateien an. Welche Dateien geladen werden hängt von der Architektur des Zielrechners ab und davon, ob Legacy-BIOS oder UEFI-Boot verwendet wird. Die Clients übermitteln ihren Architekturtyp in den DHCP-Anforderungen. Auf der Grundlage dieser Information entscheidet der DHCP-Server, welche Dateien der Client zum Booten herunterladen muss.

Warnung
Warnung: Fehler bei der PXE- und AutoYaST-Installation

Ab SUSE Linux Enterprise 15.0 treten unter bestimmten Umständen Fehler beim PXE-Boot und den AutoYaST-Installationen auf. Weitere Informationen und die Lösung finden Sie in Abschnitt 18.1.3, „Fehler bei der PXE- und AutoYaST-Installation“.

18.1.1 Dynamische Adressenzuweisung

Im folgenden Beispiel wird gezeigt, wie ein DHCP-Server eingerichtet wird, der dynamisch IP-Adressen zu Clients zuweist und Server, Router, Domänen und Boot-Dateien bekannt gibt.

  1. Melden Sie sich als root auf dem Computer an, der den DHCP-Server bereitstellt.

  2. Aktivieren Sie den DHCP-Server mit systemctl enable dhcpd.

  3. Fügen Sie einer Subnetzkonfiguration in der Konfigurationsdatei des DHCP-Servers, die sich unter /etc/dhcpd.conf befindet, folgende Zeilen hinzu:

    # The following lines are optional
    option domain-name "my.lab";
    option domain-name-servers 192.168.1.1;
    option routers 192.168.1.1;
    option ntp-servers 192.168.1.1;
    ddns-update-style none;
    default-lease-time 3600;
    
    # The following lines are required
    option arch code 93 = unsigned integer 16; # RFC4578
    subnet 192.168.1.0 netmask 255.255.255.0 {
     next-server 192.168.1.1;
     range 192.168.1.100 192.168.1.199;
     default-lease-time 3600;
     max-lease-time 3600;
     if option arch = 00:07 or option arch = 00:09 {
       filename "/EFI/x86/grub.efi";
     }
     else if option arch = 00:0b {
       filename "/EFI/aarch64/bootaa64.efi";
     }
     else  {
       filename "/BIOS/x86/pxelinux.0";
     }
    }

    Diese Konfiguration verwendet das Teilnetz 192.168.1.0/24 mit DHCP, DNS und dem Gateway am Server mit der IP 192.168.1.1. Vergewissern Sie sich, dass alle IP-Adressen gemäß Ihres Netzwerk-Layouts geändert wurden. Weitere Informationen zu den in dhcpd.conf verfügbaren Optionen finden Sie auf der man-Seite dhcpd.conf.

  4. Starten Sie den DHCP-Server mit systemctl restart dhcpd neu.

18.1.2 Zuweisen von statischen IP-Adressen

Ein DHCP-Server kann auch statische IP-Adressen und Hostnamen zu Netzwerk-Clients zuweisen. Ein Anwendungsfall ist die Zuweisung von statischen Adressen zu Servern. Bei einem weiteren Anwendungsfall wird die Möglichkeit des Beitritts zum Netzwerk auf die Clients mit zugewiesenen statischen IP-Adressen beschränkt und es werden keine dynamischen Adressenpools zur Verfügung gestellt.

Bearbeiten Sie die obige DHCP-Konfiguration entsprechend des folgenden Beispiels:

group {
 host test {
   hardware ethernet MAC_ADDRESS;
   fixed-address IP_ADDRESS;
   }
}

Die Hostbestimmung weist einen Hostnamen zum Installationsziel zu. Um den Hostnamen und die IP-Adresse an einen bestimmten Host zu binden, müssen Sie die Hardware-Adresse (MAC) des Client angeben. Ersetzen Sie alle Variablen in diesem Beispiel durch die aktuellen Werte, die zu Ihrer Umgebung passen. Speichern Sie dann die Änderungen und starten Sie den DHCP-Server neu.

18.1.3 Fehler bei der PXE- und AutoYaST-Installation

Ab SUSE Linux Enterprise 15.0 und ISC DHCP 4.3.x treten unter bestimmten Umständen Fehler beim PXE-Boot und den AutoYaST-Installationen auf. Die PXE/AutoYaST-Installationen funktionieren nicht, wenn Ihr DHCP-Server keinen Pool von verfügbaren dynamischen IP-Adressen enthält und nur vordefinierte statische Adressen pro Client zulässt, und die Clients RFC 4361-Client-Kennungen senden. (Zufällig ausgewählte Rechner können dem Netzwerk nicht beitreten, wenn nur Adressen zugelassen werden, die bestimmten Netzwerk-Clients zugewiesen sind, und wenn keine dynamischen Adressenpools zur Verfügung gestellt werden.)

Wenn ein neues System in PXE startet, sendet es eine Anforderung an den DHCP-Server und erkennt sich selbst anhand einer Client-Kennung, die aus dem Hardwaretyp plus der MAC-Adresse der Netzwerkschnittstelle erstellt wurde. Dies ist eine RFC 2132 client-id. Der DHCP-Server bietet dann die zugewiesene IP-Adresse an. Als Nächstes wird der Installations-Kernel geladen, und er sendet eine weitere DHCP-Anforderung. Doch diese client-id ist anders und wird im RFC 4361-Format gesendet. Der DHCP-Server erkennt sie nicht als denselben Client und sucht nach einer freien dynamischen IP-Adresse. Da diese nicht verfügbar ist, wird der Installationsvorgang angehalten.

Die Lösung besteht darin, Clients so zu konfigurieren, dass sie RFC 2132-Client-IDs senden. Verwenden Sie zum Senden einer RFC 2132 client-id während der Installation linuxrc, um das folgende ifcfg-Kommando weiterzugeben:

ifcfg=eth0=dhcp,DHCLIENT_CLIENT_ID=01:03:52:54:00:02:c2:67,
DHCLIENT6_CLIENT_ID=00:03:52:54:00:02:c2:67

Die üblicherweise verwendete RFC 2132 DHCPv4 client-id im Ethernet setzt sich aus dem Hardwaretyp (01 für Ethernet) gefolgt von der Hardwareadresse (der MAC-Adresse) zusammen, wie zum Beispiel:

01:52:54:00:02:c2:67

Die RFC 4361 DHCPv4 client-id versucht das Problem, einen Rechner mit mehr als einer Netzwerkschnittstelle zu erkennen, zu korrigieren. Die neue DHCPv4 client-id hat dasselbe Format wie die DHCPv6 client-id. Sie beginnt mit dem Präfix 0xff anstelle des Hardwaretyps, gefolgt von der DHCPv6 IAID (der ID der Schnittstellenadressverknüpfung, die die Schnittstelle am Rechner beschreibt), gefolgt von der eindeutigen DHCPv6-Kennung (DUID), mit der der Rechner eindeutig gekennzeichnet ist.

Mit der oben genannten DUID auf Basis des Hardwaretyps und der Hardwareadresse wäre die neue RFC 4361 DHCPv4 client-id:

  • Unter Verwendung der letzten Bytes der MAC-Adresse der IAID: ff:00:02:c2:67:00:01:xx:xx:xx:xx:52:54:00:02:c2:67

  • Wenn die IAID eine einfache inkrementelle Zahl ist: ff:00:00:00:01:00:01:xx:xx:xx:xx:52:54:00:02:c2:67

Das Feld xx:xx:xx:xx im DUID-Link-Layer-Zeitstempel (DUID-LLT) ist ein Erstellungszeitstempel. Ein DUID-Link-Layer (DUID-LL) (00:03:00:01:$MAC) hat keinen Zeitstempel.

Weitere Informationen zur Verwendung von linuxrc finden Sie im AutoYaST Guide. Siehe auch man 4 initrd und die Dokumentation zu den Optionen dhcp4 "create-cid", dhcp6 "default-duid" in man 5 wicked-config, wicked duid --help und wicked iaid --help.

18.2 Einrichten eines TFTP-Servers

Im folgenden Verfahren wird beschrieben, wie der Server so vorbereitet wird, dass die Client-Rechner mit UEFI und BIOS dezentral mit den durch TFTP exportierten Dateien gebootet werden können.

18.2.1 Installieren eines TFTP-Servers

So installieren Sie einen TFTP-Server:

  1. Installieren Sie das Paket tftp.

    > sudo zypper in tftp
  2. Überprüfen Sie die tftpd-Konfiguration in /etc/sysconfig/tftp, und fügen Sie nach Bedarf Optionen hinzu oder ändern Sie diese. Weitere Informationen finden Sie im man 8 tftpd. Beim TFTP-Daemon muss die Konfiguration nicht geändert werden. Das Standard-Stammverzeichnis für die Dateien lautet /srv/tftpboot.

  3. tftpd muss beim Booten gestartet werden; starten Sie es zum Einlesen der neuen Konfiguration erneut.

    > sudo systemctl enable tftp.socket
    > sudo systemctl restart tftp.socket

18.2.2 Installieren der Dateien zum Booten

SUSE Linux Enterprise Server stellt die erforderlichen Dateien zum Booten über PXE auf BIOS- oder UEFI-Rechnern bereit. Die folgenden Hardwarearchitekturen werden unterstützt:

  • AMD64/Intel 64

  • AArch64

  • POWER

  • IBM Z

Dateien, die von einer bestimmten Hardwarearchitektur gebootet werden müssen, sind in einem RPM-Paket enthalten. Installieren Sie die Dateien auf dem Rechner, auf dem der TFTP-Server ausgeführt wird:

> sudo zypper in tftpboot-installation-SLE-OS_VERSION-ARCHITECTURE

Ersetzen Sie OS_VERSION durch die Version Ihrer SUSE Linux Enterprise Server-Installation (z. B. SLE-15-SP3-x86_64) und ersetzen Sie ARCHITECTURE durch die Architektur Ihres Systems (z. B. x86_64). Der resultierende Text würde folgendermaßen aussehen: tftpboot-installation-SLE-15-SP3-x86_64. Führen Sie zypper se tftpboot aus, um nach allen verfügbaren Versionen und Architekturen zu suchen.

Die Dateien werden unter /srv/tftpboot/SLE-OS_VERSION-ARCHITECTURE installiert. Sie können auch die Dateien für andere Versionen und Architekturen von SUSE Linux Enterprise Server in das Verzeichnis /srv/tftpboot kopieren.

Tipp
Tipp: Bedienen verschiedener Architekturen

Die Hardwarearchitektur von Client und Server kann variieren. Sie können beispielsweise einen AMD64/Intel 64 TFTP-Server ausführen und eine bootfähige Umgebung für AArch64-Clientrechner bereitstellen, indem Sie das Paket tftpboot-installation-SLE-15-SP3-aarch64 installieren.

Anmerkung
Anmerkung: Bestehendes Verzeichnis /srv/tftpboot/

Wenn das Verzeichnis /srv/tftpboot/ bereits auf Ihrem Rechner vorhanden ist, werden alle Dateien im Pfad /usr/share/tftpboot-installation/ installiert. Dies ist der Fall, wenn Sie Ihren PXE-Server von einer früheren SLES-Version upgraden.

Kopieren Sie die Dateien manuell von /usr/share/tftpboot-installation/ zu /srv/tftpboot/, um dieses Problem zu beheben. Alternativ können Sie /srv/tftpboot/ entfernen und das Paket tftpboot-installation-SLE-OS_VERSION-ARCHITECTURE erneut installieren.

18.2.3 Konfigurieren von PXELINUX

Öffnen Sie die Datei /srv/tftpboot/SLE-OS_VERSION-ARCHITECTURE/net/pxelinux.cfg/default in einem Editor. Ersetzen Sie den Pfad für den Parameter install gemäß Ihrer Einrichtung (siehe Kapitel 17, Einrichten einer Netzwerkinstallationsquelle). Ersetzen Sie außerdem TFTP_SERVER durch die IP-Adresse des TFTP-Servers. Einen Überblick über die PXELINUX-Konfigurationsoptionen finden Sie in Abschnitt 18.3, „PXELINUX-Konfigurationsoptionen“.

default linux

# install
label linux
  ipappend 2
  kernel boot/ARCHITECTURE/loader/linux
  append initrd=boot/ARCHITECTURE/loader/initrd instsys=tftp://TFTP_SERVER/SLE-OS_VERSION-ARCHITECTURE/boot/ARCHITECTURE/root install=PROTOCOL://SERVER_IP:/PATH

display  message
implicit 1
prompt  1
timeout  50

Weitere Informationen zu den Boot-Parametern in der Zeile append finden Sie in Abschnitt 8.3, „Liste wichtiger Boot-Parameter“.

Wenn eine Meldung im Boot-Menü angezeigt werden soll, bearbeiten Sie gegebenenfalls /srv/tftpboot/SLE-OS_VERSION-ARCHITECTURE/net/pxelinux.cfg/message.

18.2.4 Vorbereiten des PXE-Boot-Vorgangs für EFI mit GRUB2

Normalerweise müssen die GRUB2-Konfigurationsdateien nicht geändert werden. Die Standardeinstellungen enthalten jedoch keine Netzwerkressource für das Installationssystem. Für eine vollständige Installation von SUSE Linux Enterprise Server über das Netzwerk müssen Sie den Parameter install in der Anweisung linuxefi der Datei /srv/tftpboot/SLE-OS_VERSION-ARCHITECTURE/EFI/BOOT/grub.cfg angeben. In Abschnitt 8.3.3, „Angeben der Installationsquelle“ finden Sie weitere Informationen über den Parameter install.

18.3 PXELINUX-Konfigurationsoptionen

Die hier aufgeführten Optionen sind eine Teilmenge der für die PXELINUX-Konfigurationsdatei verfügbaren Optionen.

APPEND OPTIONS

Fügt der Kernel-Kommandozeile eine oder mehrere Optionen hinzu. Diese werden sowohl bei automatischen als auch bei manuellen Bootvorgängen hinzugefügt. Die Optionen werden an den Beginn der Kernel-Kommandozeile gesetzt und ermöglichen, dass explizit eingegebene Kernel-Optionen sie überschreiben können.

APPEND -

Hiermit wird nichts angehängt. APPEND mit einem Bindestrich als Argument in einem LABEL-Abschnitt kann zum Überschreiben einer globalen APPEND-Option verwendet werden.

DEFAULT KERNEL_OPTIONS...

Legt die standardmäßige Kernel-Kommandozeile fest. Wenn PXELINUX automatisch startet, führt es die angegebenen Einträge aus und fügt die Option auto hinzu.

Wenn keine Konfigurationsdatei vorhanden oder der DEFAULT-Eintrag in der Konfigurationsdatei nicht definiert ist, wird standardmäßig der Kernel-Name linux ohne Optionen verwendet.

IFAPPEND FLAG

Fügt eine bestimmte Option in die Kernel-Kommandozeile ein, abhängig vom Wert für FLAG. Die Option IFAPPEND ist nur unter PXELINUX verfügbar. Für FLAG ist ein Wert erforderlich, siehe Tabelle 18.1, „Generierte und hinzugefügte Optionen für Kernel-Kommandozeilen von IFAPPEND:

Tabelle 18.1: Generierte und hinzugefügte Optionen für Kernel-Kommandozeilen von IFAPPEND

Argument

Generierte Kernel-Kommandozeile/Beschreibung

1

ip=CLIENT_IP:BOOT_SERVER_IP:GW_IP:NETMASK

Die Platzhalter werden auf der Grundlage der Eingaben vom DHCP/BOOTP- oder PXE-Boot-Server ersetzt.

Diese Option ist kein Ersatz für das Ausführen eines DHCP-Clients im gebooteten System. Ohne regelmäßige Verlängerung läuft die vom PXE BIOS erworbene Lease ab, sodass die IP-Adresse zur erneuten Verwendung durch den DHCP-Server verfügbar wird.

2

BOOTIF=MAC_ADDRESS_OF_BOOT_INTERFACE

Mit dieser Option lässt sich eine Zeitüberschreitung vermeiden, wenn der Installationsserver die LAN-Schnittstellen einzeln nacheinander abfragt, bis er eine Antwort von einem DHCP-Server erhält. Ein initrd-Programm kann dabei ermitteln, von welcher Schnittstelle das System gebootet wurde. linuxrc liest diese Option aus und verwendet die erkannte Netzwerkschnittstelle.

4

SYSUUID=SYSTEM_UUID

Fügt UUIDs im Hexadezimalformat mit Kleinbuchstaben hinzu, siehe /usr/share/doc/packages/syslinux/pxelinux.txt

LABEL LABEL KERNEL IMAGE APPEND OPTIONS...

Wenn LABEL als der zu bootende Kernel angegeben wird, soll PXELINUX stattdessen IMAGE booten und dabei die angegebenen APPEND-Optionen heranziehen. Diese Optionen ersetzen die im globalen Abschnitt der Datei vor dem ersten Kommando LABEL angegebenen Optionen. Die Vorgabe für IMAGE ist dieselbe wie für LABEL, und wenn keine APPEND-Optionen angegeben sind, wird standardmäßig der globale Eintrag verwendet (sofern vorhanden). Es sind bis zu 128 LABEL-Einträge zulässig.

PXELINUX verwendet die folgende Syntax:

label MYLABEL
  kernel MYKERNEL
  append MYOPTIONS

Kennungen werden wie Dateinamen umgesetzt und müssen nach der Umsetzung (sogenanntes Mangling) eindeutig sein. Die beiden Kennungen v2.6.30 und v2.6.31 wären beispielsweise unter PXELINUX nicht unterscheidbar, da beide auf denselben DOS-Dateinamen umgesetzt würden.

Der Kernel muss kein Linux-Kernel sein. Auch ein Bootsektor oder eine COMBOOT-Datei ist möglich.

LOCALBOOT TYPE

Wenn Sie unter PXELINUX LOCALBOOT 0 anstelle einer KERNEL-Option angeben, bedeutet dies, dass diese bestimmte Kennung aufgerufen und die lokale Festplatte anstelle eines Kernels gebootet wird.

Argument

Beschreibung

0

Führt einen normalen Bootvorgang aus

4

Führt einen lokalen Bootvorgang mit dem noch im Arbeitsspeicher vorhandenen UNDI-Treiber (Universal Network Driver Interface) aus

5

Führt einen lokalen Bootvorgang mit dem gesamten PXE-Stack, einschließlich des UNDI-Treibers aus, der sich im Arbeitsspeicher befindet

Alle anderen Werte sind nicht definiert. Wenn Sie die Werte für die UNDI- oder PXE-Stacks nicht wissen, geben Sie 0 an.

TIMEOUT TIME-OUT

Gibt in Einheiten von 1/10 Sekunde an, wie lange die Booteingabeaufforderung angezeigt werden soll, bevor der Bootvorgang automatisch gestartet wird. Das Zeitlimit wird aufgehoben, sobald der Benutzer eine Eingabe über die Tastatur vornimmt, da angenommen wird, dass der Benutzer die Eingabe des Kommandos abschließt. Mit einem Zeitlimit von Null wird das Zeitüberschreitungsoption deaktiviert (dies ist die Vorgabe). Der größtmögliche Wert für das Zeitlimit ist 35996 (etwas weniger als eine Stunde).

PROMPT flag_val

Wenn flag_val auf 0 gesetzt ist, wird die Booteingabeaufforderung nur angezeigt, wenn die Taste Umschalttaste oder Alt gedrückt wird oder die Feststelltaste oder die Taste Rollen gesetzt ist (dies ist die Standardeinstellung). Wenn flag_val 1 ist, wird die Booteingabeaufforderung immer angezeigt.

F2  FILENAME
F1  FILENAME
..etc..
F9  FILENAME
F10 FILENAME

Zeigt die angegebene Datei auf dem Bildschirm an, wenn an der Booteingabeaufforderung eine Funktionstaste gedrückt wird. Mithilfe dieser Option kann auch die Preboot-Online-Hilfe implementiert werden (für die Kernel-Kommandozeilenoptionen). Aus Gründen der Kompabilität mit früheren Versionen kann 10 auch als F0F verwendet werden. Beachten Sie, dass derzeit keine Möglichkeit besteht, Dateinamen an F11 und F12 zu binden.

18.4 Vorbereiten des Zielsystems für PXE-Boot

Bereiten Sie das System-BIOS für PXE-Boot vor, indem Sie die PXE-Option in die BIOS-Boot-Reihenfolge aufnehmen.

Warnung
Warnung: BIOS-Bootreihenfolge

Die PXE-Option darf im BIOS nicht vor dem Boot-Parameter für die Festplatte stehen. Andernfalls würde dieses System versuchen, sich selbst bei jedem Booten neu zu installieren.

18.5 Verwenden von Wake-on-LAN für Fernaktivierungen

Wake-on-LAN (WOL) ist ein Ethernet-Standard zum Fernaktivieren eines Rechners durch Senden eines Aktivierungssignals über ein Netzwerk. Dieses Signal wird Magic Packet genannt. Installieren Sie WOL auf Client-Rechnern, um Fernaktivierungen zu ermöglichen, und auf jedem Rechner, den Sie zum Senden des Aktivierungssignals verwenden möchten. Das Magic Packet wird über UDP-Port 9 an die MAC-Adresse der Netzwerkschnittstelle auf dem Client-Rechner gesendet.

Beim Herunterfahren werden Rechner in der Regel nicht ganz ausgeschaltet, sondern verbleiben in einem Energiesparmodus. Wenn die Netzwerkschnittstelle WOL unterstützt, überwacht sie auf das Aktivierungssignal des Magic Packet, wenn das Gerät ausgeschaltet ist. Sie können das Magic Packet manuell senden oder Aktivierungen in einem Cron auf dem sendenden Rechner planen.

18.5.1 Voraussetzungen

WOL funktioniert sowohl mit kabelgebundenen als auch mit drahtlosen Ethernet-Karten, die dies unterstützen.

Möglicherweise müssen Sie WOL in Ihrem System-BIOS/UEFI aktivieren.

Überprüfen Sie Ihre BIOS/UEFI-Einstellungen für den PXE-Boot, und stellen Sie sicher, dass diese Option deaktiviert ist, um versehentliche Neuinstallationen zu verhindern.

Passen Sie Ihre Firewall so an, dass der Datenverkehr über UDP-Port 9 zugelassen wird.

18.5.2 Überprüfen der Unterstützung von kabelgebundenem Ethernet

Führen Sie folgendes Kommando aus, um festzustellen, ob eine kabelgebundene Ethernet-Schnittstelle WOL unterstützt:

> sudo ethtool eth0 | grep -i wake-on
Supports Wake-on: pumbg
Wake-on: g

Die Ausgabe im Beispiel zeigt, dass WOL von eth0 unterstützt wird, angezeigt durch das g-Flag in der Zeile Supports Wake-on. Wake-on: g zeigt an, dass WOL bereits aktiviert ist, sodass diese Schnittstelle bereit ist, Aktivierungssignale zu empfangen. Wenn WOL nicht aktiviert ist, aktivieren Sie es mit folgendem Kommando:

> sudo ethtool -s eth0 wol g

18.5.3 Überprüfen der Unterstützung für drahtlose Schnittstellen

Für Wakeup-over-wifi (WoWLAN) ist eine drahtlose Netzwerkschnittstelle erforderlich, die WoWLAN unterstützt. Testen Sie dies mit dem Kommando iw, das im Paket iw enthalten ist:

> sudo zypper in iw

Suchen Sie den Gerätenamen:

> sudo iw dev
phy#0
        Interface wlan2
                ifindex 3
                wdev 0x1
                addr 9c:ef:d5:fe:01:7c
                ssid accesspoint
                type managed
                channel 11 (2462 MHz), width: 20 MHz, center1: 2462 MHz
                txpower 20.00 dBm

In diesem Beispiel lautet der Gerätename zum Abfragen der WoWLAN-Unterstützung phy#0. Dieses Beispiel zeigt, dass es nicht unterstützt wird:

> sudo iw phy#0 wowlan show
command failed: Operation not supported (-95)

Dieses Beispiel zeigt eine Schnittstelle, die WoWLAN unterstützt, aber nicht aktiviert ist:

> sudo iw phy#0 wowlan show
WoWLAN is disabled

Aktivieren Sie sie:

> sudo iw phy#0 wowlan enable magic-packet
WoWLAN is enabled:
* wake up on magic packet

18.5.4 WOL installieren und testen

Um WOL zu verwenden, installieren Sie das wol-Paket auf dem Client und den sendenden Rechnern:

> sudo zypper in wol

Installieren Sie wol-udev-rules auf Ihren Client-Rechnern. Dieses Paket installiert eine udev-Regel, die WOL automatisch beim Start aktiviert.

Ermitteln Sie die MAC-Adresse der Netzwerkschnittstelle auf dem Client-Rechner:

> sudo ip addr show eth0|grep ether
link/ether 7c:ef:a5:fe:06:7c brd ff:ff:ff:ff:ff:ff

In der Ausgabe des Beispiels ist 7c:ef:a5:fe:06:7c die MAC-Adresse.

Fahren Sie Ihren Client-Rechner herunter und senden Sie ihm ein Aktivierungssignal von einem anderen Computer im selben Teilnetz:

> wol 7c:ef:a5:fe:06:7c

Wenn sich der Zielcomputer und das zweite Gerät im selben Netzwerk, aber in unterschiedlichen Teilnetzen befinden, geben Sie die Broadcast-Adresse für den Zielcomputer an:

> wol -i 192.168.0.63 7c:ef:a5:fe:06:7c

Da WOL auf Broadcast-Domänen beruht, muss sich der sendende Rechner im selben Netzwerk befinden, kann aber auch in einem anderen Netzwerksegment liegen.

Es ist möglich, das Magic Packet von einem anderen Netzwerk aus zu senden. Eine Möglichkeit ist die Portweiterleitung, wenn Ihr Router die Portweiterleitung auf eine Broadcast-Adresse unterstützt. Eine sicherere Methode besteht darin, sich über SSH mit einem Host in Ihrem Netzwerk zu verbinden und das Magic Packet von dort aus zu senden.

19 Einrichten eines UEFI HTTP-Boot-Servers

In diesem Kapitel wird beschrieben, wie Sie einen UEFI HTTP-Boot-Server einrichten und konfigurieren.

19.1 Einführung

HTTP-Boot kombiniert DHCP, DNS und HTTP, um das Booten und Bereitstellen von Systemen über das Netzwerk zu ermöglichen. HTTP-Boot kann als leistungsstarker Ersatz für PXE verwendet werden. HTTP-Boot ermöglicht das Booten eines Servers von einem URI über HTTP und damit die schnelle Übertragung großer Dateien, wie zum Beispiel des Linux-Kernels und des Root-Dateisystems, von Servern außerhalb Ihres lokalen Netzwerks.

19.1.1 Konfigurieren des Client-Rechners

Die Aktivierung von HTTP-Boot auf einem physischen Client-Rechner hängt von Ihrer spezifischen Hardware ab. In der Dokumentation finden Sie weitere Informationen zur Aktivierung von HTTP-Boot auf Ihrem Rechner.

19.1.2 Vorbereitung

Die hier beschriebene Konfiguration verwendet die IP-Teilnetze 192.168.111.0/24 (IPv4) und 2001:db8:f00f:café::/64 (IPv6), und die Server-IP-Adressen sind 192.168.111.1 (IPv4) und 2001:db8:f00f:café::1/64 (IPv6) als Beispiele. Passen Sie diese Werte an Ihre spezifische Einrichtung an.

Installieren Sie die folgenden Pakete auf dem Rechner, den Sie als HTTP-Boot-Server verwenden möchten: dhcp-server, apache2 (oder lighttpd) und dnsmasq.

19.2 Konfigurieren des Servers

19.2.1 DNS-Server

Die Konfiguration des DNS-Servers ist zwar optional, ermöglicht aber die Vergabe eines benutzerfreundlichen Namens für den HTTP-Boot-Server. Fügen Sie zum Einrichten des DNS-Servers Folgendes zur Datei /etc/dnsmasq.conf hinzu:

interface=eth0
addn-hosts=/etc/dnsmasq.d/hosts.conf

Weisen Sie den IP-Adressen in der Datei /etc/dnsmasq.d/hosts.conf einen Domänennamen zu:

192.168.111.1 www.httpboot.local
2001:db8:f00f:cafe::1 www.httpboot.local

Starten Sie den DNS-Server.

systemctl start dnsmasq
Anmerkung
Anmerkung: Verwenden des Schnittstellenmodul-Bootloaders

Aufgrund einer Änderung in UEFI 2.7 empfehlen wir die Verwendung eines Schnittstellenmodul-Bootloaders von SLE 15 oder neuer, um mögliche Fehler durch den zusätzlichen DNS-Knoten zu vermeiden.

19.2.1.1 Konfigurieren des DHCP-Servers

Geben Sie die Netzwerkschnittstelle für die DHCP-Server in /etc/sysconfig/dhcpd an, bevor Sie sie einrichten:

DHCPD_INTERFACE="eth0"
DHCPD6_INTERFACE="eth0"

Auf diese Weise stellen die DHCP-Server den Dienst nur auf der eth0-Schnittstelle zur Verfügung.

Fügen Sie die folgende Konfiguration zur Datei /etc/dhcpd.conf hinzu, um einen DHCPv4-Server sowohl für PXE-Boot als auch für HTTP-Boot einzurichten:

option domain-name-servers 192.168.111.1;
option routers 192.168.111.1;
default-lease-time 14400;
ddns-update-style none;
class "pxeclients" {
  match if substring (option vendor-class-identifier, 0, 9) = "PXEClient";
  option vendor-class-identifier "PXEClient";
  next-server 192.168.111.1;
  filename "/bootx64.efi";
}
class "httpclients" {
  match if substring (option vendor-class-identifier, 0, 10) = "HTTPClient";
  option vendor-class-identifier "HTTPClient";
  filename "http://www.httpboot.local/sle/EFI/BOOT/bootx64.efi";
}
subnet 192.168.111.0 netmask 255.255.255.0 {
  range dynamic-bootp 192.168.111.100 192.168.111.120;
  default-lease-time 14400;
  max-lease-time 172800;
}

Beachten Sie, dass der DHCPv4-Server den HTTPClient-Parameter für die ID der Herstellerklasse verwenden muss, da der Client diesen zur Identifizierung eines HTTP-Boot-Angebots verwendet.

Starten Sie den DHCP-Daemon:

systemctl start dhcpd

19.2.1.2 Konfigurieren des DHCPv6-Servers

Fügen Sie zum Einrichten des DHCPv6-Servers Folgendes zur Datei /etc/dhcpd6.conf hinzu:

option dhcp6.bootfile-url code 59 = string;
option dhcp6.vendor-class code 16 = {integer 32, integer 16, string};
subnet6 2001:db8:f00f:cafe::/64 {
        range6 2001:db8:f00f:cafe::42:10 2001:db8:f00f:cafe::42:99;
        option dhcp6.bootfile-url "http://www.httpboot.local/sle/EFI/BOOT/bootx64.efi";
        option dhcp6.name-servers 2001:db8:f00f:cafe::1;
        option dhcp6.vendor-class 0 10 "HTTPClient";
}

Diese Konfiguration definiert den Typ der Boot-URL, die Herstellerklasse und andere erforderliche Optionen. Ähnlich wie bei den DHCPv4-Einstellungen ist es erforderlich, die Boot-URL anzugeben, die eine IPv6-Adresse enthalten muss. Es ist auch notwendig, die Option der Herstellerklasse anzugeben. In DHCPv6 besteht es aus der Unternehmensnummer und den Daten der Herstellerklasse (Länge und Inhalt). Da der HTTP-Boot-Treiber die Unternehmensnummer ignoriert, können Sie sie auf 0 festlegen. Der Inhalt der Herstellerklassedaten muss HTTPClient lauten, da ansonsten der Client das Angebot ignoriert.

Für die ältere HTTP-Boot-Implementierung, die nicht RFC 3315 folgt, ist eine andere Konfiguration erforderlich:

option dhcp6.bootfile-url code 59 = string;
option dhcp6.vendor-class code 16 = string;
        subnet6 2001:db8:f00f:cafe::/64 {
        range6 2001:db8:f00f:cafe::42:10 2001:db8:f00f:cafe::42:99;
        option dhcp6.bootfile-url "http://www.httpboot.local/sle/EFI/BOOT/bootx64.efi;
	option dhcp6.name-servers 2001:db8:f00f:cafe::1;
	option dhcp6.vendor-class "HTTPClient";
}

Starten Sie den dhcpv6-Daemon.

systemctl start dhcpd6
19.2.1.2.1 Einrichten des DHCPv6-Servers für den PXE- und HTTP-Boot

Mit der folgenden Konfiguration ist es möglich, den DHCPv6-Server sowohl für den PXE-Boot als auch für HTTP-Boot zu konfigurieren:

option dhcp6.bootfile-url code 59 = string;
option dhcp6.vendor-class code 16 = {integer 32, integer 16, string};

subnet6 2001:db8:f00f:cafe::/64 {
        range6 2001:db8:f00f:cafe::42:10 2001:db8:f00f:cafe::42:99;

        class "PXEClient" {
	        match substring (option dhcp6.vendor-class, 6, 9);
	}

        subclass "PXEClient" "PXEClient" {
	        option dhcp6.bootfile-url "tftp://[2001:db8:f00f:cafe::1]/bootloader.efi";
	}

	class "HTTPClient" {
	        match substring (option dhcp6.vendor-class, 6, 10);
	}

	subclass "HTTPClient" "HTTPClient" {
	        option dhcp6.bootfile-url "http://www.httpboot.local/sle/EFI/BOOT/bootx64.efi";
		option dhcp6.name-servers 2001:db8:f00f:cafe::1;
		option dhcp6.vendor-class 0 10 "HTTPClient";
	}
}

Es ist auch möglich, die Herstellerklasse einer bestimmten Architektur zuzuordnen, und zwar wie folgt:

class "HTTPClient" {
        match substring (option dhcp6.vendor-class, 6, 21);
	}

subclass "HTTPClient" "HTTPClient:Arch:00016" {
        option dhcp6.bootfile-url "http://www.httpboot.local/sle/EFI/BOOT/bootx64.efi";
	option dhcp6.name-servers 2001:db8:f00f:cafe::1;
	option dhcp6.vendor-class 0 10 "HTTPClient";
}

In diesem Beispiel bezieht sich HTTPClient:Arch:00016 auf einen AMD64/Intel 64 HTTP-Boot-Client. Mit dieser Konfiguration kann der Server verschiedene Architekturen gleichzeitig bedienen.

19.2.1.2.2 Konfigurieren der Firewall

Falls DHCPv6-Pakete vom RP-Filter in der Firewall verworfen werden, überprüfen Sie das Protokoll. Sollte es den Eintrag rpfilter_DROP enthalten, deaktivieren Sie den Filter mit der folgenden Konfiguration in /etc/firewalld/firewalld.conf:

IPv6_rpfilter=no

19.2.1.3 Bereitstellen eines TFTP-Servers (optional)

Um Unterstützung für den PXE-Boot und HTTP-Boot bereitzustellen, stellen Sie einen TFTP-Server bereit. Installieren Sie tftp und starten Sie den Dienst:

 systemctl start tftp.socket
systemctl start tftp.service

Außerdem muss ein spezielles tftpboot-installation-Paket für die Verwendung mit PXE-Boot installiert werden. Führen Sie den Befehl zypper se tftpboot aus, um eine Liste der verfügbaren tftp-installation-Pakete zu erhalten, und installieren Sie dann ein Paket für die gewünschte Systemversion und -architektur, wie tftpboot-installation-SLE-15-SP3-x86_64. Verwenden Sie beispielsweise tftpboot-installation-SLE-VERSION-x86_64 (ersetzen Sie VERSION durch die jeweilige Version). Kopieren Sie den Inhalt des Verzeichnisses SLE-VERSION-x86_64 in das Root-Verzeichnis des TFTP-Servers:

Weitere Informationen hierzu finden Sie im /usr/share/tftpboot-installation/SLE-VERSION-x86_64/README

19.2.1.4 Einrichten des HTTP-Servers

Erstellen Sie das Verzeichnis sle/ unterhalb des Verzeichnisses /srv/www/htdocs/ und kopieren Sie den gesamten Inhalt des ersten System-ISO-Image in das Verzeichnis /srv/www/htdocs/sle/. Bearbeiten Sie dann die Datei /srv/www/htdocs/sle/EFI/BOOT/grub.cfg. Verwenden Sie das folgende Beispiel als Referenz:

timeout=60
default=1

menuentry 'Installation IPv4' --class opensuse --class gnu-linux --class gnu --class os {
    set gfxpayload=keep
    echo 'Loading kernel ...'
    linux /sle/boot/x86_64/loader/linux install=http://www.httpboot.local/sle
    echo 'Loading initial ramdisk ...'
    initrd /sle/boot/x86_64/loader/initrd
}

menuentry 'Installation IPv6' --class opensuse --class gnu-linux --class gnu --class os {
    set gfxpayload=keep
    echo 'Loading kernel ...'
    linux /sle/boot/x86_64/loader/linux install=install=http://www.httpboot.local/sle ipv6only=1 ifcfg=*=dhcp6,DHCLIENT6_MODE=managed
    echo 'Loading initial ramdisk ...'
    initrd /sle/boot/x86_64/loader/initrd
}
19.2.1.4.1 Konfigurieren von lighttpd

Ändern Sie /etc/lighttpd/lighttpd.conf wie folgt, um die Unterstützung sowohl für IPv4 als auch für IPv6 in lighttpd zu aktivieren:

##
## Use IPv6?
##
#server.use-ipv6 = "enable"
$SERVER["socket"] == "[::]:80" {  }

Starten Sie den lighttpd-Daemon:

systemctl start lighttpd
19.2.1.4.2 Konfigurieren von apache2

Für Apache ist keine zusätzliche Konfiguration erforderlich. Starten Sie den apache2-Daemon:

systemctl start apache2

19.2.1.5 Aktivieren der SSL-Unterstützung für den HTTP-Server (optional)

Zur Verwendung des HTTPS-Boot müssen Sie ein vorhandenes Serverzertifikat in das DER-Format konvertieren und in die Firmware des Clients eintragen.

Falls auf Ihrem Server bereits ein Zertifikat installiert ist, konvertieren Sie es mit folgendem Kommando in das DER-Format, damit es vom Client verwendet werden kann:

openssl x509 -in CERTIFICATE.crt -outform der -out CERTIFICATE.der
19.2.1.5.1 Tragen Sie das Serverzertifikat in der Client-Firmware ein

Die genaue Vorgehensweise zum Eintragen des konvertierten Zertifikats hängt von der spezifischen Implementierung der Firmware des Clients ab. Bei bestimmter Hardware müssen Sie das Zertifikat manuell über die Firmware-Benutzeroberfläche eintragen. Verwenden Sie dazu ein externes Speichermedium, auf dem sich das Zertifikat befindet. Rechner mit Redfish-Unterstützung können das Zertifikat im Fernverfahren eintragen. Weitere Informationen zum Eintragen von Zertifikaten finden Sie in der Dokumentation zu Ihrer spezifischen Hardware.

19.2.1.5.2 Aktivieren der SSL-Unterstützung in lighttpd

Da lighttpd den privaten Schlüssel und das Zertifikat in derselben Datei benötigt, können Sie diese mit dem folgenden Kommando vereinen:

cat CERTIFICATE.crt server.key > CERTIFICATE.pem

Kopieren Sie CERTIFICATE.pem in das Verzeichnis /etc/ssl/private/.

cp server-almighty.pem /etc/ssl/private/
chown -R root:lighttpd /etc/ssl/private/server-almighty.pem
chmod 640 /etc/ssl/private/server-almighty.pem

Vergewissern Sie sich, dass mod_openssl in der Datei server.modules in Abschnitt /etc/lighttpd/modules.conf aufgelistet ist, wie zum Beispiel:

server.modules = (
  "mod_access",
  "mod_openssl",
)

Fügen Sie die folgenden Zeilen unter SSL Support in Abschnitt /etc/lighttpd/lighttpd.conf hinzu:

# IPv4
$SERVER["socket"] == ":443" {
    ssl.engine                 = "enable"
    ssl.pemfile                = "/etc/ssl/private/server-almighty.pem"
}
# IPv6
$SERVER["socket"] == "[::]:443" {
    ssl.engine                 = "enable"
    ssl.pemfile                = "/etc/ssl/private/server-almighty.pem"
}

Starten Sie lighttpd neu, um die SSL-Unterstützung zu aktivieren:

systemctl restart lighttpd
19.2.1.5.3 Aktivieren der SSL-Unterstützung in Apache

Öffnen Sie die Datei /etc/sysconfig/apache2 und fügen Sie das SSL-Flag wie folgt hinzu:

APACHE_SERVER_FLAGS="SSL"

Vergewissern Sie sich, dass das ssl-Modul in APACHE_MODULES aufgeführt ist, wie zum Beispiel:

Als Nächstes kopieren Sie den privaten Schlüssel und das Zertifikat in das Verzeichnis /etc/apache2/.

cp server.key /etc/apache2/ssl.key/
chown wwwrun /etc/apache2/ssl.key/server.key
chmod 600 /etc/apache2/ssl.key/server.key
cp server.crt /etc/apache2/ssl.crt/

Erstellen Sie die ssl vhost-Konfiguration.

cd /etc/apache2/vhosts.d
cp vhost-ssl.template vhost-ssl.conf

Bearbeiten Sie /etc/apache2/vhosts.d/vhost-ssl.conf, um den privaten Schlüssel und das Zertifikat zu ändern:

SSLCertificateFile /etc/apache2/ssl.crt/server.crt
 SSLCertificateKeyFile /etc/apache2/ssl.key/server.key

Starten Sie Apache neu, um die SSL-Unterstützung zu aktivieren:

systemctl restart apache2
19.2.1.5.4 Ändern der DHCP-Konfiguration

Ersetzen Sie in http:// das Präfix https:// durch dhcpd.conf/dhcpd6.conf und starten Sie den DHCP-Server neu.

systemctl restart dhcpd
systemctl restart dhcpd6

19.3 Booten des Client über HTTP-Boot

Wenn die Firmware bereits den HTTP-Boot unterstützt, schließen Sie das Kabel an, und wählen Sie die richtige Boot-Option.

20 Installieren von benutzerdefinierten Vorinstallationen

Durch die Verteilung angepasster Vorinstallationen von SUSE Linux Enterprise Server auf einer großen Anzahl identischer Rechner können Sie es vermeiden, die Installation auf jedem einzelnen Rechner durchführen zu müssen. Gleichzeitig erhalten die Endbenutzer ein standardisiertes Installationsverfahren.

Erstellen Sie mit YaST Firstboot benutzerdefinierte Vorinstallations-Images, und legen Sie den Workflow für die abschließenden Personalisierungsschritte fest, bei denen das Eingreifen der Endbenutzer erforderlich ist (im Gegensatz zu AutoYaST, das vollständig automatische Installationen zulässt).

Führen Sie die folgenden Schritte aus, um eine benutzerdefinierte Installation zu erstellen, an Ihre Hardware zu verteilen und das endgültige Produkt anzupassen:

  1. Bereiten Sie den Master-Computer vor, dessen Festplatte auf die Client-Computer geklont werden muss. Weitere Informationen hierzu finden Sie in Abschnitt 20.1, „Vorbereiten des Master-Rechners“.

  2. Passen Sie den Firstboot-Workflow an. Weitere Informationen hierzu finden Sie in Abschnitt 20.2, „Anpassen der Firstboot-Installation“.

  3. Erstellen Sie einen Klon der Festplatte des Master-Rechners und verteilen Sie das Image auf den Festplatten der Clients. Weitere Informationen hierzu finden Sie im Abschnitt 20.3, „Klonen der Master-Installation“.

  4. Lassen Sie den Endbenutzer die Instanz von SUSE Linux Enterprise Server personalisieren. Weitere Informationen hierzu finden Sie im Abschnitt 20.4, „Anpassen der Installation“.

20.1 Vorbereiten des Master-Rechners

Um einen Master-Rechner für einen Firstboot-Workflow vorzubereiten, gehen Sie wie folgt vor:

  1. Legen Sie das Installationsmedium in den Master-Rechner ein.

  2. Booten Sie den Rechner.

  3. Führen Sie eine normale Installation einschließlich aller erforderlichen Konfigurationsschritte durch, und stellen Sie sicher, dass Sie für die Installation das Paket yast2-firstboot auswählen.

  4. Um Ihren eigenen Workflow von YaST-Konfigurationsschritten für den Endbenutzer zu definieren oder diesem Workflow Ihre eigenen YaST-Module hinzuzufügen, fahren Sie mit Abschnitt 20.2, „Anpassen der Firstboot-Installation“ fort. Fahren Sie andernfalls direkt bei Schritt 5 fort.

  5. Aktivieren Sie Firstboot als root:

    Erstellen Sie eine leere Datei /var/lib/YaST2/reconfig_system, um die Ausführung von Firstboot auszulösen. Diese Datei wird gelöscht, sobald die Firstboot-Konfiguration erfolgreich durchgeführt wurde. Erstellen Sie diese Datei mit dem folgenden Befehl:

    touch /var/lib/YaST2/reconfig_system
  6. Fahren Sie mit Abschnitt 20.3, „Klonen der Master-Installation“ fort.

20.2 Anpassen der Firstboot-Installation

Beim Anpassen des Workflows der Firstboot-Installation können mehrere Komponenten betroffen sein. Es wird empfohlen, sie anzupassen. Wenn Sie keine Änderungen vornehmen, führt Firstboot die Installation mithilfe von Standardeinstellungen aus. Folgende Optionen sind verfügbar:

So bearbeiten Sie die folgenden Konfigurationsdateien, um diese Komponenten anzupassen:

/etc/sysconfig/firstboot

Konfiguriert verschiedene Aspekte von Firstboot (wie Versionshinweise, Skripten und Lizenzaktionen).

/etc/YaST2/firstboot.xml

Zur Konfiguration des Installations-Workflows durch Aktivierung oder Deaktivierung von Komponenten oder Hinzufügen von benutzerdefinierten Komponenten.

Bietet Übersetzungen für den Workflow einer angepassten Installation wie in Abschnitt 20.2.6, „Bereitstellen von Übersetzungen des Installations-Workflows“ beschrieben.

Tipp
Tipp: Alternativer Speicherort der Steuerdatei

/etc/YaST2/firstboot.xml ist der Standardpfad für die Steuerdatei, die mit dem Paket yast2-firstboot installiert wird. Wenn ein anderer Speicherort für die Steuerdatei definiert werden soll, bearbeiten Sie /etc/sysconfig/firstboot, und geben Sie in der Variablen FIRSTBOOT_CONTROL_FILE den gewünschten Speicherort an.

Wenn Sie mehr als nur die Arbeitsflusskomponenten anpassen möchten, finden Sie Informationen in der Dokumentation zu control.xml unter https://doc.opensuse.org/projects/YaST/SLES11/tdg/inst_in_general_chap.html#product_control.

20.2.1 Anpassen von YaST-Meldungen

Standardmäßig enthält eine Installation von SUSE Linux Enterprise Server verschiedene Standardnachrichten, die in verschiedenen Phasen des Installationsprozesses lokalisiert und angezeigt werden. Dazu gehört eine Willkommensmitteilung, eine Lizenzmitteilung und eine Glückwunschmitteilung am Ende der Installation. Sie können diese Meldungen durch eigene Versionen ersetzen und lokalisierte Versionen in die Installation aufnehmen. Gehen Sie wie folgt vor, um Ihre eigene Willkommensmitteilung einzubinden:

  1. Melden Sie sich als root an.

  2. Öffnen Sie die Konfigurationsdatei /etc/sysconfig/firstboot, und übernehmen Sie die folgenden Änderungen:

    1. Legen Sie FIRSTBOOT_WELCOME_DIR auf den Verzeichnispfad fest, in dem Sie die Dateien speichern möchten, die die Willkommensnachricht und die lokalisierten Versionen enthalten, z. B.:

      FIRSTBOOT_WELCOME_DIR="/usr/share/firstboot/"
    2. Wenn der Dateiname der Willkommensnachricht weder welcome.txt noch welcome_locale.txt lautet (wobei locale dem ISO 639-Sprachcode entspricht, wie cs oder de), legen Sie das Dateinamensschema in FIRSTBOOT_WELCOME_PATTERNS fest. Beispiel:

      FIRSTBOOT_WELCOME_PATTERNS="mywelcome.txt"

      Falls nicht anderweitig festgelegt, wird vom Standardwert welcome.txt ausgegangen.

  3. Erstellen Sie die Willkommensdatei und die lokalisierten Versionen, und legen Sie sie in das in der Konfigurationsdatei /etc/sysconfig/firstboot angegebene Verzeichnis ab.

Gehen Sie genauso vor, um angepasste Lizenz- und Beendigungsmitteilungen zu konfigurieren. Diese Variablen sind FIRSTBOOT_LICENSE_DIR und FIRSTBOOT_FINISH_FILE.

Ändern Sie die Einstellung von SHOW_Y2CC_CHECKBOX in Ja, wenn der Benutzer in der Lage sein soll, YaST direkt nach dem Ausführen der Installation zu starten.

20.2.2 Anpassen der Lizenzaktion

Sie können die Reaktion des Installationssystems auf Benutzer, die die Lizenzvereinbarung nicht akzeptieren, anpassen. Das System kann auf die folgenden drei Arten auf dieses Szenario reagieren:

Halt

Die firstboot-Installation wird abgebrochen und das gesamte System wird heruntergefahren. Das ist die Standardeinstellung.

Fortsetzen

Die Firstboot-Installation wird fortgesetzt.

Abbrechen

Die Firstboot-Installation wird abgebrochen, das System versucht jedoch zu booten.

Treffen Sie Ihre Wahl, und stellen Sie den entsprechenden Wert für LICENSE_REFUSAL_ACTION ein.

20.2.3 Anpassen der Versionshinweise

Je nachdem, ob Sie die Instanz von SUSE Linux Enterprise Server, die Sie mit Firstboot installieren möchten, geändert haben, müssen Sie die Endbenutzer möglicherweise über wichtige Aspekte ihres neuen Betriebssystems unterrichten. Eine Standardinstallation verwendet Versionshinweise (angezeigt in einer der abschließenden Phasen der Installation), um Benutzer über wichtige Änderungen zu informieren. Wenn Ihre eigenen bearbeiteten Versionshinweise als Teil einer Firstboot-Installation angezeigt werden sollen, gehen Sie wie folgt vor:

  1. Erstellen Sie Ihre eigene Versionshinweisdatei. Verwenden Sie das RTF-Format wie in der Beispieldatei in /usr/share/doc/release-notes, und speichern Sie das Ergebnis als RELEASE-NOTES.en.rtf (für Englisch).

  2. Speichern Sie die optional lokalisierte Version neben der ursprünglichen Version, und ersetzen Sie den Teil en des Dateinamens durch den tatsächlichen ISO 639-Sprachcode, beispielsweise de für Deutsch.

  3. Öffnen Sie die Firstboot-Konfigurationsdatei unter /etc/sysconfig/firstboot, und legen Sie für FIRSTBOOT_RELEASE_NOTES_PATH das tatsächliche Verzeichnis fest, in dem die Versionshinweise gespeichert sind.

20.2.4 Anpassen des Workflows

Im bereitgestellten Beispiel /etc/YaST2/firstboot.xml ist ein Standard-Workflow definiert, der die folgenden aktivierten Komponenten enthält:

  • Sprachauswahl

  • Willkommen

  • Lizenzvereinbarung

  • Zeit und Datum

  • Benutzer

  • Stammpasswort

  • Beenden der Einrichtung

Beachten Sie, dass dieser Workflow eine Vorlage ist. Sie können sie richtig anpassen, indem Sie die Firstboot-Konfigurationsdatei /etc/YaST2/firstboot.xml manuell bearbeiten. Die XML-Datei ist eine Teilmenge der Standarddatei control.xml, die von YaST verwendet wird, um den Installations-Workflow zu steuern. In Beispiel 20.2, „Konfigurieren des Workflow-Abschnitts“ erfahren Sie mehr darüber, wie Sie den Workflow-Bereich konfigurieren.

Eine Übersicht mit Vorschlägen finden Sie in Beispiel 20.1, „Konfigurieren von Vorschlagsbildschirmen“. Dort werden Ihnen alle Hintergrundinformationen bereitgestellt, die Sie benötigen, um den Workflow für die Firstboot-Installation zu ändern. Die Basissyntax der Firstboot-Konfigurationsdatei (und die Konfiguration der Schlüsselelemente) werden anhand dieses Beispiels erklärt.

Beispiel 20.1: Konfigurieren von Vorschlagsbildschirmen
    …
    <proposals config:type="list">1
        <proposal>2
            <name>firstboot_hardware</name>3
            <mode>installation</mode>4
            <stage>firstboot</stage>5
            <label>Hardware Configuration</label>6
            <proposal_modules config:type="list">7
                <proposal_module>printer</proposal_module>8
            </proposal_modules>
        </proposal>
        <proposal>
        …
        </proposal>
    </proposals>

1

Der Container für alle Vorschläge, die Teil des Firstboot-Workflows sein sollen.

2

Der Container für einen einzelnen Vorschlag.

3

Der interne Name des Vorschlags.

4

Der Modus dieses Vorschlags. Nehmen Sie hier keine Änderungen vor. Für eine Firstboot-Installation muss diese Option auf installation eingestellt sein.

5

Die Phase des Installationsprozesses, in der dieser Vorschlag aufgerufen wird. Nehmen Sie hier keine Änderungen vor. Für eine Firstboot-Installation muss diese Option auf firstboot eingestellt sein.

6

Die auf dem Vorschlag anzuzeigende Kennung.

7

Der Container für alle Module, die Teil des Vorschlagbildschirms sind.

8

Ein oder mehrere Module, die Teil des Vorschlagbildschirms sind.

Der nächste Abschnitt der Firstboot-Konfigurationsdatei besteht aus der Workflow-Definition. Alle Module, die Teil des Firstboot-Installations-Workflows sein sollen, müssen hier aufgeführt werden.

Beispiel 20.2: Konfigurieren des Workflow-Abschnitts
    <workflows  config:type="list">
        <workflow>
            <defaults>
                <enable_back>yes</enable_back>
                <enable_next>yes</enable_next>
                <archs>all</archs>
            </defaults>
            <stage>firstboot</stage>
            <label>Configuration</label>
            <mode>installation</mode>
            … <!–– list of modules  ––>
            </modules>
        </workflow>
    </workflows>
    …

Die Gesamtstruktur des Abschnitts workflows entspricht weitgehend dem des Abschnitts proposals. Ein Container enthält die Workflow-Elemente, die Workflow-Elemente enthalten wiederum Informationen zu Stufe, Kennung und Modus (wie die in Beispiel 20.1, „Konfigurieren von Vorschlagsbildschirmen“ eingeführten Vorschläge). Am meisten fällt der Unterschied in Abschnitt defaults auf. Er enthält grundlegende Design-Informationen für die Workflow-Komponenten:

enable_back

Zeigt in allen Dialogfeldern die Schaltfläche Zurück an.

enable_next

Zeigt in allen Dialogfeldern die Schaltfläche Weiter an.

archs

Geben Sie die Hardware-Architekturen an, in denen dieser Workflow verwendet werden soll.

Beispiel 20.3: Konfigurieren der Liste der Workflow-Komponenten
    <modules  config:type="list">1
        <module>2
            <label>Language</label>3
            <enabled config:type="boolean">false</enabled>4
            <name>firstboot_language</name>5
        </module>
    <modules>

1

Der Container für alle Komponenten des Workflows

2

Die Moduldefinitionen

3

Die mit allen Modulen angezeigte Kennung

4

Der Schalter zum Aktivieren/Deaktivieren dieser Komponenten im Workflow

5

Der Modulname – Das Modul selbst muss sich unter /usr/share/YaST2/clients befinden.

Um während der Firstboot-Installation Änderungen an der Zahl und Reihenfolge der Vorschlagsbildschirme durchzuführen, fahren Sie fort wie folgt:

  1. Öffnen Sie die Firstboot-Konfigurationsdatei unter /etc/YaST2/firstboot.xml.

  2. Löschen Sie Vorschlagsbildschirme, fügen Sie Bildschirme hinzu oder ändern Sie die Reihenfolge von vorhandenen Bildschirmen:

    • Um einen Gesamtvorschlag zu löschen, entfernen Sie das Element proposal einschließlich aller Unterelemente aus dem Abschnitt proposals, und entfernen Sie das entsprechende Element module (mit Unterelementen) aus dem Workflow.

    • Um einen neuen Vorschlag hinzuzufügen, erstellen Sie ein neues Element proposal, und tragen Sie alle erforderlichen Unterelemente ein. Stellen Sie sicher, dass der Vorschlag in /usr/share/YaST2/clients als YaST-Modul vorhanden ist.

    • Wenn Sie die Reihenfolge der Vorschläge ändern möchten, verschieben Sie die entsprechenden module-Elemente mit den Vorschlagsbildschirmen im Workflow. Beachten Sie, dass Abhängigkeiten zu anderen Installationsschritten bestehen können, die eine bestimmte Reihenfolge der Vorschläge und Workflow-Komponenten voraussetzen.

  3. Wenden Sie Ihre Änderungen an und schließen Sie die Konfigurationsdatei.

Sie können den Workflow der Konfigurationsschritte immer ändern, wenn der Standard Ihren Anforderungen nicht entspricht. Aktivieren oder deaktivieren Sie bestimmte Module im Workflow (oder fügen Sie eigene Workflows hinzu).

Um den Status eines Moduls im Firstboot-Workflow umzuschalten, gehen Sie wie folgt vor:

  1. Öffnen Sie die Konfigurationsdatei /etc/YaST2/firstboot.xml.

  2. Ändern Sie den Wert für das enabled-Element von true in false, um das Modul zu deaktivieren oder von false in true, um es erneut zu aktivieren.

    <module>
        <label>Time and Date</label>
        <enabled config:type="boolean">true</enabled>
        <name>firstboot_timezone</name>
    </module>
  3. Wenden Sie Ihre Änderungen an und schließen Sie die Konfigurationsdatei.

Um dem benutzerdefinierten Modul einen Workflow hinzuzufügen, gehen Sie wie folgt vor:

  1. Erstellen Sie Ihr eigenes YaST-Modul, und speichern Sie die Moduldatei module_name.rb in /usr/share/YaST2/clients.

  2. Öffnen Sie die Konfigurationsdatei /etc/YaST2/firstboot.xml.

  3. Legen Sie fest, an welchem Punkt des Workflows Ihr neues Modul ausgeführt werden soll. Stellen Sie dabei sicher, dass sämtliche Abhängigkeiten zu anderen Schritten im Workflow berücksichtigt und aufgelöst werden.

  4. Erstellen Sie im Container modules ein neues module-Element, und fügen Sie die entsprechenden Unterelemente hinzu:

    <modules config:type="list">
         …
         <module>
            <label>my_module</label>
            <enabled config:type="boolean">true</enabled>
            <name>filename_my_module</name>
         </module>
    </modules>
    1. Geben Sie die Kennung ein, die im label-Element auf Ihrem Modul angezeigt werden soll.

    2. Stellen Sie sicher, dass enabled auf true eingestellt ist, damit Ihr Modul in den Workflow aufgenommen wird.

    3. Geben Sie den Dateinamen Ihres Moduls in das Element name ein. Lassen Sie den vollständigen Pfad und das Suffix .rb weg.

  5. Wenden Sie Ihre Einstellungen an, und schließen Sie die Konfigurationsdatei.

Tipp
Tipp: Suchen der angeschlossenen Netzwerkschnittstelle für die automatische Konfiguration

Falls die Zielhardware mehrere Netzwerkschnittstellen besitzen könnte, fügen Sie das network-autoconfig-Paket zum Anwendungs-Image hinzu. network-autoconfig durchläuft alle verfügbaren Ethernet-Schnittstellen, bis eine erfolgreich per DHCP konfiguriert ist.

20.2.5 Konfigurieren von zusätzlichen Skripten

Firstboot kann so konfiguriert werden, dass zusätzliche Skripten ausgeführt werden, nachdem der Firstboot-Workflow abgeschlossen wurde. Um der Firstboot-Sequenz zusätzliche Skripten hinzuzufügen, gehen Sie wie folgt vor:

  1. Öffnen Sie die Konfigurationsdatei /etc/sysconfig/firstboot, und stellen Sie sicher, dass der für SCRIPT_DIR angegebene Pfad korrekt ist. Der Standardwert ist /usr/share/firstboot/scripts.

  2. Erstellen Sie Ihr Shell-Skript, speichern Sie es in das angegebene Verzeichnis und wenden Sie die entsprechenden Dateiberechtigungen an.

20.2.6 Bereitstellen von Übersetzungen des Installations-Workflows

Abhängig vom Endbenutzer könnten Übersetzungen des benutzerdefinierten Workflows gewünscht werden. Diese Übersetzungen könnten notwendig sein, wenn Sie den Workflow durch Ändern der Datei /etc/YaST2/firstboot.xml wie in Abschnitt 20.2.4, „Anpassen des Workflows“ beschrieben angepasst haben.

Wenn Sie /etc/YaST2/firstboot.xml geändert und Änderungen von Zeichenketten eingeführt haben, generieren Sie eine neue Übersetzungsvorlagendatei (.pot-Datei), und verwenden Sie die Toolchain gettext, um die Dateien zu übersetzen und diese anschließend in den YaST-Locale-Verzeichnissen (/usr/share/YaST2/locale) als kompilierte .mo-Dateien zu installieren. Führen Sie dazu die folgenden Schritte aus:

  1. Ändern Sie beispielsweise die Einstellung textdomain von:

    <textdomain>firstboot</textdomain>

    zu:

    <textdomain>firstboot-oem</textdomain>
  2. Extrahieren Sie mit xgettext die übersetzbaren Zeichenketten in die Übersetzungsvorlagendatei (.pot-Datei), zum Beispiel in firstboot-oem.pot:

    xgettext -L Glade -o firstboot-oem.pot /etc/YaST2/firstboot.xml
  3. Starten Sie den Übersetzungsprozess. Verpacken Sie die übersetzten Dateien (.LL_code.po-Dateien) dann auf die gleiche Weise wie die Übersetzungen der anderen Projekte, und installieren Sie die kompilierten firstboot-oem.mo-Dateien.

Falls Sie Übersetzungen für zusätzliche oder geänderte YaST-Module benötigen, stellen Sie die Übersetzungen in einem derartigen Modul selbst bereit. Wenn Sie ein vorhandenes Modul geändert haben, ändern Sie auf jeden Fall auch dessen Textdomain-Anweisung, um unerwünschte Nebeneffekte zu vermeiden.

Tipp
Tipp: Zusätzliche Informationsquellen

Weitere Informationen zur YaST-Bereitstellung finden Sie in https://en.opensuse.org/openSUSE:YaST_development. Detaillierte Informationen über YaST Firstboot finden Sie unter https://doc.opensuse.org/projects/YaST/SLES11/tdg/bk09ch01s02.html.

20.3 Klonen der Master-Installation

Klonen Sie die Festplatte des Master-Rechners mit einem verfügbaren Imaging-Mechanismus und führen Sie die Images auf den Zielrechnern ein. Weitere Informationen zum Imaging finden Sie unter https://doc.suse.com/kiwi/.

20.4 Anpassen der Installation

Wenn das geklonte Festplatten-Image gestartet wird, startet firstboot, und die Installation fährt genauso fort wie in Abschnitt 20.2.4, „Anpassen des Workflows“ beschrieben. Nur die Komponenten werden gestartet, die in der Firstboot-Workflow-Konfiguration enthalten sind. Alle anderen Installationsschritte werden übersprungen. Der Endbenutzer passt Sprache, Tastatur, Netzwerk und Passworteinstellungen an, um den Arbeitsplatzrechner zu personalisieren. Nach Abschluss dieses Vorgangs verhält sich ein mit Firstboot installiertes System wie eine normale Instanz von SUSE Linux Enterprise Server.

A Image-Erstellung und Anlegen von Produkten

Zur besseren Anpassung des Betriebssystems an Ihre Bereitstellung können Sie mit KIWI NG benutzerdefinierte Medien zur Verwendung als Appliance oder Live-System erstellen. KIWI NG kann wahlweise auf einem lokalen Computer oder online in SUSE Studio Express (OBS) ausgeführt werden.

Mit KIWI NG können Sie Live-CDs und Live-DVDs erstellen, außerdem Flash-Laufwerke für Hardware-Plattformen, die in Linux unterstützt werden, sowie virtuelle Festplatten für Virtualisierungs- und Cloud-Systeme (z. B. Xen, KVM, VMware, EC2 und viele mehr). Über die mit KIWI NG erstellten Images können Sie auch in einer PXE-Umgebung aus dem Netzwerk booten.

Dieses Handbuch geht nicht näher auf KIWI NG ein, da hierzu separate Dokumentation zur Verfügung steht:

  • Weitere Informationen finden Sie in der KIWI NG-Dokumentation unter https://doc.suse.com/kiwi/ (auch im Paket kiwi-doc).

  • Mit SUSE Studio Express unter Open Build Service erstellen Sie Betriebssystem-Images online. Dieses Tool unterstützt die Erstellung von virtuellen Appliances und von Live-Systemen auf der Grundlage von openSUSE oder SUSE Linux Enterprise. Weitere Informationen und die zugehörige Dokumentation finden Sie unter https://studioexpress.opensuse.org/.