Zum Inhalt springen
documentation.suse.com / Bereitstellungshandbuch
SUSE Linux Enterprise Server 15 SP3

Bereitstellungshandbuch

In diesem Handbuch finden Sie Details dazu wie einzelne oder mehrere Systeme installiert und die produktspezifischen Funktionen für eine Bereitstellungsinfrastruktur genutzt werden.

Veröffentlicht: 29. September 2024

Copyright © 2006–2024 SUSE LLC und Mitwirkende. Alle Rechte vorbehalten.

Es wird die Genehmigung erteilt, dieses Dokument unter den Bedingungen der GNU Free Documentation License, Version 1.2 oder (optional) Version 1.3 zu vervielfältigen, zu verbreiten und/oder zu verändern; die unveränderlichen Abschnitte hierbei sind der Urheberrechtshinweis und die Lizenzbedingungen. Eine Kopie dieser Lizenz (Version 1.2) finden Sie im Abschnitt GNU Free Documentation License.

Die SUSE-Marken finden Sie unter https://www.suse.com/company/legal/. Alle anderen Marken von Drittanbietern sind Besitz ihrer jeweiligen Eigentümer. Markensymbole (®, ™ usw.) kennzeichnen Marken von SUSE und der Tochtergesellschaften. Sternchen (*) kennzeichnen Marken von Drittanbietern.

Alle Informationen in diesem Buch wurden mit größter Sorgfalt zusammengestellt. Doch auch dadurch kann hundertprozentige Richtigkeit nicht gewährleistet werden. Weder SUSE LLC noch ihre Tochtergesellschaften noch die Autoren noch die Übersetzer können für mögliche Fehler und deren Folgen haftbar gemacht werden.

Vorwort

1 Verfügbare Dokumentation

Online-Dokumentation

Die Online-Dokumentation zu diesem Produkt ist unter https://documentation.suse.com/#sles verfügbar. Durchsuchen Sie die Dokumentation oder laden Sie sie in verschiedenen Formaten herunter.

Die Online-Dokumentation für andere Produkte finden Sie unter https://documentation.suse.com/.

Anmerkung
Anmerkung: Neueste Aktualisierungen

Die neuesten Aktualisierungen der Dokumentation sind normalerweise in der englischen Version der Dokumentation verfügbar.

Versionshinweise

Die Versionshinweise finden Sie unter https://www.suse.com/releasenotes/.

In Ihrem System

Für die Offline-Nutzung finden Sie die Dokumentation in Ihrem installierten System unter /usr/share/doc. Viele Kommandos sind auch detailliert auf den Handbuchseiten beschrieben. Führen Sie zu deren Anzeige man gefolgt von einem bestimmten Kommandonamen aus. Sollte das man-Kommando nicht auf Ihrem System installiert sein, müssen Sie es mit sudo zypper install man installieren.

2 Verbessern der Dokumentation

Ihr Feedback und Beiträge zu dieser Dokumentation sind willkommen. Mehrere Kanäle stehen zur Verfügung:

Serviceanforderungen und Support

Informationen zu Diensten und Support-Optionen, die für Ihr Produkt verfügbar sind, finden Sie unter https://www.suse.com/support/.

Zum Öffnen einer Service-Anforderung benötigen Sie ein Abonnement beim SUSE Customer Center. Gehen Sie zu https://scc.suse.com/support/requests, melden Sie sich an und klicken Sie auf Neu erstellen.

Fehlerberichte

Melden Sie Probleme mit der Dokumentation unter https://bugzilla.suse.com/. Zur Vereinfachung dieses Vorgangs können Sie die Links Report Documentation Bug (Fehler in der Dokumentation melden) neben den Überschriften in der HTML-Version dieses Dokuments verwenden. Dadurch wird das richtige Produkt und die Kategorie in Bugzilla vorab ausgewählt und ein Link zum aktuellen Abschnitt hinzugefügt. Sie können somit sofort mit der Eingabe Ihres Berichts beginnen. Ein Bugzilla-Konto ist erforderlich.

Beiträge

Verwenden Sie für einen Beitrag zu dieser Dokumentation die Links Edit Source (Quelle bearbeiten) neben den Überschriften in der HTML-Version dieses Dokuments. Sie führen Sie zum Quellcode auf GitHub, wo Sie eine Pull-Anforderung öffnen können. Ein GitHub-Konto ist erforderlich.

Weitere Informationen zur Dokumentationsumgebung für diese Dokumentation finden Sie in der README des Repositorys.

Email

Alternativ können Sie Emails mit Fehlerberichten und Feedback zur Dokumentation an <> senden. Geben Sie auf jeden Fall auch den Titel der Dokumentation, die Produktversion und das Datum der Veröffentlichung der Dokumentation an. Beziehen Sie sich auf die entsprechende Abschnittsnummer und den Titel (oder geben Sie die URL an) und fügen Sie eine kurze Beschreibung des Problems hinzu.

3 Konventionen in der Dokumentation

In der vorliegenden Dokumentation werden die folgenden Hinweise und typografischen Konventionen verwendet:

  • /etc/passwd: Verzeichnis- und Dateinamen

  • PLATZHALTER: Ersetzen Sie PLATZHALTER durch den tatsächlichen Wert.

  • PATH: die Umgebungsvariable PATH

  • ls, --help: Kommandos, Optionen und Parameter

  • Benutzer: Benutzer oder Gruppen

  • Paketname: Name eines Pakets

  • Alt, AltF1: Eine Taste oder Tastenkombination. Tastennamen werden wie auf der Tastatur in Großbuchstaben dargestellt.

  • Datei, Datei › Speichern unter: Menüelemente, Schaltflächen

  • AMD/Intel Dieser Absatz ist nur für die AMD64-/Intel-64-Architektur relevant. Die Pfeile kennzeichnen den Anfang und das Ende des Textblocks.

    IBM Z, POWER Dieser Absatz ist nur für die Architekturen IBM Z und POWER relevant. Die Pfeile kennzeichnen den Anfang und das Ende des Textblocks.

  • Tanzende Pinguine (Kapitel Pinguine, ↑Zusätzliches Handbuch): Dies ist ein Verweis auf ein Kapitel in einem anderen Handbuch.

  • Kommandos, die mit root-Privilegien ausgeführt werden müssen. Diesen Kommandos kann zur Ausführung als nicht privilegierter Benutzer auch häufig das Präfix sudo vorangestellt sein.

    root # command
    tux > sudo command
  • Kommandos, die von Benutzern ohne Privilegien ausgeführt werden können.

    tux > command
  • Hinweise

    Warnung
    Warnung: Warnhinweis

    Wichtige Informationen, die Sie kennen müssen, bevor Sie fortfahren. Warnt vor Sicherheitsrisiken, potenziellen Datenverlusten, Beschädigung der Hardware oder physischen Gefahren.

    Wichtig
    Wichtig: Wichtiger Hinweis

    Wichtige Informationen, die Sie beachten sollten, bevor Sie den Vorgang fortsetzen.

    Anmerkung
    Anmerkung: Anmerkung

    Ergänzende Informationen, beispielsweise zu unterschiedlichen Softwareversionen.

    Tipp
    Tipp: Tipp

    Hilfreiche Informationen, etwa als Richtlinie oder praktische Empfehlung.

4 Support

Im Folgenden finden Sie die Supportbestimmung für SUSE Linux Enterprise Server sowie allgemeine Informationen über Technologievorschauen. Details über den Produktlebenszyklus finden Sie im Book “Upgradehandbuch”, Chapter 2 “Lebenszyklus und Support”.

Wenn Sie Anspruch auf Support haben, finden Sie Details zum Sammeln von Informationen für ein Support-Ticket im Book “Verwaltungshandbuch”, Chapter 39 “Erfassen der Systeminformationen für den Support”.

4.1 Supportbestimmung für SUSE Linux Enterprise Server

Sie benötigen ein entsprechendes Abonnement bei SUSE, um Support zu erhalten. Gehen Sie zur Anzeige der für Sie verfügbaren spezifischen Support-Angebote zu https://www.suse.com/support/ und wählen Sie das betreffende Produkt aus.

Die Support-Stufen sind folgendermaßen definiert:

L1

Problemermittlung: Technischer Support mit Informationen zur Kompatibilität, Nutzungs-Support, kontinuierliche Wartung, Informationssammlung und einfache Problembehandlung anhand der verfügbaren Dokumentation.

L2

Problemisolierung: Technischer Support zur Datenanalyse, Reproduktion von Kundenproblemen, Isolierung von Problembereichen und Lösung für Probleme, die in Stufe 1 nicht gelöst wurden sowie Vorbereitung für Stufe 3.

L3

Problembehebung: Technischer Support zur Lösung von Problemen durch technische Maßnahmen zur Behebung von Produktfehlern, die durch den Support der Stufe 2 erkannt wurden.

Vertragskunden und Partner erhalten SUSE Linux Enterprise Server mit L3-Support für alle Pakete, ausgenommen:

  • Technologievorschauen

  • Audio, Grafik, Schriftarten und Artwork

  • Pakete, für die ein zusätzlicher Kundenvertrag erforderlich ist

  • Einige Pakete, die im Lieferumfang von Modul Workstation Extension enthalten sind, erhalten nur L2-Support.

  • Pakete mit Namen endend auf -devel (die Header-Dateien und ähnliche Entwicklerressourcen enthalten) werden nur zusammen mit den entsprechenden Hauptpaketen unterstützt.

SUSE unterstützt nur die Nutzung von Originalpaketen. Also unveränderte und nicht kompilierte Pakete.

4.2 Technologievorschauen

Mit Technologievorschauen sind Pakete, Stacks oder Funktionen gemeint, die SUSE bereitstellt, um einen kurzen Einblick in bevorstehende Innovationen zu geben. Durch die Vorschauen haben Sie die Möglichkeit, neue Technologien in Ihrer Umgebung zu testen. Über Ihr Feedback würden wir uns sehr freuen. Wenn Sie eine Technologievorschau testen, kontaktieren Sie Ihre Ansprechpartner bei SUSE und teilen Sie ihnen Ihre Erfahrungen und Anwendungsfälle mit. Ihr Input ist für zukünftige Entwicklungen sehr hilfreich.

Technologievorschauen haben jedoch die folgenden Einschränkungen:

  • Technologievorschauen befinden sich noch in Entwicklung. Daher sind die Funktionen möglicherweise unvollständig oder auf andere Weise nicht für die Produktionsnutzung geeignet.

  • Technologievorschauen werden nicht unterstützt.

  • Technologievorschauen sind möglicherweise nur für bestimmte Hardwarearchitekturen verfügbar.

  • Details und Funktionen von Technologievorschauen sind Änderungen unterworfen. Upgrades auf Folgeversionen sind demnach nicht möglich und erfordern eine Neuinstallation.

  • Technologievorschauen können jederzeit verworfen werden. Zum Beispiel wenn SUSE erkennt, dass eine Vorschau nicht den Kunden- oder Marktanforderungen entspricht oder nachweislich nicht den Unternehmensstandards entspricht. SUSE ist nicht verpflichtet, eine unterstützte Version dieser Technologie in der Zukunft bereitzustellen.

Eine Übersicht der Technologievorschauen, die im Lieferumfang Ihres Produkts enthalten sind, finden Sie in den Versionshinweisen unter https://www.suse.com/releasenotes/.

Teil I Installationsvorbereitung

  • 1 Planung für SUSE Linux Enterprise Server
  • In diesem Kapitel werden einige grundlegende Überlegungen vor der Installation von SUSE Linux Enterprise Server beschrieben.

  • 2 Installation auf AMD64 und Intel 64
  • In diesem Kapitel werden die nötigen Schritte für die Vorbereitung der Installation von SUSE Linux Enterprise Server auf AMD64- und Intel-64-Rechnern beschrieben. Es beschreibt die für die Vorbereitung der verschiedenen Installationsmethoden erforderlichen Schritte. Die Liste der Hardware-Anforderungen bietet einen Überblick über die von SUSE Linux Enterprise Server unterstützten Systeme. Sie erhalten Informationen über verfügbare Installationsmethoden und mehrere bekannte Probleme. Sie lernen, wie Sie die Installation steuern, Installationsmedien zur Verfügung stelln und mit normalen Methoden booten können.

  • 3 Installation in der Arm AArch64-Architektur
  • In diesem Kapitel werden die erforderlichen Schritte für die Vorbereitung der Installation von SUSE Linux Enterprise Server auf ARM AArch64-Computern beschrieben. Es beschreibt die für die Vorbereitung der verschiedenen Installationsmethoden erforderlichen Schritte. Die Liste der Hardware-Anforderungen bietet einen Überblick über die von SUSE Linux Enterprise Server unterstützten Systeme. Sie erhalten Informationen über verfügbare Installationsmethoden und mehrere bekannte Probleme. Sie lernen, wie Sie die Installation steuern, Installationsmedien zur Verfügung stelln und mit normalen Methoden booten können.

  • 4 Installation auf IBM POWER
  • Dieses Kapitel beschreibt das Installationsverfahren für SUSE Linux Enterprise Server unter IBM POWER-Systemen.

  • 5 Installation unter IBM Z und LinuxONE
  • In diesem Kapitel wird die Vorbereitung der Installation von SUSE® Linux Enterprise Server auf IBM Z beschrieben. Hier finden Sie alle erforderlichen Informationen, mit denen Sie die Installation auf LPAR- und z/VM-Seite vorbereiten.

  • 6 Installation auf Hardware, die zum Zeitpunkt der Freigabe nicht unterstützt wurde
  • Bei bestimmter neuerer Hardware kann das Installationsmedium von SUSE Linux Enterprise Server nicht gebootet werden. Dies ist beispielsweise der Fall, wenn die Hardware zum Zeitpunkt der Freigabe von SUSE Linux Enterprise Server noch nicht erhältlich war. Für diese Situationen bietet SUSE verschiedene Kernel-Aktualisierungs-ISO-Images (kISO). In diesem Kapitel wird beschrieben, wie Sie SUSE Linux Enterprise Server mit der Kernel-Aktualisierung auf moderner Hardware installieren.

1 Planung für SUSE Linux Enterprise Server

In diesem Kapitel werden einige grundlegende Überlegungen vor der Installation von SUSE Linux Enterprise Server beschrieben.

1.1 Überlegungen zur Bereitstellung von SUSE Linux Enterprise Server

Die Bereitstellung eines Betriebssystems muss sowohl in einer bestehenden IT-Umgebung als auch in einer völlig neuen Implementierung sorgfältig vorbereitet werden. Zu Beginn Ihrer Planung sollten Sie die Projektziele und die benötigten Funktionen festlegen. Diese Überlegungen werden bei jedem Projekt anders aussehen. Immer sollten Sie sich jedoch die folgenden Fragen stellen:

  • Wie viele Installationen sind erforderlich? Von dieser Überlegung hängt die optimale Bereitstellungsmethode ab.

  • Wird das System als physischer Host oder als virtueller Computer ausgeführt?

  • Befindet sich das System in einer feindseligen Umgebung? In Book “Security and Hardening Guide”, Chapter 1 “Security and confidentiality” finden Sie einen Überblick über die daraus folgenden Konsequenzen.

  • Wie erhalten Sie reguläre Updates? Alle Patches stehen registrierten Benutzern online zur Verfügung. Die Registrierungs- und Patch-Support-Datenbank finden Sie im http://download.suse.com/.

  • Benötigen Sie für die lokale Installation Hilfe? SUSE bietet Schulungen, Support und Beratung für alle Fragen im Zusammenhang mit SUSE Linux Enterprise Server. Weitere Informationen hierzu finden Sie im https://www.suse.com/products/server/.

  • Benötigen Sie Produkte von Drittanbietern? Vergewissern Sie sich, dass das benötigte Produkt von der gewünschten Plattform unterstützt wird. Bei Bedarf bietet SUSE auch Unterstützung für Software auf anderen Plattformen an.

1.2 Bereitstellung von SUSE Linux Enterprise Server

Um sicherzustellen, dass Ihr System fehlerlos läuft, sollten Sie nur zertifizierte Hardware verwenden. Unsere Datenbank der zertifizierten Geräte wird regelmäßig aktualisiert. Ein Suchformular für zertifizierte Hardware finden Sie im https://www.suse.com/yessearch/Search.jsp.

Abhängig von der Anzahl der gewünschten Installationen empfehlen sich eventuell Installationsserver oder sogar völlig automatische Installationen. Wenn Sie Xen- oder KVM-Virtualisierungstechnologien verwenden möchten, empfehlen sich eventuell Netzwerk-root-Dateisysteme oder Netzwerkspeicherlösungen wie iSCSI.

SUSE Linux Enterprise Server umfasst eine Vielzahl an verschiedensten Services. Einen Überblick über die Dokumentation zu diesen Diensten finden Sie in diesem Handbuch in Book “Verwaltungshandbuch”, Preface “Vorwort”. Die meisten Konfigurationen lassen sich in YaST, dem Konfigurationsprogramm von SUSE, vornehmen. Darüber hinaus sind aber auch zahlreiche manuelle Konfigurationen möglich, die in den betreffenden Kapiteln beschrieben werden.

Über die Installation der Software hinaus sollten Sie in der Planung auch die Schulung der System-Endbenutzer sowie die Schulung Ihrer Helpdesk-Mitarbeiter berücksichtigen.

Anmerkung
Anmerkung: Terminologie

In den folgenden Abschnitten wird das System, auf dem Ihre neue SUSE Linux Enterprise Server-Installation ausgeführt wird, als Zielsystem oder Installationsziel bezeichnet. Der Begriff Repository (früher Installationsquelle genannt) wird für alle Quellen der Installationsdaten verwendet. Dazu gehören physische Medien wie CD, DVD und USB-Flash-Laufwerk, sowie Netzwerkserver, die die Installationsdaten im Netzwerk verteilen.

1.3 Ausführung von SUSE Linux Enterprise Server

Das Betriebssystem SUSE Linux Enterprise Server ist bewährt und stabil. Dennoch lassen sich Hardware-Ausfälle oder andere Ursachen für Ausfallzeiten und Datenverluste nicht gänzlich vermeiden. Sie sollten daher für jede wichtige Arbeit, bei der es zu einem Datenverlust kommen kann, regelmäßig Sicherungskopien anfertigen.

Aus Sicherheitsgründen und zum Schutz Ihrer Daten sollten Sie alle verwendeten Systeme regelmäßig aktualisieren. Wenn es um einen unternehmenswichtigen Server geht, sollten Sie einen zweiten, identischen Computer (außerhalb der Produktionsumgebung) ausführen und alle Änderungen darauf testen. Bei Hardware-Ausfällen steht Ihnen so auch ein redundantes System zur Verfügung, zu dem Sie jederzeit wechseln können.

1.4 Registrieren von SUSE Linux Enterprise Server

Um technischen Support und Produktaktualisierungen zu erhalten, müssen Sie Ihr SUSE-Produkt beim SUSE Customer Center registrieren und aktivieren. Es wird empfohlen, die Registrierung während der Installation vorzunehmen, da Sie so in der Lage sind, das System mit den neuesten verfügbaren Aktualisierungen und Patches zu installieren. Falls Sie gerade offline sind oder den Registrierungsschritt überspringen möchten, können Sie die Registrierung jederzeit später aus dem installierten System heraus nachholen.

Falls Ihr Unternehmen keinen lokalen Registrierungsserver anbietet, benötigen Sie für die Registrierung von SUSE Linux Enterprise ein SUSE Customer Center-Konto. Falls Sie noch kein Konto besitzen, wechseln Sie zur SUSE Customer Center-Startseite (https://scc.suse.com/), und erstellen Sie dort ein Konto.

Bei der Installation werden Sie aufgefordert, Ihren Registrierungscode einzugeben. Weitere Informationen finden Sie im Abschnitt 8.7, „Registrierung“.

Wenn Sie die Instanzen automatisch mit AutoYaST bereitstellen, können Sie das System während der Installation registrieren. Geben Sie hierzu die entsprechenden Informationen in der AutoYaST-Steuerungsdatei an. Weitere Informationen finden Sie im Book “AutoYaST Guide”, Chapter 4 “Configuration and installation options”, Section 4.3 “System registration and extension selection”.

Weitere Informationen zum Registrieren eines bereits installierten Systems finden Sie im Abschnitt 21.2, „Registrieren eines installierten Systems“.

1.5 Änderungen bei der Installation von SUSE Linux Enterprise Server Version 15

Ab SUSE Linux Enterprise Server 15 werden alle SUSE Linux Enterprise-basierten Produkte mit einem Unified Installer von einem einzigen Satz Installationsmedien für jede unterstützte Architektur installiert.

1.5.1 Unified Installer für SUSE Linux Enterprise-basierte Produkte

Ab SUSE Linux Enterprise Server 15 SP3 sind dies die folgenden grundlegenden Produkte:

ProduktnameUnterstützte Plattformen
SUSE Linux Enterprise ServerAMD64/Intel 64; AArch64; POWER; IBM Z
SUSE Linux Enterprise-Hochleistungs-ComputingAMD64/Intel 64; AArch64
SUSE Linux Enterprise Real TimeAMD64/Intel 64
SUSE Linux Enterprise Server für SAP-AnwendungenAMD64/Intel 64; POWER
SUSE Linux Enterprise DesktopAMD64/Intel 64
SUSE-Manager-ServerAMD64/Intel 64; POWER; IBM Z
SUSE-Manager-ProxyAMD64/Intel 64
SUSE Manager für Retail Branch ServerAMD64/Intel 64
SUSE Enterprise StorageAMD64/Intel 64; Arm; Intel 64

1.5.2 Installieren mit Internetzugriff

Wenn Sie eine Installation auf einem Rechner oder einer VM mit Internetzugriff durchführen, brauchen Sie zur Installation der oben aufgelisteten Produkte nur das Image SLE-15-SP3-Online-ARCH-GM-media1.iso für die gewünschte Architektur herunterzuladen.

Anmerkung
Anmerkung: Installieren von SUSE Manager

Zum Installieren von SUSE Manager-Produkten muss der Zielrechner direkten Zugriff auf das SUSE Customer Center oder einen RMT-Server haben.

1.5.3 Offline-Installation

Mit Ausnahme von SUSE Manager benötigen Sie zur Installation der anderen aufgelisteten Produkte keinen Zugriff auf das Internet, das SUSE Customer Center oder einen RMT-Server.

Laden Sie für die Offline-Installation zusätzlich das Image SLE-15-SP3-Full-ARCH-GM-media1.iso für die gewünschte Architektur herunter.

Es gibt ein zusätzliches, zweites Paket-Medium, doch es enthält nur Quellcode und wird für die Installation nicht benötigt.

Tipp
Tipp: Größe aller Medien

Die Größe aller Installationsmedien der SLE-15-SP3-Online-ARCH-GM-media1.iso übersteigt die Kapazität einer doppelschichtigen DVD. Daher können sie nur von einem USB-Flash-Laufwerk gebootet werden.

1.5.4 Quartalsweise aktualisierte Medien

Für die Installationsmedien und die VM-Gast-Images bietet SUSE zwei Varianten an:

  • Die erste, die GM im Dateinamen enthält, besteht aus dem Paketsatz, der im Lieferumfang des ersten Versands an den Kunden enthalten war.

  • Die zweite, die durch ein QU gefolgt von einer Zahl im Dateinamen gekennzeichnet ist, enthält denselben Paketsatz und zusätzlich alle Wartungsaktualisierungen der Pakete, die in der Zwischenzeit veröffentlicht wurden. Quartalsweise aktualisierte Medien werden alle drei Monate aktualisiert, wobei die erste Aktualisierung drei Monate nach der GM-Freigabe erfolgt.

Sie brauchen nur entweder die GM-Medien oder die QU-Medien, nicht beides. Welche Version Sie wählen, hängt von Ihren Bedürfnissen und Vorlieben ab. Wenn Ihre Hardware noch relativ neu ist, könnte die QU-Version die bessere Wahl sein. Der Installationsvorgang ist für beide Varianten identisch.

Für beide Varianten wird empfohlen, die neuesten Aktualisierungen, die nach der Erstellung der Images freigegeben wurden, während oder unmittelbar nach der Installation zu installieren.

2 Installation auf AMD64 und Intel 64

In diesem Kapitel werden die nötigen Schritte für die Vorbereitung der Installation von SUSE Linux Enterprise Server auf AMD64- und Intel-64-Rechnern beschrieben. Es beschreibt die für die Vorbereitung der verschiedenen Installationsmethoden erforderlichen Schritte. Die Liste der Hardware-Anforderungen bietet einen Überblick über die von SUSE Linux Enterprise Server unterstützten Systeme. Sie erhalten Informationen über verfügbare Installationsmethoden und mehrere bekannte Probleme. Sie lernen, wie Sie die Installation steuern, Installationsmedien zur Verfügung stelln und mit normalen Methoden booten können.

2.1 Hardware

Das Betriebssystem SUSE® Linux Enterprise Server eignet sich für die verschiedensten Hardware-Geräte. Es ist unmöglich, alle denkbaren Hardware-Kombinationen aufzuführen, die von SUSE Linux Enterprise Server unterstützt werden. Um Ihnen für die Planungsphase eine Richtlinie zur Verfügung zu stellen, werden hier die Mindestanforderungen dargestellt.

Wenn Sie ganz sichergehen möchten, dass eine bestimmte Computerkonfiguration funktioniert, erkundigen Sie sich, welche Plattformen von SUSE zertifiziert wurden. Eine Liste finden Sie im https://www.suse.com/yessearch/.

Die Intel-64- und AMD64-Architekturen unterstützen die einfache Migration von x86-Software auf 64 Bit. Wie die x86-Architektur stellen auch sie eine kostengünstige Alternative dar.

Prozessor

Alle aktuell erhältlichen CPUs werden unterstützt.

Maximale Anzahl von CPUs

Gemäß dem Software-Design unterstützen Intel 64 und AMD64 maximal 8192 CPUs. Wenn Sie ein so großes System nutzen möchten, informieren Sie sich auf unserer Webseite zur Hardware-Systemzertifizierung über die unterstützten Geräte (siehe https://www.suse.com/yessearch/).

Speicheranforderungen

Für eine Minimalinstallation sind mindestens 1024 MB Arbeitsspeicher erforderlich. Fügen Sie auf Rechnern mit mehr als zwei Prozessoren 512 MB pro CPU hinzu. Fügen Sie bei Installationen auf Remote-Systemen über HTTP oder FTP weitere 150 MB hinzu. Diese Werte gelten ausschließlich für die Installation des Betriebssystems. Der tatsächliche Arbeitsspeicherbedarf in der Produktion ist abhängig von der Auslastung des Systems.

Anforderungen an die Festplatte

Die Anforderungen an die Festplatte sind im Wesentlichen abhängig von der ausgewählten Installation und von der geplanten Nutzung des Computers. Gewöhnlich benötigen Sie mehr Speicherplatz als die Installationssoftware alleine, damit ein System ordnungsgemäß arbeitet. Mindestanforderungen für verschiedene Optionen:

Installationsumfang

Mindestanforderungen an die Festplatte

Expertenmodus

1,5 GB

Minimalinstallation

2,5 GB

GNOME-Desktop

3 GB

Alle Schemata

4 GB

Empfohlener Mindestwert (keine Btrfs-Snapshots): 10 GB

Erforderlicher Mindestwert (mit Btrfs-Snapshots): 16 GB

Empfohlener Mindestwert (mit Btrfs-Snapshots): 32 GB

Bei einer root-Partition kleiner als 10 GB macht das Installationsprogramm keinen Vorschlag für eine automatische Partitionierung und Partitionen müssen manuell erstellt werden. Daher werden als Mindestgröße für die root-Partition 10 GB empfohlen. Die root-Partition muss mindestens 16 GB groß sein, wenn Sie Btrfs-Snapshots auf dem root-Volume aktivieren möchten, um System-Rollbacks (siehe Book “Verwaltungshandbuch”, Chapter 7 “Systemwiederherstellung und Snapshot-Verwaltung mit Snapper”) zu aktivieren.

Boot-Methoden

Der Computer kann von einer CD oder über das Netzwerk gestartet werden. Zum Starten über das Netzwerk ist ein spezieller Boot-Server erforderlich. Die Einrichtung kann mit SUSE Linux Enterprise Server erfolgen.

2.2 Überlegungen zur Installation

Dieser Abschnitt umfasst zahlreiche Faktoren, die vor der Installation von SUSE Linux Enterprise Server auf AMD64- und Intel-64-Hardware zu berücksichtigen sind.

2.2.1 Installation auf Hardware oder auf einem virtuellen Computer

SUSE Linux Enterprise Server wird in der Regel als unabhängiges Betriebssystem installiert. Dank der Virtualisierung ist es auch möglich, mehrere Instanzen von SUSE Linux Enterprise Server auf derselben Hardware auszuführen. Die Installation des VM-Host-Servers erfolgt jedoch wie eine typische Installation mit einigen zusätzlichen Paketen. Die Installation von virtuellen Gästen wird in Book “Virtualization Guide”, Chapter 10 “Guest installation” beschrieben.

2.2.2 Installationsziel

Die meisten Installationen erfolgen auf der lokalen Festplatte. Daher müssen die Festplatten-Controller für das Installationssystem nicht zur Verfügung stehen. Wenn ein bestimmter Controller (z. B. ein RAID-Controller) ein zusätzliches Kernel-Modul benötigt, stellen Sie für das Installationssystem eine Aktualisierungsdiskette für das Kernel-Modul bereit.

Sonstige Installationsziele können verschiedene Arten von Block-Geräten sein, die ausreichenden Speicherplatz und eine entsprechende Geschwindigkeit zum Ausführen eines Betriebssystems bieten. Dies beinhaltet auch Netzwerk-Block-Geräte, wie iSCSI oder SAN. Die Installation kann auch auf Netzwerk-Dateisystemen mit den standardmäßigen Unix-Berechtigungen ausgeführt werden. Beim Starten dieser Systeme können jedoch Probleme auftreten, da sie von initramfs unterstützt werden müssen, damit das eigentliche System gestartet werden kann. Diese Installationen sind insbesondere dann von Nutzen, wenn Sie dasselbe System an verschiedenen Standorten starten müssen oder den Einsatz von Virtualisierungsfunktionen planen (z. B. Domänenmigration).

2.3 Steuern der Installation

Die Installation lässt sich auf verschiedene Arten steuern. Booten Sie die Einrichtung mit einer der Optionen in Abschnitt 2.4, „Booten des Installationssystems“ Weitere Informationen zum Aktivieren der verschiedenen Steuerungsmethoden finden Sie in Abschnitt 7.3.4, „Festlegen des Fernzugriffs“. Weitere Informationen zur Verwendung der einzelnen Fernsteuerungsmethoden finden Sie in Kapitel 11, Ferninstallation.

Ein kurzer Überblick über die verschiedenen Methoden:

Lokal mit Monitor und Tastatur

Mit dieser Methode wird SUSE Linux Enterprise Server am häufigsten installiert. Hierbei fällt auch der geringste Verwaltungsaufwand an, allerdings ist umfangreiche direkte Interaktion erforderlich.

Im Fernverfahren über SSH

Sie können die Installation über SSH wahlweise im Textmodus steuern oder die grafische Installation per X-Forwarding ausführen. Weitere Informationen finden Sie in Abschnitt 11.4, „Überwachen der Installation über SSH“.

Im Fernverfahren über serielle Konsole

Für diese Installationsmethode ist ein zweiter Computer erforderlich, der über ein Null-Modem-Kabel mit dem Computer verbunden ist, auf dem SUSE Linux Enterprise Server installiert werden soll. Die Installation wird dann im Textmodus fortgesetzt. Weitere Informationen finden Sie in Abschnitt 11.5, „Überwachen der Installation über die serielle Konsole“.

Im Fernverfahren über VNC

Diese Methode bietet eine grafische Installation ohne direkten Zugang zum Zielcomputer. Weitere Informationen finden Sie in Abschnitt 11.3, „Überwachen der Installation über VNC“.

Automatisch über AutoYaST

Wenn SUSE Linux Enterprise Server auf mehreren Computern mit ähnlicher Hardware installiert werden muss, empfiehlt es sich, die Installationen mithilfe von AutoYaST durchzuführen. Installieren Sie in diesem Fall zuerst eine Instanz von SUSE Linux Enterprise Server und erstellen Sie hierüber die erforderlichen AutoYaST-Konfigurationsdateien. Weitere Informationen finden Sie in Book “AutoYaST Guide”.

2.4 Booten des Installationssystems

In diesem Abschnitt erhalten Sie einen Überblick über die Schritte zur vollständigen Installation von SUSE Linux Enterprise Server.

Anders als bei früheren SLE-Produkten lässt sich die gesamte SLE 15 SP3-Produktlinie mit dem Unified Installer installieren. Detaillierte Informationen zu den Änderungen seit SUSE Linux Enterprise 15 und dazu, welche Medien für die Installation heruntergeladen werden sollen, finden Sie in Abschnitt 1.5, „Änderungen bei der Installation von SUSE Linux Enterprise Server Version 15“.

Eine vollständige Beschreibung der Installation und Konfiguration des Systems mit YaST finden Sie in Teil II, „Installationsvorgang“.

Wichtig
Wichtig: Aktualisierungen für die Hardwareunterstützung

Wenn Sie eine neue Hardware verwenden, kann es erforderlich sein, die Installation mit einem neueren Kernel von einem Kernel-Update-ISO-Image zu booten. Detaillierte Informationen finden Sie in Kapitel 6, Installation auf Hardware, die zum Zeitpunkt der Freigabe nicht unterstützt wurde.

  1. Bereiten Sie die Installationsmedien vor.

    USB-Flash-Laufwerk

    Das ist die einfachste Methode zum Starten der Installation. Zum Erstellen eines bootfähigen Flash-Laufwerks müssen Sie ein DVD-Image mit dem Befehl dd auf das Gerät kopieren. Der Flash-Datenträger darf nicht eingehängt sein, und alle Daten auf dem Gerät werden gelöscht.

    root # dd if=PATH_TO_ISO_IMAGE of=USB_STORAGE_DEVICE bs=4M
    Booten vom Netzwerk

    Falls von der Firmware des Zielrechners unterstützt, können Sie den Computer vom Netzwerk aus booten und von einem Server aus installieren. Diese Bootmethode erfordert einen Boot-Server, der die erforderlichen Boot-Images über das Netzwerk bereitstellt. Das exakte Protokoll hängt von Ihrer Hardware ab. In der Regel benötigen Sie mehrere Dienste, wie TFTP und DHCP oder PXE-Boot. Weitere Informationen finden Sie in Kapitel 17, Vorbereiten der Netzwerk-Boot-Umgebung.

    Die Installation ist von vielen gängigen Netzwerkprotokollen wie NFS, HTTP, FTP oder SMB möglich. Weitere Informationen zur Durchführung einer solchen Installation finden Sie in Kapitel 11, Ferninstallation.

  2. Konfigurieren Sie die Firmware des Zielsystems für das Booten des ausgewählten Mediums. Beachten Sie bei der Konfiguration der richtigen Boot-Reihenfolge die Dokumentation des Hardware-Herstellers.

  3. Legen Sie die erforderlichen Boot-Parameter für Ihre Installationsmethode fest. In Abschnitt 2.3, „Steuern der Installation“ finden Sie einen Überblick über die verschiedenen Methoden. In Kapitel 7, Boot-Parameter finden Sie eine Liste der Boot-Parameter.

  4. Führen Sie die Installation wie in Kapitel 8, Installationsschritte beschrieben aus. Das System muss nach Abschluss der Installation neu gestartet werden.

  5. Optional: Ändern Sie die Boot-Reihenfolge des Systems, sodass der Bootvorgang direkt von dem Medium aus gestartet wird, auf dem SUSE Linux Enterprise Server installiert wurde. Wenn das System vom Installationsmedium bootet, legt der erste Boot-Parameter fest, dass das installierte System gebootet werden soll.

  6. Nehmen Sie die anfängliche Systemkonfiguration gemäß Teil V, „Erstkonfiguration des Systems“ vor.

2.5 Umgang mit Boot- und Installationsproblemen

Vor der Bereitstellung wird SUSE® Linux Enterprise Server umfangreichen Tests unterzogen. Dennoch treten gelegentlich Probleme beim Start oder bei der Installation auf.

2.5.1 Probleme beim Booten

Startprobleme können das YaST-Installationsprogramm daran hindern, Ihr System zu starten. Ein weiteres Symptom ist, dass Ihr System nicht startet, nachdem die Installation abgeschlossen wurde.

Das installierte System startet, aber nicht die Medien.

Ändern Sie die Firmware oder das BIOS Ihres Computers, sodass die richtige Startsequenz eingestellt ist. Ziehen Sie hierzu die Dokumentation zu Ihrer Hardware zurate.

Der Computer stürzt ab

Ändern Sie die Konsole auf Ihrem Computer, sodass die Kernel-Ausgabe sichtbar wird. Überprüfen Sie die letzten Ausgaben. In der Regel erfolgt dies durch Drücken der Taste StrgAltF10. Falls Sie das Problem nicht beheben können, wenden Sie sich an die SUSE Linux Enterprise Server-Supportmitarbeiter. Um alle Systemmeldungen zum Startzeitpunkt zu protokollieren, verwenden Sie eine serielle Verbindung, wie in Abschnitt 2.3, „Steuern der Installation“ beschrieben.

Boot-Diskette

Die Boot-Disk ist eine nützliche Übergangslösung, falls Probleme bei der Festlegung der anderen Konfigurationen auftreten oder Sie die Entscheidung bezüglich des endgültigen Startmechanismus noch aufschieben möchten. Weitere Details über das Erstellen von Boot-Disks finden Sie im Book “Verwaltungshandbuch”, Chapter 14 “Der Bootloader GRUB 2” grub2-mkrescue.

Viruswarnung nach der Installation

In einigen BIOS-Varianten wird die Struktur des Bootsektors (MBR) überprüft und nach der Installation von GRUB 2 wird fälschlicherweise eine Virenwarnung angezeigt. Dieses Problem lässt sich lösen, indem Sie das BIOS aufrufen, nach den entsprechenden Einstellungen suchen und diese bearbeiten. Deaktivieren Sie beispielsweise virus protection. Sie können diese Option später wieder aktivieren. Wenn als einziges Betriebssystem Linux verwendet wird, ist dies jedoch nicht erforderlich.

2.5.2 Probleme bei der Installation

Wenn während der Installation ein unerwartetes Problem auftritt, sind Informationen zum Ermitteln der Ursache erforderlich. Die folgenden Anweisungen helfen Ihnen bei der Fehlersuche:

  • Überprüfen Sie die Ausgaben der verschiedenen Konsolen. Sie können die Konsole mit der Tastenkombination StrgAlt Fn wechseln. Rufen Sie beispielsweise eine Shell zum Ausführen verschiedener Befehle auf, indem Sie StrgAlt F2 drücken.

  • Versuchen Sie, die Installation mit sicheren Einstellungen zu starten. (Drücken Sie im Installationsbildschirm die Taste F5 und wählen Sie Sichere Einstellungen.) Wenn die Installation in diesem Fall problemlos funktioniert, besteht eine Inkompatibilität, die zu einem Fehler in ACPI oder APIC führt. In einigen Fällen kann eine BIOS- oder Firmware-Aktualisierung dieses Problem beheben.

  • Überprüfen Sie die Systemmeldungen in der Konsole des Installationssystems durch Eingabe des Befehls dmesg -T.

2.5.3 Umleiten der Boot-Quelle zum Installationsmedium

Um den Installationsprozess zu erleichtern und Installationsfehler zu vermeiden, wird das System gemäß der Standardeinstellung des SUSE Linux Enterprise Server-Installationsmediums von der ersten Festplatte gestartet. Zu diesem Zeitpunkt übernimmt in der Regel ein installierter Bootloader die Steuerung des Systems. Das bedeutet, dass das Boot-Medium während einer Installation im Laufwerk belassen werden kann. Wählen Sie zum Start der Installation eine der Installationsmöglichkeiten im Bootmenü des Mediums aus.

3 Installation in der Arm AArch64-Architektur

In diesem Kapitel werden die erforderlichen Schritte für die Vorbereitung der Installation von SUSE Linux Enterprise Server auf ARM AArch64-Computern beschrieben. Es beschreibt die für die Vorbereitung der verschiedenen Installationsmethoden erforderlichen Schritte. Die Liste der Hardware-Anforderungen bietet einen Überblick über die von SUSE Linux Enterprise Server unterstützten Systeme. Sie erhalten Informationen über verfügbare Installationsmethoden und mehrere bekannte Probleme. Sie lernen, wie Sie die Installation steuern, Installationsmedien zur Verfügung stelln und mit normalen Methoden booten können.

3.1 Hardware

Das Betriebssystem SUSE® Linux Enterprise Server eignet sich für die verschiedensten Hardware-Geräte. Es ist unmöglich, alle denkbaren Hardware-Kombinationen aufzuführen, die von SUSE Linux Enterprise Server unterstützt werden. Um Ihnen für die Planungsphase eine Richtlinie zur Verfügung zu stellen, werden hier die Mindestanforderungen dargestellt.

Wenn Sie ganz sichergehen möchten, dass eine bestimmte Computerkonfiguration funktioniert, erkundigen Sie sich, welche Plattformen von SUSE zertifiziert wurden. Eine Liste finden Sie im https://www.suse.com/yessearch/.

Prozessor

Als Mindestanforderung ist eine CPU erforderlich, die die Armv8-A-Befehlssatzinfrastruktur (Instruction Set Architecture, ISA) unterstützt, z. B. Arm Cortex-A53 oder Cortex-A57. Eine Liste der verfügbaren Armv8-A-Prozessoren finden Sie im https://www.arm.com/products/processors/cortex-a/.

CPUs mit der Armv8-R- (Echtzeit) und Armv8-M-ISA (Mikrokontroller) werden derzeit nicht unterstützt.

Maximale Anzahl von CPUs

Aufgrund des Software-Designs werden maximal 256 CPUs unterstützt. Wenn Sie ein so großes System nutzen möchten, informieren Sie sich auf unserer Webseite zur Hardware-Systemzertifizierung über die unterstützten Geräte (siehe https://www.suse.com/yessearch/).

Speicheranforderungen

Für eine Minimalinstallation sind mindestens 1024 MB Arbeitsspeicher erforderlich. Fügen Sie auf Rechnern mit mehr als zwei Prozessoren 512 MB pro CPU hinzu. Fügen Sie bei Installationen auf Remote-Systemen über HTTP oder FTP weitere 150 MB hinzu. Diese Werte gelten ausschließlich für die Installation des Betriebssystems. Der tatsächliche Arbeitsspeicherbedarf in der Produktion ist abhängig von der Auslastung des Systems.

Anforderungen an die Festplatte

Die Anforderungen an die Festplatte sind im Wesentlichen abhängig von der ausgewählten Installation und von der geplanten Nutzung des Computers. Gewöhnlich benötigen Sie mehr Speicherplatz als die Installationssoftware alleine, damit ein System ordnungsgemäß arbeitet. Mindestanforderungen für verschiedene Optionen:

Installationsumfang

Mindestanforderungen an die Festplatte

Expertenmodus

1,5 GB

Minimalinstallation

2,5 GB

GNOME-Desktop

3 GB

Alle Schemata

4 GB

Empfohlener Mindestwert (keine Btrfs-Snapshots): 10 GB

Erforderlicher Mindestwert (mit Btrfs-Snapshots): 16 GB

Empfohlener Mindestwert (mit Btrfs-Snapshots): 32 GB

Bei einer root-Partition kleiner als 10 GB macht das Installationsprogramm keinen Vorschlag für eine automatische Partitionierung und Partitionen müssen manuell erstellt werden. Daher werden als Mindestgröße für die root-Partition 10 GB empfohlen. Die root-Partition muss mindestens 16 GB groß sein, wenn Sie Btrfs-Snapshots auf dem root-Volume aktivieren möchten, um System-Rollbacks (siehe Book “Verwaltungshandbuch”, Chapter 7 “Systemwiederherstellung und Snapshot-Verwaltung mit Snapper”) zu aktivieren.

Boot-Methoden

Der Computer kann von einer CD oder über das Netzwerk gestartet werden. Zum Starten über das Netzwerk ist ein spezieller Boot-Server erforderlich. Die Einrichtung kann mit SUSE Linux Enterprise Server erfolgen.

3.2 Überlegungen zur Installation

Dieser Abschnitt umfasst zahlreiche Faktoren, die vor der Installation von SUSE Linux Enterprise Server auf ARM AArch64-Hardware zu berücksichtigen sind.

3.2.1 Installation auf Hardware oder auf einem virtuellen Computer

SUSE Linux Enterprise Server wird in der Regel als unabhängiges Betriebssystem installiert. Dank der Virtualisierung ist es auch möglich, mehrere Instanzen von SUSE Linux Enterprise Server auf derselben Hardware auszuführen. Die Installation des VM-Host-Servers erfolgt jedoch wie eine typische Installation mit einigen zusätzlichen Paketen. Die Installation von virtuellen Gästen wird in Book “Virtualization Guide”, Chapter 10 “Guest installation” beschrieben.

3.2.2 Installationsziel

Die meisten Installationen erfolgen auf der lokalen Festplatte. Daher müssen die Festplatten-Controller für das Installationssystem nicht zur Verfügung stehen. Wenn ein bestimmter Controller (z. B. ein RAID-Controller) ein zusätzliches Kernel-Modul benötigt, stellen Sie für das Installationssystem eine Aktualisierungsdiskette für das Kernel-Modul bereit.

Sonstige Installationsziele können verschiedene Arten von Block-Geräten sein, die ausreichenden Speicherplatz und eine entsprechende Geschwindigkeit zum Ausführen eines Betriebssystems bieten. Dies beinhaltet auch Netzwerk-Block-Geräte, wie iSCSI oder SAN. Die Installation kann auch auf Netzwerk-Dateisystemen mit den standardmäßigen Unix-Berechtigungen ausgeführt werden. Beim Starten dieser Systeme können jedoch Probleme auftreten, da sie von initramfs unterstützt werden müssen, damit das eigentliche System gestartet werden kann. Diese Installationen sind insbesondere dann von Nutzen, wenn Sie dasselbe System an verschiedenen Standorten starten müssen oder den Einsatz von Virtualisierungsfunktionen planen (z. B. Domänenmigration).

3.3 Steuern der Installation

Die Installation lässt sich auf verschiedene Arten steuern. Booten Sie die Einrichtung mit einer der Optionen in Abschnitt 2.4, „Booten des Installationssystems“ Weitere Informationen zum Aktivieren der verschiedenen Steuerungsmethoden finden Sie in Abschnitt 7.3.4, „Festlegen des Fernzugriffs“. Weitere Informationen zur Verwendung der einzelnen Fernsteuerungsmethoden finden Sie in Kapitel 11, Ferninstallation.

Ein kurzer Überblick über die verschiedenen Methoden:

Lokal mit Monitor und Tastatur

Mit dieser Methode wird SUSE Linux Enterprise Server am häufigsten installiert. Hierbei fällt auch der geringste Verwaltungsaufwand an, allerdings ist umfangreiche direkte Interaktion erforderlich.

Im Fernverfahren über SSH

Sie können die Installation über SSH wahlweise im Textmodus steuern oder die grafische Installation per X-Forwarding ausführen. Weitere Informationen finden Sie in Abschnitt 11.4, „Überwachen der Installation über SSH“.

Im Fernverfahren über serielle Konsole

Für diese Installationsmethode ist ein zweiter Computer erforderlich, der über ein Null-Modem-Kabel mit dem Computer verbunden ist, auf dem SUSE Linux Enterprise Server installiert werden soll. Die Installation wird dann im Textmodus fortgesetzt. Weitere Informationen finden Sie in Abschnitt 11.5, „Überwachen der Installation über die serielle Konsole“.

Im Fernverfahren über VNC

Diese Methode bietet eine grafische Installation ohne direkten Zugang zum Zielcomputer. Weitere Informationen finden Sie in Abschnitt 11.3, „Überwachen der Installation über VNC“.

Automatisch über AutoYaST

Wenn SUSE Linux Enterprise Server auf mehreren Computern mit ähnlicher Hardware installiert werden muss, empfiehlt es sich, die Installationen mithilfe von AutoYaST durchzuführen. Installieren Sie in diesem Fall zuerst eine Instanz von SUSE Linux Enterprise Server und erstellen Sie hierüber die erforderlichen AutoYaST-Konfigurationsdateien. Weitere Informationen finden Sie in Book “AutoYaST Guide”.

3.4 Booten des Installationssystems

In diesem Abschnitt erhalten Sie einen Überblick über die Schritte zur vollständigen Installation von SUSE Linux Enterprise Server.

Anders als bei früheren SLE-Produkten lässt sich die gesamte SLE 15 SP3-Produktlinie mit dem Unified Installer installieren. Detaillierte Informationen zu den Änderungen seit SUSE Linux Enterprise 15 und dazu, welche Medien für die Installation heruntergeladen werden sollen, finden Sie in Abschnitt 1.5, „Änderungen bei der Installation von SUSE Linux Enterprise Server Version 15“.

Eine vollständige Beschreibung der Installation und Konfiguration des Systems mit YaST finden Sie in Teil II, „Installationsvorgang“.

Wichtig
Wichtig: Aktualisierungen für die Hardwareunterstützung

Wenn Sie eine neue Hardware verwenden, kann es erforderlich sein, die Installation mit einem neueren Kernel von einem Kernel-Update-ISO-Image zu booten. Detaillierte Informationen finden Sie in Kapitel 6, Installation auf Hardware, die zum Zeitpunkt der Freigabe nicht unterstützt wurde.

  1. Bereiten Sie die Installationsmedien vor.

    USB-Flash-Laufwerk

    Das ist die einfachste Methode zum Starten der Installation. Zum Erstellen eines bootfähigen Flash-Laufwerks müssen Sie ein DVD-Image mit dem Befehl dd auf das Gerät kopieren. Der Flash-Datenträger darf nicht eingehängt sein, und alle Daten auf dem Gerät werden gelöscht.

    root # dd if=PATH_TO_ISO_IMAGE of=USB_STORAGE_DEVICE bs=4M
    DVD

    DVD-Medien sind bei SUSE erhältlich, Sie können jedoch auch eigene erstellen. Diese Methode ist nützlich, wenn Sie die Software auf mehreren Rechner gleichzeitig bereitstellen müssen. Sie benötigen dazu entweder ein integriertes Laufwerk oder ein externes DVD-Laufwerk. Dieser Vorgang ist von den meisten Computerbenutzern leicht zu bewältigen, doch für jeden Installationsvorgang ist sehr viel Interaktion erforderlich. Falls Sie keine DVD erhalten haben, rufen Sie das ISO-Image von der SUSE-Startseite ab und brennen Sie es auf eine leere, beschreibbare DVD.

    Booten vom Netzwerk

    Falls von der Firmware des Zielrechners unterstützt, können Sie den Computer vom Netzwerk aus booten und von einem Server aus installieren. Diese Bootmethode erfordert einen Boot-Server, der die erforderlichen Boot-Images über das Netzwerk bereitstellt. Das exakte Protokoll hängt von Ihrer Hardware ab. In der Regel benötigen Sie mehrere Dienste, wie TFTP und DHCP oder PXE-Boot. Weitere Informationen finden Sie in Kapitel 17, Vorbereiten der Netzwerk-Boot-Umgebung.

    Die Installation ist von vielen gängigen Netzwerkprotokollen wie NFS, HTTP, FTP oder SMB möglich. Weitere Informationen zur Durchführung einer solchen Installation finden Sie in Kapitel 11, Ferninstallation.

  2. Konfigurieren Sie die Firmware des Zielsystems für das Booten des ausgewählten Mediums. Beachten Sie bei der Konfiguration der richtigen Boot-Reihenfolge die Dokumentation des Hardware-Herstellers.

  3. Legen Sie die erforderlichen Boot-Parameter für Ihre Installationsmethode fest. In Abschnitt 3.3, „Steuern der Installation“ finden Sie einen Überblick über die verschiedenen Methoden. In Kapitel 7, Boot-Parameter finden Sie eine Liste der Boot-Parameter.

  4. Führen Sie die Installation wie in Kapitel 8, Installationsschritte beschrieben aus. Das System muss nach Abschluss der Installation neu gestartet werden.

  5. Optional: Ändern Sie die Boot-Reihenfolge des Systems, sodass der Bootvorgang direkt von dem Medium aus gestartet wird, auf dem SUSE Linux Enterprise Server installiert wurde. Wenn das System vom Installationsmedium bootet, legt der erste Boot-Parameter fest, dass das installierte System gebootet werden soll.

  6. Nehmen Sie die anfängliche Systemkonfiguration gemäß Teil V, „Erstkonfiguration des Systems“ vor.

3.5 Umgang mit Boot- und Installationsproblemen

Obwohl SUSE® Linux Enterprise Server einem umfangreichen Testprogramm unterzogen wird, treten möglicherweise gelegentlich Probleme beim Starten oder bei der Installation auf.

3.5.1 Probleme beim Booten

Startprobleme können das YaST-Installationsprogramm daran hindern, Ihr System zu starten. Ein weiteres Symptom ist, dass Ihr System nicht startet, nachdem die Installation abgeschlossen wurde.

Das installierte System startet, aber nicht die Medien.

Ändern Sie die Firmware Ihres Computers, sodass die richtige Startsequenz eingestellt ist. Ziehen Sie hierzu die Dokumentation zu Ihrer Hardware zurate.

Der Computer stürzt ab

Ändern Sie die Konsole auf Ihrem Computer, sodass die Kernel-Ausgabe sichtbar wird. Überprüfen Sie die letzten Zeilen der Ausgabe. In der Regel erfolgt dies durch Drücken der Taste StrgAltF10. Falls Sie das Problem nicht beheben können, wenden Sie sich an die SUSE Linux Enterprise Server-Supportmitarbeiter. Um alle Systemmeldungen zum Startzeitpunkt zu protokollieren, verwenden Sie eine serielle Verbindung, wie in Abschnitt 2.3, „Steuern der Installation“ beschrieben.

Boot-Diskette

Die Boot-Disk ist eine nützliche Übergangslösung. Verwenden Sie eine Boot-Disk, falls Probleme bei der Festlegung der anderen Konfigurationen auftreten oder Sie die Entscheidung bezüglich des endgültigen Startmechanismus noch aufschieben möchten. Weitere Details über das Erstellen von Boot-Disks finden Sie im Book “Verwaltungshandbuch”, Chapter 14 “Der Bootloader GRUB 2” grub2-mkrescue.

3.5.2 Probleme bei der Installation

Wenn während der Installation ein unerwartetes Problem auftritt, sind Informationen zum Ermitteln der Ursache erforderlich. Die folgenden Anweisungen helfen Ihnen bei der Fehlersuche:

  • Überprüfen Sie die Ausgaben der verschiedenen Konsolen. Sie können die Konsole mit der Tastenkombination StrgAlt Fn wechseln. Rufen Sie beispielsweise eine Shell zum Ausführen verschiedener Befehle auf, indem Sie StrgAlt F2 drücken.

  • Versuchen Sie, die Installation mit sicheren Einstellungen zu starten. (Drücken Sie im Installationsbildschirm die Taste F5 und wählen Sie Sichere Einstellungen.) Wenn die Installation in diesem Fall problemlos funktioniert, besteht eine Inkompatibilität, die zu einem Fehler in ACPI oder APIC führt. In einigen Fällen kann dieses Problem durch eine Firmware-Aktualisierung behoben werden.

  • Überprüfen Sie die Systemmeldungen in der Konsole des Installationssystems durch Eingabe des Befehls dmesg -T.

3.5.3 Umleiten der Boot-Quelle zur Boot-DVD

Um den Installationsprozess zu erleichtern und Installationsfehler zu vermeiden, wird das System gemäß der Standardeinstellung der SUSE Linux Enterprise Server-Installations-DVD von der ersten Festplatte gestartet. Zu diesem Zeitpunkt übernimmt in der Regel ein installierter Bootloader die Steuerung des Systems. Das bedeutet, dass die Start-DVD während einer Installation im Laufwerk bleiben kann. Wählen Sie zum Start der Installation eine der Installationsmöglichkeiten im Bootmenü des Mediums aus.

3.6 Raspberry Pi

SUSE Linux Enterprise Server ist die erste Linux-Distribution für Unternehmen, die den kostengünstigen Einplatinenrechner Raspberry Pi* unterstützt. SUSE Linux Enterprise Server 15 SP3 unterstützt folgende Modelle:

  • Raspberry Pi 3 Model A+

  • Raspberry Pi 3 Model B

  • Raspberry Pi 3 Model B+

  • Raspberry Pi 4 Model B

  • Raspberry Pi Compute Module 3

  • Raspberry Pi Compute Module 3+

Der Raspberry Pi unterscheidet sich in mehreren Aspekten von herkömmlichen Serverrechnern. Vor allem ist er nicht mit einem Bootloader zum Laden von Betriebssystemen ausgestattet. Im Lieferumfang von SUSE Linux Enterprise Server ist daher zusätzlich eine Bootloader-Software enthalten, die diese Lücke schließt.

3.6.1 Bootvorgang

Der primäre Prozessor des System-on-Chip (SoC) des Raspberry Pi ist die Broadcom VideoCore Graphics Processing Unit (GPU), nicht die Arm Central Processing Unit (CPU). Die GPU startet die Initialisierung der Hardware von einem Bootloader der ersten Stufe im On-Chip Boot-ROM. Nur wenige Konfigurationsoptionen haben Einfluss auf den Boot-ROM. Weitere Informationen hierzu finden Sie in Abschnitt 3.6.1.2, „OTP-Speicher“.

Die Hardware des Raspberry Pi 3 enthält keine integrierte Firmware. Stattdessen wird die Bootloader-Firmware der zweiten Stufe bootcode.bin bei jedem Rechnerstart vom Bootmedium geladen. Diese lädt im Gegenzug den Bootloader der dritten Stufe start.elf.

Die Hardware des Raspberry Pi 4 ist mit einem kleinen EEPROM (Electrically Erasable Programmable Read-Only Memory) für den Bootloader der zweiten Stufe ausgestattet. Ansonsten ist die Bootsequenz ähnlich wie beim Raspberry Pi 3, wobei der Bootloader der dritten Stufe start4.elf vom Bootmedium geladen wird.

Warnung
Warnung: EEPROM-Aktualisierung auf Raspberry Pi 4

Ein Update des Bootloaders der zweiten Stufe kann durch Booten von einer speziell dafür vorbereiteten microSD-Karte erfolgen.

Legen Sie dazu einfach ein Bootmedium Ihres Vertrauens ein und vergewissern Sie sich, dass nicht unabsichtlich eine Datei namens recovery.bin vorhanden ist.

Wenn eine Datei armstub8.bin vorhanden ist, wird sie als Bootloader der vierten Stufe in AArch64 Exception Level 3 (EL3) geladen. Andernfalls wird ein minimal integrierter Stub verwendet.

Anmerkung
Anmerkung: EL3-Sicherheitsüberlegungen

Ein für EL3 geladener Code (oft BL31 genannt) ist im Arbeitsspeicher vorhanden und Linux versucht möglicherweise Hypercalls in EL3 während der gesamten Laufzeit.

Vergewissern Sie sich, dass Ihre Bootmedien nicht unabsichtlich eine Datei armstub8.bin enthalten. SUSE Linux Enterprise Server 15 SP3 enthält sie nicht.

Beachten Sie, dass das SoC des Raspberry Pi keinen TrustZone-Sicherheitsspeicher bereitstellt. Sowohl das Betriebssystem auf der CPU als auch Software auf der GPU hat Zugriff auf seinen RAM. Er ist daher nicht für kryptografische EL0-s-Anwendungen geeignet. SUSE Linux Enterprise Server stellt aus diesem Grund kein EL1-s-TEE (Trusted Execution Environment) zur Verfügung.

SUSE Linux Enterprise Server für den Raspberry Pi ist zum Laden eines Bootloaders der fünften Stufe namens Das U-Boot konfiguriert.

3.6.1.1 Config.txt

Es gibt keinen nichtflüchtigen Speicher für Konfigurationsinformationen. Das bedeutet, dass es keine herkömmlichen Einstellungen zur Anpassung der Bootgerätereihenfolge, des Datums und der Uhrzeit usw. gibt.

Stattdessen liest der Bootloader eine Konfigurationsdatei config.txt vom Bootmedium. Die von SUSE bereitgestellte config.txt sollte nicht bearbeitet werden. Der Benutzer kann jedoch optional eine Datei extraconfig.txt bereitstellen, die gegebenenfalls die Einstellungen von config.txt überschreibt. Damit kann SUSE Linux Enterprise Server die Datei config.txt gegebenenfalls aktualisieren, ohne Benutzereinstellungen zu überschreiben.

3.6.1.2 OTP-Speicher

Das SoC umfasst außerdem einen kleinen einmal programmierbaren Speicher (OTP, One-Time Programmable Memory). Dieser kann zum Konfigurieren einiger Einstellungen verwendet werden, wie zum Beispiel ob der Boot-ROM versuchen sollte, von USB-Geräten oder über Ethernet zu booten.

Dieser OTP-Speicher ist auf der Raspberry Pi Foundation-Website beschrieben: https://www.raspberrypi.org/documentation/hardware/raspberrypi/otpbits.md

Warnung
Warnung: Nur einmal programmierbar

Die in den OTP-Speicher geschriebenen Konfigurationseinstellungen lassen sich nicht rückgängig machen.

Am häufigsten wird der OTP-Speicher zur Aktivierung des USB-Boots auf dem Raspberry Pi 3 Model B oder Compute Module 3 genutzt.

3.6.1.3 Aktivieren des USB-Bootmodus für Raspberry Pi 3 Model B

Bereiten Sie eine microSD-Karte vor wie in Abschnitt 3.6.3, „Bereitstellen eines Appliance-Image“ beschrieben, um dauerhaft das Booten von angeschlossenen USB-Massenspeichergeräten auf dem Raspberry Pi 3 Model B und von dessen integriertem USB-Ethernet zuzulassen. Fügen Sie vor dem Aushängen und Auswerfen der Karte und dem Booten von der Karte ihrer FAT-Partition eine Textdatei extraconfig.txt (Abschnitt 3.6.1.1, „Config.txt“) mit folgenden Einstellungen hinzu:

program_usb_boot_mode=1

Booten Sie dann von der bearbeiteten microSD-Karte wie üblich. Sobald Sie eine Ausgabe vom U-Boot- oder GRUB-Bootloader oder dem Linux-Kernel sehen, können Sie die Stromzufuhr trennen und dann die microSD-Karte entnehmen. Ihr Gerät sollte nun von USB booten können (Abschnitt 3.6.4, „Installation von USB-Medien“).

Beachten Sie, dass der für den Raspberry Pi 3 Model B aktivierte USB-Bootmodus nicht mehr deaktiviert werden kann (Abschnitt 3.6.1.2, „OTP-Speicher“).

Weitere Details finden Sie auf der Raspberry Pi Foundation-Website: https://www.raspberrypi.org/documentation/hardware/raspberrypi/bootmodes/msd.md

Für den Raspberry Pi Compute Module 3 sind dieselben Einstellungen erforderlich, doch die Bereitstellung des bearbeiteten Image ist etwas komplizierter.

3.6.2 Fehlen einer Echtzeituhr

Am Raspberry Pi ist keine batteriegestützte Echtzeituhr (Real-Time Clock, RTC) vorhanden.

Anmerkung
Anmerkung: Zeitsynchronisierung

Da keine Echtzeituhr vorhanden ist, müssen Raspberry Pi-Geräte so konfiguriert werden, dass sie über NTP (Network Time Protocol) die Uhrzeit von einem Netzwerkserver abrufen.

Die Hauptplatinen in Raspberry Pi Compute Modules weisen jedoch möglicherweise eine RTC auf.

Es ist auch möglich, eine RTC über den GPIO-Anschluss mittels HATs (Hardware Attached on Top) oder anderen Erweiterungsplatinen anzuschließen.

Prüfen Sie jedoch in jedem Fall, ob der entsprechende RTC-Chipsatz von SUSE Linux Enterprise Server unterstützt wird. Die angeschlossene RTC muss dem Betriebssystem über ein Gerätebaum-Overlay beschrieben werden (Abschnitt 3.6.1.1, „Config.txt“). Die MyPi-Hauptplatine kann beispielsweise Folgendes verwenden:

dtparam=i2c1=on
dtoverlay=i2c-rtc,ds1307

3.6.3 Bereitstellen eines Appliance-Image

Zur Bereitstellung eines Betriebssystems auf Raspberry Pi-Hardware wird am häufigsten ein vorinstalliertes System-Image auf einem Bootmedium, normalerweise einer microSD-Karte, kopiert. Dies ist die schnellste und einfachste Methode.

SUSE stellt ein vorkonfiguriertes bootfähiges Image von SUSE Linux Enterprise Server für Raspberry Pi-Hardware bereit. Es ist im Btrfs-Dateisystem enthalten und die Komprimierung ist aktiviert, um die Leistung zu verbessern und den Verschleiß auf microSD-Medien zu reduzieren.

Es wird eine microSD-Karte mit einer Mindestgröße von 8 GB empfohlen. Schnellere Karten erhöhen die Systemleistung. Beim ersten Bootvorgang erweitert das Betriebssystem das Dateisystem automatisch, um die Karte auszufüllen. Dies bedeutet, dass der erste Bootvorgang wesentlich länger dauert als folgende Bootvorgänge.

In der Kurzanleitung zu Raspberry Pi wird erläutert, wie das Karten-Image auf microSD-Medien geschrieben wird.

3.6.4 Installation von USB-Medien

Einige Modelle des Raspberry Pi lassen das Booten von USB-Massenspeichergeräten zu. Daraufhin ist die Bereitstellung von SUSE Linux Enterprise Server auf Raspberry Pi ähnlich wie bei Serverplattformen möglich.

Die Installation kann von einem USB-Wechselmedium wie einem Speicherstick auf eine microSD-Karte im internen Steckplatz des Rechners erfolgen. Alternativ kann die Installation von einem USB-Medium auf ein anderes USB-Medium wie eine über USB angeschlossene Festplatte durchgeführt werden.

Anmerkung
Anmerkung: Beschränkungen der USB-Bandbreite

Beachten Sie, dass der Ethernet-Controller auf dem Raspberry Pi 3 am integrierten USB-2.0-Bus des Geräts angeschlossen ist.

Daher muss ein Betriebssystem, das von einem über USB angeschlossenen Wechseldatenträger aus ausgeführt wird, die gesamte Bandbreite von 480 MBit/s des USB 2.0-Controllers freigeben. Dies schränkt die Leistung ein und könnte erhebliche Beeinträchtigungen der Netzwerkleistung nach sich ziehen.

Diese Beschränkung gilt nicht für den Raspberry Pi 4.

Neuere Modelle des Raspberry Pi 3 mit BCM2837 B0-Silizium (silberne statt schwarzer Chips), einschließlich Raspberry Pi 3 Model B+ und Compute Module 3+, ermöglichen standardmäßig das Booten von USB-Speichergeräten.

Bei älteren Modellen wie dem Raspberry Pi 3 Model B oder Compute Module 3, kann einmalig ein USB-Boot durch Booten von einer speziell dafür vorbereiteten microSD-Karte aktiviert werden. Eine Anleitung dazu finden Sie im Abschnitt 3.6.1.2, „OTP-Speicher“.

3.6.5 Installation vom Netzwerk

Da in der Hardware keine Firmware integriert ist (Abschnitt 3.6.1, „Bootvorgang“), ist das Netzwerk-Booten des Raspberry Pi über PXE komplexer als bei den meisten herkömmlichen Computern.

Der Vorgang des Einrichtens eines PXE-Bootservers für x86 und Arm ist im SUSE Best Practices-Dokument Einrichten eines Multi-PXE-Installationsservers beschrieben.

Die Raspberry Pi Foundation veröffentlicht Informationen über das Booten eines Raspberry Pi von einem anderen Raspberry Pi über PXE: https://www.raspberrypi.org/documentation/hardware/raspberrypi/bootmodes/net_tutorial.md

3.6.6 Zusätzliche Informationsquellen

Weitere Informationen finden Sie in den folgenden Ressourcen:

SUSE Linux Enterprise Server 15 SP3-Versionshinweise

Weitere Informationen zur Hardwarekompatibilität, den unterstützten Optionen und Funktionen bei der Ausführung auf Raspberry Pi finden Sie in den SUSE Linux Enterprise Server-Versionshinweisen in Abschnitt Boot und Treiberaktivierung für Raspberry Pi:

https://www.suse.com/releasenotes/aarch64/SUSE-SLES/15-SP3/#aarch64-rpi

Kurzanleitung zu Raspberry Pi

https://documentation.suse.com/sles-15/html/SLES-rpi-quick/art-rpiquick.html

Liste der openSUSE-Hardwarekompatibilität: Raspberry Pi 3

Das openSUSE-Projekt umfasst auch Informationen zu Installation und Konfiguration der Raspberry Pi-Hardware. Vieles davon gilt auch für SUSE Linux Enterprise.

Weitere Informationen hierzu finden Sie im https://en.opensuse.org/HCL:Raspberry_Pi3.

Das U-Boot

Weitere Informationen über den Bootloader Das U-Boot finden Sie auf der GitHub-Seite des Projekts unter https://github.com/u-boot/u-boot.

4 Installation auf IBM POWER

Dieses Kapitel beschreibt das Installationsverfahren für SUSE Linux Enterprise Server unter IBM POWER-Systemen.

4.1 Hardware

Zur Ausführung von SUSE Linux Enterprise Server unter POWER muss Ihre Hardware die unten aufgeführten Mindestanforderungen erfüllen.

Unterstützte Server

Schlagen Sie in der Datenbank der SUSE-zertifizierten Hardware nach, um sicherzustellen, dass Ihre spezielle Hardwarekonfiguration unterstützt wird. Die Datenbank ist verfügbar unter https://www.suse.com/yessearch/Search.jsp. SUSE Linux Enterprise Server unterstützt möglicherweise weitere IBM POWER-Systeme, die nicht aufgeführt sind. Aktuelle Informationen finden Sie im IBM Information Center für Linux unter https://www.ibm.com/support/knowledgecenter/linuxonibm/liaam/liaamdistros.htm.

Speicheranforderungen

Für eine Minimalinstallation sind mindestens 1024 MB RAM erforderlich. Fügen Sie bei Installationen auf Remote-Systemen über HTTP oder FTP weitere 150 MB hinzu. Diese Werte gelten ausschließlich für die Installation des Betriebssystems. Der tatsächliche Bedarf an RAM ist abhängig von der Auslastung des Systems.

Anforderungen an die Festplatte

Die Festplattenanforderungen hängen vom ausgewählten Typ der Installation und dem Benutzerszenario ab. Normalerweise benötigt ein ordnungsgemäß funktionierendes System mehr Speicherplatz als die Installation selbst. Die Mindestanforderungen sind wie folgt:

Installationsumfang

Mindestanforderungen an die Festplatte

Expertenmodus

1,5 GB

Minimalinstallation

2,5 GB

GNOME-Desktop

3 GB

Alle Schemata

4 GB

Empfohlener Mindestwert (keine Btrfs-Snapshots): 10 GB

Erforderlicher Mindestwert (mit Btrfs-Snapshots): 16 GB

Empfohlener Mindestwert (mit Btrfs-Snapshots): 32 GB

Wenn die Stammpartition kleiner als 10 GB ist, schlägt das Installationsprogramm keine Partitionierung vor. In diesem Fall müssen Sie Partitionen manuell erstellen. Wir empfehlen Ihnen, 10 GB für die Stammpartition zu reservieren, um dies zu vermeiden. Erhöhen Sie die Mindestgröße auf 16 GB, wenn Sie planen, Btrfs-Snapshots im root-Volume zu aktivieren (weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 7 “Systemwiederherstellung und Snapshot-Verwaltung mit Snapper”).

Vergewissern Sie sich vor der Installation von SUSE Linux Enterprise Server, dass am Server die neueste Firmware installiert ist. Die neueste Firmware finden Sie im IBM FixCentral: https://www.ibm.com/support/fixcentral/. Wählen Sie das System in der Liste der Produktgruppen aus. Im IBM PowerLinux Tools Repository steht weitere Software zur Verfügung. Unter https://ibm.co/3v6LuKp finden Sie weitere Informationen zur Verwendung des IBM PowerLinux Tools Repository.

4.2 Installieren von SUSE Linux Enterprise Server für POWER

Das folgende Verfahren beschreibt die Einrichtung einer Installationsumgebung. Überspringen Sie es, falls Sie bereits eine Installationsumgebung eingerichtet haben.

Vorgehen 4.1: Vorbereiten einer Installationsumgebung
  1. Starten Sie eine SSH-Sitzungen an Ihrer HMC und führen Sie das Kommando vtmenu aus.

  2. Wählen Sie den gewünschten POWER-Server und die LPAR aus. Wenn für die gewählte LPAR bereits eine Sitzung an der seriellen Konsole besteht, müssen Sie diese zunächst mit folgendem Kommando schließen:

    rmvterm -m SERVER -p LPAR
  3. Booten Sie die LPAR neu, indem Sie eine neue SSH-Sitzung an der HMC erstellen und folgendes Kommando ausführen:

    chsysstate -r lpar -m SERVER -o shutdown -n LPAR --immed --restart

    Beachten Sie, dass dieses Kommando einen Hard-Reboot der LPAR verursacht. Entfernen Sie die Flagge --immed aus dem oben genannten Kommando, um einen Soft-Reboot durchzuführen und ein ordnungsgemäßes Herunterfahren der aktiven Aufgaben zu ermöglichen.

  4. Drücken Sie nach Eingabeaufforderung an der seriellen Konsole die 1, um das SMS-Menü zu öffnen.

    SMS-Menü wählen
  5. Wählen Sie Remote-IPL (Initial Program Load) einrichten aus. Drücken Sie dazu 2 und Eingabetaste.

    "Remote IPL einrichten" auswählen
  6. Wählen Sie den NIC-Adapter für den Zugriff auf den TFTP-Server aus.

  7. Wählen Sie die zu verwendende IP-Version (zum Beispiel IPv4) aus.

  8. Wählen Sie das Protokoll für den Zugriff auf den TFTP-Server aus (zum Beispiel 1 für BOOTP).

  9. Wählen Sie IP-Parameter aus. Drücken Sie hierzu 1 und Eingabetaste.

  10. Konfigurieren Sie die erforderlichen Netzwerkparameter der LPAR, einschließlich IP-Adresse, Netzwerk-Gateway und Netzwerkmaske. Geben Sie in der Server-IP-Adresse die IP-Adresse des TFTP-Servers an.

    Netzwerkparameter konfigurieren
  11. Kehren Sie durch Drücken der Esc-Taste zum ersten Bildschirm zurück. Wählen Sie folgende Einträge in der angegebenen Reihenfolge aus:

    • Boot-Optionen auswählen

    • "Gerät installieren/booten" auswählen

    • Netzwerk

    • BOOTP

  12. Wählen Sie den vorher angegebenen NIC-Adapter aus und wählen Sie dann:

    • Normal Mode Boot

    • Ja

  13. Zu Beginn des Vorgangs sollten Sie ein GRUB-Menü mit einer Liste der am TFTP-Server verfügbaren Images sehen.

    GRUB-Menü

4.3 Installieren von SUSE Linux Enterprise Server

Im Allgemeinen verläuft die Installation von SUSE Linux Enterprise Server unter POWER ähnlich wie eine normale Installation.

Vorgehen 4.2: Installation von SUSE Linux Enterprise Server
  1. In den ersten beiden Schritten werden Sie aufgefordert, die gewünschte Sprache und Tastatur zu wählen und die Lizenzvereinbarung des Produkts zu lesen und ihr zuzustimmen.

  2. Wählen Sie als Nächstes die gewünschte Methode zur Produktregistrierung und führen Sie die Registrierung aus. Wenn Sie das System über das SUSE Customer Center registrieren, werden Sie aufgefordert, die Update-Repositorys zu aktivieren. Drücken Sie Ja.

    Registrieren des Produkts
  3. Um Module oder Erweiterungen zu installieren, wählen Sie die einzelnen Module mit den Pfeiltasten aus und drücken Sie Leertaste. Abhängig davon, welche Erweiterungen und Module Sie auswählen, werden Sie aufgefordert, GnuPG-Schlüssel für die verknüpften Repositorys zu importieren.

    Auswählen von Erweiterungen und Modulen
  4. Installieren Sie die gewünschten Add-on-Produkte. Falls Sie ein Add-on installieren möchten, müssen Sie die Installationsquelle dafür angeben.

    Installieren von Add-on-Produkten
  5. Geben Sie ein Partitionsschema für die Installation an. Drücken Sie Weiter oder AltN, um den Standardvorschlag zu akzeptieren.

    Angeben eines Partitionsschemas
  6. Wählen Sie die für Ihr spezielles Szenario geeignete Systemrolle.

    Wählen einer Systemrolle
  7. Auf den nächsten Bildschirmen können Sie die entsprechende Zeitzone angeben und einen Benutzer erstellen. Falls Sie keinen Benutzer erstellen möchten, werden Sie aufgefordert, ein root-Passwort anzugeben.

  8. Vergewissern Sie sich am Bildschirm mit der Installationszusammenfassung, dass der SSH-Dienst aktiviert und ein SSH-Port geöffnet ist. Drücken Sie dazu auf Ändern, gehen Sie zum Bildschirm Grundlegende Firewall- und SSH-Konfiguration und aktivieren Sie die entsprechenden Optionen. Klicken Sie auf OK.

    Konfigurieren der SSH-Einstellungen
  9. Bestätigen Sie die Installationskonfiguration und drücken Sie zum Starten des Installationsvorgangs auf Installieren.

4.4 Zusätzliche Informationsquellen

Sie erhalten weitere Informationen zu IBM PowerLinux von SUSE und IBM:

  • Die SUSE Support Knowledge Base unter https://www.suse.com/support/kb/ stellt eine Informationsquelle dar, die Kunden bei der Lösung von Problemen unterstützt. Durchsuchen Sie die Knowledge Base zu SUSE Linux Enterprise Server mithilfe von relevanten Suchbegriffen.

  • Sicherheitswarnungen finden Sie im https://www.suse.com/support/security/. SUSE pflegt auch zwei Mailinglisten zum Thema Sicherheit:

    • Suse-security: Allgemeine Diskussion von Sicherheitsthemen zu Linux und SUSE. Alle Sicherheitswarnungen für SUSE Linux Enterprise Server werden an diese Liste gesendet.

    • suse-security-announce: Eine SUSE-Mailingliste speziell für Sicherheitswarnungen.

  • Überprüfen Sie im Fall von Hardwarefehlern die Systemsteuerung auf Codes. Sie können die Codes im IBM Power Systems Hardware Information Center unter https://ibm.co/3hsBDdP nachschlagen.

  • Im Abschnitt „IBM PowerLinux FAQ“ des Information Center unter https://ibm.co/3hwGmLC finden Sie Tipps zur Fehlerbehebung.

  • Um sich in die linuxppc-dev-Mailingliste einzutragen, melden Sie sich über die Formulare unter http://lists.ozlabs.org/listinfo/linuxppc-dev/ an.

5 Installation unter IBM Z und LinuxONE

In diesem Kapitel wird die Vorbereitung der Installation von SUSE® Linux Enterprise Server auf IBM Z beschrieben. Hier finden Sie alle erforderlichen Informationen, mit denen Sie die Installation auf LPAR- und z/VM-Seite vorbereiten.

5.1 Systemanforderungen

Dieser Abschnitt enthält grundlegende Informationen zu den Systemanforderungen, der MicroCode-Ebene und der Software. Außerdem werden die verschiedenen Installationstypen vorgestellt, und es wird erläutert, wie Sie einen IPL-Vorgang bei der ersten Installation ausführen. Ausführliche technische Informationen zu IBM Z unter SUSE Linux Enterprise Server finden Sie im https://www.ibm.com/developerworks/linux/linux390/documentation_suse.html.

5.1.1 Hardware

SUSE Linux Enterprise Server wird auf folgenden Plattformen ausgeführt:

  • IBM zEnterprise EC12 (zEC12) (2827)

  • IBM zEnterprise BC12 (zBC12) (2828)

  • IBM z13 (2964)

  • IBM z13s (2965)

  • IBM LinuxONE Emperor (2964)

  • IBM LinuxONE Rockhopper (2965)

  • IBM z14 (3906)

  • IBM z14 ZR1 (3907)

  • IBM z Systems z15 (8561)

  • IBM LinuxONE Emperor II (3906)

  • IBM LinuxONE Rockhopper II (3907)

  • IBM LinuxONE Rockhopper III (8561)

5.1.1.1 Speicheranforderungen

Für verschiedene Installationsmethoden gelten bei der Installation unterschiedliche Speicheranforderungen. Für die Textmodus-Installation unter z/VM, LPAR und KVM wird ein Arbeitsspeicher mit mindestens 1 GB empfohlen. Für die Installation im Grafikmodus ist ein Arbeitsspeicher mit mindestens 1,5 GB erforderlich.

Anmerkung
Anmerkung: Speicheranforderungen mit Ferninstallationsquellen

Ein Arbeitsspeicher mit mindestens 512 MB ist für die Installation von NFS-, FTP- und SMB-Installationsquellen erforderlich oder wenn VNC verwendet wird. Denken Sie daran, dass Arbeitsspeicheranforderungen auch von der Anzahl der Geräte abhängig ist, die für den z/VM-Gast oder das LPAR-Image sichtbar sind. Die Installation mit vielen zugänglichen Geräten (selbst wenn sie für die Installation nicht verwendet werden) kann mehr Speicher erfordern.

5.1.1.2 Festplattenspeicher, Anforderungen

Die Anforderungen an die Festplatte hängen im Wesentlichen von der Installation ab. Für ein ordnungsgemäß funktionierendes System benötigen Sie normalerweise mehr Speicherplatz als für die Installationssoftware erforderlich. Die Mindestanforderungen für die verfügbaren Installationstypen sind wie folgt:

Installationstyp

Mindestanforderungen an die Festplatte

Expertenmodus

1,5 GB

Minimalinstallation

2,5 GB

GNOME-Desktop

3 GB

Alle Schemata

4 GB

Empfohlener Mindestwert (keine Btrfs-Snapshots): 10 GB

Erforderlicher Mindestwert (mit Btrfs-Snapshots): 16 GB

Empfohlener Mindestwert (mit Btrfs-Snapshots): 32 GB

5.1.1.3 Netzwerkverbindung

Für die Kommunikation mit dem SUSE Linux Enterprise Server-System wird eine Netzwerkverbindung benötigt. Dabei kann es sich um eine oder mehrere der folgenden Verbindungen oder Netzwerkkarten handeln:

  • OSA Express Ethernet (einschließlich Fast und Gigabit Ethernet)

  • HiperSockets oder Gast-LAN

  • 10 GBE, VSWITCH

  • RoCE (RDMA over Converged Ethernet)

Folgende Schnittstellen sind noch enthalten, werden aber nicht mehr unterstützt:

  • CTC (oder virtuelles CTC)

  • ESCON

  • IP-Netzwerkschnittstelle für IUCV

Für Installationen unter KVM müssen die folgenden Anforderungen erfüllt sein, damit dem VM-Gast ein transparenter Zugang zum Netzwerk ermöglicht wird:

  • Die virtuelle Netzwerkschnittstelle muss mit einer Host-Netzwerkschnittstelle verbunden sein.

  • Die Host-Netzwerkschnittstelle muss mit einem Netzwerk verbunden sein, dem der virtuelle Server beitritt.

  • Wenn der Host mit einer redundanten Netzwerkverbindung konfiguriert ist, bei der zwei unabhängige OSA-Netzwerk-Ports zu einer Bonding-Netzwerkschnittstelle gruppiert sind, gilt für die Bonding-Netzwerkschnittstelle die Kennung bond0. Falls mehr als eine Bonding-Schnittstelle vorhanden ist, lauten sie bond1, bond2 usw.

  • Für die Einrichtung einer nicht redundanten Netzwerkverbindung ist die Kennung der einzelnen Netzwerkschnittstelle erforderlich. Die Kennung hat das Format enccw0.0.NNNN, wobei NNNN für die Gerätenummer der gewünschten Netzwerkschnittstelle steht.

5.1.2 MicroCode-Ebene, APARs und Korrekturen

Eine Dokumentation zu den Einschränkungen und Anforderungen für diese Version von SUSE Linux Enterprise Server finden Sie bei IBM developerWorks unter https://www.ibm.com/developerworks/linux/linux390/documentation_suse.html. Wir empfehlen die Verwendung des höchsten verfügbaren Servicelevels. Erfragen Sie die Mindestanforderungen beim IBM-Support.

Für z/VM werden die folgenden Versionen unterstützt:

  • z/VM 6.4

  • z/VM 7.1

Klären Sie die Reihenfolge der Installation mit dem IBM-Support, da es erforderlich sein kann, die VM APARs vor der Installation der neuen MicroCode-Ebenen zu aktivieren.

5.1.3 Software

Beim Installieren von SUSE Linux Enterprise Server über nicht-Linux-gestütztes NFS oder FTP können Probleme mit der NFS- oder FTP-Serversoftware auftreten. Der standardmäßige FTP-Server unter Windows* kann Fehler verursachen. Daher empfehlen wir, die Installation auf diesen Rechnern über SMB durchzuführen.

Zum Herstellen einer Verbindung mit dem SUSE Linux Enterprise Server-Installationssystem ist eine der folgenden Methoden erforderlich (SSH oder VNC wird empfohlen):

SSH mit Terminalemulation (xterm-kompatibel)

SSH ist ein Unix-Standardwerkzeug, das auf den meisten Unix- oder Linux-Systemen vorhanden ist. Für Windows können Sie den Putty SSH-Client verwenden, der unter http://www.chiark.greenend.org.uk/~sgtatham/putty/ verfügbar ist.

VNC-Client

Für Linux ist der VNC-Client vncviewer in SUSE Linux Enterprise Server als Teil des Pakets tightvnc enthalten. Für Windows ist TightVNC ebenfalls erhältlich. Laden Sie es von http://www.tightvnc.com/ herunter.

X-Server

Suchen Sie eine geeignete X-Server-Implementierung auf jedem beliebigen Linux- oder Unix-Arbeitsplatzrechner. Für Windows und macOS sind zahlreiche kommerzielle X-Window-Systemumgebungen erhältlich. Einige davon können als kostenlose Testversionen heruntergeladen werden. Eine Testversion von Mocha X Server von MochaSoft kann unter http://www.mochasoft.dk/freeware/x11.htm bezogen werden.

Tipp
Tipp: Zusätzliche Informationsquellen

Lesen Sie vor der Installation von SUSE Linux Enterprise Server unter IBM Z die README-Datei, die sich im root-Verzeichnis des ersten Installationsmediums von SUSE Linux Enterprise Server befindet.

5.2 Allgemeine Informationen

Dieser Abschnitt enthält grundlegende Informationen zu den Systemanforderungen, der MicroCode-Ebene und der Software. Außerdem werden die verschiedenen Installationstypen vorgestellt, und es wird erläutert, wie Sie einen IPL-Vorgang bei der ersten Installation ausführen. Ausführliche technische Informationen zu IBM Z unter SUSE Linux Enterprise Server finden Sie im https://www.ibm.com/developerworks/linux/linux390/documentation_suse.html.

5.2.1 Systemanforderungen

Dieser Abschnitt enthält eine Liste der Hardwarekomponenten für IBM Z, die von SUSE Linux Enterprise Server unterstützt werden. Als Nächstes wird die MicroCode-Ebene (MCL) erläutert, die in Ihrem IBM Z benutzt wird. Dies ist äußerst wichtig für die Installation. Zusätzliche Software, die installiert werden und für die Installation genutzt werden kann, wird am Ende dieses Abschnitts aufgeführt.

5.2.1.1 Hardware

SUSE Linux Enterprise Server wird auf folgenden Plattformen ausgeführt:

  • IBM zEnterprise System z196 (2817)

  • IBM zEnterprise System z114 (2818)

  • IBM zEnterprise EC12 (zEC12) (2827)

  • IBM zEnterprise BC12 (zBC12) (2828)

  • IBM z Systems z13 (2964)

  • IBM z Systems z13s (2965)

  • IBM z Systems z14 (3906)

  • IBM z Systems z14 ZR1 (3907)

  • IBM z Systems z15 (8561)

  • IBM LinuxONE Emperor (2964)

  • IBM LinuxONE Rockhopper (2965)

  • IBM LinuxONE Emperor II (3906)

  • IBM LinuxONE Rockhopper II (3907)

  • IBM LinuxONE Emperor III (8561)

5.2.1.1.1 Speicheranforderungen

Für verschiedene Installationsmethoden gelten bei der Installation unterschiedliche Speicheranforderungen. Nach Abschluss der Installation kann der Systemadministrator den Arbeitsspeicher auf die gewünschte Größe reduzieren. Für die Textmodus-Installation unter z/VM, LPAR und KVM wird ein Arbeitsspeicher mit mindestens 1 GB empfohlen. Für die Installation im Grafikmodus ist ein Arbeitsspeicher mit mindestens 1,5 GB erforderlich.

Anmerkung
Anmerkung: Speicheranforderungen mit Ferninstallationsquellen

Ein Arbeitsspeicher mit mindestens 512 MB ist für die Installation von NFS-, FTP- und SMB-Installationsquellen erforderlich oder wenn VNC verwendet wird. Denken Sie auch daran, dass die Anzahl der für den z/VM-Gast oder das LPAR-Image sichtbaren Geräte die Speicheranforderungen beeinflusst. Die Installation mit vielen zugänglichen Geräten (selbst wenn sie für die Installation nicht verwendet werden) kann mehr Speicher erfordern.

5.2.1.1.2 Festplattenspeicher, Anforderungen

Die Anforderungen an die Festplatte hängen im Wesentlichen von der Installation ab. Gewöhnlich benötigen Sie mehr Speicherplatz als die Installationssoftware alleine, damit ein System ordnungsgemäß arbeitet. Mindestanforderungen für verschiedene Optionen:

800 MB

Minimalinstallation

1,4 GB

Minimalinstallation + Basissystem

2,6 GB

Standardinstallation

3,6 GB+

Empfohlen (mit grafischem Desktop, Entwicklungspaketen und JAVA).

5.2.1.1.3 Netzwerkverbindung

Für die Kommunikation mit dem SUSE Linux Enterprise Server-System ist eine Netzwerkverbindung erforderlich. Dabei kann es sich um eine oder mehrere der folgenden Verbindungen oder Netzwerkkarten handeln:

  • OSA Express Ethernet (einschließlich Fast und Gigabit Ethernet)

  • HiperSockets oder Gast-LAN

  • 10 GBE, VSWITCH

  • RoCE (RDMA over Converged Ethernet)

Folgende Schnittstellen sind noch enthalten, werden aber nicht mehr unterstützt:

  • CTC (oder virtuelles CTC)

  • ESCON

  • IP-Netzwerkschnittstelle für IUCV

Für Installationen unter KVM müssen die folgenden Anforderungen erfüllt sein, damit dem VM-Gast ein transparenter Zugang zum Netzwerk ermöglicht wird:

  • Die virtuelle Netzwerkschnittstelle muss mit einer Host-Netzwerkschnittstelle verbunden sein.

  • Die Host-Netzwerkschnittstelle muss mit einem Netzwerk verbunden sein, dem der virtuelle Server beitritt.

  • Wenn der Host mit einer redundanten Netzwerkverbindung konfiguriert ist, bei der zwei unabhängige OSA-Netzwerk-Ports zu einer Bonding-Netzwerkschnittstelle gruppiert sind, gilt für die Bonding-Netzwerkschnittstelle die Kennung bond0. Falls mehr als eine Bonding-Schnittstelle vorhanden ist, lauten sie bond1, bond2 usw.

  • Für die Einrichtung einer nicht redundanten Netzwerkverbindung ist die Kennung der einzelnen Netzwerkschnittstelle erforderlich. Die Kennung hat das Format enccw0.0.NNNN, wobei NNNN für die Gerätenummer der gewünschten Netzwerkschnittstelle steht.

5.2.1.2 MicroCode-Ebene, APARs und Korrekturen

Eine Dokumentation zu den Einschränkungen und Anforderungen für diese Version von SUSE Linux Enterprise Server finden Sie bei IBM developerWorks unter http://www.ibm.com/developerworks/linux/linux390/documentation_suse.html. Es wird empfohlen, immer den höchsten verfügbaren Service-Level zu verwenden. Erfragen Sie die Mindestanforderungen bei Ihrem IBM-Support.

5.2.1.2.1 z/VM
  • z/VM 6.3 (Sie sollten zur Verbesserung der qclib-Ausgabe unbedingt APAR VM65419 (oder höher) installieren)

  • z/VM 6.4

  • z/VM 7.1

Besprechen Sie die Installationsreihenfolge mit Ihrem IBM-Support, da es eventuell erforderlich ist, die VM APARs vor der Installation der neuen MicroCode-Levels zu aktivieren.

5.2.1.3 Software

Beim Installieren von SUSE Linux Enterprise Server über nicht-Linux-gestütztes NFS oder FTP können Probleme mit der NFS- oder FTP-Serversoftware auftreten. Der Windows-Standard-FTP-Server kann Fehler verursachen, daher wird auf diesen Rechnern generell eine Installation über SMB empfohlen.

Zum Herstellen einer Verbindung mit dem SUSE Linux Enterprise Server-Installationssystem ist eine der folgenden Methoden erforderlich (SSH oder VNC wird empfohlen):

SSH mit Terminalemulation (xterm-kompatibel)

SSH ist ein Unix-Standardwerkzeug, das auf den meisten Unix- oder Linux-Systemen vorhanden ist. Für Windows können Sie den Putty SSH-Client verwenden, der unter http://www.chiark.greenend.org.uk/~sgtatham/putty/ verfügbar ist.

VNC-Client

Für Linux ist der VNC-Client vncviewer in SUSE Linux Enterprise Server als Teil des Pakets tightvnc enthalten. Für Windows ist TightVNC ebenfalls erhältlich. Laden Sie es von http://www.tightvnc.com/ herunter.

X-Server

Suchen Sie eine geeignete X-Server-Implementierung auf jedem beliebigen Linux- oder Unix-Arbeitsplatzrechner. Für Windows und macOS sind zahlreiche kommerzielle X-Window-Systemumgebungen erhältlich. Einige davon können als kostenlose Testversionen heruntergeladen werden. Eine Testversion von Mocha X Server von MochaSoft kann unter http://www.mochasoft.dk/freeware/x11.htm bezogen werden.

Tipp
Tipp: Zusätzliche Informationsquellen

Lesen Sie vor der Installation von SUSE Linux Enterprise Server unter IBM Z die README-Datei, die sich im root-Verzeichnis des ersten Installationsmediums von SUSE Linux Enterprise Server befindet. Mit dieser Datei ist die vorliegende Dokumentation abgeschlossen.

5.2.2 Installationsarten

In diesem Abschnitt finden Sie einen Überblick über die verschiedenen Installationstypen, die für SUSE Linux Enterprise Server auf IBM Z zur Auswahl stehen. SUSE Linux Enterprise Server kann in einer LPAR, als Gast in z/VM oder als Gast in KVM installiert werden.

Abhängig vom Modus der Installation (LPAR oder z/VM) gibt es verschiedene Möglichkeiten zum Start des Installationsvorgangs und Ausführen eines IPL-Vorgangs für das installierte System.

5.2.2.1 LPAR

Wenn Sie SUSE Linux Enterprise Server für IBM Z in eine logische Partition (LPAR) installieren, weisen Sie der Instanz die nötigen Arbeitsspeicher- und Prozessorressourcen zu. Installation in LPAR wird für stark belastete Produktionscomputer empfohlen. Durch die Ausführung in einer LPAR stehen außerdem höhere Sicherheitsstandards zur Verfügung. Netzwerkverbindungen zwischen LPARs werden über externe Schnittstellen oder Hipersockets ermöglicht. Wenn Sie die Installation für die Virtualisierung mit KVM einsetzen möchten, wird die Installation in einer LPAR dringend empfohlen.

5.2.2.2 z/VM

Die Ausführung von SUSE Linux Enterprise Server für IBM Z in z/VM bedeutet, dass SUSE Linux Enterprise Server als Gastsystem in z/VM fungiert. Ein Vorteil dieses Modus ist, dass Sie von z/VM die volle Kontrolle über SUSE Linux Enterprise Server haben. Dies ist sehr nützlich für Kernel-Entwicklung oder Kernel-basierte Fehlersuche. Es ist auch sehr einfach, Hardware zu Linux-Gästen hinzuzufügen oder von ihnen zu entfernen. Das Anlegen von SUSE Linux Enterprise Server-Gästen ist unkompliziert und Sie können Hunderte von Linux-Instanzen gleichzeitig ausführen.

5.2.2.3 KVM-Gast

Damit SUSE Linux Enterprise Server für IBM Z als KVM-Gast installiert werden kann, muss eine Instanz des KVM-Hostservers in der logischen Partition (LPAR) installiert sein. Weitere Informationen zur Installation von Gästen finden Sie in Prozedur 5.3, „Überblick über die Installation eines KVM-Gasts“.

5.2.3 IPL-Optionen

Dieser Abschnitt bietet die Informationen, die Sie zur Ausführung eines IPL für die erste Installation benötigen. Abhängig von der Art der Installation müssen unterschiedliche Optionen verwendet werden. Es werden der VM-Reader, das Laden von CD-ROM oder von einem Server sowie das Laden von einer per SCSI verbundenen DVD-ROM vorgestellt. Die Installation der Softwarepakete, die über das Netzwerk erfolgt, benötigt das IPL-Medium nicht.

5.2.3.1 VM Reader

Übertragen Sie für die Ausführung des IPL von einem VM-Reader zunächst die erforderlichen Dateien in den Reader. Zur Vereinfachung der Administration wird empfohlen, den Benutzer linuxmnt anzulegen, der eine Minidisk mit den Dateien und Skripten besitzt, die für IPL benötigt werden. Auf diese Minidisk greifen dann die Linux-Gäste im Nur-Lese-Modus zu. Weitere Informationen finden Sie im Abschnitt 5.3.4.2.1, „IPL vom z/VM-Reader“.

5.2.3.2 Laden von einem Wechselmedium oder einem Server

Laden Sie für den IPL-Vorgang auf eine LPAR das Kernel-Image entweder direkt vom CD/DVD-ROM-Gerät der SE oder HMC oder von jedem Remote-System, das über FTP zugänglich ist. Diese Funktion kann von der HMC ausgeführt werden. Für die Installation ist eine Datei mit einer Zuordnung des Speicherorts der Installationsdaten im Dateisystem sowie den Arbeitsspeicherpositionen erforderlich, an die die Daten kopiert werden sollen.

Für SUSE Linux Enterprise Server gibt es zwei Dateien. Beide befinden sich im Stammverzeichnis des ersten Installationsmediums:

  • suse.ins: Damit diese Datei funktioniert, müssen Sie den Netzwerkzugriff in Linuxrc einrichten, bevor Sie die Installation starten.

  • susehmc.ins: Hiermit können Sie die Installation ohne Netzwerkzugriff ausführen.

Erweitern Sie im linken Navigationsbereich der HMC den Eintrag Systems Management (Systemverwaltung) › Systeme, und wählen Sie das Mainframe-System aus, mit dem Sie arbeiten möchten. Wählen Sie die LPAR, in der SUSE Linux Enterprise Server gebootet werden soll, in der Tabelle der LPARs aus, und wählen Sie Load from Removable Media or Server (Von Wechselmedium oder Server laden).

Wählen Sie Hardware Management Console CD-ROM/DVD (CD-ROM/DVD der HMC) oder FTP Source (FTP-Quelle) aus. Bei Auswahl der letzteren Option müssen Sie die Adresse oder den Namen des Servers und Ihren Berechtigungsnachweis eingeben. Falls sich die entsprechende .ins-Datei nicht im root-Verzeichnis des Servers befindet, müssen Sie den Pfad dieser Datei angeben. Navigieren Sie zum Menü Select the software to load (Zu ladende Software auswählen) und wählen Sie dort den Eintrag für die entsprechende .ins-Datei aus. Starten Sie die Installation mit OK.

5.2.3.3 Laden von einer per SCSI verbundenen DVD

Zur Ausführung von IPL von einer SCSI-DVD benötigen Sie Zugriff auf einen FCP-Adapter, der mit einem DVD-Laufwerk verbunden ist. Darüber hinaus benötigen Sie Werte wie die WWPN und die LUN vom SCSI-Laufwerk. Weitere Informationen finden Sie im Abschnitt 5.3.4.1.2, „IPL von per FCP angeschlossener SCSI-DVD“.

5.2.3.4 Laden vom Netzwerk mit zPXE

Zur Ausführung von IPL vom Netzwerk mit zPXE ist ein Cobbler-Server mit Kernel, RAM-Datenträger und parmfile erforderlich. Es wird durch Ausführung des ZPXE EXEC-Skripts initiiert. Weitere Informationen finden Sie in Abschnitt 5.3.1.3, „Verwenden eines Cobbler-Servers für zPXE“. zPXE ist nur auf z/VM verfügbar.

5.3 Vorbereitung der Installation

In diesem Abschnitt erfahren Sie, wie Sie die Daten zur Installation bereitstellen, SUSE Linux Enterprise Server mit verschiedenen Methoden installieren und den IPL-Vorgang des SUSE Linux Enterprise Server-Installationssystems vorbereiten und ausführen. Das Kapitel enthält auch Informationen zur Netzwerkkonfiguration und Netzwerkinstallation.

5.3.1 Bereitstellen der Installationsdaten

In diesem Abschnitt finden Sie ausführliche Informationen dazu, wie Sie die Installationsdaten für SUSE Linux Enterprise Server auf IBM Z zur Installation bereitstellen. Je nach Computer- und Systemumgebung treffen Sie eine Auswahl zwischen der NFS- oder FTP-Installation. Wenn Sie in Ihrer Umgebung Microsoft Windows-Arbeitsstationen ausführen, können Sie auch das Windows-Netzwerk einschließlich des SMB-Protokolls für die Installation von SUSE Linux Enterprise Server auf dem IBM Z-System verwenden.

Tipp
Tipp: IPL von DVD

Der IPL-Vorgang kann von DVD ausgeführt werden und die DVD kann als Installationsmedium herangezogen werden. Dies ist besonders praktisch, wenn Beschränkungen für das Einrichten eines Installationsservers bestehen, der Installationsmedien über das Netzwerk bereitstellt. Voraussetzung ist ein per FCP angeschlossenes SCSI-DVD-Laufwerk.

Anmerkung
Anmerkung: Keine Installation von einer Festplatte

Es ist nicht möglich, von einer Festplatte zu installieren, indem der Inhalt der DVD auf eine Partition auf einem DASD kopiert wird.

5.3.1.1 Verwenden einer DVD für Linux Workstation oder SUSE Linux Enterprise Server

Sie können einen Linux-Arbeitsplatzrechner in Ihrer Rechnerumgebung ausführen, um die Installationsdaten dem IBM Z-Installationsvorgang mit NFS oder FTP bereitzustellen. Wenn der Linux-Arbeitsplatzrechner unter SUSE Linux Enterprise Server ausgeführt wird, können Sie einen Installationsserver (NFS oder FTP) über das YaST-Modul Installation Server einrichten, wie in Abschnitt 16.1, „Einrichten eines Installationsservers mithilfe von YaST“ beschrieben.

Wichtig
Wichtig: Export eingehängter Geräte über NFS

Durch das Exportieren des Dateisystem-root (/) werden eingehängte Geräte (z. B. DVD) nicht automatisch exportiert. Daher müssen Sie den Einhängepunkt unter /etc/exports explizit benennen:

/media/dvd  *(ro)

Starten Sie nach dem Ändern dieser Datei den NFS-Server mit dem Befehl sudo systemctl restart nfsserver neu.

Die Einrichtung eines FTP-Servers auf einem Linux-System umfasst die Installation und Konfiguration der Serversoftware, beispielsweise vsftpd. Wenn Sie SUSE Linux Enterprise Server verwenden, lesen Sie die Installationsanweisungen im Book “Verwaltungshandbuch”, Chapter 35 “Einrichten eines FTP-Servers mit YaST”. Da ein Download der Installationsdaten über eine anonyme Anmeldung nicht unterstützt wird, müssen Sie den FTP-Server für die Unterstützung der Benutzerauthentifizierung konfigurieren.

5.3.1.1.1 SUSE Linux Enterprise Server auf DVD

Das erste Installationsmedium des SUSE Linux Enterprise Server für IBM Z enthält ein bootfähiges Linux-Image für Intel-gestützte Arbeitsplatzrechner sowie ein Image für IBM Z.

Booten Sie bei Intel-basierten Arbeitsplatzrechnern von diesem Medium. Wählen Sie bei Aufforderung die gewünschte Antwortsprache und Tastaturbelegung und wählen Sie Rettungssystem starten aus. Hierfür sind mindestens 64 MB RAM erforderlich. Festplattenspeicher wird nicht benötigt, da sich das gesamte Rettungssystem im RAM des Arbeitsplatzrechners befindet. Für diesen Ansatz muss das Networking des Arbeitsplatzrechners manuell eingerichtet werden.

Führen Sie für IBM Z für Ihre LPAR/Ihren VM-Gast IPL von diesem Medium aus, wie in Abschnitt 5.3.4.1.2, „IPL von per FCP angeschlossener SCSI-DVD“ beschrieben. Nach Eingabe Ihrer Netzwerkparameter behandelt das Installationssystem das Medium als Quelle der Installationsdaten. Da an IBM Z kein X11-fähiges Terminal direkt angeschlossen werden kann, wählen Sie zwischen VNC- und SSH-Installation. SSH bietet auch eine grafische Installation durch Tunneling der X-Verbindung über SSH mit ssh -X.

5.3.1.2 Mit einer Microsoft Windows-Arbeitsstation

Sie können die Installationsmedien auf einer Microsoft Windows-Arbeitsstation in Ihrem Netzwerk zur Verfügung stellen. Am einfachsten gelingt dies mit dem SMB-Protokoll. Aktivieren Sie in jedem Fall SMB über TCP/IP, da hierdurch die Verkapselung von SMB-Paketen in TCP/IP-Pakete ermöglicht wird. Detaillierte Informationen finden Sie in der Windows-Online-Hilfe bzw. in anderen Windows-Dokumentationen, die sich auf Netzwerke beziehen.

5.3.1.2.1 Verwenden von SMB

Sie stellen die Installationsmedien mit SMB zur Verfügung, indem Sie das USB-Flash-Laufwerk mit SLE-15-SP3-Online-ARCH-GM-media1.iso am USB-Port der Windows-Arbeitsstation anschließen. Erstellen Sie dann unter Verwendung des Laufwerkbuchstabens des USB-Flash-Laufwerks eine neue Freigabe und stellen Sie sie für sämtliche Benutzer im Netzwerk bereit.

Der Installationspfad in YaST kann wie folgt lauten:

smb://DOMAIN;USER:PW@SERVERNAME/SHAREPATH

Die Platzhalter bedeuten dabei Folgendes:

DOMAIN

Optionale Arbeitsgruppe oder Active Directory-Domäne.

USER, PW

Optionaler Benutzername und Passwort eines Benutzers, der auf diesen Server und seine Freigabe zugreifen kann.

SERVERNAME

Name des Servers, auf dem sich die Freigabe(n) befinden.

SHAREPATH

Pfad für die Freigabe(n).

5.3.1.2.2 Mit NFS

Ziehen Sie die im Lieferumfang des Drittanbieter-Produkts enthaltene Dokumentation zurate, mit dem NFS-Serverdienste für Ihre Windows-Arbeitsstation aktiviert werden. Das USB-Flash-Laufwerk mit dem Medium SLE-15-SP3-Online-ARCH-GM-media1.iso muss sich im verfügbaren NFS-Pfad befinden.

5.3.1.2.3 FTP verwenden

Ziehen Sie die im Lieferumfang des Drittanbieter-Produkts enthaltene Dokumentation zurate, mit dem FTP-Serverdienste auf Ihrer Windows-Arbeitsstation aktiviert werden. Das USB-Flash-Laufwerk mit dem Medium SLE-15-SP3-Online-ARCH-GM-media1.iso muss sich im verfügbaren FTP-Pfad befinden.

Der in bestimmten Versionen von Microsoft Windows enthaltene FTP-Server implementiert lediglich eine Teilmenge des FTP-Kommandosatzes und ist für die Bereitstellung der Installationsdaten nicht geeignet. Verwenden Sie in diesem Fall einen FTP-Server eines Drittanbieters, der die erforderliche Funktionalität bietet.

5.3.1.2.4 Verwenden eines per FCP angeschlossenen SCSI-DVD-Laufwerks

Nachdem Sie den IPL-Vorgang, wie in Abschnitt 5.3.4.1.2, „IPL von per FCP angeschlossener SCSI-DVD“ beschrieben, durchgeführt haben, verwendet das Installationssystem die DVD als Installationsmedium. In diesem Fall benötigen Sie die Installationsmedien nicht auf einem FTP-, NFS- oder SMB-Server. Sie benötigen jedoch die Netzwerkkonfigurationsdaten für Ihren SUSE Linux Enterprise Server, da Sie das Netzwerk während der Installation zur Ausführung einer grafischen Installation über VNC oder X-Tunneling durch SSH einrichten müssen.

5.3.1.3 Verwenden eines Cobbler-Servers für zPXE

Zur Ausführung von IPL vom Netzwerk ist ein Cobbler-Server mit Kernel, initrd und Installationsdaten erforderlich. Der Cobbler-Server wird in den folgenden Schritten vorbereitet:

5.3.1.3.1 Importieren der Installationsdaten

Zum Importieren der Medien muss die Installationsquelle auf dem Cobbler-Server verfügbar sein – wahlweise als USB-Flash-Laufwerk oder als Netzwerkquelle. Führen Sie den folgenden Befehl aus, um die Daten zu importieren:

tux > sudo cobbler import --path=PATH1 --name=IDENTIFIER2 --arch=s390x

1

Einhängepunkt der Installationsdaten.

2

Eine Zeichenkette, die das importierte Produkt bezeichnet, z. B. sles15_s390x. Diese Zeichenkette wird als Name für das Unterverzeichnis verwendet, in das die Installationsdaten kopiert werden. Auf einem Cobbler-Server unter SUSE Linux Enterprise ist dies /srv/www/cobbler/ks_mirror/IDENTIFIER. Wenn Cobbler unter einem anderen Betriebssystem ausgeführt wird, gilt ggf. ein anderer Pfad.

5.3.1.3.2 Hinzufügen einer Distribution

Durch das Hinzufügen einer Distribution kann Cobbler die für IPL erforderlichen Bestandteile (Kernel und initrd) über zPXE bereitstellen. Zum Hinzufügen von SUSE Linux Enterprise Server für IBM Z führen Sie das folgende Kommando auf dem Cobbler-Server aus:

tux > sudo cobbler distro add --arch=s390 --breed=suse --name="IDENTIFIER"1 \
  --os-version=sles152 \
  --initrd=/srv/www/cobbler/ks_mirror/IDENTIFIER/boot/s390x/initrd3 \
  --kernel=/srv/www/cobbler/ks_mirror/IDENTIFIER/boot/s390x/linux4 \
  --kopts="install=http://cobbler.example.com/cobbler/ks_mirror/IDENTIFIER"5

1

Eindeutige Kennung für die Distribution, beispielsweise SLES 15 SP3 IBM Z.

2

Kennung für das Betriebssystem. Verwenden Sie sles15.

3

Path für initrd. Der erste Teil des Pfads (/srv/www/cobbler/ks_mirror/IDENTIFIER/) ist abhängig vom Speicherort der importierten Daten und dem Namen des Unterverzeichnisses, den Sie beim Importieren der Installationsdaten angegeben haben.

4

Pfad des Kernels. Der erste Teil des Pfads (/srv/www/cobbler/ks_mirror/IDENTIFIER/) ist abhängig vom Speicherort der importierten Daten und dem Namen des Unterverzeichnisses, den Sie beim Importieren der Installationsdaten angegeben haben.

5

URL des Installationsverzeichnisses auf dem Cobbler-Server.

5.3.1.3.3 Anpassen des Profils

Durch Hinzufügen einer Distribution (weitere Informationen finden Sie in Abschnitt 5.3.1.3.2, „Hinzufügen einer Distribution“) wird automatisch ein Profil mit dem entsprechenden IDENTIFIER generiert. Mit dem folgenden Befehl nehmen Sie einige erforderliche Anpassungen vor:

tux > sudo cobbler distro edit \
--name=IDENTIFIER1 --os-version=sles102 --ksmeta=""3
--kopts="install=http://cobbler.example.com/cobbler/ks_mirror/IDENTIFIER"4

1

Kennung für das Profil. Verwenden Sie die Zeichenkette, die Sie beim Hinzufügen der Distribution angegeben haben.

2

Version des Betriebssystems. Distribution, für die das Profil gelten soll. Verwenden Sie die Zeichenkette, die Sie mit --name=IDENTIFIER beim Importieren festgelegt haben.

3

Erforderliche Option zum Erstellen von Vorlagen für Kickstart-Dateien. Lassen Sie das Feld für diese Option leer, da sie für SUSE nicht verwendet wird.

4

Durch Komma getrennte Liste der Kernel-Parameter. Sie muss mindestens den Parameter install enthalten.

5.3.1.3.4 Hinzufügen von Systemen

Als letzten Schritt fügen Sie Systeme zum Cobbler-Server hinzu. Dieser Schritt muss für jeden IBM Z-Gast ausgeführt werden, der über zPXE booten sollte. Gäste werden durch ihre z/VM-Benutzer-ID gekennzeichnet (im folgenden Beispiel die ID linux01). Beachten Sie, dass die ID in Kleinbuchstaben geschrieben werden muss. Führen Sie den folgenden Befehl aus, um ein System hinzuzufügen:

tux > sudo cobbler system add --name=linux01 --hostname=linux01.example.com \
--profile=IDENTIFIER --interface=qdio \
--ip-address=192.168.2.103 --subnet=192.168.2.255 --netmask=255.255.255.0 \
--name-servers=192.168.1.116 --name-servers-search=example.com \
--gateway=192.168.2.1 --kopts="KERNEL_OPTIONS"

Mit der Option --kopts geben Sie den Kernel und die Installationsparameter an, die normalerweise in der Parameterdatei angegeben sind. Geben Sie die Parameter im folgenden Format an: PARAMETER1=VALUE1 PARAMETER2=VALUE2. Das Installationsprogramm fordert Sie zur Eingabe der fehlenden Parameter auf. Für eine vollständig automatisierte Installation müssen Sie alle Parameter für Netzwerke und DASDs angeben und eine AutoYaST-Datei bereitstellen. Nachfolgend sehen Sie ein Beispiel für einen Gast mit einer OSA-Schnittstelle, der die obigen Netzwerkparameter nutzt.

--kopts=" \
AutoYaST=http://192.168.0.5/autoinst.xml \
Hostname=linux01.example.com \
Domain=example.com \
HostIP=192.168.2.103 \
Gateway=192.168.2.1 \
Nameserver=192.168.1.116 \
Searchdns=example.com \
InstNetDev=osa; \
Netmask=255.255.255.0 \
Broadcast=192.168.2.255 \
OsaInterface=qdio \
Layer2=0 \
PortNo=0 \
ReadChannel=0.0.0700 \
WriteChannel=0.0.0701 \
DataChannel=0.0.0702 \
DASD=600"

5.3.1.4 Installieren von einem USB-Flash-Laufwerk der HMC

Für die Installation von SUSE Linux Enterprise Server auf IBM Z-Servern ist normalerweise eine Netzwerkinstallationsquelle erforderlich. Ist diese Anforderung nicht erfüllt, lässt SUSE Linux Enterprise Server das USB-Flash-Laufwerk der Hardware Management Console (HMC) als Installationsquelle für die Installation auf einer LPAR zu.

Gehen Sie folgendermaßen vor, um die Installation vom USB-Flash-Laufwerk der HMC durchzuführen:

  • Fügen Sie install=hmc:/ zur parmfile (weitere Informationen finden Sie in Abschnitt 5.6, „Die Parmfile – Automatisierte Systemkonfiguration“) oder zu den Kernel-Optionen hinzu.

  • Verwenden Sie linuxrc für die Installation im manuellen Modus, wählen Sie Installation starten, dann Installation und schließlich Hardware Management Console. Das Installationsmedium muss sich in der HMC befinden.

Wichtig
Wichtig: Konfigurieren des Netzwerks

Geben Sie vor der Installation eine Netzwerkkonfiguration in linuxrc an. Dies ist nicht über Boot-Parameter möglich und Sie benötigen dazu sehr wahrscheinlich einen Netzwerkzugriff. Rufen Sie in linuxrc Start Installation (Installation starten) auf und wählen Sie dann Netzwerkkonfiguration aus.

Wichtig
Wichtig: Das Linux-System muss zuerst gebootet werden

Erteilen Sie den Zugriff auf die Medien auf dem USB-Flash-Laufwerk der HMC erst nach dem Booten des Linux-Systems. Der IPL-Vorgang kann die Verbindung zwischen der HMC und der LPAR stören. Falls beim ersten Versuch mit der beschriebenen Methode ein Fehler auftritt, können Sie den Zugriff erteilen und die Option HMC wiederholen.

Anmerkung
Anmerkung: Installations-Repository

Das USB-Flash-Laufwerk wird nicht als Installations-Repository beibehalten, weil die Installation ein einmaliger Vorgang ist. Falls Sie ein Installations-Repository benötigen, müssen Sie das Online-Repository registrieren und verwenden.

5.3.2 Installationsarten

In diesem Abschnitt werden die Installationsschritte von SUSE Linux Enterprise Server für jeden einzelnen Installationsmodus beschrieben. Folgen Sei nach Abschluss der in den vorigen Kapiteln beschriebenen Vorbereitungsschritte dem Überblick des gewünschten Installationsmodus.

Wie in Abschnitt 5.3.1, „Bereitstellen der Installationsdaten“ beschrieben gibt es drei verschiedene Installationsmodi für Linux auf IBM Z: LPAR, z/VM und die Installation eines KVM-Gasts.

Vorgehen 5.1: Überblick über eine LPAR-Installation
  1. Bereiten Sie die für die Installation benötigten Geräte vor. Weitere Informationen hierzu finden Sie im Abschnitt 5.3.3.1, „IPL-Vorbereitung einer LPAR-Installation“.

  2. Führen Sie den IPL-(Initial Program Load-)Vorgang für das Installationssystem durch. Weitere Informationen hierzu finden Sie im Abschnitt 5.3.4.1, „Ausführen eines IPL-Vorgangs bei einer LPAR-Installation“.

  3. Konfigurieren Sie das Netzwerk. Weitere Informationen hierzu finden Sie im Abschnitt 5.3.5, „Netzwerkkonfiguration“.

  4. Stellen Sie eine Verbindung zum SUSE Linux Enterprise Server-Installationssystem her. Weitere Informationen hierzu finden Sie im Abschnitt 5.3.6, „Herstellen einer Verbindung zum SUSE Linux Enterprise Server-Installationssystem“.

  5. Starten Sie die Installation mit YaST, und führen Sie den IPL-Vorgang für das installierte System durch. Weitere Informationen hierzu finden Sie im Kapitel 8, Installationsschritte.

Vorgehen 5.2: Installationsüberblick über die z/VM-Installation
  1. Bereiten Sie die für die Installation benötigten Geräte vor. Weitere Informationen hierzu finden Sie im Abschnitt 5.3.3.2.1, „Hinzufügen eines Linux-Gasts mit dirMaint“.

  2. Führen Sie den IPL-(Initial Program Load-)Vorgang für das Installationssystem durch. Weitere Informationen hierzu finden Sie im Abschnitt 5.3.4.2, „Ausführen eines IPL-Vorgangs bei einer z/VM-Installation“.

  3. Konfigurieren Sie das Netzwerk. Weitere Informationen hierzu finden Sie im Abschnitt 5.3.5, „Netzwerkkonfiguration“.

  4. Stellen Sie eine Verbindung zum SUSE Linux Enterprise Server-Installationssystem her. Weitere Informationen hierzu finden Sie im Abschnitt 5.3.6, „Herstellen einer Verbindung zum SUSE Linux Enterprise Server-Installationssystem“.

  5. Starten Sie die Installation mit YaST, und führen Sie den IPL-Vorgang für das installierte System durch. Weitere Informationen hierzu finden Sie im Kapitel 8, Installationsschritte.

Vorgehen 5.3: Überblick über die Installation eines KVM-Gasts
  1. Erstellen Sie ein Image des virtuellen Datenträgers und schreiben Sie eine XML-Domänendatei. Weitere Informationen hierzu finden Sie im Abschnitt 5.3.3.3, „IPL-Vorbereitung der Installation eines KVM-Gasts“.

  2. Bereiten Sie das Installationsziel vor und führen Sie einen IPL-Vorgang für den VM-Gast (VM Guest) aus. Weitere Informationen hierzu finden Sie im Abschnitt 5.3.4.3, „Ausführen eines IPL-Vorgangs bei der Installation eines KVM-Gasts“.

  3. Abschnitt 5.3.5.3, „Einrichten des Netzwerks und Auswählen der Installationsquelle“.

  4. Stellen Sie eine Verbindung zum SUSE Linux Enterprise Server-Installationssystem her. Weitere Informationen hierzu finden Sie im Abschnitt 5.3.6, „Herstellen einer Verbindung zum SUSE Linux Enterprise Server-Installationssystem“.

  5. Starten Sie die Installation mit YaST, und führen Sie den IPL-Vorgang für das installierte System durch. Weitere Informationen hierzu finden Sie im Kapitel 8, Installationsschritte.

5.3.3 Vorbereiten des IPL-Vorgangs für das SUSE Linux Enterprise Server-Installationssystem

5.3.3.1 IPL-Vorbereitung einer LPAR-Installation

Konfigurieren Sie Ihr IBM Z-System so, dass der Start im ESA/S390- oder Nur-Linux-Modus erfolgt (mit entsprechendem Aktivierungsprofil und IOCDS). Weitere Informationen finden Sie in der IBM-Dokumentation. Fahren Sie fort wie in Abschnitt 5.3.4.1, „Ausführen eines IPL-Vorgangs bei einer LPAR-Installation“ beschrieben.

5.3.3.2 IPL-Vorbereitung einer z/VM-Installation

5.3.3.2.1 Hinzufügen eines Linux-Gasts mit dirMaint

Zunächst werden ein oder mehrere DASDs im System hinzugefügt, zur Verwendung durch den Linux-Gast-Benutzer in z/VM. Dann wird ein neuer Benutzer in z/VM erstellt. Das Beispiel zeigt das Verzeichnis für einen Benutzer LINUX1 mit Passwort LINPWD, 1 GB Speicher (auf maximal 2 GB erweiterbar), mehreren Minidisks (MDISK), zwei CPUs und einem OSA-QDIO-Gerät.

Tipp
Tipp: Zuweisen von Speicher für z/VM-Gast-Benutzer

Wenn Sie einem z/VM-Gast Speicher zuweisen, vergewissern Sie sich, dass die Speichergröße auf den bevorzugten Installationstyp abgestimmt ist. Weitere Informationen hierzu finden Sie im Abschnitt 5.2.1.1.1, „Speicheranforderungen“. Um die Arbeitsspeichergröße auf 1 GB einzustellen, verwenden Sie den Befehl CP DEFINE STORAGE 1G. Setzen Sie nach dem Abschluss der Installation die Arbeitsspeichergröße auf den gewünschten Wert zurück.

Beispiel 5.1: Konfiguration eines z/VM-Verzeichnisses
USER LINUX1 LINPWD 1024M 2048M G
*____________________________________________
* LINUX1
*____________________________________________
* This VM Linux guest has two CPUs defined.

CPU 01 CPUID 111111
CPU 02 CPUID 111222
IPL CMS PARM AUTOCR
IUCV ANY
IUCV ALLOW
MACH ESA 10
OPTION MAINTCCW RMCHINFO
SHARE RELATIVE 2000
CONSOLE 01C0 3270 A
SPOOL 000C 2540 READER *
SPOOL 000D 2540 PUNCH A
SPOOL 000E 3203 A
* OSA QDIO DEVICE DEFINITIONS
DEDICATE 9A0 9A0
DEDICATE 9A1 9A1
DEDICATE 9A2 9A2
*
LINK MAINT 0190 0190 RR
LINK MAINT 019E 019E RR
LINK MAINT 019D 019D RR
* MINIDISK DEFINITIONS
MDISK 201 3390 0001 0050 DASD40 MR ONE4ME TWO4ME THR4ME
MDISK 150 3390 0052 0200 DASD40 MR ONE4ME TWO4ME THR4ME
MDISK 151 3390 0253 2800 DASD40 MR ONE4ME TWO4ME THR4ME

In diesem Beispiel wird Minidisk 201 als Home-Disk des Gast-Benutzers verwendet. Minidisk 150 mit 200 Zylindern ist das Linux-Auslagerungsgerät. Auf Disk 151 mit 2800 Zylindern wird die Linux-Installation verwaltet.

Fügen Sie nun als Benutzer MAINT den Gast mit DIRM FOR LINUX1 ADD dem Benutzerverzeichnis hinzu. Geben Sie den Namen des Gast-Benutzers ein (LINUX1) und drücken Sie F5. Verwenden Sie zur Einrichtung der Umgebung des Benutzers Folgendes:

DIRM DIRECT
DIRM USER WITHPASS

Das letzte Kommando gibt eine Reader-Dateinummer zurück Diese Nummer wird für den nächsten Befehl benötigt:

RECEIVE <number> USER DIRECT A (REPL)

Sie können sich nun als Gast-Benutzer LINUX1 anmelden.

Wenn die Option dirmaint nicht verfügbar ist, konsultieren Sie die IBM-Dokumentation dazu, wie dieser Benutzer eingerichtet wird.

Fahren Sie mit Abschnitt 5.3.4.2, „Ausführen eines IPL-Vorgangs bei einer z/VM-Installation“ fort.

5.3.3.3 IPL-Vorbereitung der Installation eines KVM-Gasts

Für die Installation eines KVM-Gasts sind eine XML-Domänendatei, in der die virtuelle Maschine definiert ist, und mindestens ein Image des virtuellen Datenträgers für die Installation erforderlich.

5.3.3.3.1 Erstellen eines Image des virtuellen Datenträgers

Standardmäßig sucht libvirt in /var/lib/libvirt/images/ auf dem VM-Hostserver nach Datenträger-Images. Images können auch an einer anderen Stelle im Dateisystem gespeichert werden, allerdings wird empfohlen, zur einfacheren Verwaltung alle Images zentral an einem Ort zu speichern. Melden Sie sich zum Erstellen eines Image beim KVM-Hostserver an und führen Sie folgendes Kommando aus:

qemu-img create -f qcow2 /var/lib/libvirt/images/s12lin_qcow2.img 10G

Dadurch wird ein qcow2-Image mit einer Größe von 10 GB in /var/lib/libvirt/images/ erstellt. Weitere Informationen hierzu finden Sie im Book “Virtualization Guide”, Chapter 34 “Guest installation”, Section 34.2 “Managing disk images with qemu-img.

5.3.3.3.2 Schreiben einer XML-Domänendatei

Der VM-Gast wird in einer XML-Domänendatei definiert. Öffnen Sie zum Erstellen der XML-Domänendatei eine leere Datei (s15-1.xml) mit einem Editor und erstellen Sie eine Datei wie im folgenden Beispiel.

Beispiel 5.2: Beispiel einer XML-Domänendatei

Im folgenden Beispiel wird ein VM-Gast mit einer einzelnen CPU, 1 GB RAM und dem Image des virtuellen Datenträgers aus dem vorherigen Abschnitt (Abschnitt 5.3.3.3.1, „Erstellen eines Image des virtuellen Datenträgers“) erstellt. Es wird angenommen, dass der virtuelle Server an der Host-Netzwerkschnittstelle bond0 angeschlossen ist. Ändern Sie das Element für Ursprungsgeräte und passen Sie es an Ihre Netzwerkkonfiguration an.

<domain type="kvm">
 <name>s15-1</name>
 <description>Guest-System SUSE SLES15</description>
 <memory>1048576</memory>
 <vcpu>1</vcpu>
 <os>
  <type arch="s390x" machine="s390-ccw-virtio">hvm</type>
  <!-- Boot kernel - remove 3 lines after successfull installation -->
  <kernel>/var/lib/libvirt/images/s15-kernel.boot</kernel>
  <initrd>/var/lib/libvirt/images/s15-initrd.boot</initrd>
  <cmdline>linuxrcstderr=/dev/console</cmdline>
 </os>
 <iothreads>1</iothreads>
 <on_poweroff>destroy</on_poweroff>
 <on_reboot>restart</on_reboot>
 <on_crash>preserve</on_crash>
 <devices>
  <emulator>/usr/bin/qemu-system-s390x</emulator>
  <disk type="file" device="disk">
   <driver name="qemu" type="qcow2" cache="none" iothread="1" io="native"/>
   <source file="/var/lib/libvirt/images/s15lin_qcow2.img"/>
   <target dev="vda" bus="virtio"/>
  </disk>
  <interface type="direct">
   <source dev="bond0" mode="bridge"/>
   <model type="virtio"/>
  </interface>
  <console type="pty">
   <target type="sclp"/>
  </console>
 </devices>
</domain>

5.3.4 Ausführen des IPL-Vorgangs für das SUSE Linux Enterprise Server-Installationssystem

5.3.4.1 Ausführen eines IPL-Vorgangs bei einer LPAR-Installation

Für das Ausführen des IPL-Vorgangs für SUSE Linux Enterprise Server in einer LPAR stehen mehrere Methoden zur Auswahl. Die bevorzugte Vorgehensweise ist die Funktion Load from CD-ROM or server von SE bzw. HMC.

5.3.4.1.1 IPL von DVD-ROM

Markieren Sie die LPAR für die Installation und wählen Sie Load from CD-ROM or server aus. Lassen Sie das Feld für den Dateispeicherort frei oder geben Sie den Pfad zum Stammverzeichnis der ersten DVD-ROM ein und wählen Sie Fortfahren aus. Behalten Sie die Standardauswahl in der angezeigten Liste der Optionen bei. In den Kernel-Boot-Meldungen sollte nun Operating system messages angezeigt werden.

5.3.4.1.2 IPL von per FCP angeschlossener SCSI-DVD

Sie können den Load-Vorgang verwenden, indem Sie SCSI als Ladetyp für IPL von SCSI auswählen. Geben Sie den WWPN (Worldwide Port Name) und die LUN (Logical unit number) ein, die Ihre SCSI-Bridge oder Ihr SCSI-Speicher bereitstellt (16 Stellen – unterdrücken Sie auf keinen Fall die angehängten Nullen). Die Bootprogrammauswahl muss auf 2 stehen. Verwenden Sie Ihren FCP-Adapter als Ladeadresse und führen Sie einen IPL-Vorgang durch.

5.3.4.2 Ausführen eines IPL-Vorgangs bei einer z/VM-Installation

In diesem Abschnitt wird der IPL-Vorgang für das Installationssystem zur Installation von SUSE Linux Enterprise Server für IBM Z auf einem z/VM-System beschrieben.

5.3.4.2.1 IPL vom z/VM-Reader

Sie benötigen eine funktionierende TCP/IP-Verbindung und ein FTP-Clientprogramm in Ihrem neu definierten z/VM-Gast, um das Installationssystem über FTP zu übertragen. Die TCP/IP-Einrichtung für z/VM würde den Rahmen dieses Handbuchs sprengen. Ziehen Sie die entsprechende IBM-Dokumentation zurate.

Melden Sie sich für den IPL-Vorgang als z/VM-Linux-Gast-Benutzer an. Stellen Sie den Inhalt von Verzeichnis /boot/s390x des Unified Installer (Medium 1) in Ihrem Netzwerk über FTP bereit. Rufen Sie aus diesem Verzeichnis die Dateien linux, initrd, parmfile und sles.exec ab. Übertragen Sie die Dateien mit einer festen Blockgröße von 80 Zeichen. Geben Sie die Größe mithilfe des FTP-Kommandos locsite fix 80 an. linux (der Linux-Kernel) und initrd (das Installations-Image) müssen in jedem Fall als Binärdateien kopiert werden, Sie sollten folglich den binary-Übertragungsmodus verwenden. parmfile und sles.exec müssen im ASCII-Modus übertragen werden.

Im folgenden Beispiel werden die erforderlichen Schritte gezeigt. In diesem speziellen Szenario wird angenommen, dass der Zugriff auf die erforderlichen Dateien von einem FTP-Server mit IP-Adresse 192.168.0.3 möglich ist. Die Anmeldung erfolgt mit lininst.

Beispiel 5.3: Übertragen der Binärdateien über FTP
FTP 192.168.0.3
VM TCP/IP FTP Level 530
Connecting to 192.168.0.3, port 21
220 ftpserver FTP server (Version wu-2.4.2-academ[BETA-18](1)
Thu Feb 11 16:09:02 GMT 2010) ready.
USER
lininst
331 Password required for lininst
PASS
******
230 User lininst logged in.
Command:
binary
200 Type set to I
Command:
locsite fix 80
Command:
get /media/dvd1/boot/s390x/linux sles15.linux
200 PORT Command successful
150 Opening BINARY mode data connection for /media/dvd1/boot/s390x/linux
(10664192 bytes)
226 Transfer complete.
10664192 bytes transferred in 13.91 seconds.
Transfer rate 766.70 Kbytes/sec.
Command:
get /media/dvd1/boot/s390x/initrd sles12.initrd
200 PORT Command successful
150 Opening BINARY mode data connection for /media/dvd1/boot/s390x/initrd
(21403276 bytes)
226 Transfer complete.
21403276 bytes transferred in 27.916 seconds.
Transfer rate 766.70 Kbytes/sec.
Command:
ascii
200 Type set to A
Command:
get /media/dvd1/boot/s390x/parmfile sles12.parmfile
150 Opening ASCII mode data connection for /media/dvd1/boot/s390x/parmfile
(5 bytes)
226 Transfer complete.
5 bytes transferred in 0.092 seconds.
Transfer rate 0.05 Kbytes/sec.
Command:
get /media/dvd1/boot/s390x/sles.exec sles.exec
150 Opening ASCII mode data connection for /media/dvd1/boot/s390x/sles.exec
(891 bytes)
226 Transfer complete.
891 bytes transferred in 0.097 seconds.
Transfer rate 0.89 Kbytes/sec.
Command:
quit

Verwenden Sie das heruntergeladene REXX-Skript, sles.exec, um den IPL-Vorgang für das Linux-Installationssystem auszuführen. Mit diesem Skript werden Kernel, parmfile sowie der anfängliche RAM-Datenträger für den IPL-Vorgang in den Reader geladen.

Beispiel 5.4: SLES12 EXEC
/* REXX LOAD EXEC FOR SUSE LINUX S/390 VM GUESTS       */
/* LOADS SUSE LINUX S/390 FILES INTO READER            */
SAY ''
SAY 'LOADING SLES12 FILES INTO READER...'
'CP CLOSE RDR'
'PURGE RDR ALL'
'SPOOL PUNCH * RDR'
'PUNCH SLES12 LINUX A (NOH'
'PUNCH SLES12 PARMFILE A (NOH'
'PUNCH SLES12 INITRD A (NOH'
'IPL 00C'

Mithilfe dieses Skripts führen Sie den IPL-Vorgang für das SUSE Linux Enterprise Server-Installationssystem mit dem Kommando sles12 aus. Daraufhin wird der Linux-Kernel gestartet und gibt Boot-Meldungen aus.

Fahren Sie zur weiteren Installation mit Abschnitt 5.3.5, „Netzwerkkonfiguration“ fort.

5.3.4.2.2 IPL von per FCP angeschlossener SCSI-DVD

Bereiten Sie für die Ausführung des IPL-Vorgangs in z/VM den SCSI-IPL-Vorgang mithilfe des Parameters SET LOADDEV vor:

SET LOADDEV PORTNAME 200400E8 00D74E00 LUN 00020000 00000000 BOOT 2

Führen Sie nach der Festlegung des LOADDEV-Parameters mit den entsprechenden Werten den IPL-Vorgang Ihres FCP-Parameters durch, z. B.:

IPL FC00

Fahren Sie zur weiteren Installation mit Abschnitt 5.3.5, „Netzwerkkonfiguration“ fort.

5.3.4.2.3 IPL von einem Cobbler-Server mit zPXE

Zur Ausführung von IPL über einen Cobbler-Server mit zPXE übertragen Sie das Skript zpxe.rexx per FTP vom Cobbler-Server an den z/VM-Gast. Der z/VM-Gast benötigt dazu eine funktionsfähige TCP/IP-Verbindung und ein FTP-Client-Programm.

Melden Sie sich als z/VM Linux-Gast bei IPL an, und übertragen Sie das Skript mit einer festen Größe von 80 Zeichen im ASCII-Modus (ein Beispiel finden Sie im Beispiel 5.3, „Übertragen der Binärdateien über FTP“). Das Skript zpxe.rexx befindet sich auf der Unified Installer-DVD unter /boot/s390x/zpxe.rexx oder auf einem SLE-Cobbler-Server unter /usr/share/doc/packages/s390-tools/zpxe.rexx.

zpxe.rexx ersetzt die Datei PROFILE EXEC des Gasts. Fertigen Sie eine Sicherungskopie der vorhandenen Datei PROFILE EXEC an und benennen Sie ZPXE REXX in PROFILE EXEC um. Rufen Sie alternativ ZPXE REXX vom bestehenden PROFILE EXEC auf, indem Sie dort die Zeile 'ZPXE REXX' hinzufügen.

Im letzten Schritt erstellen Sie eine Konfigurationsdatei (ZPXE CONF), in der ZPXE REXX angewiesen wird, welcher Cobbler-Server kontaktiert und für welchen Datenträger der IPL-Vorgang ausgeführt werden soll. Führen Sie xedit zpxe conf a aus, und erstellen Sie ZPXE CONF mit dem folgenden Inhalt (Beispieldaten entsprechend ersetzen):

HOST cobbler.example.com
IPLDISK 600

Damit wird der Cobbler-Server bei der nächsten Anmeldung als z/VM-Gast verbunden. Wenn eine Installation auf dem Cobbler-Server geplant ist, so wird sie gestartet. Zum Planen der Installation führen Sie den folgenden Befehl auf dem Cobbler-Server aus:

tux > sudo cobbler system edit --name ID1 --netboot-enabled 12 --profile PROFILENAME3

1

z/VM-Benutzer-ID.

2

Aktivieren der IPL-Ausführung vom Netzwerk.

3

Name eines vorhandenen Profils (siehe Abschnitt 5.3.1.3.3, „Anpassen des Profils“).

5.3.4.3 Ausführen eines IPL-Vorgangs bei der Installation eines KVM-Gasts

Um mit der Installation des Gasts zu beginnen, müssen Sie zunächst den in Abschnitt 5.3.3.3.1, „Erstellen eines Image des virtuellen Datenträgers“ definierten VM-Gast starten. Stellen Sie vor Beginn sicher, dass der Kernel und initrd für IPL verfügbar sind.

5.3.4.3.1 Vorbereiten der Installationsquelle

Der Kernel und die initrd des Installationssystems müssen auf den VM-Hostserver kopiert werden, damit der IPL-Vorgang für den VM-Gast im Installationssystem möglich ist.

  1. Melden Sie sich am KVM-Host an und vergewissern Sie sich, dass Sie eine Verbindung zum Remote-Host oder dem Gerät herstellen können, der bzw. das die Installationsquelle bereitstellt.

  2. Kopieren Sie die folgenden beiden Dateien aus der Installationsquelle in /var/lib/libvirt/images/. Wenn die Daten von einem Remote-Host bereitgestellt werden, übertragen Sie diese mit ftp, sftp oder scp:

    /boot/s390x/initrd
    /boot/s390x/cd.ikr
  3. Benennen Sie die Dateien auf dem KVM-Host um:

    tux > sudo cd /var/lib/libvirt/images/
    tux > sudo mv initrd s15-initrd.boot
    tux > sudo mv cd.ikr s15-kernel.boot
5.3.4.3.2 IPL-Vorgang für den VM-Gast

Zur Ausführung des IPL-Vorgangs für den VM-Gast müssen Sie sich am KVM-Host anmelden und den folgenden Befehl ausführen:

tux > virsh  create s15-1.xml --console

Der Installationsvorgang startet, sobald der VM-Gast aktiv ist und ausgeführt wird. Sie sollten dann folgende Meldung sehen:

Domain s15-1 started
Connected to domain s15-1
Escape character is ^]
Initializing cgroup subsys cpuset
Initializing cgroup subsys cpu
Initializing
cgroup subsys cpuacct
.
.
Please make sure your installation medium is available.
Retry?
0) <-- Back <--
1) Yes
2) No

Beantworten Sie die Frage mit 2) No (Nein) und wählen Sie im nächsten Schritt Installation aus. Fahren Sie entsprechend den Anweisungen in Abschnitt 5.3.5.3, „Einrichten des Netzwerks und Auswählen der Installationsquelle“ fort.

5.3.5 Netzwerkkonfiguration

Warten Sie, bis der Kernel seine Startroutinen abgeschlossen hat. Wenn Sie die Installation im Basismodus oder in einer LPAR vornehmen, rufen Sie an der HMC bzw. in SE Operating System Messages auf.

Wählen Sie zunächst Installation starten im Hauptmenü linuxrc. Wählen Sie dann Installation oder Aktualisierung starten, um den Installationsvorgang zu starten. Wählen Sie Netzwerk als Installationsmedium und danach den Netzwerkprotokolltyp aus, den Sie zur Installation verwenden möchten. Abschnitt 5.3.1, „Bereitstellen der Installationsdaten“ beschreibt, wie die Installationsdaten für die unterschiedlichen Arten von Netzwerkverbindungen bereitgestellt werden. Zurzeit werden FTP, HTTP, NFS und SMB/CIFS (Windows-Dateifreigabe) unterstützt.

Wählen Sie aus der Liste der verfügbaren Geräte ein OSA- oder HiperSockets-Netzwerkgerät für den Empfang der Installationsdaten. Obwohl die Liste möglicherweise auch CTC-, ESCON- oder IUCV-Geräte enthält, werden diese jedoch unter SUSE Linux Enterprise Server nicht mehr unterstützt.

5.3.5.1 Konfigurieren einer HiperSockets-Schnittstelle

Wählen Sie ein HiperSocket-Gerät aus der Liste der Netzwerkgeräte aus. Geben Sie dann die Werte für den Lese-, Schreib- und Datenkanal ein:

Beispiel 5.5: Unterstützte Netzwerkverbindungstypen und Treiberparameter
Choose the network device.

 1) IBM parallel CTC Adapter (0.0.0600)
 2) IBM parallel CTC Adapter (0.0.0601)
 3) IBM parallel CTC Adapter (0.0.0602)
 4) IBM Hipersocket (0.0.0800)
 5) IBM Hipersocket (0.0.0801)
 6) IBM Hipersocket (0.0.0802)
 7) IBM OSA Express Network card (0.0.0700)
 8) IBM OSA Express Network card (0.0.0701)
 9) IBM OSA Express Network card (0.0.0702)
10) IBM OSA Express Network card (0.0.f400)
11) IBM OSA Express Network card (0.0.f401)
12) IBM OSA Express Network card (0.0.f402)
13) IBM IUCV

> 4

Device address for read channel. (Enter '+++' to abort).
[0.0.0800]> 0.0.0800

Device address for write channel. (Enter '+++' to abort).
[0.0.0801]> 0.0.0801

Device address for data channel. (Enter '+++' to abort).
[0.0.0802]> 0.0.0802

5.3.5.2 Konfigurieren eines OSA Express-Geräts

Wählen Sie ein OSA Express-Gerät aus der Liste der Netzwerkgeräte aus, und geben Sie eine Portnummer an. Geben Sie die Nummer für den Lese-, Schreib- und Datenkanal ein. Wählen Sie, ob die Unterstützung von OSI-Schicht 2 aktiviert werden soll.

Die Portnummer ist für die neuen OSA Express 3-Netzwerkgeräte mit 2 Ports erforderlich. Wenn Sie kein OSA Express 3-Gerät verwenden, geben Sie 0 ein. OSA Express-Karten können auch im OSI layer 2 support-Modus oder dem älteren und üblicheren layer 3-Modus ausgeführt werden. Der Kartenmodus beeinflusst alle Systeme, die das Gerät gemeinsam nutzen, einschließlich Systeme auf anderen LPARs. Geben Sie im Zweifelsfall 2 an, um Kompatibilität mit dem Standardmodus zu erreichen, den andere Betriebssysteme wie z/VM und z/OS verwenden. Erfragen Sie weitere Informationen zu diesen Optionen bei Ihrem Hardware-Administrator.

Beispiel 5.6: Treiberparameter für das Netzwerkgerät
Choose the network device.

 1) IBM parallel CTC Adapter (0.0.0600)
 2) IBM parallel CTC Adapter (0.0.0601)
 3) IBM parallel CTC Adapter (0.0.0602)
 4) IBM Hipersocket (0.0.0800)
 5) IBM Hipersocket (0.0.0801)
 6) IBM Hipersocket (0.0.0802)
 7) IBM OSA Express Network card (0.0.0700)
 8) IBM OSA Express Network card (0.0.0701)
 9) IBM OSA Express Network card (0.0.0702)
10) IBM OSA Express Network card (0.0.f400)
11) IBM OSA Express Network card (0.0.f401)
12) IBM OSA Express Network card (0.0.f402)
13) IBM IUCV

> 7

Enter the relative port number. (Enter '+++' to abort).
> 0

Device address for read channel. (Enter '+++' to abort).
[0.0.0700]> 0.0.0700

Device address for write channel. (Enter '+++' to abort).
[0.0.0701]> 0.0.0701

Device address for data channel. (Enter '+++' to abort).
[0.0.0702]> 0.0.0702

Enable OSI Layer 2 support?

0) <-- Back <--
1) Yes
2) No

> 1

MAC address. (Enter '+++' to abort).
> +++

5.3.5.3 Einrichten des Netzwerks und Auswählen der Installationsquelle

Nachdem Sie alle Parameter für das Netzwerkgerät eingegeben haben, wird der zugehörige Treiber installiert und die entsprechenden Kernel-Meldungen werden angezeigt.

Als Nächstes müssen Sie angeben, ob die automatische DHCP-Konfiguration für die Einrichtung der Netzwerkschnittstellenparameter verwendet werden soll. Wählen Sie NEIN, da DHCP nur auf wenigen Geräten ausgeführt wird und spezielle Einstellungen für die Hardwarekonfiguration erfordert. Daraufhin werden Sie aufgefordert, die folgenden Netzwerkparameter anzugeben:

  • IP-Adresse des zu installierenden Systems

  • Entsprechende Netzmaske (falls nicht über IP-Adresse angegeben)

  • IP-Adresse eines Gateways zur Verbindung mit dem Server

  • Liste der Suchdomänen, die vom Domain Name Server (DNS) abgedeckt sind

  • IP-Adresse Ihres Domain Name Server

Beispiel 5.7: Netzwerkparameter
Automatic configuration via DHCP?

0) <-- Back <--
1) Yes
2) No

> 2

Enter your IP address with network prefix.

You can enter more than one, separated by space, if necessary.
Leave empty for autoconfig.

Examples: 192.168.5.77/24 2001:db8:75:fff::3/64. (Enter '+++' to abort).
> 192.168.0.20/24

Enter your name server IP address.

You can enter more than one, separated by space, if necessary.
Leave empty if you don't need one.

Examples: 192.168.5.77 2001:db8:75:fff::3. (Enter '+++' to abort).
> 192.168.0.1

Enter your search domains, separated by a space:. (Enter '+++' to abort).
> example.com

Enter the IP address of your name server. Leave empty if you do not need one. (En
ter '+++' to abort).
> 192.168.0.1

Geben Sie abschließend die erforderlichen Informationen zum Installationsserver an, beispielsweise die IP-Adresse, das Verzeichnis, in dem sich die Installationsdaten befinden, sowie den Berechtigungsnachweis. Das Installationssystem wird geladen, sobald die erforderlichen Informationen angegeben wurden.

5.3.6 Herstellen einer Verbindung zum SUSE Linux Enterprise Server-Installationssystem

Nach dem Laden des Installationssystems fordert linuxrc Sie auf, den Anzeigetyp zur Steuerung des Installationsverfahrens zu wählen. Die verfügbaren Optionen sind X11 (X Window-System), VNC (Virtual Network Computing-Protokoll), SSH (Textmodus bzw. X11-Installation über Secure Shell) und ASCII-Konsole. Die empfohlenen Optionen sind VNC oder SSH.

Wenn die Option ASCII-Konsole ausgewählt wird, startet YaST im Textmodus, und Sie können die Installation direkt am Terminal durchführen. Weitere Informationen zur Verwendung von YaST im Textmodus finden Sie in Book “Verwaltungshandbuch”, Chapter 4 “YaST im Textmodus”. Die Option ASCII Console (ASCII-Konsole) ist nur bei der Installation in einer LPAR von Nutzen.

Anmerkung
Anmerkung: Terminalemulation für die ASCII-Konsole

Für die Arbeit mit YaST im Textmodus ist die Ausführung in einem Terminal mit VT220/Linux-Emulation (auch als ASCII-Konsole bezeichnet) erforderlich.

5.3.6.1 Initiieren der Installation für VNC

So steuern Sie eine Installation über VNC fern:

  1. Durch Auswahl der Option VNC wird der VNC-Server gestartet. Ein kurzer Hinweis an der Konsole zeigt die IP-Adresse und Anzeigenummer zur Herstellung einer Verbindung mit vncviewer an.

  2. Geben Sie die IP-Adresse sowie die Display-Nummer des SUSE Linux Enterprise Server-Installationssystems ein, wenn Sie dazu aufgefordert werden.

  3. Geben Sie nach Aufforderung die IP-Adresse und die Anzeigenummer des SUSE Linux Enterprise Server-Installationssystems ein.

    http://<IP address of installation system>:5801/
  4. Sobald die Verbindung hergestellt wurde, installieren Sie SUSE Linux Enterprise Server mit YaST.

5.3.6.2 Initiieren der Installation für das X Window-System

Wichtig
Wichtig: X-Authentifizierungsmechanismus

Die direkte Installation über das X Window System beruht auf einem auf Hostnamen basierenden Authentifizierungsmechanismus. Dieser Mechanismus ist in den aktuellen Versionen von SUSE Linux Enterprise Server deaktiviert. Wir empfehlen die Installation über SSH oder VNC.

So steuern Sie eine Installation über X-Forwarding fern:

  1. Vergewissern Sie sich, dass der X-Server dem Client (dem installierten System) den Verbindungsaufbau ermöglicht. Legen Sie die Variable DISPLAYMANAGER_XSERVER_TCP_PORT_6000_OPEN=„yes“ in der Datei /etc/sysconfig/displaymanager fest. Starten Sie den X-Server erneut und ermöglichen Sie dem Client die Verbindung mit dem Server über xhost CLIENT_IP_ADDRESS.

  2. Wenn Sie auf dem Installationssystem dazu aufgefordert werden, geben Sie die IP-Adresse des Rechners ein, auf dem der X-Server ausgeführt wird.

  3. Warten Sie, bis YaST geöffnet wird, und starten Sie dann die Installation.

5.3.6.3 Initiieren der Installation für SSH

Zum Verbinden des Installationssystems mit dem Namen earth über SSH führen Sie das Kommando ssh -X earth aus. Verwenden Sie das unter http://www.chiark.greenend.org.uk/~sgtatham/putty/ verfügbare Putty-Tool, wenn Ihre Arbeitsstation unter Microsoft Windows ausgeführt wird. Aktivieren Sie Enable X11 forwarding (X11-Forwarding aktivieren) in PuTTy unter Connection › SSH › X11 (Verbindung > SSH > X11).

Falls Sie ein anderes Betriebssystem verwenden, führen Sie ssh -X earth aus, um sich mit einem Installationssystem namens earth zu verbinden. Wenn ein lokaler X-Server verfügbar ist, wird X-Forwarding über SSH unterstützt. Andernfalls stellt YaST über ncurses eine Textschnittstelle zur Verfügung.

Geben Sie nach Aufforderung den root-Benutzernamen ein und melden Sie sich mit Ihrem Passwort an. Geben Sie yast.ssh ein, um YaST zu starten. Anschließend werden Sie von YaST durch den Installationsvorgang geführt.

Wichtig
Wichtig: Beheben eines YaST-über-SSH-Problems

In bestimmten Situationen kann die Ausführung der GUI-Version von YaST über SSH mit X-Weiterleitung mit der folgenden Fehlermeldung fehlschlagen:

XIO: fatal IO error 11 (Resource temporarily unavailable) on X server "localhost:11.0"

In diesem Fall haben Sie zwei Möglichkeiten.

  • Führen Sie YaST mit der Option QT_XCB_GL_INTEGRATION=none aus, wie z. B.:

    QT_XCB_GL_INTEGRATION=none yast.ssh
    QT_XCB_GL_INTEGRATION=none yast2 disk
  • Führen Sie die ncurses-Version der YaST-Anwendung aus, indem Sie die X-Weiterleitung deaktivieren oder ncurses als die gewünschte Benutzeroberfläche angeben. Für Letzteres verwenden Sie das Kommando yast2 disk --ncurses oder YUI_PREFERED_BACKEND=ncurses yast2 disk.

Setzen Sie den Installationsvorgang wie in Kapitel 8, Installationsschritte beschrieben fort.

5.3.7 Bootverfahren für SUSE Linux Enterprise Server auf IBM Z

Unter SLES 10 und 11 wurde der Bootvorgang vom zipl-Bootloader durchgeführt. Zur Aktivierung des Bootvorgangs von Btrfs-Partitionen und der Unterstützung von System-Rollbacks mit Snapper wurde die Bootmethode für SUSE Linux Enterprise Server auf IBM Z geändert.

GRUB 2 ersetzt zipl in SUSE Linux Enterprise Server für IBM Z. GRUB 2 auf der AMD64/Intel 64-Architektur enthält Gerätetreiber auf Firmware-Ebene für den Zugriff auf das Dateisystem. Mainframes arbeiten ohne Firmware. Die Einbindung von ccw in GRUB 2 wäre nicht nur ein immenser Arbeitsaufwand, sondern würde eine Neuimplementierung von zipl in GRUB 2 erfordern. In SUSE Linux Enterprise Server gilt daher ein zweiphasiges Verfahren:

1. Phase:

Eine separate Partition mit dem Kernel und einer initrd ist in /boot/zipl eingehängt. Dieser Kernel und die initrd werden über zipl mit der Konfiguration aus /boot/zipl/config geladen.

Diese Konfiguration fügt das Schlüsselwort initgrub in die Kernel-Befehlszeile ein. Sobald der Kernel und die initrd geladen sind, aktiviert die initrd die erforderlichen Geräte, mit denen das root-Dateisystem eingehängt wird (siehe /boot/zipl/active_devices.txt). Anschließend wird ein GRUB 2-Userspace-Programm gestartet, mit dem die Datei /boot/grub2/grub.cfg gelesen wird.

2. Phase:

Der Kernel und die initrd, die in /boot/grub2/grub.cfg angegeben sind, werden per kexec gestartet. In /boot/zipl/active_devices.txt aufgeführte und zum Starten des Systems auf Datenträger benötigte Geräte werden dann aktiviert. Sonstige Geräte auf dieser Liste werden zwar in die Whitelist gestellt, doch ignoriert. Das root-Dateisystem wird eingehängt und der Bootvorgang wird wie auf den anderen Architekturen fortgesetzt.

Weitere Informationen zum Bootvorgang finden Sie im Book “Verwaltungshandbuch”, Chapter 12 “Einführung in den Bootvorgang”.

5.4 Secure Boot

Die folgenden Bedingungen müssen erfüllt sein, damit die Secure Boot-Funktion auf einem IBM Z-System funktioniert.

  • Der Rechner muss ein z15 T01, z15 T02, LinuxONE III LT1, LinuxONE III LT2 oder ein neueres Modell sein.

  • Sie müssen eine LPAR verwenden (Secure Boot wird auf z/VM und KVM nicht unterstützt).

  • In der LPAR muss Secure Boot aktiviert sein.

  • Sie müssen SCSI (FCP)-Platten verwenden (Secure Boot wird auf DASD nicht unterstützt).

Anmerkung
Anmerkung: Hardwaremigration

Falls Sie zu einem anderen Rechner migrieren (z. B. von z13 zu z15), müssen Sie sicherstellen, dass die LPAR auf dem Zielrechner den Secure Boot-Status des Systems auf seiner Festplatte aufweist.

Die Änderung des Secure Boot-Status muss anhand des folgenden Verfahrens ausgeführt werden.

Vorgehen 5.4: Ändern des Secure Boot-Status
  1. Aktivieren Sie Secure Boot in YaST und schreiben Sie den neuen Bootloader.

  2. Fahren Sie das System herunter.

  3. Ändern Sie die Konfiguration der LPAR (aktivieren oder deaktivieren Sie Secure Boot).

  4. Booten Sie das System.

Anmerkung
Anmerkung: Secure Boot auf HMC

Das System auf der mit dem Parameter secure=1 konfigurierten Platte kann auf der z15-HMC gebootet werden, solange die Firmware das neue On-Disk-Format unterstützt (was bei z15 immer der Fall ist).

5.5 Automatische Konfiguration von E/A-Geräten auf IBM Z-Systemen

Die automatische Konfiguration von E/A-Geräten ist ein Mechanismus, mit dem Benutzer IDs und Einstellungen von E/A-Geräten angeben können, die in Linux automatisch aktiviert werden sollen. Diese Informationen werden für eine LPAR über eine HMC angegeben, die im DPM-Modus (Dynamic Partition Manager) ausgeführt wird.

Anmerkung
Anmerkung

Die Funktion zur automatischen Konfiguration für E/A-Geräte ist auf Systemen verfügbar, auf denen der DPM ausgeführt wird. Der DPM wird standardmäßig auf LinuxONE-Rechnern ausgeführt. Für IBM Z muss diese Funktion bestellt werden.

Die automatische Konfiguration kann mit dem Kernel-Parameter rd.zdev=no-auto deaktiviert werden.

Führen Sie zur automatischen E/A-Konfiguration mit YaST das Kommando yast2 system_settings aus, wechseln Sie zum Abschnitt Kernel-Einstellungen und aktivieren Sie die Option Automatische Konfiguration von E/A-Geräten aktivieren.

Hängen Sie zum Deaktivieren der automatischen E/A-Konfiguration in einem AutoYaST-Profil rd.zdev=no-auto an die Bootoptionen an. Beispiel:

<bootloader>
  <global>
    <append>rd.zdev=no-auto</append>
  </global>
</bootloader>

Während der Installation wird der Status der Einstellung für die automatische Konfiguration am Bildschirm Installationseinstellungen im Abschnitt Geräteeinstellungen angezeigt.

5.6 Die Parmfile – Automatisierte Systemkonfiguration

Der Installationsvorgang kann durch Angabe der wesentlichen Parameter in der Parameterdatei teilweise automatisiert werden. Die parmfile enthält alle für die Netzwerkeinrichtung und die DASD-Konfiguration erforderlichen Daten. Darüber hinaus kann sie zum Einrichten der Verbindungsmethode für das SUSE Linux Enterprise Server-Installationssystem und die dort ausgeführte YaST-Instanz verwendet werden. Dadurch wird die Benutzerinteraktion für die aktuelle YaST-Installation reduziert.

Die in Abschnitt 5.6.1, „Allgemeine Parameter“ aufgelisteten Parameter können an die Installationsroutine als Standardwerte für die Installation übergeben werden. Beachten Sie, dass alle hier angegebenen IP-Adressen, Servernamen und numerischen Werte Beispiele sind. Ersetzen Sie sie durch die tatsächlichen Werte Ihres Installationsszenarios.

Die Anzahl der Zeilen in der Datei parmfile ist auf 10 begrenzt. Sie können mehrere Parameter pro Zeile angeben. Bei Parameternamen muss die Groß- und Kleinschreibung nicht beachtet werden. Parameter müssen durch Leerzeichen getrennt werden. Die Parameter können in beliebiger Reihenfolge angegeben werden. Achten Sie darauf, dass die Zeichenfolge PARAMETER=value immer zusammen in einer Zeile steht. Die Länge jeder Zeile darf 80 Zeichen nicht überschreiten. Beispiel:

Hostname=s390zvm01.suse.de HostIP=10.11.134.65
Tipp
Tipp: Verwenden von IPv6 während der Installation

Standardmäßig können Sie Ihrem Rechner nur IPv4-Netzwerkadressen zuweisen. Geben Sie zur Aktivierung von IPv6 während der Installation einen der folgenden Parameter an der Bootaufforderung an: ipv6=1 (IPv4 und IPv6 akzeptieren) oder ipv6only=1 (nur IPv6 akzeptieren).

Einige der folgenden Parameter sind erforderlich. Wenn Sie fehlen, werden Sie im automatischen Vorgang zu deren Angabe aufgefordert.

5.6.1 Allgemeine Parameter

AutoYaST=<URL> Manual=0

Der Parameter AutoYaST gibt den Speicherort der Steuerungsdatei autoinst.xml für die automatische Installation an. Mit dem Parameter Manual wird gesteuert, ob die anderen Parameter nur Standardwerte sind, die vom Benutzer noch akzeptiert werden müssen. Setzen Sie diesen Parameter auf 0, wenn alle Werte ohne Nachfrage übernommen werden sollen. Wenn Sie AutoYaST festlegen, wird Manual standardmäßig auf 0 festgelegt.

Info=<URL>

Gibt einen Speicherort für eine Datei mit zusätzlichen Optionen an. Dadurch werden die Beschränkungen auf 10 Zeilen (und 80 Zeichen pro Zeile unter z/VM) für diese Parameterdatei außer Kraft gesetzt. Weitere Dokumentationen zur Infodatei finden Sie im Book “AutoYaST Guide”, Chapter 9 “The auto-installation process”, Section 9.3.3 “Combining the linuxrc info file with the AutoYaST control file”. Da auf die Infodatei typischerweise nur über das Netzwerk auf IBM Z zugegriffen werden kann, können Sie sie nicht verwenden, um Optionen anzugeben, die zum Einrichten des Netzwerks erforderlich sind, d. h. die in Abschnitt 5.6.2, „Konfigurieren der Netzwerkschnittstelle“ beschriebenen Optionen. Sonstige linuxrc-spezifischen Optionen wie die in Bezug auf die Fehlersuche müssen in der Parameterdatei angegeben werden.

Upgrade=<0|1>

Geben Sie zum Upgrade von SUSE Linux Enterprise den Parameter Upgrade=1 an. Soll eine bestehende Installation von SUSE Linux Enterprise upgegradet werden, ist eine benutzerdefinierte parmfile erforderlich. Ohne diesen Parameter bietet die Installation keine Upgradeoption.

5.6.2 Konfigurieren der Netzwerkschnittstelle

Wichtig
Wichtig: Konfigurieren der Netzwerkschnittstelle

Die in diesem Abschnitt beschriebenen Einstellungen gelten nur für die während der Installation verwendete Netzwerkschnittstelle. Konfigurieren Sie zusätzliche Netzwerkschnittstellen im installierten System, indem Sie die Anleitungen in Book “Verwaltungshandbuch”, Chapter 19 “Grundlegendes zu Netzwerken”, Section 19.5 “Manuelle Netzwerkkonfiguration” befolgen.

Hostname=zsystems.example.com

Geben Sie den vollständigen Hostnamen ein.

Domain=example.com

Domänensuchpfad für DNS. Ermöglicht Ihnen, kurze anstelle von vollständig qualifizierten Hostnamen zu verwenden.

HostIP=192.168.1.2/24

Geben Sie die IP-Adresse der zu konfigurierenden Schnittstelle ein.

Gateway=192.168.1.3

Geben Sie den gewünschten Gateway an.

Nameserver=192.168.1.4

Geben Sie den beteiligten DNS-Server an.

InstNetDev=osa

Geben Sie den zu konfigurierenden Schnittstellentyp ein. Zulässige Werte sind osa, hsi, ctc, escon und iucv. (CTC, ESCON und IUCV werden nicht mehr offiziell unterstützt.)

Geben Sie für die ctc-Schnittstellen escon und iucv (CTC, ESCON und IUCV werden offiziell nicht mehr unterstützt) die IP-Adresse des Peer ein:

Pointopoint=192.168.55.20
OsaInterface=<lcs|qdio>

Für osa-Netzwerkgeräte geben Sie die Host-Schnittstelle (qdio oder lcs) ein.

Layer2=<0|1>

Geben Sie für osa-QDIO-Ethernet- und hsi-Geräte an, ob die Unterstützung von OSI-Schicht 2 aktiviert (1) oder deaktiviert (0) werden soll.

OSAHWAddr=02:00:65:00:01:09

Für Schicht-2-fähige osa-QDIO-Ethernet-Geräte. Geben Sie manuell eine MAC-Adresse ein, oder verwenden Sie den Systemstandardwert OSAHWADDR= (mit nachfolgendem Leerzeichen).

PortNo=<0|1>

Geben Sie für osa-Netzwerkgeräte die Portnummer an (sofern das Gerät diese Funktion unterstützt). Der Standardwert ist 0.

Für die einzelnen Schnittstellen sind bestimmte Setup-Optionen erforderlich:

  • Schnittstellen ctc und escon (CTC und ESCON werden offiziell nicht mehr unterstützt):

    ReadChannel=0.0.0600
    WriteChannel=0.0.0601

    Mit ReadChannel wird der zu verwendende READ-Kanal angegeben. WriteChannel gibt den WRITE-Kanal an.

  • Geben Sie für die Schnittstelle ctc (wird offiziell nicht mehr unterstützt) das Protokoll an, das für diese Schnittstelle verwendet werden soll:

    CTCProtocol=<0/1/2>

    Gültige Einträge:

    0

    Kompatibilitätsmodus, auch für Nicht-Linux-Peers mit Ausnahme von OS/390 und z/OS (dies ist der Standardmodus)

    1

    Erweiterter Modus

    2

    Kompatibilitätsmodus mit OS/390 und z/OS

  • Netzwerkgerättyp osa mit Schnittstelle lcs:

    ReadChannel=0.0.0124

    ReadChannel steht für die in dieser Einrichtung verwendete Kanalnummer. Die zweite Portnummer kann hiervon abgeleitet werden, indem Sie ReadChannel den Wert 1 hinzufügen. Mit Portnumber wird der relative Port angegeben.

  • Schnittstelle iucv:

    IUCVPeer=PEER

    Geben Sie den Namen des Peer-Computers ein.

  • Netzwerkgerätetyp osa mit Schnittstelle qdio für OSA-Express Gigabit Ethernet:

    ReadChannel=0.0.0700
    WriteChannel=0.0.0701
    DataChannel=0.0.0702

    Geben Sie für ReadChannel die Nummer des READ-Kanals ein. Geben Sie für WriteChannel die Nummer des WRITE-Kanals ein. Mit DataChannel wird der DATA-Kanal angegeben. Stellen Sie sicher, dass für den READ-Kanal eine gerade Gerätenummer festgelegt ist.

  • Schnittstelle hsi für HiperSockets und VM-Gast-LANs:

    ReadChannel=0.0.0800
    WriteChannel=0.0.0801
    DataChannel=0.0.0802

    Geben Sie für ReadChannel die entsprechende Nummer des READ-Kanals ein. Geben Sie für WriteChannel und DataChannel die Nummern des WRITE- bzw. des DATA-Kanals ein.

5.6.3 Angeben der Installationsquelle und der YaST-Schnittstelle

Install=nfs://server/directory/DVD1/

Geben Sie den Speicherort der zu verwendenden Installationsquelle an. Unterstützte Protokolle sind nfs, smb (Samba/CIFS), ftp, tftp http und https.

Wenn eine ftp-, tftp- oder smb-URL angegeben wird, geben Sie den Benutzernamen und das Passwort an. Überspringen Sie den Berechtigungsnachweis für die anonyme oder Gast-Anmeldung.

Install=ftp://USER:PASSWORD@SERVER/DIRECTORY/DVD1/
Install=tftp://USER:PASSWORD@SERVER/DIRECTORY/DVD1/

Wenn Sie die Installation über eine verschlüsselte Verbindung vornehmen möchten, verwenden Sie eine URL vom Typ https. Falls das Zertifikat nicht überprüft werden kann, deaktivieren Sie die Prüfung von Zertifikaten mit der Bootoption sslcerts=0.

Bei einer Samba- oder CIFS-Installation können Sie zudem die Domäne angeben:

Install=smb://WORKDOMAIN;USER:PASSWORD@SERVER/DIRECTORY/DVD1/
ssh=1 vnc=1 Display_IP=192.168.42.42

Die Installationsmethode hängt davon ab, welchen Parameter Sie angeben. Mit ssh wird die SSH-Installation aktiviert, mit vnc wird ein VNC-Server auf dem Installationsrechner gestartet und mit Display_IP versucht das Installationssystem, eine Verbindung zu einem X-Server an der angegebenen Adresse herzustellen. Es sollte nur einer dieser Parameter festgelegt werden.

Wichtig
Wichtig: X-Authentifizierungsmechanismus

Die direkte Installation über das X Window System beruht auf einem auf Hostnamen basierenden Authentifizierungsmechanismus. Dieser Mechanismus ist in den aktuellen Versionen von SUSE Linux Enterprise Server deaktiviert. Wir empfehlen eine Installation mit SSH oder VNC.

Um eine Verbindung zwischen dem YaST- und dem Remote-X-Server zu ermöglichen, führen Sie den Befehl xhost <IP-Adresse> mit der Adresse des Installationscomputers auf dem Remote-Computer aus.

Geben Sie für VNC ein aus 6 bis 8 Zeichen bestehendes Passwort für die Installation ein:

VNCPassword=<a password>

Geben Sie für SSH ein aus 6 bis 8 Zeichen bestehendes Passwort für die Installation ein:

ssh.password=<a password>

5.6.4 Beispiele für Parmfiles

Eine Parmfile kann maximal 860 Zeichen umfassen. Als Anhaltspunkt sollte die Parmfile maximal 10 Zeilen mit maximal je 79 Zeichen enthalten. Beim Lesen einer Parmfile werden alle Zeilen ohne Leerzeichen miteinander verkettet. Das letzte Zeichen (Nr. 79) in jeder Zeile muss daher ein Leertaste sein.

Für den Empfang etwaiger Fehlermeldungen an der Konsole verwenden Sie

linuxrclog=/dev/console
Beispiel 5.8: Parmfile für eine Installation von NFS mit VNC und AutoYaST
ramdisk_size=131072 root=/dev/ram1 ro init=/linuxrc TERM=dumb
instnetdev=osa osainterface=qdio layer2=1 osahwaddr=
pointopoint=192.168.0.1 hostip=192.168.0.2
nameserver=192.168.0.3
install=nfs://192.168.0.4/SLES/SLES-12-Server/s390x/DVD1
autoyast=http://192.168.0.5/autoinst.xml
linuxrclog=/dev/console vnc=1 VNCPassword=testing
Beispiel 5.9: Parmfile zur Installation mit NFS, SSH und HSI sowie AutoYaST mit NFS
ramdisk_size=131072 root=/dev/ram1 ro init=/linuxrc TERM=dumb
AutoYast=nfs://192.168.1.1/autoinst/s390.xml
Hostname=zsystems.example.com HostIP=192.168.1.2
Gateway=192.168.1.3 Nameserver=192.168.1.4
InstNetDev=hsi layer2=0
Netmask=255.255.255.128 Broadcast=192.168.1.255
readchannel=0.0.702c writechannel=0.0.702d datachannel=0.0.702e
install=nfs://192.168.1.5/SLES-12-Server/s390x/DVD1/
ssh=1 ssh.password=testing linuxrclog=/dev/console
Beispiel 5.10: Parmfile zur Installation im VLAN
ro ramdisk_size=50000 MANUAL=0 PORTNO=1 ReadChannel=0.0.b140
WriteChannel=0.0.b141 DataChannel=0.0.b142
cio_ignore=all,!condev,!0.0.b140-0.0.b142,!0.0.e92c,!0.0.5000,!0.0.5040
HostIP= Gateway= Hostname=zsystems.example.com nameserver=192.168.0.1
Install=ftp://user:password@10.0.0.1/s390x/SLES15.0/INST/ usevnc=1
vncpassword=12345 InstNetDev=osa Layer2=1 OSAInterface=qdio ssl_certs=0
osahwaddr= domain=example.com self_update=0
vlanid=201

5.7 Verwenden des Terminalemulators vt220

Neuere MicroCode-Stufen ermöglichen neben dem standardmäßigen Zeilenmodusterminal (ASCII-Terminal) die Verwendung eines integrierten vt220-Terminalemulators. Das vt220-Terminal ist mit /dev/ttysclp0 verbunden. Das Zeilenmodusterminal ist mit /dev/ttysclp_line0 verbunden. Bei LPAR-Installationen ist der vt220-Terminalemulator standardmäßig aktiviert.

Zum Starten der ASCII-Konsole auf der HMC melden Sie sich bei der HMC an, und wählen Sie Systems Management (Systemverwaltung) › Systems (Systeme) › IMAGE_ID. Aktivieren Sie die Optionsschaltfläche für die LPAR, und wählen Sie Recovery (Wiederherstellung) › Integrated ASCII Console (Integrierte ASCII-Konsole).

Um die Kernel-Meldungen zum Boot-Zeitpunkt von der Systemkonsole an das vt220-Terminal umzuleiten, fügen Sie der Zeile parameters in der Datei /etc/zipl.conf folgende Einträge hinzu:

console=ttysclp0 console=ttysclp_line0

Die sich daraus ergebende parameters-Zeile sieht in etwa wie folgt aus:

parameters = "root=/dev/dasda2 TERM=dumb console=ttysclp0 console=ttysclp_line0"

Speichern Sie die Änderungen in /etc/zipl.conf, führen Sie zipl aus und starten Sie das System neu.

5.8 Zusätzliche Informationsquellen

In den IBM Redbooks (https://www.redbooks.ibm.com/Redbooks.nsf/domains/zsystems) oder bei IBM developerWorks (https://www.ibm.com/developerworks/linux/linux390/) finden Sie weitere technische Dokumentationen zu IBM Z. Unter finden Sie die produktspezifische Dokumentation zu SUSE Linux Enterprise Serverhttps://www.ibm.com/developerworks/linux/linux390/documentation_suse.html.

5.8.1 Allgemeine Dokumente zu Linux auf IBM Z

Eine allgemein gehaltene Erläuterung zu Linux auf IBM Z finden Sie in folgenden englischsprachigen Dokumenten:

  • Linux on IBM eServer zSeries and S/390: ISP and ASP Solutions (SG24-6299)

Obwohl diese Dokumente möglicherweise nicht den aktuellen Stand der Linux-Entwicklung widerspiegeln, bleiben die beschriebenen Grundprinzipien von Linux weiterhin gültig.

5.8.2 Technische Aspekte von Linux auf IBM Z

Ziehen Sie folgende Dokumente für technische Informationen zum Linux-Kernel sowie hinsichtlich anwendungsbezogener Themen zurate. Die neuesten Versionen der Dokumente finden Sie im http://www.ibm.com/developerworks/linux/linux390/index.html.

  • Linux auf System z-Gerätetreibern, Funktionen und Kommandos

  • zSeries ELF Application Binary Interface Supplement

  • Linux auf System z-Gerätetreibern unter Verwendung der Dump-Tools

  • IBM zEnterprise 196 Technical Guide

  • IBM zEnterprise EC12 Technical Guide

  • IBM z13 Technical Guide

  • IBM z14 Technical Guide

  • IBM z15 Technical Guide

Ein Redbook für die Linux-Anwendungsentwicklung ist verfügbar unter http://www.redbooks.ibm.com:

  • Linux on IBM eServer zSeries and S/390: Application Development (SG24-6807)

5.8.3 Erweiterte Konfigurationen für Linux auf IBM Z

Komplexere IBM Z-Szenarien finden Sie in folgenden Redbooks, Redpapers und Online-Ressourcen:

6 Installation auf Hardware, die zum Zeitpunkt der Freigabe nicht unterstützt wurde

Bei bestimmter neuerer Hardware kann das Installationsmedium von SUSE Linux Enterprise Server nicht gebootet werden. Dies ist beispielsweise der Fall, wenn die Hardware zum Zeitpunkt der Freigabe von SUSE Linux Enterprise Server noch nicht erhältlich war. Für diese Situationen bietet SUSE verschiedene Kernel-Aktualisierungs-ISO-Images (kISO). In diesem Kapitel wird beschrieben, wie Sie SUSE Linux Enterprise Server mit der Kernel-Aktualisierung auf moderner Hardware installieren.

6.1 Herunterladen der Kernel-Aktualisierung

Kernel-Aktualisierungs-ISO-Images stehen auf der SUSE SolidDriver-Startseite bereit. Suchen Sie unter https://drivers.suse.com nach bootfähigen ISO-Images für Ihren Hersteller und Ihre Betriebssystemversion.

Sie können wahlweise das gesamte ISO-Image herunterladen oder auch nur die initrd- und linux-Dateien. Die ISO muss normalerweise auf ein USB-Flash-Laufwerk kopiert oder auf DVD gebrannt werden. Mit den initrd- und linux-Dateien ist ein PXE-Bootvorgang möglich. Weitere Innovationen zum Booten über PXE finden Sie in Kapitel 17, Vorbereiten der Netzwerk-Boot-Umgebung.

6.2 Booten der Kernel-Aktualisierung

Booten Sie die Kernel-Aktualisierung vom USB-Flash-Laufwerk oder über PXE. Beim Laden der linux- und initrd-Dateien werden Sie aufgefordert, das Installationsmedium einzulegen.

Auf Wunsch können Sie die in Kapitel 7, Boot-Parameter beschriebenen Boot-Parameter heranziehen. Auf diese Weise können Sie auch andere Installationsquellen als das USB-Flash-Laufwerk verwenden.

Teil II Installationsvorgang

  • 7 Boot-Parameter
  • Für SUSE Linux Enterprise Server können verschiedene Parameter beim Booten festgelegt werden, beispielsweise die Quelle der Installationsdaten oder Einstellungen für die Netzwerkkonfiguration.

  • 8 Installationsschritte
  • In diesem Kapitel wird das Verfahren beschrieben, mit dem die Daten für SUSE Linux Enterprise Server auf das Zielgerät kopiert werden. Im Rahmen des Verfahrens werden einige grundlegende Konfigurationsparameter für das soeben installierte System festgelegt. Eine grafische Benutzeroberfläche führt Sie durch die Installation. Das im Folgenden beschriebene Verfahren gilt auch für Ferninstallationsverfahren (siehe Kapitel 11, Ferninstallation). Die Textmodus-Installation ist lediglich optisch anders aufgebaut, umfasst jedoch dieselben Schritte. Weitere Informationen zum Ausführen nicht-interaktiver automatisierter Installationen finden Sie im Book “AutoYaST Guide”.

  • 9 Registrieren von SUSE Linux Enterprise und Verwalten von Modulen/Erweiterungen
  • Für technischen Support und Produktaktualisierungen müssen Sie SUSE Linux Enterprise Server beim SUSE Customer Center registrieren und aktivieren. Es wird empfohlen, die Registrierung während der Installation vorzunehmen, da Sie so in der Lage sind, das System mit den neuesten verfügbaren Aktualisierungen und Patches zu installieren. Falls Sie gerade offline sind oder den Registrierungsschritt überspringen möchten, können Sie die Registrierung jederzeit später aus dem installierten System heraus nachholen.

    Durch Module und Erweiterungen werden dem System Funktionen hinzugefügt und Sie können das System an Ihre Bedürfnisse anpassen. Diese Komponenten müssen ebenfalls registriert werden und lassen sich mithilfe von YaST oder Kommandozeilenwerkzeugen verwalten. Weitere Details finden Sie in Article “Modules and Extensions Quick Start”.

  • 10 Festplatte vorbereiten: Expertenmodus
  • Komplexe Systemkonfigurationen erfordern besondere Festplatteneinrichtungen. Im Rahmen der Installation können alle gängigen Partitionierungsaufgaben durchgeführt werden. Um Gerätenamen mit Blockgeräten zu erhalten, verwenden Sie die Blockgeräte /dev/disk/by-id oder /dev/disk/by-uuid. Das Logical Vo…

  • 11 Ferninstallation
  • SUSE® Linux Enterprise Server kann vollständig über das Netzwerk installiert werden. In diesem Kapitel wird beschrieben, wie Sie die erforderliche Umgebung für den Boot-Vorgang, die Installation und die Steuerung über das Netzwerk bereitstellen.

  • 12 Fehlerbehebung
  • In diesem Abschnitt werden einige typische Probleme vorgestellt, die häufig bei der Installation auftreten, und es werden mögliche Lösungen oder Behelfslösungen aufgezeigt.

7 Boot-Parameter

Für SUSE Linux Enterprise Server können verschiedene Parameter beim Booten festgelegt werden, beispielsweise die Quelle der Installationsdaten oder Einstellungen für die Netzwerkkonfiguration.

Mithilfe geeigneter Boot-Parameter können Sie den Installationsvorgang vereinfachen. Viele Parameter können mit den linuxrc-Routinen auch zu einem späteren Zeitpunkt konfiguriert werden, das Verwenden der Boot-Parameter ist jedoch viel einfacher. In einigen automatisierten Setups können die Boot-Parameter über die initrd-Datei oder eine info-Datei bereitgestellt werden.

Das Verfahren zum Starten des Systems ist abhängig von der jeweiligen Architektur; ein PC (AMD64/Intel 64) wird beispielsweise anders gestartet als ein Mainframe. Wenn Sie SUSE Linux Enterprise Server als VM-Gast (VM Guest) auf einem KVM- oder Xen-Hypervisor installieren, befolgen Sie die Anweisungen für die AMD64-/Intel-64-Architektur.

Anmerkung
Anmerkung: Boot-Optionen und Boot-Parameter

Die Begriffe Boot-Parameter und Boot-Optionen werden häufig synonym verwendet. In dieser Dokumentation finden Sie größtenteils den Begriff Boot-Parameter.

7.1 Standardmäßige Boot-Parameter

Die Boot-Parameter werden genauer unter Kapitel 8, Installationsschritte erläutert. In der Regel wird durch die Auswahl von Installation der Bootvorgang für die Installation gestartet.

Verwenden Sie bei Problemen Installation - ACPI deaktiviert bzw. Installation - Sichere Einstellungen. Weitere Informationen zu Fehlerbehebung beim Installationsvorgang finden Sie in Kapitel 12, Fehlerbehebung.

Die Menüleiste unten im Bildschirm enthält erweiterte Funktionen, die bei manchen Setups erforderlich sind. Mithilfe der Funktionstasten F1 bis F12 können Sie zusätzliche Optionen angeben, die an die Installationsroutinen weitergegeben werden, ohne dass Sie die detaillierte Syntax dieser Parameter kennen müssen (siehe Kapitel 7, Boot-Parameter). Eine detaillierte Beschreibung der verfügbaren Funktionstasten finden Sie in Abschnitt 7.2.1, „Der Boot-Bildschirm auf Computern mit herkömmlichem BIOS“.

7.2 PC (AMD64/Intel 64/Arm AArch64)

In diesem Abschnitt wird beschrieben, wie Sie die Boot-Parameter für AMD64, Intel 64 und Arm AArch64 bearbeiten.

7.2.1 Der Boot-Bildschirm auf Computern mit herkömmlichem BIOS

Im Bootbildschirm werden mehrere Optionen für den Installationsvorgang angezeigt. Von Festplatte booten bootet das installierte System. Die Option ist standardmäßig aktiviert, weil die CD häufig im Laufwerk verbleibt. Wählen sie eine der anderen Optionen mit den Pfeiltasten aus und drücken Sie Eingabetaste, um das System zu booten. Folgende Optionen sind relevant:

Installation

Der normale Installationsmodus. Alle modernen Hardwarefunktionen sind aktiviert. Sollte die Installation fehlschlagen, finden Sie im F5 Kernel die Boot-Parameter, die mögliche problematische Funktionen deaktivieren.

Upgrade

Führt ein Upgrade des Systems aus. Weitere Informationen finden Sie im Book “Upgradehandbuch”, Chapter 1 “Upgrade-Pfade und -Methoden”.

Weitere › Rettungssystem

Startet ein minimales Linux-System ohne grafische Bedienoberfläche. Weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 40 “Häufige Probleme und deren Lösung”, Section 40.5.2 “Verwenden des Rettungssystems”.

Weitere › Linux-System starten

Starten Sie ein Linux-System, das bereits installiert ist. Sie werden gefragt, von welcher Partition das System gestartet werden soll.

Weitere › Installationsmedien prüfen

Diese Option is nur verfügbar, wenn Sie von einem Medium aus installieren, das von heruntergeladenen ISOs erstellt wurde. In diesem Fall empfiehlt es sich, die Integrität des Installationsmediums zu überprüfen. Diese Option startet das Installationssystem, bevor die Medien automatisch überprüft werden. Nach erfolgreicher Überprüfung wird die herkömmliche Installationsroutine gestartet. Wenn dabei ein fehlerhaftes Medium gefunden wird, so wird die Installationsroutine abgebrochen. Ersetzen Sie das defekte Medium und starten Sie den Installationsvorgang neu.

Weitere › Speichertest

Testet Ihren System-RAM durch wiederholte Lese- und Schreibzyklen. Der Test kann durch erneutes Booten abgebrochen werden. Weitere Informationen finden Sie im Abschnitt 12.4, „Boot-Fehler“.

Der Boot-Bildschirm auf Computern mit herkömmlichem BIOS
Abbildung 7.1: Der Boot-Bildschirm auf Computern mit herkömmlichem BIOS

Mit den Funktionstasten in der Leiste am unteren Rand des Bildschirms können Sie die Sprache, die Bildschirmauflösung oder die Installationsquelle ändern oder zusätzliche Treiber von Ihrem Hardware-Anbieter hinzufügen:

F1 Hilfe

Rufen Sie die kontextabhängige Hilfe für das aktive Element des Boot-Bildschirms auf. Verwenden Sie die Pfeiltasten zum Navigieren, Eingabetaste zur Verfolgung eines Links und Esc zum Verlassen des Hilfe-Bildschirms.

F2 Sprache

Wählen sie die Anzeigesprache und ein entsprechendes Tastatur-Layout für die Installation aus. Die Standardsprache ist Englisch (US).

F3 Videomodus

Wählen Sie verschiedene Modi für die grafische Darstellung während der Installation aus. Bei Standard wird die Bildauflösung automatisch anhand der KMS (Kernel Mode Setting) ermittelt. Falls diese Einstellung auf dem System nicht funktioniert, wählen Sie No KMS (Kein KMS). Geben Sie (optional) das Kommando vga=ask in der Boot-Kommandozeile ein, damit Sie aufgefordert werden, die Bildauflösung festzulegen. Wählen Sie Textmodus, wenn die grafische Installation Probleme verursacht.

F4Quelle

In der Regel wird die Installation vom eingelegten Installationsdatenträger ausgeführt. Wählen Sie hier andere Quellen, wie etwa FTP- oder NFS-Server. Wenn die Installation in einem Netzwerk mit einem SLP-Server bereitgestellt wird, wählen Sie mit dieser Option eine auf dem Server verfügbare Installationsquelle. Weitere Informationen zum Einrichten eines Installationsservers mit SLP finden Sie in Kapitel 16, Einrichten einer Netzwerkinstallationsquelle.

F5 Kernel

Falls bei der regulären Installation Probleme aufgetreten sind, bietet Ihnen dieses Menü Möglichkeiten zur Deaktivierung einiger potenziell problematischer Funktionen an. Wenn Ihre Hardware ACPI (Advanced Configuration and Power Interface) nicht unterstützt, wählen Sie Keine ACPI aus, um die Installation ohne Unterstützung durch ACPI durchzuführen. Die Option Keine lokalen APIC deaktiviert die Unterstützung für APIC (Advanced Programmable Interrupt Controllers), was Probleme bei mancher Hardware verursachen könnte. Die Option Sichere Einstellungen bootet das System mit deaktiviertem DMA-Modus (für CD/DVD-ROM-Laufwerke); Energieverwaltungsfunktionen werden ebenfalls deaktiviert.

Falls Sie nicht sicher sind, verwenden Sie zunächst probehalber die folgenden Optionen: Installation – ACPI deaktiviert oder Installation – Sichere Einstellungen. Experten können auch die Kommandozeile Bootoptionen verwenden, um Kernel-Parameter einzugeben oder zu ändern.

F6 Treiber

Drücken Sie diese Taste, um das System darüber zu benachrichtigen, dass Sie eine optionale Treiberaktualisierung für SUSE Linux Enterprise Server verwenden. Mithilfe von Datei oder URL laden Sie die Treiber direkt vor dem Start der Installation. Wenn Sie Ja auswählen, werden Sie aufgefordert, den Datenträger für die Aktualisierung am entsprechenden Punkt im Installationsprozess einzufügen.

Tipp
Tipp: Anfordern von Datenträgern mit Treiberaktualisierungen

Treiberaktualisierungen für SUSE Linux Enterprise finden Sie im http://drivers.suse.com/. Diese Treiber wurden über das SUSE SolidDriver-Programm erstellt.

7.2.2 Der Boot-Bildschirm auf Computern mit UEFI

Der neue Branchenstandard UEFI (Unified Extensible Firmware Interface) ersetzt und erweitert das herkömmliche BIOS. Die jüngsten UEFI-Implementationen enthalten die Secure Boot-Erweiterung, mit der ausschließlich signierte Bootloader ausgeführt werden. So wird das Booten von böswilligem Code verhindert. Weitere Informationen hierzu finden Sie im Book “Verwaltungshandbuch”, Chapter 13 “UEFI (Unified Extensible Firmware Interface)”.

Der Boot-Manager GRUB 2 zum Booten von Rechnern mit herkömmlichem BIOS bietet keine Unterstützung für UEFI, weshalb GRUB 2 durch GRUB 2 für EFI ersetzt wird. Wenn Secure Boot aktiviert ist, wählt YaST bei der Installation automatisch GRUB 2 für EFI aus. Aus Sicht der Administratoren und Benutzer verhalten sich die beiden Boot-Manager-Implementierungen identisch; im Folgenden werden beide daher als GRUB 2 bezeichnet.

Tipp
Tipp: Verwenden von zusätzlichen Treibern mit Secure Boot

Wenn Sie die Installation mit aktiviertem Secure Boot vornehmen, können Sie keine Treiber laden, die nicht im Lieferumfang von SUSE Linux Enterprise Server enthalten sind. Dies gilt auch für Treiber, die über SolidDriver vertrieben werden, da ihr Signierschlüssel standardmäßig als nicht vertrauenswürdig betrachtet wird.

Mit den folgenden Verfahren können Sie Treiber laden, die nicht im Lieferumfang von SUSE Linux Enterprise Server enthalten sind:

  • Nehmen Sie die erforderlichen Schlüssel vor der Installation mit Firmware-/Systemmanagement-Tools in die Firmware-Datenbank auf.

  • Verwenden Sie eine bootfähige ISO, die die erforderlichen Schlüssel beim ersten Booten in die MOK-Liste einträgt.

Weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 13 “UEFI (Unified Extensible Firmware Interface)”, Section 13.1 “Secure Boot”.

Im Bootbildschirm werden mehrere Optionen für den Installationsvorgang angezeigt. Ändern Sie die ausgewählte Optionen mit den Pfeiltasten und drücken Sie Eingabetaste, um das System zu booten. Folgende Optionen sind relevant:

Installation

Der normale Installationsmodus. Alle modernen Hardwarefunktionen sind aktiviert. Sollte die Installation fehlschlagen, finden Sie im F5 Kernel die Boot-Parameter, die mögliche problematische Funktionen deaktivieren.

Upgrade

Führt ein Upgrade des Systems aus. Weitere Informationen finden Sie im Book “Upgradehandbuch”, Chapter 1 “Upgrade-Pfade und -Methoden”.

Weitere › Rettungssystem

Startet ein minimales Linux-System ohne grafische Bedienoberfläche. Weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 40 “Häufige Probleme und deren Lösung”, Section 40.5.2 “Verwenden des Rettungssystems”.

Weitere › Linux-System starten

Starten Sie ein Linux-System, das bereits installiert ist. Sie werden gefragt, von welcher Partition das System gestartet werden soll.

Weitere › Installationsmedien prüfen

Diese Option is nur verfügbar, wenn Sie von einem Medium aus installieren, das von heruntergeladenen ISOs erstellt wurde. In diesem Fall empfiehlt es sich, die Integrität des Installationsmediums zu überprüfen. Diese Option startet das Installationssystem, bevor die Medien automatisch überprüft werden. Nach erfolgreicher Überprüfung wird die herkömmliche Installationsroutine gestartet. Wenn dabei ein fehlerhaftes Medium gefunden wird, so wird die Installationsroutine abgebrochen.

Der Boot-Bildschirm auf Computern mit UEFI
Abbildung 7.2: Der Boot-Bildschirm auf Computern mit UEFI

GRUB 2 für EFI auf SUSE Linux Enterprise Server unterstützt keinen Bootprompt und keine Funktionstasten zum Hinzufügen von Bootparametern. Standardmäßig wird die Installation in englischer Sprache (amerikanisches Englisch) und den Bootmedien als Installationsquelle gestartet. Zum Konfigurieren des Netzwerks wird eine DHCP-Suche ausgeführt. Sollen diese Standardeinstellungen geändert oder Bootparameter hinzugefügt werden, müssen Sie den entsprechenden Booteintrag bearbeiten. Markieren Sie den Eintrag mit den Pfeiltasten und drücken Sie E. In der Bildschirmhilfe finden Sie Tipps zur Bearbeitung (beachten Sie bitte, dass die englische Tastaturbelegung gilt). Der Eintrag Installation ist in etwa wie folgt aufgebaut:

setparams 'Installation'

   set gfxpayload=keep
   echo 'Loading kernel ...'
   linuxefi /boot/x86_64/loader/linux splash=silent
   echo 'Loading initial ramdisk ...'
   initrdefi /boot/x86_64/loader/initrd

Fügen Sie die Parameter (jeweils durch Leerzeichen getrennt) am Ende der Zeile ein, die mit linuxefi beginnt. Zum Booten des bearbeiteten Eintrags drücken Sie F10. Wenn Sie den Computer über die serielle Konsole bedienen, drücken Sie Esc 0. Unter https://en.opensuse.org/Linuxrc finden Sie eine vollständige Liste der Parameter.

7.3 Liste wichtiger Boot-Parameter

In diesem Abschnitt finden Sie eine Auswahl der wichtigsten Boot-Parameter.

7.3.1 Allgemeine Boot-Parameter

autoyast=URL

Der Parameter autoyast gibt den Speicherort der Steuerungsdatei autoinst.xml für die automatische Installation an.

manual=<0|1>

Mit dem Parameter manual wird gesteuert, ob die anderen Parameter nur Standardwerte sind, die vom Benutzer noch akzeptiert werden müssen. Setzen Sie diesen Parameter auf 0, wenn alle Werte ohne Nachfrage übernommen werden sollen. Wenn Sie autoyast einstellen, bedeutet dies, dass manual auf 0 gesetzt wird.

Info=URL

Gibt einen Standort für eine Datei an, von der zusätzliche Optionen gelesen werden sollen.

IBM Z Dadurch werden die Beschränkungen auf 10 Zeilen (und 80 Zeichen pro Zeile unter z/VM) für diese Parameterdatei außer Kraft gesetzt. Weitere Dokumentationen zur Infodatei finden Sie im Book “AutoYaST Guide”, Chapter 9 “The auto-installation process”, Section 9.3.3 “Combining the linuxrc info file with the AutoYaST control file”. Der Zugriff auf die Infodatei ist in der Regel nur über das Netzwerk auf IBM Z möglich. Daher können Sie in dieser Datei keine Optionen angeben, die zum Einrichten des Netzwerks erforderlich sind (d. h. die in Abschnitt 7.3.2, „Konfigurieren der Netzwerkschnittstelle“ beschriebenen Optionen). In der Parameterdatei müssen auch andere linuxrc-spezifischen Optionen wie die zur Fehlersuche angegeben werden, um wirksam zu werden.

upgrade=<0|1>

Geben Sie zum Upgrade von SUSE Linux Enterprise Server den Parameter Upgrade=1 an.

IBM Z Soll eine bestehende Installation von SUSE Linux Enterprise upgegradet werden, ist eine benutzerdefinierte parmfile erforderlich. Ohne diesen Parameter bietet die Installation keine Upgradeoption.

dud=URL

Lädt Treiberaktualisierungen von URL herunter.

Mit dud=ftp://ftp.example.com/PFAD_ZUM_TREIBER oder dud=http://www.example.com/PFAD_ZUM_TREIBER laden Sie Treiber von einer URL herunter. Wenn Sie dud=1 angeben, werden Sie beim Booten nach der URL gefragt.

language=SPRACHE

Wählen Sie eine Sprache für die Installation aus. Es werden unter anderem die folgenden Werte unterstützt: cs_CZ, de_DE, es_ES, fr_FR, ja_JP, pt_BR, pt_PT, ru_RU, zh_CN und zh_TW.

acpi=off

Deaktiviert die ACPI-Unterstützung.

noapic

Keine logischen APIC.

nomodeset

Deaktiviert KMS.

textmode=1

Startet das Installationsprogramm im Textmodus.

console=SERIELLES_GERÄT[,MODUS]

SERIELLES_GERÄT kann auf ein physisches serielles oder paralleles Gerät verweisen (z. B. ttyS0) oder auch auf ein virtuelles Terminal (z. B. tty1). MODUS bezeichnet die Baud-Rate, die Parität und das Stopp-Bit (z. B. 9600n8). Der Standardwert für diese Einstellung wird über die Mainboard-Firmware festgelegt. Falls keine Ausgabe auf dem Monitor angezeigt wird, legen Sie probehalber console=tty1 fest. Sie können mehrere Geräte definieren.

7.3.2 Konfigurieren der Netzwerkschnittstelle

Wichtig
Wichtig: Konfigurieren der Netzwerkschnittstelle

Die in diesem Abschnitt beschriebenen Einstellungen gelten nur für die während der Installation verwendete Netzwerkschnittstelle. Konfigurieren Sie zusätzliche Netzwerkschnittstellen im installierten System, indem Sie die Anleitungen in Book “Verwaltungshandbuch”, Chapter 19 “Grundlegendes zu Netzwerken”, Section 19.5 “Manuelle Netzwerkkonfiguration” befolgen.

Das Netzwerk wird nur dann konfiguriert, wenn dies im Rahmen der Installation erforderlich ist. Mit den Parametern netsetup oder ifcfg geben Sie an, dass das Netzwerk in jedem Fall konfiguriert werden soll.

netsetup=WERT

Mit netsetup=dhcp wird die Konfiguration über DHCP erzwungen. Legen Sie netsetup=-dhcp fest, wenn das Netzwerk mit den Boot-Parametern hostip, gateway und nameserver konfiguriert werden soll. Mit der Option netsetup=hostip,netmask,gateway,nameserver fragt das Installationsprogramm beim Booten nach den Netzwerkeinstellungen.

ifcfg=SCHNITTSTELLE[.VLAN]=[.try,]EINSTELLUNGEN

Für SCHNITTSTELLE können Sie * festlegen (alle Schnittstellen) oder auch beispielsweise eth* (alle Schnittstellen, die mit eth beginnen). Außerdem können Sie MAC-Adressen als Werte angeben.

Optional können Sie nach dem Schnittstellennamen einen Punkt eingeben und dann ein VLAN festlegen.

Wenn für EINSTELLUNGEN der Wert dhcp angegeben ist, werden alle passenden Schnittstellen mit DHCP konfiguriert. Beim Hinzufügen der Option try wird die Konfiguration beendet, wenn das Installations-Repository über eine der konfigurierten Schnittstellen erreicht werden kann.

Alternativ verwenden Sie eine statische Konfiguration. Bei statischen Parametern wird nur die erste passende Schnittstelle konfiguriert, es sei denn, Sie fügen die Option try hinzu. Dadurch werden alle Schnittstellen konfiguriert, bis das Repository erreicht werden kann.

Die Syntax für die statische Konfiguration lautet:

ifcfg=*="IPS_NETMASK,GATEWAYS,NAMESERVERS,DOMAINS"

Die einzelnen durch Komma getrennten Werte können jeweils eine Liste mit Werten enthalten, die wiederum durch Leerzeichen getrennt sind. IPS_NETZMASKE ist in der CIDR-Schreibweise anzugeben, z. B. 10.0.0.1/24. Anführungszeichen sind nur dann erforderlich, wenn Werte in Listen durch Leerzeichen voneinander getrennt sind. Beispiel mit zwei Nameservern:

ifcfg=*="10.0.0.10/24,10.0.0.1,10.0.0.1 10.0.0.2,example.com"
Tipp
Tipp: Sonstige Netzwerkparameter

Mit dem leistungsstarken Boot-Parameter ifcfg lassen sich nahezu alle Networking-Parameter festlegen. Zusätzlich zu den oben erwähnten Parametern können Sie unter /etc/sysconfig/network/ifcfg.template und /etc/sysconfig/network/config Werte für alle Konfigurationsoptionen (durch Komma getrennt) festlegen. Im folgenden Beispiel wird eine benutzerdefinierte MTU-Größe auf einer Oberfläche festgelegt, die ansonsten über DHCP konfiguriert wird:

ifcfg=eth0=dhcp,MTU=1500
hostname=host.example.com

Geben Sie den vollständigen Hostnamen ein.

domain=example.com

Domänensuchpfad für DNS. Ermöglicht Ihnen, kurze anstelle von vollständig qualifizierten Hostnamen zu verwenden.

hostip=192.168.1.2[/24]

Geben Sie die IP-Adresse der zu konfigurierenden Schnittstelle ein. Die IP kann die Subnetzmaske enthalten, z. B. hostip=192.168.1.2/24. Diese Einstellung wird nur dann beachtet, wenn das Netzwerk während der Installation erforderlich ist.

gateway=192.168.1.3

Geben Sie den gewünschten Gateway an. Diese Einstellung wird nur dann beachtet, wenn das Netzwerk während der Installation erforderlich ist.

nameserver=192.168.1.4

Geben Sie den beteiligten DNS-Server an. Diese Einstellung wird nur dann beachtet, wenn das Netzwerk während der Installation erforderlich ist.

domain=example.com

Domänensuchpfad. Diese Einstellung wird nur dann beachtet, wenn das Netzwerk während der Installation erforderlich ist.

7.3.3 Angeben der Installationsquelle

Geben Sie eine alternative Installationsquelle an, falls Sie die Installation nicht über DVD oder USB-Flash-Laufwerk ausführen.

install=QUELLE

Geben Sie den Speicherort der zu verwendenden Installationsquelle an. Mögliche Protokolle sind cd, hd, slp, nfs, smb (Samba/CIFS), ftp, tftp http und https. Nicht alle Quelltypen sind auf allen Plattformen verfügbar. IBM Z bietet beispielsweise keine Unterstützung für cd und hd.

Die Standardoption lautet cd.

Wenn eine ftp-, tftp- oder smb-URL angegeben wird, geben Sie mit der URL den Benutzernamen und das Passwort an. Diese Parameter sind optional und wenn sie nicht angegeben sind, wird von einer anonymen Anmeldung oder einer Gastanmeldung ausgegangen. Beispiel:

install=ftp://USER:PASSWORD@SERVER/DIRECTORY/DVD1/

Soll die Installation über eine verschlüsselte Verbindung erfolgen, verwenden Sie eine URL vom Typ https. Falls das Zertifikat nicht überprüft werden kann, deaktivieren Sie die Prüfung von Zertifikaten mit dem Boot-Parameter sslcerts=0.

Bei einer Samba- oder CIFS-Installation können Sie zudem die Domäne angeben, die verwendet werden soll:

install=smb://WORKDOMAIN;USER:PASSWORD@SERVER/DIRECTORY/DVD1/

Soll cd, hd oder slp verwendet werden, legen Sie diese Parameter wie im folgenden Beispiel fest:

install=cd:/
install=hd:/?device=sda/PATH_TO_ISO
install=slp:/

7.3.4 Festlegen des Fernzugriffs

Es darf jeweils nur eine Fernsteuerungsmethode herangezogen werden, nicht mehrere Methoden gleichzeitig. Die verschiedenen Methoden sind SSH, VNC sowie Remote X-Server. Weitere Informationen zur Verwendung der Parameter in diesem Abschnitt finden Sie in Kapitel 11, Ferninstallation.

display_ip=IP-ADRESSE

Mit display_IP versucht das Installationssystem, eine Verbindung zu einem X-Server unter der angegebenen Adresse herzustellen.

Wichtig
Wichtig: X-Authentifizierungsmechanismus

Die direkte Installation über das X Window System beruht auf einem einfachen auf Hostnamen basierenden Authentifizierungsmechanismus. Dieser Mechanismus ist in den aktuellen Versionen von SUSE Linux Enterprise Server deaktiviert. Die Installation mit SSH oder VNC wird bevorzugt.

vnc=1

Aktiviert einen VNC-Server während der Installation.

vncpassword=PASSWORT

Legt das Passwort für den VNC-Server fest.

ssh=1

Mit ssh wird die SSH-Installation aktiviert.

ssh.password=PASSWORT

Gibt ein SSH-Passwort für den root-Benutzer während der Installation an.

7.4 Erweiterte Einrichtungen

Soll der Zugriff auf einen lokalen RMT- oder supportconfig-Server für die Installation konfiguriert werden, können Sie die entsprechenden Boot-Parameter zum Einrichten dieser Dienste während der Installation angeben. Dies gilt auch für die IPv6-Unterstützung während der Installation.

7.4.1 Bereitstellen von Daten für den Zugriff auf einen RMT-Server

Standardmäßig werden Aktualisierungen für SUSE Linux Enterprise Server durch das SUSE Customer Center bereitgestellt. Wenn das Netzwerk einen sogenannten RMT-Server als lokale Aktualisierungsquelle bereitstellt, müssen Sie dem Client die Server-URL mitteilen. Client und Server kommunizieren ausschließlich über das HTTPS-Protokoll. Daher müssen Sie auch einen Pfad zum Serverzertifikat eingeben, wenn das Zertifikat nicht von einer Zertifizierungsstelle stammt.

Anmerkung
Anmerkung: Nur nicht-interaktive Installation

Die Angabe von Parametern für den Zugriff auf einen RMT-Server ist nur für nicht interaktive Installationen erforderlich. Während einer interaktiven Installation können die Daten während der Installation angegeben werden (weitere Details finden Sie im Abschnitt 8.7, „Registrierung“).

regurl

URL des RMT-Servers. Für diese URL gilt das feste Format https://FQN/center/regsvc/. FQN muss der vollständig qualifizierte Hostname des RMT-Servers sein. Beispiel:

regurl=https://smt.example.com/center/regsvc/

Achten Sie darauf, dass Sie richtige Werte eingeben. Wenn regurl nicht richtig angegeben wurde, schlägt die Registrierung der Aktualisierungsquelle fehl.

regcert

Standort des RMT-Serverzertifikats. Geben Sie eine der folgenden Optionen an:

URL

Remotestandort (HTTP, HTTPS oder FTP), von dem das Zertifikat heruntergeladen werden kann. Wenn regcert nicht festgelegt ist, wird http://FQN/smt.crt verwendet, wobei FQN der Name des RMT-Servers ist. Beispiel:

regcert=http://rmt.example.com/smt-ca.crt
Lokaler Pfad

Absoluter Pfad zum Zertifikat auf dem lokalen Rechner. Beispiel:

regcert=/data/inst/smt/smt-ca.cert
Interaktiv

Verwenden Sie ask während der Installation zum Öffnen eines Popup-Menüs, in dem Sie den Pfad zum Zertifikat angeben können. Verwenden Sie diese Option nicht bei AutoYaST. Beispiel

regcert=ask
Zertifikatsinstallation deaktivieren

Verwenden Sie fertig, wenn das Zertifikat durch ein Add-On-Produkt installiert wird oder wenn Sie ein Zertifikat verwenden, das durch eine offizielle Zertifizierungsstelle ausgestellt wurde. Beispiel:

regcert=done

7.4.2 Konfigurieren eines alternativen Datenservers für supportconfig

Die von supportconfig (weitere Informationen unter Book “Verwaltungshandbuch”, Chapter 39 “Erfassen der Systeminformationen für den Support”) gesammelten Daten werden standardmäßig an das SUSE Customer Center gesendet. Es ist auch möglich, einen lokalen Server zum Erfassen dieser Daten einzurichten. Wenn ein solcher Server in Ihrem Netzwerk verfügbar ist, müssen Sie die URL des Servers am Client festlegen. Diese Daten müssen beim Bootprompt eingegeben werden.

supporturl URL des Servers. Für die URL gilt das Format http://FQN/Pfad/, wobei FQN den vollständig qualifizierten Hostnamen des Servers und Pfad den Speicherort auf dem Server bezeichnet. Beispiel:

supporturl=http://support.example.com/supportconfig/data/

7.4.3 Verwenden von IPv6 für die Installation

Standardmäßig können Sie Ihrem Computer nur IPv4-Netzwerkadressen zuweisen. Zum Aktivieren von IPv6 während der Installation geben Sie einen der folgenden Parameter am Bootprompt ein:

IPv4 und IPv6 akzeptieren
ipv6=1
Nur IPv6 akzeptieren
ipv6only=1

7.4.4 Verwenden eines Proxys für die Installation

In Netzwerken, in denen der Zugriff auf Remote-Websites über einen Proxyserver erzwungen wird, ist die Registrierung während der Installation nur dann möglich, wenn Sie einen Proxyserver konfigurieren.

Zur Verwendung eines Proxys während der Installation drücken Sie F4 im Bootbildschirm und legen Sie die erforderlichen Parameter im Dialogfeld HTTP-Proxy fest.

Alternativ geben Sie den Kernel-Parameter proxy am Bootprompt ein:

  1. Drücken Sie im Installationsbildschirm die Taste E, um den Editor der Boot-Parameter zu öffnen.

  2. Fügen Sie eine neue Zeile mit der folgenden Syntax hinzu:

    proxy=http://USER:PASSWORD@proxy.example.com:PORT

    Die Angabe von USER (Benutzer) und PASSWORD (Passwort) ist optional; falls der Server den anonymen Zugriff zulässt, reichen die folgenden Daten aus:

    http://proxy.example.com:PORT

    Der Eintrag ähnelt dem folgenden:

    Editor für GRUB-Optionen
    Abbildung 7.3: Editor für GRUB-Optionen
  3. Drücken Sie F10 zum Booten mit der neuen Proxy-Einstellung.

7.4.5 Aktivieren der SELinux-Unterstützung

Wenn Sie SELinux beim Starten der Installation aktivieren, können Sie SELinux direkt nach Abschluss der Installation konfigurieren, ohne den Computer neu starten zu müssen. Die folgenden Parameter stehen zur Verfügung:

security=selinux selinux=1

7.4.6 Aktivieren der Selbstaktualisierung für das Installationsprogramm

Bei der Installation und beim Upgrade kann YaST sich selbst aktualisieren (siehe Abschnitt 8.2, „Selbstaktualisierung des Installationsprogramms“) und so potenzielle Fehler beheben, die erst nach der Freigabe festgestellt wurden. Mit dem Parameter self_update bestimmen Sie das Verhalten dieser Funktion.

Soll die Selbstaktualisierung des Installationsprogramms aktiviert werden, stellen Sie den Parameter auf 1 ein:

self_update=1

Soll ein benutzerdefiniertes Repository verwendet werden, geben Sie eine URL an:

self_update=https://updates.example.com/

7.4.7 Skalieren der Benutzeroberfläche für hohen DPI-Wert

Wenn der DPI-Wert Ihres Bildschirms sehr hoch ist, verwenden Sie den Boot-Parameter QT_AUTO_SCREEN_SCALE_FACTOR. Damit werden die Schrift und Elemente der Benutzeroberfläche entsprechend des DPI-Werts des Bildschirms skaliert.

QT_AUTO_SCREEN_SCALE_FACTOR=1

7.4.8 Verwenden von CPU-Mitigationen

Mit dem Bootparameter mitigations steuern Sie Mitigationsoptionen für Seitenkanalangriffe auf betroffenen CPUs. Zulässige Werte:

auto Aktiviert alle erforderlichen Mitigationen für Ihr CPU-Modell, schützt jedoch nicht vor CPU-übergreifenden Thread-Angriffen. Diese Einstellung kann die Leistung in gewissem Maße einschränken, je nach Auslastung.

nosmt Aktiviert alle verfügbaren Sicherheitsmitigationen. Aktiviert alle erforderlichen Mitigationen für Ihr CPU-Modell. Darüber hinaus wird Simultaneous Multithreading (SMT) deaktiviert, sodass Seitenkanalangriffe über mehrere CPU-Threads unterbunden werden. Diese Einstellung kann die Leistung weiter einschränken, je nach Auslastung.

aus Deaktiviert alle Mitigationen. Es sind Seitenkanalangriffe gegen die CPU möglich, je nach CPU-Modell. Diese Einstellung wirkt sich nicht auf die Leistung aus.

Die einzelnen Werte umfassen bestimmte Parameter, je nach CPU-Architektur, Kernel-Version und den zu mitigierenden Schwachstellen. Weitere Informationen finden Sie in der Kernel-Dokumentation.

7.5 IBM Z

Systeme mit der IBM Z-Plattform werden gemäß den Anweisungen in Abschnitt 5.3.4, „Ausführen des IPL-Vorgangs für das SUSE Linux Enterprise Server-Installationssystem“ gestartet (IPL, Initial Program Load). Bei diesen Systemen zeigt SUSE Linux Enterprise Server keinen Startbildschirm an. Laden Sie während des Installationsvorgangs den Kernel, initrd und parmfile manuell. YaST beginnt mit seinem Installationsbildschirm, sobald über VNC, X oder SSH eine Verbindung zum Installationssystem aufgebaut wurde. Da kein Startbildschirm vorhanden ist, können Kernel- oder Boot-Parameter nicht am Bildschirm eingegeben werden. Sie müssen stattdessen in einer Parameterdatei (parmfile) angegeben werden (siehe Abschnitt 5.6, „Die Parmfile – Automatisierte Systemkonfiguration“).

InstNetDev=osa

Geben Sie den zu konfigurierenden Schnittstellentyp ein. Zulässige Werte sind osa, hsi, ctc, escon und iucv. (CTC, ESCON und IUCV werden nicht mehr offiziell unterstützt.)

Geben Sie für die Schnittstellen vom Typ hsi und osa eine geeignete Netzmaske und eine optionale Broadcast-Adresse an:

Netmask=255.255.255.0
Broadcast=192.168.255.255

Geben Sie für Schnittstellen vom Typ ctc, escon und iucv (CTC, ESCON und IUCV werden offiziell nicht mehr unterstützt) die IP-Adresse des Peer ein:

Pointopoint=192.168.55.20
OsaInterface=<lcs|qdio>

Für osa-Netzwerkgeräte geben Sie die Host-Schnittstelle (qdio oder lcs) ein.

Layer2=<0|1>

Geben Sie für osa-QDIO-Ethernet- und hsi-Geräte an, ob die Unterstützung von OSI-Schicht 2 aktiviert (1) oder deaktiviert (0) werden soll.

OSAHWAddr=02:00:65:00:01:09

Für Schicht-2-fähige osa QDIO Ethernet-Geräte geben Sie entweder manuell eine MAC-Adresse an oder legen Sie OSAHWADDR= (mit nachgestelltem Leerzeichen) als Systemstandardwert fest.

PortNo=<0|1>

Geben Sie für osa-Netzwerkgeräte die Portnummer an (sofern das Gerät diese Funktion unterstützt). Der Standardwert ist 0.

Für die einzelnen Schnittstellen sind bestimmte Setup-Optionen erforderlich:

  • Schnittstellen ctc und escon (CTC und ESCON werden offiziell nicht mehr unterstützt):

    ReadChannel=0.0.0600
    WriteChannel=0.0.0601

    Mit ReadChannel wird der zu verwendende READ-Kanal angegeben. WriteChannel gibt den WRITE-Kanal an.

  • Geben Sie für die Schnittstelle ctc (wird offiziell nicht mehr unterstützt) das Protokoll an, das für diese Schnittstelle verwendet werden soll:

    CTCProtocol=<0/1/2>

    Gültige Einträge:

    0

    Kompatibilitätsmodus, auch für Nicht-Linux-Peers mit Ausnahme von OS/390 und z/OS (dies ist der Standardmodus)

    1

    Erweiterter Modus

    2

    Kompatibilitätsmodus mit OS/390 und z/OS

  • Netzwerkgerättyp osa mit Schnittstelle lcs:

    ReadChannel=0.0.0124

    ReadChannel steht für die in dieser Einrichtung verwendete Kanalnummer. Die zweite Portnummer kann hiervon abgeleitet werden, indem Sie ReadChannel den Wert 1 hinzufügen. Mit Portnumber wird der relative Port angegeben.

  • Schnittstelle iucv:

    IUCVPeer=PEER

    Geben Sie den Namen des Peer-Computers ein.

  • Netzwerkgerätetyp osa mit Schnittstelle qdio für OSA-Express Gigabit Ethernet:

    ReadChannel=0.0.0700
    WriteChannel=0.0.0701
    DataChannel=0.0.0702

    Geben Sie für ReadChannel die Nummer des READ-Kanals ein. Geben Sie für WriteChannel die Nummer des WRITE-Kanals ein. Mit DataChannel wird der DATA-Kanal angegeben. Stellen Sie sicher, dass für den READ-Kanal eine gerade Gerätenummer festgelegt ist.

  • Schnittstelle hsi für HiperSockets und VM-Gast-LANs:

    ReadChannel=0.0.0800
    WriteChannel=0.0.0801
    DataChannel=0.0.0802

    Geben Sie für ReadChannel die entsprechende Nummer des READ-Kanals ein. Geben Sie für WriteChannel und DataChannel die Nummern des WRITE- bzw. des DATA-Kanals ein.

7.6 Zusätzliche Informationsquellen

Weitere Informationen zu den Boot-Parametern finden Sie im openSUSE-Wiki unter https://en.opensuse.org/SDB:Linuxrc#Parameter_Reference.

8 Installationsschritte

In diesem Kapitel wird das Verfahren beschrieben, mit dem die Daten für SUSE Linux Enterprise Server auf das Zielgerät kopiert werden. Im Rahmen des Verfahrens werden einige grundlegende Konfigurationsparameter für das soeben installierte System festgelegt. Eine grafische Benutzeroberfläche führt Sie durch die Installation. Das im Folgenden beschriebene Verfahren gilt auch für Ferninstallationsverfahren (siehe Kapitel 11, Ferninstallation). Die Textmodus-Installation ist lediglich optisch anders aufgebaut, umfasst jedoch dieselben Schritte. Weitere Informationen zum Ausführen nicht-interaktiver automatisierter Installationen finden Sie im Book “AutoYaST Guide”.

Lesen Sie Teil I, „Installationsvorbereitung“, bevor Sie das Installationsprogramm starten. Hier werden die Schritte beschrieben, mit denen Sie die Installation starten (abhängig von der Architektur ihres Systems).

Wenn Sie SUSE Linux Enterprise Server zum ersten Mal verwenden, sollten Sie weitgehend die YaST-Standardvorschläge befolgen. Sie können die hier beschriebenen Einstellungen jedoch auch anpassen, um eine Feinabstimmung Ihres Systems gemäß Ihren Wünschen und Bedürfnissen vorzunehmen. Hilfe für die einzelnen Installationsschritte erhalten Sie durch Klicken auf Hilfe.

Tipp
Tipp: Installation ohne Maus

Wenn das Installationsprogramm Ihre Maus nicht korrekt erkennt, verwenden Sie →| zur Navigation, die Pfeiltasten zum Blättern und die Eingabetaste, um eine Auswahl zu bestätigen. Verschiedene Schaltflächen oder Auswahlfelder enthalten einen Buchstaben mit Unterstreichung. Mit AltBuchstabe können Sie eine Schaltfläche oder Auswahl direkt auswählen und müssen nicht mit →| zu der Schaltfläche oder Auswahl wechseln.

8.1 Überblick

In diesem Abschnitt finden Sie einen Überblick über alle Installationsschritte. Bei den einzelnen Schritten ist jeweils ein Link zu einer ausführlicheren Beschreibung angeben.

  1. Vor Beginn der Installation kann das Installationsprogramm sich selbst aktualisieren. Weitere Informationen finden Sie im Abschnitt 8.2, „Selbstaktualisierung des Installationsprogramms“.

  2. Die eigentliche Installation beginnt mit der Auswahl der Sprache und des Produkts. Weitere Informationen finden Sie im Abschnitt 8.3, „Auswahl der Sprache, der Tastaturbelegung und des Produkts.

  3. Nehmen Sie die Lizenzvereinbarung an. Weitere Informationen finden Sie im Abschnitt 8.4, „Lizenzvereinbarung“.

  4. Auf IBM Z-Computern müssen die Festplatten aktiviert werden. Weitere Informationen finden Sie im Abschnitt 8.5, „IBM Z: Datenträgeraktivierung“.

  5. Konfigurieren Sie das Netzwerk. Dieser Schritt ist nur erforderlich, wenn Sie während der Installation auf das Netzwerk zugreifen müssen und das Netzwerk nicht automatisch mit DHCP konfiguriert werden konnte. Dieser Schritt wird übersprungen, wenn die automatische Netzwerkkonfiguration erfolgreich war. Weitere Informationen finden Sie im Abschnitt 8.6, „Netzwerkeinstellungen“.

  6. Über eine funktionsfähige Netzwerkverbindung können Sie den Computer beim SUSE Customer Center oder bei einem RMT-Server registrieren. Weitere Informationen finden Sie im Abschnitt 8.7, „Registrierung“.

  7. Wählen Sie die Module aus, die für den Computer aktiviert werden sollen. Hieraus ergeben sich die verfügbaren Systemfunktionen im nächsten Schritt bzw. die verfügbaren Pakete im späteren Verlauf. Weitere Informationen finden Sie im Abschnitt 8.8, „Auswahl der Erweiterungen und Module“.

  8. Sie können Repositorys manuell hinzufügen. Weitere Informationen finden Sie im Abschnitt 8.9, „Add-on-Produkt“.

  9. Wählen Sie eine Funktion für das System aus. Hiermit wird unter anderem die standardmäßige Liste der zu installierenden Pakete definiert und es wird eine mögliche Partitionierung der Festplatten vorgeschlagen. Weitere Informationen finden Sie im Abschnitt 8.10, „Systemrolle“.

  10. Partitionieren Sie die Festplatten des Systems. Weitere Informationen finden Sie im Abschnitt 8.11, „Partitionierung“.

  11. Wählen Sie eine Zeitzone aus. Weitere Informationen finden Sie im Abschnitt 8.12, „Uhr und Zeitzone“.

  12. Erstellen Sie einen Benutzer. Weitere Informationen finden Sie im Abschnitt 8.13, „Erstellen von neuen Benutzern“.

  13. Legen Sie optional ein anderes Passwort für den Systemadministrator-root fest. Weitere Informationen finden Sie im Abschnitt 8.14, „Authentifizierung für den Systemadministrator-root.

  14. Im letzten Schritt zeigt das Installationsprogramm einen Überblick mit allen Einstellungen an. Bei Bedarf können Sie die Einstellungen ändern. Weitere Informationen finden Sie im Abschnitt 8.15, „Installationseinstellungen“.

  15. Das Installationsprogramm kopiert alle erforderlichen Daten und zeigt laufend den Fortschritt an. Weitere Informationen finden Sie im Abschnitt 8.16, „Ausführen der Installation“.

8.2 Selbstaktualisierung des Installationsprogramms

Während der Installation und des Upgrades kann sich YaST selbst aktualisieren und so eventuelle Fehler im Installationsprogramm beheben, die erst nach der Freigabe festgestellt wurden. Diese Funktion ist standardmäßig aktiviert. Zum Deaktivieren stellen Sie den Bootparameter self_update auf 0 ein. Weitere Informationen finden Sie im Abschnitt 7.4.6, „Aktivieren der Selbstaktualisierung für das Installationsprogramm“.

Wichtig
Wichtig: Quartals-Aktualisierung der Medien: Selbstaktualisierung deaktiviert

Die Selbstaktualisierung des Installationsprogramms ist nur verfügbar, wenn Sie die GM-Images des Unified Installer und der Paket-ISOs verwenden. Wenn Sie von ISOs installieren, die als Quartals-Aktualisierung veröffentlicht wurden (Sie erkennen sie an der Zeichenkette QU im Namen), kann das Installationsprogramm die Aktualisierung nicht selbst durchführen, weil diese Funktion in den aktualisierten Medien deaktiviert wurde.

Wichtig
Wichtig: Netzwerkzugriff während der Selbstaktualisierung

Zum Herunterladen der Aktualisierungen für das Installationsprogramm benötigt YaST Netzwerkzugriff. Standardmäßig wird DHCP an allen Netzwerkschnittstellen herangezogen. Wenn sich ein DHCP-Server im Netzwerk befindet, wird dieser Server automatisch verwendet.

Falls Sie eine statische IP-Einrichtung benötigen, geben Sie das Bootargument ifcfg an. Weitere Informationen finden Sie in der linuxrc-Dokumentation unter https://en.opensuse.org/Linuxrc.

Tipp
Tipp: Sprachauswahl

Die Selbstaktualisierung des Installationsprogramms wird vor dem Schritt zur Sprachauswahl ausgeführt. Der Fortschritt und eventuelle Fehler in diesem Vorgang werden daher standardmäßig in englischer Sprache angegeben.

Soll dieser Teil des Installationsprogramms in einer anderen Sprache ausgeführt werden, legen Sie den Boot-Parameter language fest, sofern dieser Parameter für Ihre Architektur unterstützt wird, z. B. language=de_DE. Auf Rechnern mit einem herkömmlichen BIOS drücken Sie alternativ im Startmenü auf F2 und wählen die Sprache aus der Liste aus.

Diese Funktion wird ohne Eingreifen des Benutzers ausgeführt. Dennoch sollten Sie sich über die Abläufe bei dieser Funktion informieren. Falls Sie nicht interessiert sind, können Sie direkt zu Abschnitt 8.3, „Auswahl der Sprache, der Tastaturbelegung und des Produkts wechseln und den Rest dieses Abschnitts überspringen.

8.2.1 Selbstaktualisierungsvorgang

Der Vorgang gliedert sich in zwei Teile:

  1. Ermitteln des Speicherorts des Aktualisierungs-Repositorys.

  2. Herunterladen der Aktualisierungen und Anwenden auf das Installationssystem.

8.2.1.1 Ermitteln des Speicherorts des Aktualisierungs-Repositorys

Die Selbstaktualisierungen des Installationsprogramms werden als normale RPM-Pakete über ein dediziertes Repository bereitgestellt. Im ersten Schritt ermitteln Sie also die Repository-URL.

Wichtig
Wichtig: Nur Repository für Selbstaktualisierung des Installationsprogramms

Bei allen nachfolgenden Optionen wird jeweils ausschließlich das Repository für die Selbstaktualisierung des Installationsprogramms erwartet, beispielsweise:

self_update=https://www.example.com/my_installer_updates/

Geben Sie keine andere Repository-URL an, z. B. die URL für das Software-Aktualisierungs-Repository.

YaST zieht die folgenden Installationsquellen heran:

  1. Den Bootparameter self_update. (Weitere Informationen finden Sie im Abschnitt 7.4.6, „Aktivieren der Selbstaktualisierung für das Installationsprogramm“.) Wenn Sie eine URL angeben, hat diese Vorrang vor allen anderen Methoden.

  2. Das Profilelement /general/self_update_url, falls Sie AutoYaST verwenden.

  3. Einen Registrierungsserver. YaST fragt die URL beim Registrierungsserver ab. Der zu verwendende Server wird in der nachstehenden Reihenfolge bestimmt:

    1. Durch Auswertung des Bootparameters regurl (Abschnitt 7.4.1, „Bereitstellen von Daten für den Zugriff auf einen RMT-Server“).

    2. Durch Auswerten des Profilelements /suse_register/reg_server, falls Sie AutoYaST verwenden.

    3. Durch eine SLP-Suche. Wenn ein SLP-Server gefunden wird, werden Sie von YaST gefragt, ob dieser Server verwendet werden soll, da keine Authentifizierung erfolgt und alle Personen im lokalen Netzwerk einen Registrierungsserver bekanntgeben könnten.

    4. Durch Abfrage des SUSE Customer Center.

  4. Wenn die obigen Versuche ergebnislos bleiben, wird die Fallback-URL (in den Installationsmedien definiert) herangezogen.

8.2.1.2 Herunterladen und Anwenden der Aktualisierungen

Sobald das Aktualisierungs-Repository ermittelt wurde, prüft YaST, ob eine Aktualisierung verfügbar ist. Falls ja, werden alle Aktualisierungen heruntergeladen und auf das Installationssystem angewendet.

Abschließend wird YaST neu gestartet, die neue Version wird geladen und der Begrüßungsbildschirm wird angezeigt. Falls keine Aktualisierungen verfügbar waren, wird die Installation ohne Neustart von YaST fortgesetzt.

Anmerkung
Anmerkung: Aktualisierungsintegrität

Die Aktualisierungssignaturen werden im Hinblick auf ihre Integrität und ihren Ursprung überprüft. Falls eine Signatur fehlt oder ungültig ist, werden Sie gefragt, ob Sie die Aktualisierung anwenden möchten.

8.2.1.3 Temporäres Selbstaktualisierungs-Repository als Add-on

Einige Pakete, die im Selbstaktualisierungs-Repository verteilt werden, enthalten zusätzliche Daten für das Installationsprogramm, wie die Standardwerte für die Installation, Systemrollendefinitionen und dergleichen. Wenn das Installationsprogramm diese Pakete im Selbstaktualisierungs-Repository findet, wird ein lokales temporäres Repository erstellt, in das diese Pakete kopiert werden. Sie werden während des Installationsvorgangs verwendet, doch nach Abschluss der Installation wird das temporäre lokale Repository entfernt. Seine Pakete werden nicht im Zielsystem installiert.

Dieses zusätzliche Repository wird zwar nicht in der Liste der Add-on-Produkte angezeigt, doch während der Installation ist es möglicherweise immer noch als SelfUpdate0-Repository in der Paketverwaltung zu sehen.

8.2.2 Benutzerdefinierte Selbstaktualisierungs-Repositorys

Soll ein benutzerdefiniertes Repository für YaST anstelle des offiziellen Repositorys verwendet werden, geben Sie eine URL über den Boot-Parameterself_update an. Beachten Sie jedoch die folgenden Punkte:

  • Nur HTTP-/HTTPS- und FTP-Repositorys werden unterstützt.

  • Nur RPM-MD-Repositorys werden unterstützt (für RMT erforderlich).

  • Die Pakete werden nicht wie gewohnt installiert, sondern lediglich entpackt; es werden keine Skripte ausgeführt.

  • Es werden keine Abhängigkeitsprüfungen vorgenommen. Die Pakete werden in alphabetischer Reihenfolge installiert.

  • Dateien aus den Paketen haben Vorrang vor den Paketen aus den Original-Installationsmedien. Die Aktualisierungspakete müssen also nicht alle Dateien enthalten, sondern lediglich die geänderten Dateien. Unveränderte Dateien werden außer Acht gelassen, sodass weniger Arbeitsspeicher und weniger Bandweite zum Herunterladen benötigt werden.

Anmerkung
Anmerkung: Nur ein Repository

Derzeit ist es nicht möglich, mehrere Repositorys als Quelle für Selbstaktualisierungen des Installationsprogramms anzugeben.

8.3 Auswahl der Sprache, der Tastaturbelegung und des Produkts

Auswahl der Sprache, der Tastaturbelegung und des Produkts
Abbildung 8.1: Auswahl der Sprache, der Tastaturbelegung und des Produkts

Die Einstellungen für Sprache und Tastaturbelegung werden gemäß der Sprache initialisiert, die Sie im Boot-Bildschirm ausgewählt haben. Wenn Sie die Standardeinstellung nicht geändert haben, gelten die Einstellungen für Englisch (US). Ändern Sie die Einstellungen hier bei Bedarf.

Wenn Sie die Sprache ändern, wird automatisch ein entsprechendes Tastaturlayout gewählt. Setzen Sie diesen Vorschlag außer Kraft, indem Sie im Dropdown-Feld ein anderes Tastaturlayout wählen. Testen Sie die Tastaturbelegung im Feld Tastaturtest. Die dort ausgewählte Sprache wird darüber hinaus zur Bestimmung der Zeitzone für die Systemuhr verwendet. Diese Einstellung kann später im installierten System geändert werden (siehe Kapitel 25, Ändern der Sprach- und Ländereinstellungen mit YaST).

Mit dem Unified Installer lassen sich alle SUSE Linux Enterprise-Basisprodukte installieren:

Wählen Sie ein Produkt zur Installation aus. Sie benötigen einen Registrierungscode für das jeweilige Produkt. In diesem Dokument wird vorausgesetzt, dass Sie SUSE Linux Enterprise Server ausgewählt haben. Fahren Sie mit Weiter fort.

8.4 Lizenzvereinbarung

Lizenzvereinbarung
Abbildung 8.2: Lizenzvereinbarung

Lesen Sie die Lizenzvereinbarung. Die Anzeige erfolgt in der Sprache, die Sie im Boot-Bildschirm ausgewählt haben. Über das Dropdown-Feld für die Lizenzsprache können Sie eine Übersetzung abrufen. Wenn Sie mit den Bedingungen einverstanden sind, markieren Sie Ich akzeptiere die Lizenzbedingungen und klicken Sie auf Weiter, um mit der Installation fortzufahren. Wenn Sie der Lizenzvereinbarung nicht zustimmen, können Sie SUSE Linux Enterprise Server nicht installieren; klicken Sie auf Abbrechen, um die Installation zu beenden.

8.5 IBM Z: Datenträgeraktivierung

Bei der Installation auf Plattformen mit IBM Z folgt auf das Dialogfeld für die Sprachauswahl ein Dialogfeld zur Konfiguration der angeschlossenen Festplatten.

Datenträgeraktivierung
Abbildung 8.3: Datenträgeraktivierung

Wählen Sie DASD, per Fiber-Channel angeschlossene SCSI-Platten (ZFCP) oder iSCSI für die Installation von SUSE Linux Enterprise Server. Die Schaltflächen für die DASD- und die zFCP-Konfiguration sind nur dann verfügbar, wenn die entsprechenden Geräte angeschlossen sind. Anweisungen zur Konfiguration von iSCSI-Festplatten finden Sie im Book “Storage Administration Guide”, Chapter 15 “Mass storage over IP networks: iSCSI”, Section 15.3 “Configuring iSCSI initiator”.

In diesem Bildschirm können Sie außerdem die Netzwerkkonfiguration ändern; öffnen Sie hierzu das Dialogfeld Netzwerkeinstellungen. Wählen Sie die gewünschte Netzwerkschnittstelle in der Liste aus, und klicken Sie zum Bearbeiten der Einstellungen auf Bearbeiten. Konfigurieren Sie DNS und Routing auf den Karteireitern. Weitere Einzelheiten finden Sie im Book “Verwaltungshandbuch”, Chapter 19 “Grundlegendes zu Netzwerken”, Section 19.4 “Konfigurieren von Netzwerkverbindungen mit YaST”.

8.5.1 Konfigurieren von DASD-Datenträgern

Überspringen Sie diesen Schritt, wenn Sie die Installation nicht auf IBM Z-Hardware ausführen.

DASD-Datenträgerverwaltung
Abbildung 8.4: DASD-Datenträgerverwaltung

Nach der Auswahl von Configure DASD Disks (Konfigurieren von DASD-Datenträgern) werden alle verfügbaren DASD-Festplatten in einer Übersicht angezeigt. Um ein klareres Bild der verfügbaren Geräte zu erhalten, geben Sie einen Bereich für die anzuzeigenden Kanäle in das Textfeld über der Liste ein. Um die Liste nach einem solchen Bereich zu filtern, wählen Sie Filtern.

Wählen Sie in der Liste die für die Installation zu verwendenden DASD-Datenträger aus. Mit Alle auswählen können Sie alle angezeigten DASD-Datenträger gleichzeitig auswählen. Aktivieren Sie die ausgewählten DASD-Datenträger, und stellen Sie sie bereit, indem Sie Aktion ausführen › Aktivieren wählen. Zum Formatieren der DASD-Datenträger wählen Sie Aktion ausführen › Formatieren. Alternativ verwenden Sie später den YaST-Partitionierer (siehe Abschnitt 10.1, „Verwenden von Festplatte vorbereiten: Expertenmodus).

8.5.2 Konfigurieren von ZFCP-Platten

Überspringen Sie diesen Schritt, wenn Sie die Installation nicht auf IBM Z-Hardware ausführen.

Konfigurierte zFCP-Geräte
Abbildung 8.5: Konfigurierte zFCP-Geräte

Nach der Auswahl von zFCP-Platten konfigurieren wird ein Dialogfeld mit einer Liste der auf dem System verfügbaren zFCP-Platten geöffnet. Wählen Sie in diesem Dialogfeld Hinzufügen, um ein weiteres Dialogfeld zu öffnen, in dem Sie die zFCP-Parameter eingeben können.

Um eine ZFCP-Platte für die Installation von SUSE Linux Enterprise Server verfügbar zu machen, wählen Sie eine verfügbare Kanalnummer im Dropdown-Feld aus. Aus den Rückgabelisten WWPNs abrufen (World Wide Port Number) und LUNs abrufen (Logical Unit Number) können Sie die verfügbaren WWPNs und FCP-LUNs auswählen. Das automatische LUN-Scannen ist nur dann möglich, wenn NPIV aktiviert ist.

Schließen Sie dann das ZFCP-Dialogfeld mit Weiter und das Dialogfeld zur allgemeinen Festplattenkonfiguration mit Beenden, um mit der Konfiguration fortzufahren.

8.6 Netzwerkeinstellungen

Nach dem Booten in die Installation wird die Installationsroutine eingerichtet. Während dieser Einrichtung wird versucht, mindestens eine Netzwerkschnittstelle zu DHCP zu konfigurieren. Falls dies nicht möglich ist, wird nun das Dialogfeld Netzwerkeinstellungen geöffnet.

Netzwerkeinstellungen
Abbildung 8.6: Netzwerkeinstellungen

Wählen Sie die gewünschte Netzwerkschnittstelle in der Liste aus, und klicken Sie zum Bearbeiten der Einstellungen auf Bearbeiten. Konfigurieren Sie DNS und Routing auf den Karteireitern. Weitere Einzelheiten finden Sie im Book “Verwaltungshandbuch”, Chapter 19 “Grundlegendes zu Netzwerken”, Section 19.4 “Konfigurieren von Netzwerkverbindungen mit YaST”. Unter IBM Z wird dieses Dialogfeld nicht automatisch geöffnet. Im Schritt Datenträgeraktivierung können Sie darauf zugreifen.

Wenn DHCP bei der Installationseinrichtung ordnungsgemäß konfiguriert wurde, erreichen Sie dieses Dialogfeld auch durch Klicken auf Netzwerkkonfiguration unter Registrierung beim SUSE Customer Center und im Schritt Installationseinstellungen. Hier können Sie die automatischen Einstellungen ändern.

Anmerkung
Anmerkung: Netzwerkkonfiguration mit Boot-Parametern

Wenn mindestens eine Netzwerkschnittstelle mithilfe von Boot-Parametern konfiguriert wurde (siehe Abschnitt 7.3.2, „Konfigurieren der Netzwerkschnittstelle“), ist die automatische DHCP-Konfiguration deaktiviert und die Boot-Parameterkonfiguration wird importiert und herangezogen.

Tipp
Tipp: Zugriff auf Netzwerkspeicher oder lokales RAID

Falls Sie während der Installation auf ein SAN oder ein lokales RAID zugreifen müssen, können Sie hierfür den Kommandozeilen-Client libstorage verwenden:

  1. Drücken Sie StrgAltF2, um zu einer Konsole umzuschalten.

  2. Führen Sie extend libstoragemgmt aus, um die libstoragemgmt-Erweiterung zu installieren.

  3. Sie können jetzt auf das Kommando lsmcli zugreifen. Falls Sie weitere Informationen aufrufen möchten, führen Sie lsmcli --help aus.

  4. Um zum Installationsprogramm zurückzukehren, müssen Sie AltF7 drücken.

Unterstützt werden Netapp Ontap, alle SMI-S-kompatiblen SAN-Provider und LSI MegaRAID.

8.7 Registrierung

Für technischen Support und Produktaktualisierungen müssen Sie SUSE Linux Enterprise Server beim SUSE Customer Center oder bei einem lokalen Registrierungsserver registrieren und aktivieren. Wenn Sie das Produkt zu diesem Zeitpunkt registrieren, erhalten Sie außerdem den sofortigen Zugriff auf das Aktualisierungs-Repository. Damit können Sie das System mit den aktuellen Aktualisierungen und Patches installieren.

Bei der Registrierung werden die Repositorys und Abhängigkeiten für die Module und Erweiterungen, die Sie im nächsten Schritt installieren, vom Registrierungsserver heruntergeladen.

In diesem Dialogfeld können Sie zum YaST-Modul Netzwerkeinstellungen wechseln. Klicken Sie dazu auf Netzwerkkonfiguration. Weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 19 “Grundlegendes zu Netzwerken”, Section 19.4 “Konfigurieren von Netzwerkverbindungen mit YaST”.

Wenn Sie offline arbeiten oder die Registrierung überspringen möchten, aktivieren Sie Registrierung überspringen. Eine Anleitung dazu finden Sie im Abschnitt 8.7.3, „Installation ohne Registrierung“.

8.7.1 Manuelle Registrierung

Zur Registrierung beim SUSE Customer Center geben Sie die Email-Adresse ein, die mit Ihrem SCC-Konto verknüpft ist, sowie den Registrierungscode für SUSE Linux Enterprise Server.

Wenn Ihr Unternehmen einen lokalen Registrierungsserver bereitstellt, können Sie sich alternativ dort registrieren. Aktivieren Sie System über lokalen SMT-Server registrieren und wählen Sie eine Adresse im Dropdown-Feld aus oder geben Sie eine URL ein. Fahren Sie mit Weiter fort.

Geben Sie zur Registrierung am SUSE Customer Center Ihren Registrierungscode für SUSE Linux Enterprise Server ein. Wenn Ihr Unternehmen einen lokalen Registrierungsserver bereitstellt, können Sie sich alternativ dort registrieren. Aktivieren Sie System über lokalen RMT-Server registrieren und wählen Sie eine Adresse im Dropdown-Feld aus oder geben Sie eine URL ein.

Beginnen Sie den Registrierungsvorgang mit Weiter.

Registrierung beim SUSE Customer Center
Abbildung 8.7: Registrierung beim SUSE Customer Center
Tipp
Tipp: Installieren von Produkt-Patches während der Installation

Sobald SUSE Linux Enterprise Server ordnungsgemäß registriert wurde, werden Sie gefragt, ob die aktuell verfügbaren Online-Aktualisierungen während der Installation ebenfalls installiert werden sollen. Wenn Sie Ja wählen, wird das System mit den aktuellsten Paketen installiert, und es ist nicht erforderlich, nach der Installation die Updates anzuwenden. Es wird empfohlen, diese Option zu aktivieren.

Wenn das System während der Installation erfolgreich registriert wurde, deaktiviert YaST Repositorys in lokalen Installationsmedien wie CDs/DVDs oder Flash-Laufwerken, sobald die Installation abgeschlossen ist. Dadurch werden Probleme durch nicht mehr verfügbare Installationsquellen vermieden und es wird sichergestellt, dass Sie stets die neuesten Aktualisierungen aus den Online-Repositorys erhalten.

8.7.2 Laden der Registrierungscodes aus einem USB-Speicher

Zur Vereinfachung der Registrierung können Sie Ihre Registrierungscodes auch auf einem USB-Speichergerät, beispielsweise auf einem Flash-Laufwerk, speichern. YaST füllt das entsprechende Textfeld automatisch aus. Dies ist vor allem dann hilfreich, wenn Sie die Installation testen oder viele Systeme bzw. Erweiterungen registrieren müssen.

Erstellen Sie eine Datei mit dem Namen regcodes.txt oder regcodes.xml auf dem USB-Datenträger. Sind beide vorhanden, hat die XML-Datei Vorrang.

Identifizieren Sie in dieser Datei das Produkt mit dem Namen, der über zypper search --type product ermittelt wurde, und weisen Sie ihm wie folgt einen Registrierungscode zu:

Beispiel 8.1: regcodes.txt
SLES    cc36aae1
SLED    309105d4

sle-we  5eedd26a
sle-live-patching 8c541494
Beispiel 8.2: regcodes.xml
<?xml version="1.0"?>
<profile xmlns="http://www.suse.com/1.0/yast2ns"
 xmlns:config="http://www.suse.com/1.0/configns">
  <suse_register>
    <addons config:type="list">
      <addon>
<name>SLES</name>
<reg_code>cc36aae1</reg_code>
      </addon>
      <addon>
<name>SLED</name>
<reg_code>309105d4</reg_code>
      </addon>
      <addon>
<name>sle-we</name>
<reg_code>5eedd26a</reg_code>
      </addon>
      <addon>
<name>sle-live-patching</name>
<reg_code>8c541494</reg_code>
      </addon>
    </addons>
  </suse_register>
</profile>

Hinweis: Bei SLES und SLED handelt es sich zwar nicht um Erweiterungen, wenn sie jedoch als Add-on-Produkte aufgelistet werden, können mehrere Basisprodukt-Registrierungscodes in einer einzelnen Datei kombiniert werden. Weitere Informationen finden Sie in Book “AutoYaST Guide”, Chapter 4 “Configuration and installation options”, Section 4.3.1 “Extensions”.

Anmerkung
Anmerkung: Einschränkungen

Zurzeit werden Flash-Laufwerke nicht bei der Registrierung eines aktiven Systems, sondern nur während der Installation oder des Upgrades gescannt.

8.7.3 Installation ohne Registrierung

Wenn Sie offline arbeiten oder die Registrierung überspringen möchten, aktivieren Sie Registrierung überspringen. Bestätigen Sie die Warnmeldung mit OK und klicken Sie auf Weiter.

Wichtig
Wichtig: Überspringen der Registrierung

Das System und die Erweiterungen müssen registriert werden, damit Sie Aktualisierungen abrufen und Support in Anspruch nehmen können. Die Registrierung kann nur übersprungen werden, wenn die Installation von der Image-Datei SLE-15-SP3-Full-ARCH-GM-media1.iso aus ausgeführt wird.

Installation ohne Registrierung
Abbildung 8.8: Installation ohne Registrierung
Anmerkung
Anmerkung: Registrieren von SUSE Linux Enterprise Server

Das System und die Erweiterungen müssen registriert werden, damit Sie Aktualisierungen abrufen und Support in Anspruch nehmen können. Falls Sie die Registrierung nicht bei der Installation durchführen, können Sie sie jederzeit später aus dem laufenden System heraus nachholen. Führen Sie hierzu YaST › Produktregistrierung aus.

Tipp
Tipp: Kopieren der Image-Datei des Installationsmediums auf einen Flash-Wechseldatenträger

Kopieren Sie mit folgendem Kommando den Inhalt des Installations-Image auf einen Flash-Wechseldatenträger.

tux > sudo dd if=IMAGE of=FLASH_DISK bs=4M && sync

IMAGE muss durch den Pfad zur Image-Datei SLE-15-SP3-Online-ARCH-GM-media1.iso oder SLE-15-SP3-Full-ARCH-GM-media1.iso ersetzt werden. FLASH_DISK muss durch das Flash-Gerät ersetzt werden. Legen Sie das Gerät zur Identifizierung ein und führen Sie folgendes Kommando aus:

root # grep -Ff <(hwinfo --disk --short) <(hwinfo --usb --short)
     disk:
     /dev/sdc             General USB Flash Disk

Stellen Sie sicher, dass die Größe des Geräts für das gewünschte Image ausreicht. Die Größe des Geräts prüfen Sie mit:

root # fdisk -l /dev/sdc | grep -e "^/dev"
     /dev/sdc1  *     2048 31490047 31488000  15G 83 Linux

In diesem Beispiel hat das Gerät eine Kapazität von 15 GB. Das Kommando für die SLE-15-SP3-Full-ARCH-GM-media1.iso wäre:

dd if=SLE-15-SP3-Full-ARCH-GM-media1.iso of=/dev/sdc1 bs=4M && sync

Außerdem darf das Gerät beim Ausführen des Kommandos dd nicht eingehängt sein. Denken Sie daran, dass alle Daten in der Partition gelöscht werden.

8.8 Auswahl der Erweiterungen und Module

In diesem Dialogfeld werden die verfügbaren Module und Erweiterungen für SUSE Linux Enterprise Server angezeigt. Mit Modulen können Sie das Produkt an Ihre Anforderungen anpassen. Sie sind kostenlos. Erweiterungen liefern zusätzliche Funktionen für Ihr Produkt. Sie werden als Abos angeboten und es ist ein kostenpflichtiger Registrierungsschlüssel erforderlich.

Die verfügbaren Module oder Erweiterungen ergeben sich aus dem Produkt, das Sie im ersten Schritt dieser Installation ausgewählt haben. Wenn Sie ein Modul auswählen, erhalten Sie eine Beschreibung des Moduls und seines Lebenszyklus. Weitere Informationen finden Sie in den Versionshinweisen.

Die Auswahl von Modulen wirkt sich indirekt auf den Umfang der Installation aus, da hiermit die Software-Quellen (Repositorys) definiert werden, die für die Installation und im laufenden System bereitstehen.

Auswahl der Erweiterungen und Module
Abbildung 8.9: Auswahl der Erweiterungen und Module

Die folgenden Module und Erweiterungen stehen für SUSE Linux Enterprise Server zur Auswahl:

Basesystem Module

Dieses Modul ergänzt den Unified Installer mit einem Basissystem. Dies ist für alle anderen Module und Erweiterungen erforderlich. Der Umfang einer Installation, die lediglich das Basissystem umfasst, ist mit dem Installationsschema Minimales System früherer Versionen von SUSE Linux Enterprise Server vergleichbar. Dieses Modul wird standardmäßig zur Installation ausgewählt und dessen Auswahl sollte nicht aufgehoben werden.

Abhängigkeiten: keine

Certifications Module

Enthält die FIPS 140-2-Zertifizierungspakete.

Abhängigkeiten: Basesystem

Containers Module

Unterstützung und Tools für Container.

Abhängigkeiten: Basesystem

Desktop Applications Module

Fügt eine grafische Benutzeroberfläche und grundlegende Desktop-Anwendungen zum System hinzu.

Abhängigkeiten: Basesystem

Development Tools Module

Compiler (beispielsweise gcc) und Bibliotheken zum Kompilieren und zur Fehlerbehebung von Anwendungen. Ersetzt das frühere Softwareentwicklungskit (SDK).

Abhängigkeiten: Basesystem, Desktop Applications

Legacy Module

Unterstützt Sie bei der Migration von Anwendungen aus früheren Versionen von SUSE Linux Enterprise Server und anderen Systemen zu SLES 15 SP3. Dazu werden Pakete bereitgestellt, die in SUSE Linux Enterprise nicht mehr enthalten sind. Die Pakete in diesem Modul werden auf der Grundlage der Anforderungen für die Migration und des Komplexitätsgrads der Konfiguration ausgewählt.

Dieses Modul wird bei der Migration von einer früheren Produktversion empfohlen.

Abhängigkeiten: Basesystem, Server Applications

NVIDIA Compute Module

Enthält die NVIDIA CUDA (Compute Unified Device Architecture)-Treiber.

Die Software in diesem Modul wird von NVIDIA unter der CUDA-Endbenutzer-Lizenzvereinbarung bereitgestellt und von SUSE nicht unterstützt.

Abhängigkeiten: Basesystem

Public Cloud Module

Alle erforderlichen Tools zum Erstellen von Images für die Bereitstellung von SUSE Linux Enterprise Server in Cloud-Umgebungen, z. B. Amazon Web Services (AWS), Microsoft Azure, Google Compute Platform oder SUSE OpenStack Cloud.

Abhängigkeiten: Basesystem, Server Applications

Python 2 Module

SUSE Linux Enterprise 15 SP 3 verwendet Python Version 3. Dieses Modul enthält die Python 2-Laufzeit und -Module.

Abhängigkeiten: Basesystem

Server Applications Module

Serverfunktionen in Form von Netzwerkdiensten wie DHCP-Server, Nameserver oder Webserver. Dieses Modul wird standardmäßig zur Installation ausgewählt und es wird davon abgeraten, die Auswahl aufzuheben.

Abhängigkeiten: Basesystem

SUSE Cloud Application Platform Tools Module

Tools für die Interaktion mit einem SUSE Cloud Application Platform-Produkt.

Abhängigkeiten: Basesystem

SUSE Linux Enterprise High Availability Extension

Clustering-Unterstützung für unternehmenswichtige Einrichtungen von SUSE Linux Enterprise Server. Für diese Erweiterung ist ein separater Lizenzschlüssel erforderlich.

Abhängigkeiten: Basesystem, Server Applications

SUSE Linux Enterprise Live Patching

Unterstützung für kritisches Patching, ohne das System herunterfahren zu müssen. Für diese Erweiterung ist ein separater Lizenzschlüssel erforderlich.

Abhängigkeiten: Basesystem, Server Applications

SUSE Linux Enterprise Workstation Extension

Erweitert die Funktionalität von SUSE Linux Enterprise Server durch Pakete aus SUSE Linux Enterprise Desktop, wie zum Beispiel zusätzliche Desktop-Anwendungen (Office-Suite, Email-Client, grafischer Editor usw.) und Bibliotheken. Die beiden Produkte lassen sich zu einer Arbeitsstation mit großem Funktionsumfang kombinieren. Für diese Erweiterung ist ein separater Lizenzschlüssel erforderlich.

Abhängigkeiten: Basesystem, Desktop Applications

SUSE Package Hub

Zugriff auf Pakete für SUSE Linux Enterprise Server, die von der openSUSE-Community gepflegt werden. Diese Pakete bieten keine L3-Unterstützung und wirken sich nicht auf die Unterstützbarkeit von SUSE Linux Enterprise Server aus. Weitere Informationen finden Sie im https://packagehub.suse.com/.

Abhängigkeiten: Basesystem

Transactional Server Module

Fügt die Unterstützung für Transaktionsaktualisierungen hinzu. Aktualisierungen werden entweder insgesamt in einer einzigen Transaktion auf das System angewendet oder gar nicht. Das laufende System wird dadurch nicht beeinflusst. Wenn eine Aktualisierung nicht durchgeführt werden kann oder wenn eine erfolgreiche Aktualisierung als nicht kompatibel oder anderweitig falsch erachtet wird, kann sie verworfen werden. Das System wird dadurch sofort in den früheren Funktionszustand versetzt.

Abhängigkeiten: Basesystem

Web and Scripting Module

Pakete für einen laufenden Webserver.

Abhängigkeiten: Basesystem, Server Applications

Einige Module sind abhängig von der Installation anderer Module. Wenn Sie also ein Modul auswählen, werden unter Umständen weitere Module ausgewählt, sodass die entsprechenden Abhängigkeiten erfüllt werden.

Je nach Produkt kennzeichnet der Registrierungsserver ggf. bestimmte Module und Erweiterungen als Empfehlung. Empfohlene Module und Erweiterungen sind bereits zur Registrierung und Installation ausgewählt. Wenn diese Empfehlungen nicht installiert werden sollen, heben Sie die Auswahl manuell auf.

Wählen Sie die zu installierenden Module und Erweiterungen aus und fahren Sie fort mit Weiter. Falls Sie mindestens eine Erweiterung ausgewählt haben, werden Sie aufgefordert, die entsprechenden Registrierungscodes einzugeben. Je nach Auswahl müssen Sie auch zusätzliche Lizenzvereinbarungen akzeptieren.

Wichtig
Wichtig: Standardmodule für die Offline-Installation

Bei einer Offline-Installation von SLE-15-SP3-Full-ARCH-GM-media1.iso wird nur das Basesystem Module standardmäßig ausgewählt. Wählen Sie zur Installation des kompletten Standard-Paketsatzes von SUSE Linux Enterprise Server zusätzlich das Server Applications Module aus.

8.9 Add-on-Produkt

Im Dialogfeld Add-On-Produkt können Sie weitere Software-Quellen (sogenannte Repositorys) in SUSE Linux Enterprise Server aufnehmen, die nicht vom SUSE Customer Center bereitgestellt werden. Diese Add-On-Produkte können Produkte von Drittanbietern und Treiber oder andere Zusatzsoftware für Ihr System enthalten.

Add-On-Produkt
Abbildung 8.10: Add-on-Produkt

In diesem Dialogfeld können Sie zum YaST-Modul Netzwerkeinstellungen wechseln. Klicken Sie dazu auf Netzwerkkonfiguration. Weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 19 “Grundlegendes zu Netzwerken”, Section 19.4 “Konfigurieren von Netzwerkverbindungen mit YaST”.

Tipp
Tipp: Hinzufügen von Treibern während der Installation

Im Dialogfeld Add-On-Produkt können Sie weitere Repositorys für Treiberaktualisierungen hinzufügen. Treiberaktualisierungen für SUSE Linux Enterprise finden Sie im http://drivers.suse.com/. Diese Treiber wurden über das SUSE SolidDriver-Programm erstellt.

Wenn Sie keine Add-ons installieren möchten, fahren Sie mit Weiter fort. Ansonsten aktivieren Sie die Option Ich möchte ein zusätzliches Add-on-Produkt installieren. Geben Sie den Medientyp an (CD, DVD, Festplatte, USB-Massenspeicher, ein lokales Verzeichnis oder ein lokales ISO-Image). Falls der Netzwerkzugriff konfiguriert ist, können Sie außerdem aus Fernquellen auswählen (z. B. HTTP, SLP oder FTP). Alternativ können Sie direkt eine URL angeben. Aktivieren Sie Dateien mit Repositorybeschreibung herunterladen, um die Dateien, die das Repository beschreiben, sofort herunterzuladen. Wenn diese Option nicht aktiviert ist, werden die Dateien beim Starten der Installation heruntergeladen. Fahren Sie mit Weiter fort und legen Sie eine CD oder DVD ein, falls erforderlich.

Je nach Inhalt des Add-on-Produkts kann es erforderlich sein, weitere Lizenzvereinbarungen zu akzeptieren.

8.10 Systemrolle

SUSE Linux Enterprise Server unterstützt viele verschiedene Funktionen. Zur Vereinfachung der Installation bietet das Installationsprogramm vordefinierte Anwendungsfälle, die das zu installierende System anpassen, damit es genau auf das ausgewählte Szenario zugeschnitten ist.

Systemrolle
Abbildung 8.11: Systemrolle

Wählen Sie die Systemrolle aus, die Ihren Anforderungen am besten entspricht. Die Verfügbarkeit von Systemrollen ist abhängig von den ausgewählten Modulen und Erweiterungen. Daher wird das Dialogfeld unter den folgenden Bedingungen nicht angezeigt:

  • Wenn in den aktivierten Modulen keine Rolle für das entsprechende Basisprodukt geeignet ist. In diesem Fall wird die Installation mit den Standardeinstellungen für dieses Produkt fortgesetzt.

  • Wenn in den aktivierten Modulen nur eine Rollefür das entsprechende Basisprodukt geeignet ist. In diesem Fall wird die Installation mit den Einstellungen dieser bestimmten Rolle fortgesetzt.

Bei der Standardauswahl sind die folgenden Systemrollen verfügbar:

Expertenmodus

Mit dieser Option wird ein Basis-SLES ohne Desktop-Umgebung, jedoch mit umfangreichen Befehlszeilen-Tools installiert.

Abhängigkeiten: Basesystem

Grundlegende Kenntnisse

Wählen Sie diese Funktion, wenn eine sehr kleine Installation mit den grundlegenden Befehlszeilen-Tools ausgeführt werden soll.

Abhängigkeiten: keine

KVM-Virtualisierungshost

Wählen Sie dieses Szenario, wenn Sie die Installation auf einem Rechner durchführen, der als KVM-Host dienen soll, welcher andere virtuelle Rechner ausführen kann. /var/lib/libvirt wird in einer separaten Partition abgelegt. Die Firewall und Kdump werden deaktiviert.

Abhängigkeiten: Basesystem, Server Applications

Xen-Virtualisierungshost

Wählen Sie dieses Szenario, wenn Sie die Installation auf einem Rechner durchführen, der als Xen-Host dienen soll, welcher andere virtuelle Rechner ausführen kann. /var/lib/libvirt wird in einer separaten Partition abgelegt. Die Firewall und Kdump werden deaktiviert.

Abhängigkeiten: Basesystem, Server Applications

8.11 Partitionierung

8.11.1 Wichtige Informationen

Warnung
Warnung: Bitte sorgfältig lesen

Lesen Sie diesen Abschnitt sorgfältig durch, bevor Sie mit Abschnitt 8.11.2, „Vorgeschlagene Partitionierung“ fortfahren.

Benutzerdefinierte Partitionierung auf UEFI-Computern

Für einen UEFI-Computer ist eine EFI-Systempartition erforderlich, die in /boot/efi eingehängt werden muss. Diese Partition muss mit dem FAT32-Dateisystem formatiert werden.

Wenn auf dem System bereits eine EFI-Systempartition vorhanden ist (beispielsweise aus einer früheren Windows-Installation), können Sie sie ohne Neuformatierung in /boot/efi einhängen.

Wenn auf Ihrem UEFI-Rechner keine EFI-Systempartition vorhanden ist, müssen Sie diese erstellen. Die EFI-Systempartition muss eine physische Partition oder RAID 1 sein. Andere RAID-Ebenen, LVM und andere Technologien werden nicht unterstützt. Sie muss mit dem FAT32-Dateisystem formatiert werden.

Benutzerdefinierte Partitionierung und Snapper

Wenn die Stammpartition größer als 16 GB ist, aktiviert SUSE Linux Enterprise Server standardmäßig Dateisystem-Snapshots.

SUSE Linux Enterprise Server stellt diese Funktion mithilfe von Snapper in Verbindung mit Btrfs bereit. Btrfs muss mit Snapshots eingerichtet werden, die für die root-Partition aktiviert sind.

Ist die Festplatte kleiner als 16 GB, werden alle Snapper-Funktionen und die automatischen Snapshots deaktiviert, damit der Speicherplatz auf der Systempartition / nicht vollständig belegt wird.

Zum Erstellen von System-Snapshots als Grundlage für Rollbacks müssen wichtige Systemverzeichnisse in einer einzelnen Partition eingehängt werden, beispielsweise /usr und /var. Nur Verzeichnisse, die in den Snapshots nicht berücksichtigt werden, dürfen sich auf separaten Partitionen befinden, z. B. /usr/local, /var/log und /tmp.

Wenn Snapshots aktiviert sind, erstellt das Installationsprogramm automatisch einzelne Snapshots während und sofort nach der Installation.

Weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 7 “Systemwiederherstellung und Snapshot-Verwaltung mit Snapper”.

Wichtig
Wichtig: Größe der Btrfs-Snapshots und Stammpartition

Snapshots belegen Speicherplatz auf ihrer Partition. Als Faustregel gilt: Je älter ein Snapshot ist oder je größer sein Änderungssatz, desto größer ist der Snapshot. Außerdem benötigen Sie mehr Speicherplatz je mehr Snapshots Sie beibehalten.

Sie müssen sicherstellen, dass die Stammpartition groß genug ist, um zu verhindern, dass sie mit Snapshot-Daten überfüllt ist. Sehen Sie mindestens 30 GB für die Stammpartition vor, falls Sie regelmäßig Updates oder sonstige Installationen durchführen. Sie sollten mindestens 40 GB dafür vorsehen, wenn Sie planen, Snapshots für ein System-Upgrade oder eine Service-Pack-Migration (für ein Rollback) aktiv zu halten.

Btrfs-Daten-Volumes

SUSE Linux Enterprise Server 15 SP3 unterstützt Btrfs für Daten-Volumes. Bei Anwendungen, für die Btrfs als Daten-Volume erforderlich ist, sollten Sie ein separates Dateisystem anlegen und dort die Quotengruppen deaktivieren. Dies ist bei Nicht-root-Dateisystemen bereits standardmäßig.

Btrfs auf einer verschlüsselten Stammpartition

In der standardmäßigen Partitionseinrichtung wird die Stammpartition als Btrfs vorgeschlagen. Soll die Stammpartition verschlüsselt werden, müssen Sie in jedem Fall die GPT-Partitionstabelle verwenden, nicht den MSDOS-Typ. Ansonsten findet der GRUB2-Bootloader nicht genügend Platz für den Loader der zweiten Phase.

IBM Z: Verwenden von Minidisks in z/VM

Wenn SUSE Linux Enterprise Server auf Minidisks in z/VM installiert ist, die sich auf demselben physischen Datenträger befinden, so ist der Zugriffspfad der Minidisk (/dev/disk/by-id/) nicht eindeutig. Der Grund hierfür liegt darin, dass er der ID des physischen Datenträgers entspricht. Wenn sich zwei oder mehr Minidisks auf demselben physischen Datenträger befinden, haben sie alle dieselbe ID.

Um beim Einhängen der Minidisks Probleme zu vermeiden, hängen Sie sie immer nach Pfad oder nach UUID ein.

IBM Z: LVM-Root-Dateisystem

Wenn Sie das System mit einem root-Dateisystem auf LVM oder Software-RAID-Array konfigurieren, müssen Sie /boot auf einer separaten Nicht-LVM- oder Nicht-RAID-Partition ablegen, da das System ansonsten nicht gebootet werden kann. Für diese Partition wird eine Größe von 500 MB und das Dateisystem Ext4 empfohlen.

IBM POWER: Installation auf Systemen mit mehreren Fibre Channel-Datenträgern

Wenn mehr als ein Datenträger verfügbar ist, stellt das bei der Installation vorgeschlagene Partitionierungsschema die PReP- und BOOT-Partitionen auf verschiedene Datenträger. Handelt es sich bei diesen Datenträgern um Fibre Channel-Datenträger, dann findet der GRUB-Bootloader die BOOT-Partition nicht, und das System wird nicht gebootet.

Wenn Sie aufgefordert werden, das Partitionsschema während der Installation auszuwählen, wählen Sie Geführtes Setup und vergewissern Sie sich, dass für die Installation nur ein Datenträger ausgewählt wurde. Führen Sie alternativ Festplatte vorbereiten: Expertenmodus aus und richten Sie manuell ein Partitionierungsschema ein, das PReP und BOOT auf einem einzigen Datenträger vorsieht.

Unterstützte Software-RAID-Volumes

Die Installation auf vorhandenen Software-RAID-Volumes und das Booten von diesen Volumes wird für DDF-Volumes (Disk Data Format) und IMSM-Volumes (Intel Matrix Storage Manager) unterstützt. IMSM wird auch wie folgt bezeichnet:

Einhängepunkte für FCoE- und iSCSI-Geräte

FCoE- und iSCSI-Geräte werden beim Booten asynchron dargestellt. Die initrd sorgt dafür, dass diese Geräte fehlerfrei für das root-Dateisystem eingerichtet werden; bei anderen Dateisystemen oder Einhängepunkten wie /usr kann dies jedoch nicht gewährleistet werden. Aus diesem Grund werden Systemeinhängepunkte wie /usr oder /var nicht unterstützt. Zur Verwendung dieser Geräte müssen die entsprechenden Dienste und Geräte ordnungsgemäß synchronisiert werden.

8.11.2 Vorgeschlagene Partitionierung

In diesem Schritt definieren Sie eine Partitionseinrichtung für SUSE Linux Enterprise Server.

Vorgeschlagene Partitionierung
Abbildung 8.12: Vorgeschlagene Partitionierung

Abhängig von der Systemrolle erstellt das Installationsprogramm einen Vorschlag für eine der verfügbaren Festplatten. Alle Vorschläge umfassen eine mit Btrfs formatierte root-Partition (mit aktivierten Snapshots) und eine Auslagerungspartition. Bei Festplatten mit mehr als 20 GB schlagen der GNOME-Desktop und der Textmodus eine separate Home-Partition vor. Die Systemrollen für Virtualisierungshosts legen eine separate Partition für /var/lib/libvirt an, also für das Verzeichnis, in dem sich standardmäßig die Image-Dateien befinden. Wenn mindestens eine Auslagerungspartition auf den verfügbaren Festplatten erkannt wurde, werden diese vorhandenen Auslagerungspartitionen verwendet; es werden also keine neuen Auslagerungspartitionen vorgeschlagen. Sie haben nun mehrere Optionen:

Weiter

Mit Weiter akzeptieren Sie den Vorschlag ohne Änderungen, und der Installationsvorgang wird fortgesetzt.

Geführtes Setup

Mit Geführtes Setup können Sie den Vorschlag anpassen. Wählen Sie zunächst, welche Festplatten und Partitionen verwendet werden sollen. Im Bildschirm Partitionierungsschema können Sie Logical Volume Management (LVM) und die Festplattenverschlüsselung aktivieren. Geben Sie danach die Dateisystem-Optionen an. Sie können das Dateisystem für die root-Partition anpassen und eine separate Home- und mehrere Swap-Partitionen erstellen. Wenn Sie Ihren Rechner anhalten möchten, müssen Sie eine separate Swap-Partition erstellen und Zum Anhalten auf RAM-Größe vergrößern aktivieren. Wenn Btrfs als Format für das root-Dateisystem verwendet wird, können Sie hier außerdem Btrfs-Snapshots aktivieren oder deaktivieren.

Festplatte vorbereiten: Expertenmodus

Zum Erstellen einer benutzerdefinierten Partitionseinrichtung klicken Sie auf Festplatte vorbereiten: Expertenmodus. Wählen Sie entweder Start mit aktuellem Vorschlag, wenn das vorgeschlagene Festplatten-Layout als Grundlage fungieren soll, oder Start mit vorhandenen Partitionen, wenn das vorgeschlagene Layout ignoriert und stattdessen das vorhandene Layout auf der Festplatte herangezogen werden soll. Sie können die Partitionen hinzufügen, bearbeiten, ihre Größe anpassen oder sie löschen.

Darüber hinaus können Sie mit Festplatte vorbereiten: Expertenmodus die Verwaltung logischer Volumes (LVM) einrichten, Software-RAID und Gerätezuordnung (DM) konfigurieren, Partitionen verschlüsseln, NFS-Freigaben einhängen und TMPFS-Volumes verwalten. Mit Btrfs nehmen Sie die Feinabstimmung für die einzelnen Btrfs-Partitionen vor, z. B. die Behandlung von Subvolumes und Snapshots. Weitere Informationen zur benutzerdefinierten Partionierung und zur Konfiguration erweiterter Funktionen finden Sie in Abschnitt 10.1, „Verwenden von Festplatte vorbereiten: Expertenmodus.

Warnung
Warnung: Speicherplatzeinheiten

Beachten Sie, dass Speicherplatz aus Partitionierungsgründen in binären Einheiten statt in dezimalen Einheiten gemessen wird. Beispiel: Wenn Sie Größen von 1 GB, 1 GiB oder 1 G eingeben, werden diese vom System immer als 1 GiB (Gibibyte) behandelt, im Gegensatz zu 1 GB (Gigabyte).

Binär

1 GiB = 1 073 741 824 Byte.

Dezimal

1 GB = 1 000 000 000 Byte.

Differenz

1 GiB ≈ 1,07 GB.

8.12 Uhr und Zeitzone

In diesem Dialogfeld können Sie Ihre Region und Zeitzone wählen. Beide Werte werden entsprechend der Installationssprache festgelegt.

Uhr und Zeitzone
Abbildung 8.13: Uhr und Zeitzone

Um die festgelegten Werte zu ändern, verwenden Sie entweder die Landkarte oder die Dropdown-Felder für die Region und die Zeitzone. Wenn Sie die Landkarte verwenden, zeigen Sie mit dem Cursor in die ungefähre Richtung Ihrer Region und betätigen Sie die linke Maustaste, um zu zoomen. Wählen Sie nun Ihr Land oder Ihre Region, indem Sie die linke Maustaste betätigen. Betätigen Sie die rechte Maustaste, um zur Weltkarte zurückzukehren.

Wählen Sie zum Einrichten der Uhr die Option Rechneruhr eingestellt auf UTC. Wenn auf Ihrem Rechner ein anderes Betriebssystem ausgeführt wird, beispielsweise Microsoft Windows, verwendet IhrSystem höchstwahrscheinlich eher die lokale Zeit. Wenn Linux auf Ihrem Rechner ausgeführt wird, stellen Sie die Rechneruhr auf UTC (Universal Time Coordinated) ein. Hiermit wird die Umstellung von der Standardzeit auf die Sommerzeit automatisch durchgeführt.

Wichtig
Wichtig: Einstellen der Rechneruhr auf UTC

Die Umschaltung von der Standardzeit auf die Sommerzeit (und umgekehrt) erfolgt nur dann automatisch, wenn die Rechneruhr (CMOS-Uhr) auf UTC eingestellt ist. Dies gilt auch dann, wenn Sie die automatische Zeitsynchronisierung mit NTP nutzen, weil die automatische Synchronisierung nur dann vorgenommen wird, wenn die Zeitdifferenz zwischen der Rechneruhr und der Systemuhr weniger als 15 Minuten beträgt.

Eine falsche Systemzeit kann zu schwerwiegenden Problemen führen (z. B. verpasste Datensicherungen, verloren gegangene Emails, Fehler beim Einhängen in Ferndateisysteme). Es wird daher dringend empfohlen, die Rechneruhr immer auf UTC einzustellen.

POWER, AMD/Intel Wenn ein Netzwerk bereits konfiguriert ist, können Sie Zeitsynchronisation mit einem NTP-Server konfigurieren. Klicken Sie auf Andere Einstellungen, um entweder die NTP-Einstellungen zu ändern oder die Uhrzeit manuell festzulegen. Weitere Informationen zum Konfigurieren des NTP-Diensts finden Sie im Book “Verwaltungshandbuch”, Chapter 30 “Zeitsynchronisierung mit NTP”. Klicken Sie anschließend auf Übernehmen, um die Installation fortzusetzen.

POWER, AMD/Intel Wenn NTP nicht konfiguriert ist, sollten Sie ggf. die Einstellung SYSTOHC=no (Variable sysconfig) festlegen, damit keine nicht synchronisierte Uhrzeit in der Hardware-Uhr gespeichert wird.

Anmerkung
Anmerkung: Änderung von Datum und Uhrzeit auf IBM Z nicht möglich

Da das Betriebssystem nicht berechtigt ist, die Uhrzeit und das Datum direkt zu ändern, ist die Option Andere Einstellungen für IBM Z nicht verfügbar.

8.13 Erstellen von neuen Benutzern

Erstellen Sie bei diesem Schritt einen lokalen Benutzer.

Erstellen von neuen Benutzern
Abbildung 8.14: Erstellen von neuen Benutzern

Nachdem Sie den Vor- und Nachnamen eingegeben haben, akzeptieren Sie entweder den Vorschlag, oder legen Sie einen neuen Benutzernamen fest, der zum Anmelden verwendet wird. Zulässige Zeichen sind Kleinbuchstaben (a-z), Ziffern (0-9) sowie die Zeichen . (Punkt), - (Bindestrich) und _ (Unterstrich). Sonderzeichen, Umlaute und Zeichen mit Akzent sind nicht zulässig.

Geben Sie schließlich das Passwort für den Benutzer ein. Geben Sie es zur Bestätigung erneut ein (um sicherzustellen, dass Sie nicht versehentlich etwas anderes eingegeben haben). Damit eine effektive Sicherheit gewährleistet ist, muss ein Passwort mindestens sechs Zeichen lang sein und Großbuchstaben, Kleinbuchstaben, Ziffern und Sonderzeichen enthalten (7-Bit-ASCII). Umlaute und Buchstaben mit Akzent sind nicht zulässig. Eingegebene Passwörter werden auf Sicherheit geprüft. Wenn Sie ein Passwort eingeben, das leicht erraten werden kann (wie zum Beispiel ein Wort aus dem Wörterbuch oder einen Namen), so wird eine Warnung angezeigt. Zur Erhöhung der Sicherheit ist es wichtig, starke Passwörter zu verwenden.

Wichtig
Wichtig: Benutzername und Passwort

Prägen Sie sich sowohl Ihren Benutzernamen als auch Ihr Passwort ein, da Sie sie bei jeder Anmeldung beim System benötigen.

Wenn Sie SUSE Linux Enterprise Server auf einem Rechner installieren, auf dem bereits mindestens eine Linux-Installation vorhanden ist, können Sie in YaST Benutzerdaten wie Benutzernamen und Passwörter importieren. Wählen Sie Benutzerdaten aus einer vorherigen Installation importieren und anschließend mit Benutzer auswählen die Benutzer für den Import aus.

Falls Sie keine lokalen Benutzer konfigurieren möchten (beispielsweise beim Einrichten eines Clients in einem Netzwerk mit zentraler Authentifizierung), überspringen Sie diesen Schritt mit Weiter und bestätigen Sie die Warnmeldung. Die Netzwerkbenutzerauthentifizierung kann jederzeit nachträglich im installierten System vorgenommen werden. Weitere Anweisungen finden Sie in Kapitel 24, Verwalten von Benutzern mit YaST.

Zwei zusätzliche Optionen stehen zur Auswahl:

Dieses Passwort für den Systemadministrator verwenden

Wenn diese Option aktiviert ist, wird dasselbe Passwort für den Stamm des Systemadministrators verwendet wie das, das Sie für den Benutzer angegeben haben. Diese Option ist für Standalone-Arbeitsplatzrechner oder Rechner in einem Heimnetzwerk geeignet, die von einem einzigen Benutzer verwaltet werden. Wenn diese Option nicht aktiviert ist, werden Sie im nächsten Schritt des Installations-Workflows dazu aufgefordert, ein Systemadministratorpasswort einzugeben (siehe Abschnitt 8.14, „Authentifizierung für den Systemadministrator-root).

Automatische Anmeldung

Mithilfe dieser Option wird der aktuelle Benutzer bereits beim Systemstart beim System angemeldet. Dies ist besonders dann sinnvoll, wenn der Computer nur von einem Benutzer verwendet wird. Damit die automatische Anmeldung funktioniert, muss die Option explizit aktiviert werden.

Warnung
Warnung: Automatische Anmeldung

Wenn die automatische Anmeldung aktiviert ist, wird nach dem Booten des Systems direkt ohne Authentifizierung der Desktop angezeigt. Wenn auf Ihrem System vertrauliche Daten gespeichert sind, sollten Sie diese Option nicht aktivieren, sofern auch andere Benutzer auf den Computer zugreifen können.

In einer Umgebung mit zentraler Benutzerverwaltung (beispielsweise durch NIS oder LDAP) sollte die Erstellung von lokalen Benutzern eventuell übersprungen werden. Wählen Sie in diesem Fall Benutzererstellung überspringen aus.

8.14 Authentifizierung für den Systemadministrator-root

Wenn Sie im vorherigen Schritt nicht Dieses Passwort für den Systemadministrator verwenden ausgewählt haben, werden Sie aufgefordert, ein Passwort für den Systemadministrator-root einzugeben oder einen öffentlichen SSH-Schlüssel bereitzustellen. Andernfalls wird dieser Konfigurationsschritt übersprungen.

Authentifizierung für den Systemadministrator-root
Abbildung 8.15: Authentifizierung für den Systemadministrator-root

root ist der Name für den Superuser, also den Administrator des Systems. Im Gegensatz zu normalen Benutzern besitzt root uneingeschränkte Rechte zum Ändern der Systemkonfiguration, zum Installieren von Programmen und zum Einrichten neuer Hardware. Wenn Benutzer ihre Passwörter vergessen oder Probleme im System auftreten, kann root ihnen helfen. Das root-Konto sollte nur für die Systemadministration, Wartung und Reparaturen verwendet werden. Sie sollten sich nicht als root anmelden, um die täglichen Aufgaben auszuführen. Schon ein einziger Fehler kann zum unwiederbringlichen Verlust von Systemdateien führen.

Zur Überprüfung muss das Passwort für root zweimal eingegeben werden. Das Passwort für root sollten Sie nicht vergessen. Nach der Eingabe kann das Passwort nicht mehr abgerufen werden.

Tipp
Tipp: Passwörter und Tastaturbelegung

Es wird empfohlen, nur Zeichen zu verwenden, die auf einer englischen Tastatur verfügbar sind. Wenn ein Systemfehler auftritt oder das System im Rettungsmodus gestartet werden muss, stehen die landesspezifischen Tastaturbelegungen unter Umständen nicht zur Verfügung.

Das root-Passwort kann zu jedem beliebigen späteren Zeitpunkt im installierten System geändert werden. Führen Sie dazu YaST aus, und starten Sie Sicherheit und Benutzer › Benutzer- und Gruppenverwaltung.

Wichtig
Wichtig: Der root-Benutzer

Der Benutzer root verfügt über alle erforderlichen Berechtigungen, um Änderungen am System vorzunehmen. Zum Ausführen solcher Aufgaben ist das root-Passwort erforderlich. Ohne dieses Passwort können Sie keine Verwaltungsaufgaben ausführen.

Wenn Sie über SSH mit einem öffentlichen Schlüssel aus der Ferne auf das System zugreifen möchten, importieren Sie einen Schlüssel von einem Wechselspeichergerät oder einer vorhandenen Partition.

Vorgehen 8.1: Hinzufügen eines öffentlichen SSH-Schlüssels für den Benutzer-root

Führen Sie zum Importieren eines öffentlichen SSH-Schlüssels von einer Medium-Partition folgende Schritte aus:

  1. Der öffentliche SSH-Schlüssel befindet sich im ~/.ssh-Verzeichnis und hat die Dateierweiterung .pub. Kopieren Sie ihn auf ein Wechselspeichergerät oder eine vorhandene Partition, das/die bei der Installation nicht formatiert wird.

  2. Wenn sich Ihr Schlüssel auf einem Wechselspeichergerät befindet, legen Sie es in Ihren Rechner ein und klicken Sie auf Aktualisieren. Sie sollten das Gerät im Dropdown-Feld unter Öffentlichen Schlüssel importieren finden.

  3. Klicken Sie auf Durchsuchen, wählen Sie den öffentlichen SSH-Schlüssel aus und bestätigen Sie mit Öffnen.

  4. Fahren Sie mit Weiter fort.

Vergessen Sie nicht, den SSH-Port im Abschnitt Sicherheit in der Zusammenfassung der Installationseinstellungen zu öffnen. Nach Abschluss der Installation können Sie sich mit dem bereitgestellten öffentlichen SSH-Schlüssel über SSH anmelden.

8.15 Installationseinstellungen

Im abschließenden Schritt vor der eigentlichen Installation können Sie die vom Installationsprogramm vorgeschlagenen Einstellungen ändern. Zum Bearbeiten der Vorschläge klicken Sie auf die gewünschte Überschrift. Nach jeder Änderung einer Einstellung gelangen Sie zum Fenster „Installationseinstellungen“ zurück, das entsprechend aktualisiert wird.

Wenn Sie für Ihren root wie in Prozedur 8.1 beschrieben einen SSH-Schlüssel hinzugefügt haben, müssen Sie den SSH-Port in den Sicherheits-Einstellungen öffnen.

Installationseinstellungen
Abbildung 8.16: Installationseinstellungen

8.15.1 Software

SUSE Linux Enterprise Server enthält mehrere Software-Schemata für verschiedene Anwendungszwecke. Die verfügbaren Schemata und Pakete ergeben sich aus den ausgewählten Modulen und Erweiterungen.

Mit Software öffnen Sie den Bildschirm Software-Auswahl und System-Tasks, in dem Sie die Schemaauswahl gemäß Ihren Anforderungen bearbeiten können. Wählen Sie das gewünschte Schema in der Liste aus, um eine Beschreibung im rechten Teil des Fensters anzuzeigen.

Jedes Schema enthält eine Reihe von Softwarepaketen, die für bestimmte Funktionen (z. B. Web- und LAMP-Server oder Druckserver) erforderlich sind. Sie erhalten eine detailliertere Auswahl auf Basis der zu installierenden Softwarepakete, wenn Sie auf Details klicken, um zum YaST-Software-Manager zu wechseln.

Software-Auswahl und System-Tasks
Abbildung 8.17: Software-Auswahl und System-Tasks

Sie können mit dem YaST-Software-Manager weitere Softwarepakete installieren und später jederzeit Softwarepakete von Ihrem System entfernen. Weitere Informationen hierzu finden Sie im Kapitel 21, Installieren bzw. Entfernen von Software.

Wenn Sie GNOME installieren, wird SUSE Linux Enterprise Servermit dem X.org-Display-Server installiert. Als Alternative zu GNOME kann der einfache Fenstermanager IceWM installiert werden. Wählen Sie die Option Details im Bildschirm Software-Auswahl und System-Tasks, und suchen Sie nach icewm.

Tipp
Tipp: IBM Z: Unterstützung für Hardware-Kryptographie

Der Hardware-Kryptographiestapel wird standardmäßig nicht installiert. Zum Installieren wählen Sie die Option System z HW crypto support (Unterstützung für System z-Hardware-Verschlüsselung) im Bildschirm Software-Auswahl und System-Tasks.

Tipp
Tipp: Hinzufügen von sekundären Sprachen

Die im ersten Schritt der Installation ausgewählte Sprache wird als primäre Sprache (Standardsprache) für das System verwendet. Im Dialogfeld Software können Sie sekundäre Sprachen hinzufügen. Wählen Sie hierzu Details › Anzeigen › Sprachen.

8.15.2 Booten

Das Installationsprogramm schlägt eine Bootkonfiguration für das System vor. Weitere auf dem Rechner enthaltene Betriebssysteme, wie z. B. Microsoft Windows oder weitere Linux-Installationen werden automatisch gefunden und dem Bootloader hinzugefügt. SUSE Linux Enterprise Server wird jedoch standardmäßig gebootet. Diese Einstellungen müssen in der Regel nicht geändert werden. Falls Sie eine benutzerdefinierte Einrichtung vornehmen möchten, ändern Sie den Vorschlag gemäß Ihren Anforderungen. Informationen hierzu erhalten Sie unterBook “Verwaltungshandbuch”, Chapter 14 “Der Bootloader GRUB 2”, Section 14.3 “Konfigurieren des Bootloaders mit YaST”.

Wichtig
Wichtig: Software RAID 1

Das Booten einer Konfiguration, bei der sich /boot auf einem Software-RAID-1-Computer befindet, wird unterstützt; hierzu muss allerdings der Bootloader im MBR installiert werden (Speicherort des Bootloaders › Booten vom Master Boot Record). /boot auf Software-RAID-Computern mit einer anderen RAID-Ebene (also nicht RAID 1) wird nicht unterstützt. Siehe auch Book “Storage Administration Guide”, Chapter 8 “Configuring software RAID for the root partition”.

8.15.3 Sicherheit

Die CPU-Mitigationen gelten für Kernel-Boot-Befehlszeilenparameter für Software-Mitigationen, die zur Vorbeugung von CPU-Seitenkanalangriffen bereitgestellt wurden. Zum Auswählen einer anderen Option klicken Sie auf den ausgewählten Eintrag. Weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 14 “Der Bootloader GRUB 2” CPU-Mitigationen.

Standardmäßig wird firewalld auf allen konfigurierten Netzwerkschnittstellen aktiviert. Um die Firewall für diesen Computer global zu deaktivieren, klicken Sie auf Deaktivieren (nicht empfohlen).

Anmerkung
Anmerkung: Firewall-Einstellungen

Wenn die Firewall aktiviert ist, werden alle Schnittstellen für die öffentliche Zone konfiguriert. In dieser Zone sind standardmäßig alle Ports geschlossen, sodass größtmögliche Sicherheit gewährleistet ist. Während der Installation können Sie lediglich Port 22 (SSH) für den entfernten Zugriff öffnen. Alle anderen Services, für die der Netzwerkzugriff erforderlich ist (z. B. FTP, Samba oder Webserver) sind erst dann verfügbar, wenn Sie die Firewall-Einstellungen angepasst haben. Weitere Informationen finden Sie im Book “Security and Hardening Guide”, Chapter 23 “Masquerading and firewalls”.

Zum Aktivieren des entfernten Zugriffs über die Secure Shell (SSH) muss der SSH-Dienst aktiviert und der SSH-Port geöffnet sein.

Tipp
Tipp: Vorhandene SSH-Host-Schlüssel

Wenn Sie SUSE Linux Enterprise Server auf einem Computer mit vorhandenen Linux-Installationen installieren, importiert die Installationsroutine einen SSH-Hostschlüssel. Hierbei wird standardmäßig der Hostschlüssel ausgewählt, auf den zuletzt zugegriffen wurde. Siehe auch Abschnitt 8.15.8, „SSH-Hostschlüssel und Konfiguration importieren.

Wenn Sie die Fernverwaltung über VNC vornehmen, können Sie außerdem konfigurieren, ob der Rechner nach der Installation über VNC erreichbar sein soll. Wenn Sie VNC aktivieren, müssen Sie allerdings auch unter Default systemd Target (systemd-Standardziel) die Option graphical (Grafisch) festlegen.

8.15.4 Netzwerkkonfiguration

In dieser Kategorie werden die aktuellen Netzwerkeinstellungen angezeigt wie automatisch nach dem Booten in die Installation konfiguriert (weitere Informationen finden Sie in Abschnitt 8.6) oder wie manuell im Dialogfeld Registrierung oder Add-on-Produkt bei den entsprechenden Schritten des Installationsvorgangs konfiguriert. Wenn Sie zu diesem Zeitpunkt (vor der Installation) die Netzwerkeinstellungen prüfen oder anpassen möchten, klicken Sie auf Netzwerkkonfiguration. Dies führt Sie zum YaST-Modul Netzwerkeinstellungen. Weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 19 “Grundlegendes zu Netzwerken”, Section 19.4 “Konfigurieren von Netzwerkverbindungen mit YaST”.

8.15.5 Kdump

Mithilfe von Kdump können Sie (im Falle eines Absturzes) einen Speicherauszug des Kernels speichern, um das Problem zu analysieren. Verwenden Sie dieses Dialogfeld, um Kdump zu aktivieren und zu konfigurieren. Ausführliche Informationen finden Sie im Book “System Analysis and Tuning Guide”, Chapter 20 “Kexec and Kdump”.

8.15.6 IBM Z: Blacklist-Geräte

Um den Arbeitsspeicher zu schonen, werden alle derzeit nicht verwendeten Geräte automatisch auf die Schwarze Liste (Blacklist) gesetzt. (Jeder Kanal ohne Blacklist-Status belegt etwa 50 KB Arbeitsspeicher.) Wenn weitere Hardware-Geräte im installierten System über Kanäle mit Blacklist-Status konfiguriert werden sollen, aktivieren Sie diese Kanäle zunächst mit dem entsprechenden YaST-Modul.

Mit Deaktivieren wird der Blacklist-Status deaktiviert.

8.15.7 Standard-systemd-Ziel

SUSE Linux Enterprise Server kann in zwei Ziele (bislang als Runlevel bezeichnet) booten. Mit dem grafischen Ziel wird ein Anzeige-Manager gestartet, mit dem Mehrbenutzer-Ziel dagegen die Kommandozeilenschnittstelle.

Das Standardziel lautet graphical (grafisch). Falls die X Window System-Schemata nicht installiert sind, ändern Sie diese Einstellung in multi-user (Mehrbenutzer). Wenn das System über VNC erreichbar sein soll, müssen Sie die Option graphical (grafisch) verwenden.

8.15.8 SSH-Hostschlüssel und Konfiguration importieren

Wenn auf Ihrem Rechner eine vorhandene Linux-Installation gefunden wurde, importiert YaST standardmäßig den neuesten SSH-Hostschlüssel aus /etc/ssh und schließt optional auch andere Dateien im Verzeichnis ein. Dadurch kann die SSH-Identität der vorhandenen Installation wiederverwendet werden und bei der ersten Verbindung wird die Warnmeldung REMOTE HOST IDENTIFICATION HAS CHANGED (IDENTIFIKATION DES REMOTE-HOSTS HAT SICH GEÄNDERT) nicht angezeigt. Beachten Sie, dass dieser Eintrag nur dann in der Installationsübersicht angezeigt wird, wenn YaST andere Installationen gefunden hat. Es stehen Ihnen folgende Möglichkeiten zur Auswahl:

I would like to import SSH keys from a previous install (SSH-Schlüssel aus einer früheren Installation importieren):

Mit dieser Option importieren Sie den SSH-Hostschlüssel und optional auch die Konfiguration eines installierten Systems. Sie können die zu importierende Installation in der darunter angezeigten Optionsliste auswählen.

Import SSH Configuration (SSH-Konfiguration importieren)

Aktivieren Sie diese Option, wenn Sie zusätzlich zu den Hostschlüsseln weitere Dateien in /etc/ssh auf das installierte System kopieren möchten.

8.15.9 System

Dieser Bildschirm zeigt alle Hardware-Informationen, die das Installationsprogramm für den Rechner ermittelt hat. Beim ersten Öffnen wird die Hardware-Erkennung gestartet. Abhängig von Ihrem System kann dies unter Umständen eine Weile dauern. Wählen Sie einen beliebigen Eintrag in der Liste aus und klicken Sie auf Details, um detaillierte Informationen zum ausgewählten Eintrag anzuzeigen. Verwenden Sie In Datei speichern, um eine detaillierte Liste entweder auf einem lokalen Dateisystem oder auf einem Wechselmedium zu speichern.

Erfahrene·Benutzer können auch das PCI ID-Setup sowie die Kernel-Einstellungen ändern, indem sie Kernel-Einstellungen wählen. Daraufhin wird ein Dialogfeld mit zwei Karteireitern geöffnet:

PCI ID-Setup

Jeder Kernel-Treiber umfasst eine Liste mit den Geräte-IDs aller unterstützten Geräte. Wenn sich ein neues Gerät nicht in der Datenbank eines Treibers befindet, wird das Gerät so behandelt, als ob es nicht unterstützt wird, selbst wenn es mit einem vorhandenen Treiber verwendet werden kann. Hier können Sie PCI-IDs zu einem Gerätetreiber hinzufügen. Dies sollte fortgeschrittenen Benutzern vorbehalten bleiben.

Zum Hinzufügen einer ID klicken Sie auf Hinzufügen, und geben Sie an, ob Sie die Daten manuell eingeben oder in einer Liste auswählen möchten. Geben Sie die erforderlichen Daten ein. Der Name für das SysFS-Verzeichnis wird aus dem Verzeichnis /sys/bus/pci/drivers übernommen. Wenn dieses Verzeichnis leer ist, wird der Treiber-Name als Verzeichnisname verwendet. Mit Bearbeiten und Löschen verwalten Sie vorhandene Einträge.

Kernel-Einstellungen

Hier ändern Sie den globalen E/A-Planer. Bei Nicht konfiguriert wird die Standardeinstellung für die jeweilige Architektur verwendet. Sie können diese Einstellung jederzeit nachträglich über das installierte System ändern. Weitere Informationen zur E/A-Feinabstimmung finden Sie in Book “System Analysis and Tuning Guide”, Chapter 14 “Tuning I/O performance”.

Hier finden Sie außerdem die Option SysRq-Tasten aktivieren. Wenn das System ausfällt, können Sie mit diesen Tasten einfache Kommandos ausführen (beispielsweise das System neu booten oder einen Kernel-Dump anfertigen). Es wird empfohlen, diese Tasten während der Kernel-Entwicklung zu aktivieren. Weitere Informationen finden Sie im https://www.kernel.org/doc/html/latest/admin-guide/sysrq.html.

8.16 Ausführen der Installation

Wenn Sie alle Installationseinstellungen konfiguriert haben, klicken Sie im Fenster „Installationseinstellungen“ zum Starten der Installation auf Installieren. Für manche Software ist möglicherweise eine Lizenzbestätigung erforderlich. Wenn Ihre Softwareauswahl diese Art von Software enthält, werden Dialogfelder für Lizenzbestätigungen angezeigt. Klicken Sie zur Installation des Softwarepakets auf Übernehmen. Wenn Sie die Lizenz nicht akzeptieren, klicken Sie auf Ablehnen, wodurch das Softwarepaket nicht installiert wird. Bestätigen Sie die Eingabe in dem darauffolgenden Dialogfeld noch einmal mit Installieren.

Die Installation dauert in der Regel 15 bis 30 Minuten, je nach Systemleistung und ausgewähltem Softwarebereich. Nachdem Sie die Festplatte vorbereitet und die Benutzereinstellungen gespeichert und wiederhergestellt haben, beginnt die Installation der Software. Wählen Sie Details, um zum Installationsprotokoll umzuschalten, oder Versionshinweise, um wichtige aktuelle Informationen zu lesen, die bei der Drucklegung des Handbuchs noch nicht verfügbar waren.

Nach Abschluss der Software-Installation wird das System in die neue Installation neu gebootet, und Sie können sich anmelden. Wenn Sie die Systemkonfiguration anpassen oder weitere Software-Pakete installieren möchten, starten Sie YaST.

8.16.1 IBM Z: Ausführen eines IPL-Vorgangs für das installierte System

YaST wird in der Regel in dem installierten System auf der IBM Z-Plattform neu gebootet. Ausnahmen sind Installationen, in denen sich der Bootloader auf einem FCP-Gerät in Umgebungen mit LPAR auf einem Computer älter als z196 oder mit z/VM älter als Version 5.4 befindet. Der Bootloader wird in eine separate Partition dem Gerät geschrieben, die als /boot/zipl/ eingehängt ist.

Bei Fällen, in denen kein automatischer Neustart möglich ist, wird in YaST ein Dialogfeld mit Informationen angzeigt, die angeben, von welchem Gerät aus ein IPL ausgeführt werden soll. Bestätigen Sie die Option zum Herunterfahren und führen Sie nach dem Herunterfahren einen IPL aus. Der Vorgang variiert abhängig vom Typ der Installation:

LPAR-Installation

Wählen Sie in IBM Z HMC die Optionen Laden und Löschen und geben Sie anschließend die Ladeadresse ein (die Adresse des Geräts mit dem Verzeichnis /boot/zipl, das den Bootloader enthält). Wenn Sie eine zFCP-Platte als Bootgerät verwenden, wählen Sie die Option Von SCSI laden und geben Sie die Ladeadresse Ihres FCP-Adapters sowie die WWPN und LUN des Bootgeräts an. Beginnen Sie nun den Ladevorgang.

z/VM-Installation

Melden Sie sich beim VM-Gast an (Informationen zur Konfiguration finden Sie im Beispiel 5.1, „Konfiguration eines z/VM-Verzeichnisses“) als LINUX1, und fahren Sie damit fort, für das installierte System einen IPL auszuführen:

IPL 151 CLEAR

151 ist eine Beispieladresse des DASD-Boot-Geräts. Ersetzen Sie diesen Wert durch die korrekte Adresse.

Wenn Sie eine ZFCP-Festplatte als Bootgerät verwenden, geben Sie vor der Initialisierung des IPL sowohl ZFCP WWPN als auch LUN des Bootgeräts an. Die Parameterlänge ist auf acht Zeichen beschränkt. Längere Werte müssen durch Leerzeichen getrennt werden:

SET LOADDEV PORT 50050763 00C590A9 LUN 50010000 00000000

Starten Sie dann IPL:

IPL FC00

FC00 ist eine Beispieladresse des ZFCP-Adapters. Ersetzen Sie diesen Wert durch die korrekte Adresse.

Installation eines KVM-Gasts

Nach Abschluss der Installation wird der virtuelle Rechner heruntergefahren. Melden Sie sich nun am KVM-Host an, bearbeiten Sie die Beschreibungsdatei des virtuellen Rechners und starten Sie ihn erneut, um einen IPL-Vorgang im installierten System auszuführen:

  1. Melden Sie sich am KVM-Host an.

  2. Bearbeiten Sie die XML-Domänendatei, indem Sie Folgendes ausführen:

    tux > sudo virsh edit s12-1

    Entfernen Sie die folgenden Zeilen:

      <!-- Boot kernel - remove 3 lines after successfull installation -->
      <kernel>/var/lib/libvirt/images/s12-kernel.boot</kernel>
      <initrd>/var/lib/libvirt/images/s12-initrd.boot</initrd>
      <cmdline>linuxrcstderr=/dev/console</cmdline>
  3. Starten Sie den VM-Gast erneut, um einen IPL-Vorgang im installierten System auszuführen:

    tux > sudo virsh start s12-1 --console
Anmerkung
Anmerkung: cio_ignore ist bei KVM-Installationen deaktiviert

Der Kernel-Parameter cio_ignore verhindert, dass der Kernel alle verfügbaren Hardwaregeräte berücksichtigt. Bei KVM-Gästen sorgt jedoch bereits der Hypervisor dafür, dass nur Zugriff auf die richtigen Geräte bereitgestellt wird. Daher ist cio_ignore bei der Installation eines KVM-Gasts standardmäßig deaktiviert (bei z/VM- und LPAR-Installationen ist er standardmäßig aktiviert).

8.16.2 IBM Z: Herstellen einer Verbindung zum installierten System

Stellen Sie nach dem Ausführen eines IPL für das System eine Verbindung zum installierten System über VNC, SSH oder X her, und melden Sie sich an. Die Verwendung von VNC oder SSH wird empfohlen. Wenn Sie die Systemkonfiguration anpassen oder weitere Software-Pakete installieren möchten, starten Sie YaST.

8.16.2.1 Herstellen einer Verbindung mit VNC

Eine Meldung im 3270-Terminal fordert Sie auf, eine Verbindung zum Linux-System mithilfe eines VNC-Clients herzustellen. Diese Meldung wird jedoch leicht übersehen, da sie mit Kernel-Meldungen gemischt ist und der Terminalprozess eventuell beendet wird, bevor Sie die Meldung bemerken. Wenn nach fünf Minuten keine Verbindung hergestellt werden kann, versuchen Sie, die Verbindung zum Linux-System mit einem VNC-Viewer herzustellen.

Wenn die Verbindung mit einem JavaScript-fähigen Browser erfolgt, geben Sie die vollständige URL, bestehend aus der IP-Adresse des installierten Systems und der Portnummer, wie folgt ein:

http://IP_OF_INSTALLED_SYSTEM:5801/

8.16.2.2 Herstellen einer Verbindung mit SSH

Eine Meldung im 3270-Terminal fordert Sie auf, eine Verbindung zum Linux-System mithilfe eines SSH-Clients herzustellen. Diese Meldung wird leicht übersehen, da sie mit Kernel-Meldungen gemischt ist und der Terminalprozess eventuell beendet wird, bevor Sie die Meldung bemerken.

Wenn die Meldung angezeigt wird, melden Sie sich mit SSH als root am Linux-System an. Falls die Verbindung abgelehnt wird oder es während des Verbindungsversuchs zu einer Zeitüberschreitung kommt, warten Sie auf die Überschreitung der Anmeldezeit und versuchen Sie es anschließend erneut (der Zeitüberschreitungswert ist abhängig von den Servereinstellungen).

8.16.2.3 Herstellen einer Verbindung mit X

Stellen Sie beim Ausführen von IPL für das installierte System vor dem Start vom DASD aus sicher, dass der für die erste Installationsphase verwendete X-Server aktiv und immer noch verfügbar ist. YaST wird auf diesem X-Server geöffnet, um die Installation abzuschließen. Komplikationen können entstehen, wenn das System gestartet wird, aber nicht rechtzeitig eine Verbindung zum X-Server aufbauen kann.

9 Registrieren von SUSE Linux Enterprise und Verwalten von Modulen/Erweiterungen

Für technischen Support und Produktaktualisierungen müssen Sie SUSE Linux Enterprise Server beim SUSE Customer Center registrieren und aktivieren. Es wird empfohlen, die Registrierung während der Installation vorzunehmen, da Sie so in der Lage sind, das System mit den neuesten verfügbaren Aktualisierungen und Patches zu installieren. Falls Sie gerade offline sind oder den Registrierungsschritt überspringen möchten, können Sie die Registrierung jederzeit später aus dem installierten System heraus nachholen.

Durch Module und Erweiterungen werden dem System Funktionen hinzugefügt und Sie können das System an Ihre Bedürfnisse anpassen. Diese Komponenten müssen ebenfalls registriert werden und lassen sich mithilfe von YaST oder Kommandozeilenwerkzeugen verwalten. Weitere Details finden Sie in Article “Modules and Extensions Quick Start”.

Anmerkung
Anmerkung: SUSE-Konto

Für die Registrierung beim SUSE Customer Center ist ein SUSE-Konto erforderlich. Falls Sie noch kein SUSE-Konto besitzen, wechseln Sie zur SUSE Customer Center-Startseite (https://scc.suse.com/), und erstellen Sie dort ein Konto.

Tipp
Tipp: Aufheben der Registrierung eines Systems

Die Registrierung eines Systems und aller darin enthaltenen Module und Erweiterungen kann vollständig mithilfe des Kommandozeilenwerkzeugs SUSEConnect aufgehoben werden. Durch die Aufhebung der Registrierung eines Systems wird der Eintrag vom Registrierungsserver entfernt und alle Repositorys für Module, Erweiterungen und das Produkt selbst werden entfernt.

tux > sudo SUSEConnect -d

9.1 Registrierung während der Installation

Die Registrierung während der Installation ist die einfachste und empfohlene Methode zur Registrierung. Dadurch wird nicht nur die neueste Patchebene von SUSE Linux Enterprise Server installiert, sondern Sie erhalten auch Zugriff auf alle Module und Erweiterungen, ohne ein weiteres Installationsmedium bereitstellen zu müssen. Dies trifft auch auf alle installierten Module und Erweiterungen zu. Weitere Informationen zum Registrierungsvorgang finden Sie in Abschnitt 8.7, „Registrierung“.

Wenn das System bei der Installation erfolgreich registriert wurde, fügt YaST Online-Repositorys hinzu, die vom SUSE Customer Center bereitgestellt wurden. Dadurch werden Probleme durch nicht mehr verfügbare lokale Installationsquellen vermieden und es wird sichergestellt, dass Sie stets die neuesten Aktualisierungen aus den Online-Repositorys erhalten.

9.2 Registrieren bei der automatisierten Bereitstellung

Wenn Sie die Instanzen automatisch mit AutoYaST bereitstellen, können Sie das System während der Installation registrieren. Geben Sie hierzu die entsprechenden Informationen in der AutoYaST-Steuerungsdatei an. Weitere Informationen finden Sie im Book “AutoYaST Guide”, Chapter 4 “Configuration and installation options”, Section 4.3 “System registration and extension selection”.

9.3 Registrieren vom installierten System aus

Sollten Sie die Registrierung während der Installation übersprungen haben oder das System erneut registrieren wollen, können Sie dies jederzeit mit dem YaST-Modul Produktregistrierung oder dem Befehlszeilen-Tool SUSEConnect erledigen.

9.3.1 Registrieren mit YaST

Starten Sie zum Registrieren des Systems den Vorgang über YaST › Software › Produktregistrierung. Registrieren Sie zunächst SUSE Linux Enterprise Server und wählen Sie dann die Module und Erweiterungen, die Sie zur Verfügung stellen möchten.

Wichtig
Wichtig: Module und Erweiterungen

Sollten Sie das System nach Überspringen der Registrierung von den Medien SLE-15-SP3-Full-ARCH-GM-media1.iso installiert haben, müssen Sie alle Module und Erweiterungen, die Sie bei der Installation gewählt haben, registrieren. Sicherheitsupdates und Patches erhalten Sie nur für registrierte Module und Erweiterungen.

Vorgehen 9.1: Produktregistrierung mit YaST
  1. Starten Sie YaST › Software › Produktregistrierung.

    Dialogfeld Registrierung
  2. Geben Sie die Email-Adresse für das SUSE-Konto ein, mit dem Sie oder Ihr Unternehmen die Abonnements verwalten. Geben Sie außerdem den Registrierungscode ein, den Sie zusammen mit Ihrem Exemplar von SUSE Linux Enterprise Server erhalten haben.

  3. Standardmäßig wird das System beim SUSE Customer Center registriert. Fahren Sie dazu mit dem nächsten Schritt fort.

    Sollte Ihr Unternehmen lokale Registrierungsserver bereitstellen, wählen Sie einen Server in der Liste der automatisch erkannten Server aus oder geben Sie die URL über System über lokalen SMT-Server registrieren an.

  4. Starten Sie den Registrierungsvorgang mit Weiter. SUSE Linux Enterprise Server wird beim gewählten Server registriert und die zugehörigen Repositorys werden dem System hinzugefügt. Das Dialogfeld Auswahl der Erweiterungen und Module wird geöffnet.

    Dialogfeld Auswahl der Erweiterungen und Module
  5. Wählen Sie alle Module und Erweiterungen aus, die Sie im System zur Verfügung stellen möchten. Sie sollten mindestens die vorausgewählten Module (Basesystem Module und Server Applications Module) wählen. Wählen Sie zudem alle weiteren Module und Erweiterungen, die Sie bei der Installation hinzugefügt haben. Beachten Sie, dass für alle Erweiterungen zusätzliche kostenpflichtige Registrierungscodes erforderlich sind. Fahren Sie mit Weiter fort.

  6. Abhängig von Ihrer Auswahl müssen Sie möglicherweise nun auch eine oder mehrere Lizenzvereinbarungen akzeptieren. Alle Komponenten werden mit dem gewählten Server registriert und die zugehörigen Repositorys werden dem System hinzugefügt.

  7. Das Installationsprogramm für das YaST-Paket wird geöffnet, um die Versionspakete für jedes Modul sowie weitere Pakete je nach den ausgewählten Modulen und Erweiterungen zu installieren. Es wird dringend empfohlen, keinesfalls die Auswahl für vorausgewählte Pakete aufzuheben. Weitere Pakete können jedoch noch hinzugefügt werden.

    Bildschirm Installationsüberblick

    Wählen Sie Akzeptieren und Fertigstellen aus, um den Registrierungsvorgang abzuschließen.

9.3.2 Registrieren mit SUSEConnect

Die Registrierung des Systems mit den Modulen und Erweiterungen ist mithilfe von SUSEConnect auch von der Kommandozeile aus möglich. Informationen, die über den Umfang dieses Abschnitts hinausgehen, finden Sie in der Inline-Dokumentation zu man 8 SUSEConnect.

Vorgehen 9.2: Produktregistrierung mit SUSE Connect
  1. Führen Sie zur Registrierung von SUSE Linux Enterprise Server am SUSE Customer Center SUSEConnect wie folgt aus:

    tux > sudo SUSEConnect -r REGISTRATION_CODE -e EMAIL_ADDRESS

    Soll die Registrierung über einen lokalen Registrierungsserver erfolgen, geben Sie zusätzlich die URL des Servers an:

    tux > sudo SUSEConnect -r REGISTRATION_CODE -e EMAIL_ADDRESS \
    --url "https://suse_register.example.com/"

    Ersetzen Sie REGISTRATION_CODE durch den Registrierungscode, den Sie mit Ihrer Version von SUSE Linux Enterprise Server erhalten haben. Ersetzen Sie EMAIL_ADDRESS durch die E-Mail-Adresse für das SUSE-Konto, mit dem Sie oder Ihr Unternehmen die Abonnements verwalten.

    Durch diesen Vorgang wird das Basesystem Module und das Server Applications Module registriert und die zugehörigen Repositorys werden dem System hinzugefügt.

  2. SUSE Linux Enterprise Server einschließlich der beiden Standard-Repositorys ist nun registriert. Sollten Sie weitere Module oder Erweiterungen registrieren wollen, fahren Sie fort wie in Abschnitt 9.4, „Verwalten von Modulen und Erweiterungen in einem laufenden System“ beschrieben.

9.4 Verwalten von Modulen und Erweiterungen in einem laufenden System

Module und Erweiterungen können auch nach der Installation und Registrierung eines Systems hinzugefügt oder entfernt werden. Diese Aufgabe führen Sie mit YaST oder SUSEConnect aus. Weitere Details finden Sie in Article “Modules and Extensions Quick Start”.

9.4.1 Hinzufügen von Modulen und Erweiterungen mit YaST

  1. Starten Sie die YaST › Software › -Systemerweiterungen.

    Dialogfeld Auswahl der Erweiterungen und Module
  2. Wählen Sie zum Hinzufügen von Modulen oder Erweiterungen alle Komponenten aus, die Sie installieren möchten. Beachten Sie, dass für alle Erweiterungen zusätzliche kostenpflichtige Registrierungscodes erforderlich sind.

  3. Alle zusätzlichen Komponenten werden beim Registrierungsserver registriert und die zugehörigen Repositorys werden dem System hinzugefügt.

  4. Das Installationsprogramm für das YaST-Paket wird geöffnet, um die Versionspakete für jedes Modul sowie weitere Pakete je nach den ausgewählten Modulen und Erweiterungen zu installieren. Es wird dringend empfohlen, keinesfalls die Auswahl für vorausgewählte Pakete aufzuheben. Weitere Pakete können jedoch noch hinzugefügt werden.

    Wählen Sie Akzeptieren und Fertigstellen aus, um den Vorgang abzuschließen.

Tipp
Tipp: Modulabhängigkeiten

Wie bei Softwarepaketen, deren Funktionsfähigkeit möglicherweise von anderen Paketen abhängt, kann auch ein Modul von anderen Modulen abhängig sein. In diesem Fall werden alle Module, von denen es abhängt, automatisch zur Installation ausgewählt.

9.4.2 Löschen von Modulen und Erweiterungen mit YaST

  1. Starten Sie YaST › Software › Add-on-Produkte.

    Dialogfeld Installierte Add-on-Produkte
  2. Wählen Sie das Modul oder die Erweiterung, das/die entfernt werden sollte, und klicken Sie auf Löschen. Bestätigen Sie die Warnung, die darauf hinweist, dass alle Pakete der ausgewählten Komponente gelöscht werden.

  3. Der YaST-Software-Manager wird geöffnet und eine Liste aller installierten Pakete des gelöschten Moduls oder der gelöschten Erweiterung werden angezeigt. Klicken Sie auf Akzeptieren, um alle zu entfernen. Es wird dringend empfohlen, diesen Vorgang auszuführen, da Sie für Pakete gelöschter Module oder Erweiterungen keine Updates mehr erhalten. Falls Sie die Pakete beibehalten, sollten Sie auf jeden Fall das Paket *-release für alle zu löschenden Module oder Erweiterungen entfernen.

    Fahren Sie mit Akzeptieren und dann OK fort.

Warnung
Warnung: Löschen von Modulen

Beachten Sie, dass Sie niemals das Basesystem Module löschen sollten. Es wird zudem nicht empfohlen, das Server Applications Module zu löschen.

Warnung
Warnung: Keine Aktualisierungen für Pakete von gelöschten Modulen und Erweiterungen

Wenn Sie Pakete von gelöschten Modulen oder Erweiterungen beibehalten möchten, erhalten Sie für diese Pakete keine Updates mehr. Da dies auch auf Sicherheitspatches zutrifft, stellt es möglicherweise ein Sicherheitsrisiko für das System dar, wenn diese Pakete beibehalten werden.

9.4.3 Hinzufügen/Löschen von Modulen und Erweiterungen mit SUSEConnect

  1. Führen Sie SUSEConnect -list-extensions aus, um einen Überblick über verfügbare Erweiterungen zu erhalten:

    tux > sudo SUSEConnect -list-extensions
    AVAILABLE EXTENSIONS AND MODULES
    
      Basesystem Module 15 SP3 x86_64 (Installed)
      Deactivate with: SUSEConnect -d -p sle-module-basesystem/15.3/x86_64
    
        Containers Module 15 SP3 x86_64
        Activate with: SUSEConnect -p sle-module-containers/15.3/x86_64
    
        Desktop Applications Module 15 SP3 x86_64
        Activate with: SUSEConnect -p sle-module-desktop-applications/15.3/x86_64
    
          Development Tools Module 15 SP3 x86_64
          Activate with: SUSEConnect -p sle-module-development-tools/15.3/x86_64
    
          SUSE Linux Enterprise Workstation Extension 15 SP3 x86_64
          Activate with: SUSEConnect -p sle-we/15.3/x86_64 -r ADDITIONAL REGCODE
    
        SUSE Cloud Application Platform Tools Module 15 SP3 x86_64
        Activate with: SUSEConnect -p sle-module-cap-tools/15.3/x86_64
    
        SUSE Linux Enterprise Live Patching 15 SP3 x86_64
        Activate with:
          SUSEConnect -p sle-module-live-patching/15.3/x86_64 -r ADDITIONAL REGCODE
    
        SUSE Package Hub 15 SP3 x86_64
        Activate with: SUSEConnect -p PackageHub/15.3/x86_64
    
        Server Applications Module 15 SP3 x86_64 (Installed)
        Deactivate with: SUSEConnect -d -p sle-module-server-applications/15.3/x86_64
    
          Legacy Module 15 SP3 x86_64
          Activate with: SUSEConnect -p sle-module-legacy/15.3/x86_64
    
          Public Cloud Module 15 SP3 x86_64
          Activate with: SUSEConnect -p sle-module-public-cloud/15.3/x86_64
    
          SUSE Enterprise Storage 6 x86_64
          Activate with: SUSEConnect -p ses/6/x86_64 -r ADDITIONAL REGCODE
    
          SUSE Linux Enterprise High Availability Extension 15 SP3 x86_64
          Activate with: SUSEConnect -p sle-ha/15.3/x86_64 -r ADDITIONAL REGCODE
    
          Web and Scripting Module 15 SP3 x86_64
          Activate with: SUSEConnect -p sle-module-web-scripting/15.3/x86_64
    
    MORE INFORMATION
    
    You can find more information about available modules here:
    https://www.suse.com/products/server/features/modules.html
  2. Führen Sie die Kommandos in der Liste zur Aktivierung/Deaktivierung eines Moduls oder einer Erweiterung aus, um eine Komponente hinzuzufügen oder zu löschen. Beachten Sie, dass zum Hinzufügen einer Erweiterung zusätzliche kostenpflichtige Registrierungscodes erforderlich sind.

Warnung
Warnung: Löschen von Modulen

Beachten Sie, dass Sie niemals das Basesystem Module löschen sollten. Es wird zudem nicht empfohlen, das Server Applications Module zu löschen.

Wichtig
Wichtig: Kein automatisches Installieren/Entfernen von Paketen

Sollten Sie Module und Erweiterungen mithilfe von SUSEConnect hinzufügen oder löschen, wird die Registrierung der Komponenten aufgehoben, und die entsprechenden Repositorys oder Services werden vom System entfernt. Pakete werden nicht installiert oder entfernt. Nutzen Sie YaST zum Hinzufügen oder Löschen von Modulen und Erweiterungen, falls dieser Vorgang automatisch ausgeführt werden soll.

Beim Hinzufügen eines Moduls oder einer Erweiterung bedeutet dies, dass keine automatische Installation von Standardpaketen oder Schemata durchgeführt wird. Dies muss manuell mit Zypper auf der Kommandozeile ausgeführt werden oder über YaST › Softwareverwaltung.

Beim Löschen eines Moduls oder einer Erweiterung wird daraufhin keine automatische Bereinigung vorgenommen. Alle Pakete, die zum Modul oder zur Erweiterung gehörten, bleiben auf dem System installiert, sind jedoch nicht mehr mit einem Repository verknüpft und erhalten keine Updates mehr. Diese sogenannten bezugslosen Pakete lassen sich mithilfe von Zypper auf der Kommandozeile entfernen. Mit zypper packages ‑‑orphaned werden diese Pakete aufgelistet und mit zypper remove werden die Pakete gelöscht. Alternativ können bezugslose Pakete über YaST › Softwareverwaltung aufgelistet und gelöscht werden.

Warnung
Warnung: Keine Aktualisierungen für Pakete von gelöschten Modulen und Erweiterungen

Wenn Sie Pakete von gelöschten Modulen oder Erweiterungen beibehalten möchten, erhalten Sie für diese Pakete keine Updates mehr. Da dies auch auf Sicherheitspatches zutrifft, stellt es möglicherweise ein Sicherheitsrisiko für das System dar, wenn diese Pakete beibehalten werden.

10 Festplatte vorbereiten: Expertenmodus

Komplexe Systemkonfigurationen erfordern besondere Festplatteneinrichtungen. Im Rahmen der Installation können alle gängigen Partitionierungsaufgaben durchgeführt werden. Um Gerätenamen mit Blockgeräten zu erhalten, verwenden Sie die Blockgeräte /dev/disk/by-id oder /dev/disk/by-uuid. Das Logical Volume Management (LVM) ist ein Schema für die Festplattenpartitionierung, das viel flexibler als die physische Partitionierung in Standardkonfigurationen ist. Mit der Snapshop-Funktion können Sie Datensicherungen einfach erstellen. Ein RAID (Redundant Array of Independent Disks) bietet verbesserte Datenintegrität, Leistung und Fehlertoleranz. SUSE Linux Enterprise Server unterstützt auch die Multipath-E/A (weitere Details finden Sie im Book “Storage Administration Guide”, Chapter 18 “Managing multipath I/O for devices”). Es gibt auch die Möglichkeit, iSCSI als vernetzte Festplatte zu verwenden (lesen Sie mehr über iSCSI im Book “Storage Administration Guide”, Chapter 15 “Mass storage over IP networks: iSCSI”).

Warnung
Warnung: Speicherplatzeinheiten

Beachten Sie, dass Speicherplatz aus Partitionierungsgründen in binären Einheiten statt in dezimalen Einheiten gemessen wird. Beispiel: Wenn Sie Größen von 1 GB, 1 GiB oder 1 G eingeben, werden diese vom System immer als 1 GiB (Gibibyte) behandelt, im Gegensatz zu 1 GB (Gigabyte).

Binär

1 GiB = 1 073 741 824 Byte.

Dezimal

1 GB = 1 000 000 000 Byte.

Differenz

1 GiB ≈ 1,07 GB.

10.1 Verwenden von Festplatte vorbereiten: Expertenmodus

Mit der in Abbildung 10.1, „YaST-Partitionierung“ dargestellten Option Festplatte vorbereiten: Expertenmodus können Sie die Partitionierung einer oder mehrerer Festplatten manuell ändern. Sie können Partitionen hinzufügen, löschen, bearbeiten und deren Größe verändern sowie auf die Soft-RAID und LVM-Konfiguration zugreifen.

Warnung
Warnung: Neupartitionierung des laufenden Systems

Auch wenn es möglich ist, ein laufendes System neu zu partitionieren, ist das Risiko eines Fehlers mit daraus folgendem Datenverlust sehr hoch. Versuchen Sie daher eine Neupartitionierung des installierten Systems möglichst zu vermeiden. Sollten Sie dies trotzdem versuchen, führen Sie zuvor unbedingt eine vollständige Datensicherung durch.

YaST-Partitionierung
Abbildung 10.1: YaST-Partitionierung
Tipp
Tipp: IBM Z: Gerätenamen

IBM Z erkennt nur DASDs und SCSI-Festplatten. IDE-Festplatten werden nicht unterstützt. Aus diesem Grund werden die Geräte in der Partitionstabelle für das erste erkannte Gerät als dasda oder sda angezeigt.

Alle bestehenden oder vorgeschlagenen Partitionen auf allen angeschlossenen Festplatten werden in der Liste Verfügbarer Speicher im YaST-Dialogfeld Festplatte vorbereiten: Expertenmodus angezeigt. Ganze Festplatten werden als Geräte ohne Nummern aufgeführt, beispielsweise als /dev/sda (oder /dev/dasda). Partitionen werden als Teile dieser Geräte aufgelistet, beispielsweise als /dev/sda1 (oder /dev/dasda1). Größe, Typ, Verschlüsselungsstatus, Dateisystem und Einhängepunkt der Festplatten und ihrer Partitionen werden ebenfalls angezeigt. Der Einhängepunkt gibt an, wo sich die Partition im Linux-Dateisystembaum befindet.

Mehrere funktionale Ansichten sind in der Systemansicht im linken Fensterbereich verfügbar. Verwenden Sie die Ansichten, um Informationen zu vorhandenen Speicherkonfigurationen zu erhalten oder um Funktionen wie RAID, Volume-Verwaltung und Dateien verschlüsseln zu konfigurieren und Dateisysteme mit zusätzlichen Funktionen wie BTRFS, NFS oder TMPFS anzuzeigen.

Wenn Sie das Experten-Dialogfeld während der Installation ausführen, wird auch sämtlicher freier Speicherplatz aufgeführt und automatisch ausgewählt. Soll zusätzlicher Speicherplatz für SUSE Linux Enterprise Server bereitgestellt werden, gehen Sie die Liste der Partitionen von unten nach oben durch und geben Sie den erforderlichen Speicherplatz frei.

10.1.1 Partitionstabellen

Mit SUSE Linux Enterprise Server können Sie verschiedene Partitionstabellen erstellen und verwenden. In einigen Fällen wird die Partitionstabelle als Festplattenkennung bezeichnet. Die Partitionstabelle ist für den Boot-Vorgang des Computers unverzichtbar. Soll der Computer aus einer Partition in einer soeben erstellten Partitionstabelle gebootet werden, überprüfen Sie, ob das Tabellenformat durch die Firmware unterstützt wird.

Führen Sie den YaST-Partitioner aus, klicken Sie in der Systemansicht auf den Namen der entsprechenden Festplatte und wählen Sie Experte › Erstellen einer neuen Partitionstabelle.

10.1.1.1 Master Boot Record

Der Master-Boot-Record (MBR) ist die ältere Partitionstabelle auf IBM-PCs. Dies wird auch als MS-DOS-Partitionstabelle bezeichnet. Der MBR unterstützt lediglich vier primäre Partitionen. Falls die Festplatte bereits einen MBR aufweist, können Sie mit SUSE Linux Enterprise Server zusätzliche Partitionen in dieser Tabelle anlegen und als Installationsziel heranziehen.

Die Beschränkung auf vier Partitionen lässt sich mithilfe einer erweiterten Partition umgehen. Die erweiterte Partition selbst ist eine primäre Partition und kann wiederum weitere logische Partitionen aufnehmen.

Die UEFI-Firmware unterstützt in der Regel das Booten vom MBR im Legacy-Modus.

10.1.1.2 GPT-Partitionstabelle

UEFI-Computer arbeiten standardmäßig mit einer GUID-Partitionstabelle (GPT). Falls eine Festplatte noch keine Partitionstabelle enthält, legt SUSE Linux Enterprise Server eine GPT an.

Ältere BIOS-Firmware unterstützt das Booten von GPT-Partitionen nicht.

Für die folgenden Funktionen benötigen Sie eine GPT-Partitionstabelle:

  • Mehr als vier primäre Partitionen

  • UEFI Secure Boot

  • Festplatten mit mehr als 2 TB Kapazität

Anmerkung
Anmerkung: Falsche Bezeichnung für Partitionen, die mit Parted 3.1 (oder früher) erstellt wurden

Bei GPT-Partitionen, die mit Parted 3.1 (oder früher) erstellt wurden, wurde der Microsoft Basic Data-Partitionstyp anstelle der neueren, Linux-spezifischen GPT-GUID herangezogen. Neuere Parted-Versionen legen für solche Partitionen das irreführende Flag msftdata fest. Damit wird die Partition auch in verschiedenen Festplatten-Tools als Windows-Datenpartition (oder ähnlich) bezeichnet.

Mit dem folgenden Befehl entfernen Sie das Flag:

root # parted DEVICE set PARTITION_NUMBER msftdata off

10.1.1.3 Partitionierungstabellen unter IBM Z

Auf IBM Z-Plattformen unterstützt SUSE Linux Enterprise Server sowohl SCSI-Festplatten als auch Direct Access Storage Devices (DASD). Während sich SCSI-Datenträger wie oben beschrieben partitionieren lassen, sind für DASDs maximal drei Partitionseinträge in den entsprechenden Partitionstabellen möglich.

10.1.2 Partitionen

Der YaST-Partitionierer kann Partitionen mit verschiedenen Dateisystemen erstellen und formatieren. In SUSE Linux Enterprise Server wird standardmäßig das Dateisystem Btrfs verwendet. Weitere Informationen finden Sie im Abschnitt 10.1.2.2, „Btrfs-Partitionierung“.

Auch weitere gängige Dateisysteme stehen zur Auswahl: Ext2, Ext3, Ext4, FAT, XFS, Swap und UDF.

10.1.2.1 Erstellen von Partitionen

Zum Erstellen einer Partition wählen Sie Festplatten und wählen Sie dann eine Festplatte mit freiem Speicherplatz aus. Die tatsächliche Modifikation kann im Karteireiter Partitionen erfolgen:

  1. Mit Hinzufügen erstellen Sie eine neue Partition. Wenn ein MBR vorliegt, geben Sie an, ob eine primäre oder eine erweiterte Partition erstellt werden soll. In der erweiterten Partition können Sie mehrere logische Partitionen anlegen. Weitere Informationen finden Sie im Abschnitt 10.1.1, „Partitionstabellen“.

  2. Geben Sie die Größe der neuen Partition an. Sie können auswählen, dass der gesamte freie Speicherplatz belegt werden soll oder eine Größe eingeben.

  3. Wählen Sie das zu verwendende Dateisystem und einen Einhängepunkt aus. YaST schlägt für jede erstellte Partition einen Einhängepunkt vor. Für eine andere Einhängemethode, z. B. Einhängen nach Label, wählen Sie Fstab-Optionen.

  4. Geben Sie, falls erforderlich, zusätzliche Dateisystemoptionen an. Dies ist zum Beispiel für persistente Dateinamen erforderlich. Weitere Informationen zu den verfügbaren Optionen finden Sie in Abschnitt 10.1.3, „Bearbeiten einer Partition“.

  5. Klicken Sie auf Fertig stellen, um die Partitionierungseinrichtung zu übernehmen und das Partitionierungsmodul zu verlassen.

    Wenn Sie die Partition bei der Installation angelegt haben, wird wieder das Fenster mit der Installationsübersicht angezeigt.

10.1.2.2 Btrfs-Partitionierung

Das Standard-Dateisystem für die root-Partition ist Btrfs. Weitere Informationen hierzu finden Sie in Book “Verwaltungshandbuch”, Chapter 7 “Systemwiederherstellung und Snapshot-Verwaltung mit Snapper” und Book “Storage Administration Guide”, Chapter 1 “Overview of file systems in Linux”. Das root-Dateisystem ist das Standard-Subvolume und wird nicht in der Liste der erstellten Subvolumes aufgeführt. Als Btrfs-Standard-Subvolume kann es als normales Dateisystem eingehängt werden.

Wichtig
Wichtig: Btrfs auf einer verschlüsselten Stammpartition

Die standardmäßige Partitionierungseinrichtung schlägt die Stammpartition als Btrfs mit /boot als Verzeichnis vor. Soll die Stammpartition verschlüsselt werden, müssen Sie in jedem Fall die GPT-Partitionstabelle verwenden, nicht den standardmäßigen MSDOS-Typ. Ansonsten findet der GRUB2-Bootloader nicht genügend Platz für den Loader der zweiten Phase.

Sie können Snapshots von Btrfs-Subvolumes erstellen, wahlweise manuell oder auch automatisch bei bestimmten Systemereignissen. Wenn beispielsweise Änderungen am Dateisystem vorgenommen werden, ruft zypper das Kommando snapper auf, mit dem Snapshots vor und nach der Änderung angefertigt werden. Dies ist von Nutzen, wenn Sie mit den Änderungen von zypper nicht zufrieden sind und den vorherigen Zustand wiederherstellen möchten. Wenn snapper über zypper aufgerufen wird, werden standardmäßig Snapshots des root-Dateisystems angelegt, weshalb bestimmte Verzeichnisse von den Snapshots ausgeschlossen werden sollten. Aus diesem Grund schlägt YaST die Erstellung der folgenden separaten Subvolumes vor:

/boot/grub2/i386-pc, /boot/grub2/x86_64-efi, /boot/grub2/powerpc-ieee1275, /boot/grub2/s390x-emu

Ein Rollback der Bootloader-Konfiguration wird nicht unterstützt. Die obigen Verzeichnisse sind abhängig von der Architektur. Die ersten beiden Verzeichnisse gelten für AMD64-/Intel 64-Computer und die letzten beiden Verzeichnisse für IBM POWER bzw. für IBM Z.

/home

Wenn /home sich nicht auf einer separaten Partition befindet, wird dieses Verzeichnis ausgeschlossen, damit bei einem Rollback kein Datenverlust eintritt.

/opt

Produkte von Drittanbietern werden in der Regel in /opt installiert. Dieses Verzeichnis wird ausgeschlossen, damit die betreffenden Anwendungen bei einem Rollback nicht deinstalliert werden.

/srv

Enthält Daten für Web- und FTP-Server. Ausgeschlossen, damit bei einem Rollback kein Datenverlust eintritt.

/tmp

Alle Verzeichnisse, die temporäre Dateien und Caches enthalten, werden aus den Snapshots ausgeschlossen.

/usr/local

Dieses Verzeichnis wird bei der manuellen Installation von Software verwendet. Dieses Verzeichnis wird ausgeschlossen, damit die betreffenden Installationen bei einem Rollback nicht deinstalliert werden.

/var

Dieses Verzeichnis enthält viele Variablendateien, einschließlich Protokolle, temporäre Caches und Drittanbieterprodukte in /var/opt. Es ist der Standardspeicherort für Images und Datenbanken von virtuellen Maschinen. Daher wird dieses Subvolume so erstellt, dass alle Variablendaten von Snapshots ausgeschlossen werden und „Kopie beim Schreiben“ deaktiviert ist.

Tipp
Tipp: Größe der Btrfs-Partition

Gespeicherte Snapshots belegen mehr Speicherplatz. Sie sollten daher ausreichend Speicherplatz für Btrfs reservieren. Während die Mindestgröße für eine Root-Btrfs-Partition mit Snapshots und Standard-Subvolumes 16 GB beträgt, empfiehlt SUSE mindestens 32 GB oder mehr, wenn sich /home nicht auf einer separaten Partition befindet.

10.1.2.3 Verwalten von Btrfs-Subvolumes mit YaST

Die Subvolumes einer Btrfs-Partition können nunmehr mit dem YaST-Modul Expert Partitioner verwaltet werden. Sie können neue Subvolumes hinzufügen und bestehende Subvolumes entfernen.

Vorgehen 10.1: Btrfs-Subvolumes mit YaST
  1. Wählen Sie im linken Fensterbereich Btrfs.

  2. Wählen Sie die Btrfs-Partition aus, deren Subvolumes verwaltet werden sollen.

  3. Je nachdem, ob Subvolumes bearbeitet, hinzugefügt oder entfernt werden sollen, gehen Sie wie folgt vor:

    1. Um ein Subvolume zu bearbeiten, wählen Sie es in der Liste aus und klicken Sie auf Bearbeiten. Sie können dann für das Volume Kopie beim Schreiben deaktivieren (aktivieren Sie dazu das Kontrollkästchen für noCoW) oder dessen Größe beschränken. Klicken Sie auf Akzeptieren, um den Vorgang fertigzustellen.

    2. Klicken Sie zum Hinzufügen eines neuen Subvolumes auf Subvolume hinzufügen und geben Sie dessen Pfad ein. Optional können Sie dann für das Volume Kopie beim Schreiben deaktivieren (aktivieren Sie dazu das Kontrollkästchen für noCoW) oder dessen Größe beschränken. Klicken Sie auf Akzeptieren, um den Vorgang fertigzustellen.

    3. Um ein Subvolume zu entfernen, wählen Sie es in der Liste aus und klicken Sie auf Löschen. Bestätigen Sie die Löschung durch Klicken auf Ja.

    4. Btrfs-Subvolumes im YaST-Partitionierer
      Abbildung 10.2: Btrfs-Subvolumes im YaST-Partitionierer
  4. Schließen Sie die Partitionierung mit Beenden.

10.1.3 Bearbeiten einer Partition

Wenn Sie eine neue Partition erstellen oder eine bestehende Partition bearbeiten, können verschiedene Parameter festgelegt werden. Bei neuen Partitionen reichen die von YaST festgelegten Standardparameter in der Regel aus und müssen nicht geändert werden. Gehen Sie wie folgt vor, um Ihre Partitionseinstellungen manuell zu bearbeiten:

  1. Wählen Sie die Partition aus.

  2. Klicken Sie auf Bearbeiten, um die Partition zu bearbeiten und die Parameter festzulegen:

    Dateisystem-ID

    Auch wenn Sie die Partition zu diesem Zeitpunkt nicht formatieren möchten, sollten Sie ihr eine Dateisystem-ID zuweisen, um sicherzustellen, dass sie richtig registriert wird. Übliche Werte sind Linux, Linux Swap, Linux LVM und Linux RAID.

    Dateisystem

    Klicken Sie zum Ändern des Partitionsdateisystems auf Partition formatieren und wählen Sie den Dateisystemtyp in der Liste Dateisystem aus.

    SUSE Linux Enterprise Server unterstützt mehrere Typen von Dateisystemen. Btrfs ist aufgrund seiner erweiterten Funktionen das bevorzugte Linux-Dateisystem für die root-Partition. Es unterstützt das Copy-on-Write-Verfahren, das Erstellen vob Snapshots, Multi-Device-Spanning, Subvolumes und weitere nützliche Techniken. XFS, Ext3 und Ext4 sind Journaling-Dateisysteme. Mit diesen Dateisystemen kann das System nach einem Systemabsturz schnell wiederhergestellt werden, da die Schreibvorgänge während des Betriebs protokolliert werden. Ext2 ist kein Journaling-Dateisystem, eignet sich aber für kleinere Partitionen, da für die Verwaltung nicht viel Speicherplatz benötigt wird.

    Das Standard-Dateisystem für die root-Partition ist Btrfs. Das Standard-Dateisystem für weitere Partitionen ist XFS.

    Das UDF-Dateisystem wird auf optischen wiederbeschreibbaren und nicht wiederbeschreibbaren Medien, USB-Flash-Laufwerken und Festplatten verwendet. Es wird von mehreren Betriebssystemen unterstützt.

    Swap ist ein Sonderformat, das die Verwendung der Partition als virtuellen Arbeitspeicher ermöglicht. Bei einer manuellen Partitionierung müssen Sie eine Swap-Partition mit mindestens 256 MB erstellen. Sollte der Swap-Speicher nicht ausreichen, sollten Sie nicht den Swap-Speicher vergrößern, sondern das System mit zusätzlichem Arbeitsspeicher ausstatten.

    Warnung
    Warnung: Ändern des Dateisystems

    Wenn Sie das Dateisystem ändern und Partitionen neu formatieren, werden alle Daten der Partition unwiederbringlich gelöscht.

    Weitere Informationen zu den verschiedenen Dateisystemen finden Sie im Storage Administration Guide (Speicherverwaltungshandbuch).

    Verschlüsseln von Geräten

    Wenn Sie die Verschlüsselung aktivieren, werden alle Daten in verschlüsselter Form geschrieben. Dies erhöht zwar die Sicherheit sensibler Daten, die Systemgeschwindigkeit wird jedoch reduziert, da die Verschlüsselung einige Zeit in Anspruch nimmt. Weitere Informationen zur Verschlüsselung der Dateisysteme finden Sie in Book “Security and Hardening Guide”, Chapter 12 “Encrypting partitions and files”.

    Einhängepunkt

    Geben Sie das Verzeichnis an, in dem die Partition im Dateisystembaum eingehängt werden soll. Treffen Sie eine Auswahl aus den YaST-Vorschlägen, oder geben Sie einen beliebigen anderen Namen ein.

    Fstab-Optionen

    Legen verschiedene Parameter in der globalen Systemverwaltungsdatei (/etc/fstab) fest. In der Regel reichen die Standardeinstellungen für die meisten Konfigurationen aus. Sie können beispielsweise die Dateisystemkennung von einem Gerätenamen in eine Volume-Bezeichnung ändern. In Volume-Bezeichnungen können Sie alle Zeichen mit Ausnahme von / und dem Leerzeichen verwenden.

    Für persistente Gerätenamen verwenden Sie die Einhängeoption Geräte-ID, UUID oder LABEL. In SUSE Linux Enterprise Server sind persistente Gerätenamen standardmäßig aktiviert.

    Anmerkung
    Anmerkung: IBM Z: Einhängen nach Pfad

    Da das Einhängen nach ID auf IBM Z Probleme verursacht, wenn Platte-zu-Platte-Kopien zum Klonen verwendet werden, werden Geräte standardmäßig nach Pfad in /etc/fstab auf IBM Z eingehängt.

    Wenn Sie die Partition lieber über ihre Bezeichnung einhängen möchten, müssen Sie diese als Texteintrag in der Volume-Bezeichnung angeben. Sie könnten beispielsweise das Partitions-Label HOME für eine Partition verwenden, die in /home eingehängt werden soll.

    Wenn Sie für das Dateisystem Quotas verwenden möchten, verwenden Sie die Einhängeoption Quota-Unterstützung aktivieren. Diese Konfiguration ist erforderlich, bevor Sie in der Benutzerverwaltung von YaST Quotas für Benutzer festlegen. Weitere Informationen zur Konfiguration von Benutzerquotas finden Sie im Abschnitt 24.3.3, „Verwalten von Quoten“.

    Wenn Sie beabsichtigen, Quoten für Btrfs-Subvolumes festzulegen, finden Sie Informationen dazu im Book “Storage Administration Guide”, Chapter 1 “Overview of file systems in Linux”, Section 1.2.5 “Btrfs quota support for subvolumes”.

  3. Wählen Sie Beenden, um die Änderungen zu speichern.

Anmerkung
Anmerkung: Ändern der Größe von Dateisystemen

Die Größe eines bestehenden Dateisystems können Sie ändern, indem Sie die Partition auswählen und Größe ändern verwenden. Beachten Sie, dass die Größe von eingehängten Partitionen nicht verändert werden kann. Um die Größe von Partitionen zu ändern, hängen Sie die entsprechende Partition aus, bevor Sie den Partitionierer ausführen.

10.1.4 Optionen für Experten

Nach Auswahl eines Festplattengeräts (wie sda) im Bereich Systemansicht können Sie im unteren rechten Bereich im Fenster Festplatte vorbereiten: Expertenmodus auf das Menü Experte zugreifen. Im Menü stehen folgende Kommandos zur Verfügung:

Erstellen einer neuen Partitionstabelle

Mithilfe dieser Option können Sie eine neue Partitionstabelle am ausgewählten Gerät erstellen.

Warnung
Warnung: Erstellen einer neuen Partitionstabelle

Durch Erstellen einer neuen Partitionstabelle auf einem Gerät werden alle Partitionen und deren Daten unwiederbringlich von diesem Gerät entfernt.

Diesen Datenträger klonen

Mit dieser Option können Sie das Layout einer Gerätepartition ohne den Inhalt auf andere verfügbare Datenträger klonen.

10.1.5 Optionen "Erweitert"

Nach Auswahl des Hostnamens des Rechners (obere Ebene des Baums in der Systemansicht) können Sie unten rechts im Fenster Festplatte vorbereiten: Expertenmodus auf das Menü Konfigurieren zugreifen. Im Menü stehen folgende Kommandos zur Verfügung:

Konfigurieren von iSCSI

Für den Zugriff auf SCSI über IP-Block-Geräte müssen Sie zunächst iSCSI konfigurieren. Dadurch erhalten Sie weitere verfügbare Geräte in der Hauptpartitionsliste.

Konfigurieren von Multipath

Durch Auswahl dieser Option können Sie die Multipath-Optimierung an den unterstützten Massenspeichergeräten konfigurieren.

10.1.6 Weitere Tipps zur Partitionierung

Im folgenden Abschnitt finden Sie einige Hinweise und Tipps für die Partitionierung, die Ihnen bei der Einrichtung Ihres Systems helfen, die richtigen Entscheidungen zu treffen.

10.1.6.1 Anzahl der Zylinder

Einige Partitionierungstools beginnen bei der Nummerierung der Zylinder mit 0 andere mit 1. Die Zylinderzahl berechnet sich immer aus der Differenz zwischen der letzten und der ersten Zylindernummer plus eins.

10.1.6.2 Verwenden von Swap

Mittels Swap wird der verfügbare physikalische Arbeitsspeicher erweitert. Ihnen steht dadurch über das physische RAM hinaus mehr Arbeitsspeicher zur Verfügung. Die Arbeitsspeicherverwaltungssysteme der Kernels vor Version 2.4.10 benötigten Swap als Sicherheitszugabe. Wenn Ihr Swap zu dieser Zeit nicht zweimal so groß war wie Ihr RAM, kam es zu erheblichen Leistungseinbußen. Diese Einschränkungen gibt es nicht mehr.

Linux verwendet eine Seite namens Kürzlich verwendet (LRU) zur Auswahl von Seiten, die eventuell vom Arbeitsspeicher auf die Festplatte verschoben werden. Den aktiven Anwendungen steht dadurch mehr Arbeitsspeicher zur Verfügung und das Zwischenspeichern läuft reibungsloser ab.

Wenn eine Anwendung versucht, den maximal zulässigen Arbeitsspeicher zu belegen, können Probleme mit Swap auftreten. Wir sollten uns hierzu drei der wichtigsten Szenarien näher ansehen:

System ohne Swap

Die Anwendung kann den maximal zulässigen Arbeitsspeicher auslasten. Der gesamte Cache-Speicher wird freigegeben, wodurch sich alle anderen Anwendungen verlangsamen. Nach einigen Minuten wird der „Out-of-Memory-Killer“ des Kernels aktiviert und der Vorgang wird beendet.

System mit mittelgroßem Swap (128 MB bis 512 MB)

Zunächst verlangsamt sich das Systems wie ein System ohne Swap. Sobald das gesamte physikalische RAM aufgebraucht ist, wird auch auf den Swap-Speicher zurückgegriffen. An diesem Punkt wird das System sehr langsam; die Fernausführung von Kommandos wird unmöglich. Je nach Geschwindigkeit der Festplatten, die den Swap-Speicher stellen, verbleibt das System etwa 10 bis 15 Minuten in diesem Zustand, bevor das Problem vom „Out of Memory-Killer“ des Kernels endgültig behoben wird. Beachten Sie, dass Sie eine bestimmte Swap-Größe benötigen, wenn der Computer einen Suspend to Disk ausführen soll. In diesem Fall sollte der Swap-Speicher groß genug sein, um die benötigten Daten vom Arbeitsspeicher (512 MB – 1 GB) aufnehmen zu können.

System mit großem Swap (mehrere GB)

In einem solchen Fall sollte besser keine Anwendung ausgeführt werden, die völlig außer Rand und Band gerät und den Swap-Speicher grenzenlos nutzt. Wenn Sie eine derartige Anwendung ausführen, nimmt die Wiederherstellung des Systems mehrere Stunden in Anspruch. Sehr wahrscheinlich treten in diesem Fall bei anderen Prozessen Zeitüberschreitungen und Fehler auf, wodurch das System in einem undefinierten Zustand zurückbleibt, selbst wenn der fehlerhafte Prozess beendet wird. Starten Sie in diesem Fall den Computers von Anfang an neu und versuchen Sie, das System wieder zum Laufen zu bringen. Sehr viel Swap-Speicher ist nur dann sinnvoll, wenn Sie eine Anwendung verwenden, die diese Menge an Swap tatsächlich benötigt. Solche Anwendungen (wie Datenbanken oder Bildbearbeitungsprogramme) verfügen häufig über eine Option, mit der sie den benötigten Festplattenspeicher direkt abrufen können. Die Verwendung dieser Option ist auf jeden Fall einem übergroßen Swap-Speicher vorzuziehen.

Falls Ihre Anwendungen nicht außer Kontrolle geraten, aber dennoch nach einiger Zeit mehr Swap erforderlich ist, können Sie den Swap-Speicher auch online erweitern. Wenn Sie eine Partition als Swap-Speicher vorbereitet haben, fügen Sie diese Partition mithilfe von YaST hinzu. Falls Sie auf keine Swap-Partition zurückgreifen können, können Sie den Swap-Speicher auch durch eine Swap-Datei erweitern. Swap-Dateien sind im Allgemeinen langsamer als Partitionen, aber verglichen mit physischem RAM sind beide extrem langsam, sodass der eigentliche Unterschied unerheblich ist.

Vorgehen 10.2: Manuelles Hinzufügen einer Swap-Datei

So fügen Sie dem laufenden System eine Swap-Datei hinzu:

  1. Erstellen Sie auf Ihrem System eine leere Datei. Um beispielsweise eine Swap-Datei für 128 MB Swap-Speicher unter /var/lib/swap/swapfile hinzuzufügen, geben Sie folgende Kommandos ein:

    tux > sudo mkdir -p /var/lib/swap
    tux > sudo dd if=/dev/zero of=/var/lib/swap/swapfile bs=1M count=128
  2. Initialisieren Sie die Swap-Datei mit folgendem Kommando:

    tux > sudo mkswap /var/lib/swap/swapfile
    Anmerkung
    Anmerkung: Geänderte UUID für Swap-Partitionen bei Formatierung über mkswap

    Falls möglich, sollten bestehende Swap-Partitionen nicht mit mkswap neu formatiert werden. Durch die Neuformatierung mit mkswap ändert sich der UUID-Wert der Swap-Partition. Führen Sie die Neuformatierung entweder über YaST aus (/etc/fstab wird dabei aktualisiert) oder passen Sie /etc/fstab manuell an.

  3. Aktivieren Sie den Swap-Speicher mit folgendem Kommando:

    tux > sudo swapon /var/lib/swap/swapfile

    Zum Deaktivieren der Swap-Datei verwenden Sie folgendes Kommando:

    tux > sudo swapoff /var/lib/swap/swapfile
  4. Zum Überprüfen des aktuell verfügbaren Swap-Speichers verwenden Sie folgendes Kommando:

    tux > cat /proc/swaps

    Bislang handelt es sich hier lediglich um einen temporären Swap-Speicher. Nach dem nächsten Reboot wird er nicht mehr verwendet.

  5. Wenn Sie die Swap-Datei permanent aktivieren möchten, fügen Sie /etc/fstab folgende Zeile hinzu:

    /var/lib/swap/swapfile swap swap defaults 0 0

10.1.7 Partitionierung und LVM

Greifen Sie über Festplatte vorbereiten: Expertenmodus auf die LVM-Konfiguration zu, indem Sie im Fenster Systemansicht auf das Element Volume-Verwaltung klicken. Wenn auf Ihrem System jedoch bereits eine aktive LVM-Konfiguration vorhanden ist, wird sie automatisch bei der Eingabe der ersten LVM-Konfiguration einer Sitzung aktiviert. In diesem Fall kann keine der Festplatten, die eine Partition enthalten (die zu einer aktivierten Volume-Gruppe gehört) neu partitioniert werden. Der Linux-Kernel kann die geänderte Partitionstabelle einer Festplatte nicht erneut lesen, wenn eine der Partitionen auf dieser Festplatte verwendet wird. Wenn bereits eine funktionierende LVM-Konfiguration auf Ihrem System vorhanden ist, sollte eine physische Neupartitionierung nicht erforderlich sein. Ändern Sie stattdessen die Konfiguration des logischen Volumes.

Am Anfang der physischen Volumes (PVs) werden Informationen zum Volume auf die Partition geschrieben. Um eine solche Partition für andere Zwecke, die nichts mit LVM zu tun haben, wiederzuverwenden, sollten Sie den Anfang dieses Volumes löschen. Bei der VG system und dem PV /dev/sda beispielsweise ist dies über den folgenden Befehl möglich:

dd if=/dev/zero of=/dev/sda2 bs=512 count=1
Warnung
Warnung: Dateisystem zum Booten

Das zum Booten verwendete Dateisystem (das root-Dateisystem oder /boot) darf nicht auf einem logischen LVM-Volume gespeichert werden. Speichern Sie es stattdessen auf einer normalen physischen Partition.

Weitere Details zu LVM finden Sie im Book “Storage Administration Guide”.

10.2 LVM-Konfiguration

In diesem Abschnitt werden die Schritte erläutert, die bei der LVM-Konfiguration ausgeführt werden müssen. Allgemeine Informationen zum Logical Volume Manager finden Sie im Book “Storage Administration Guide”, Chapter 5 “LVM configuration”, Section 5.1 “Understanding the logical volume manager”.

Warnung
Warnung: Sichern Sie Ihre Daten

Der Einsatz von LVM ist manchmal mit einem höheren Risiko (etwa des Datenverlusts) verbunden. Risiken umfassen auch Anwendungsausfälle, Stromausfälle und fehlerhafte Befehle. Speichern Sie Ihre Daten, bevor Sie LVM implementieren oder Volumes neu konfigurieren. Arbeiten Sie nie ohne Backup.

Die YaST-LVM-Konfiguration kann vom YaST Expert Partitioner (siehe Abschnitt 10.1, „Verwenden von Festplatte vorbereiten: Expertenmodus) unter Volume-Verwaltung im Bereich Systemansicht aus erreicht werden. Mit Festplatte vorbereiten: Expertenmodus können Sie Festplatten und Partitionen verwalten sowie RAID- und LVM-Konfigurationen einrichten.

10.2.1 Erstellen eines physischen Volumes

Als erste Aufgabe müssen physische Volumes erstellt werden, die Platz für eine Volume-Gruppe bieten:

  1. Wählen Sie unter Festplatten eine Festplatte aus.

  2. Wechseln Sie in den Karteireiter Partitionen.

  3. Klicken Sie auf Hinzufügen und geben Sie die gewünschte Größe des PV auf dieser Platte ein.

  4. Verwenden Sie Do not Format Partition (Partition nicht formatieren) und ändern Sie die Dateisystem-ID in 0x8E Linux LVM. Hängen Sie diese Partition nicht ein.

  5. Wiederholen Sie diesen Vorgang, bis alle gewünschten physischen Volumes auf den verfügbaren Platten definiert sind.

10.2.2 Erstellen von Volume-Gruppen

Wenn auf Ihrem System keine Volume-Gruppe existiert, müssen Sie eine hinzufügen (siehe Abbildung 10.3, „Anlegen einer Volume-Gruppe“). Sie können zusätzliche Gruppen erstellen, indem Sie auf Volume-Verwaltung im Bereich Systemansicht und anschließend auf Volume-Gruppe hinzufügen klicken. Eine einzige Volume-Gruppe genügt in der Regel.

  1. Geben Sie einen Namen für die VG ein, z. B. System.

  2. Wählen Sie die gewünschte Größe (Physical Extent Size). Dieser Wert definiert die Größe eines physischen Blocks in der Volume-Gruppe. Der gesamte Plattenplatz in einer Volume-Gruppe wird in Blöcken dieser Größe verwaltet.

  3. Fügen Sie der VG die vorbereiteten PVs hinzu, indem Sie das Gerät auswählen und auf Hinzufügen klicken. Die Auswahl mehrerer Geräte ist möglich, wenn Sie Strg gedrückt halten, während Sie auf die gewünschten Geräte klicken.

  4. Wählen Sie Beenden, um die VG für weitere Konfigurationsschritte bereitzustellen.

Anlegen einer Volume-Gruppe
Abbildung 10.3: Anlegen einer Volume-Gruppe

Wenn mehrere Volume-Gruppen definiert sind und PVs hinzugefügt oder entfernt werden sollen, wählen Sie die Volume-Gruppe in der Liste Volume-Verwaltung aus und klicken Sie auf Größe ändern. Im folgenden Fenster können Sie der ausgewählten Volume-Gruppe PVs hinzufügen oder sie daraus entfernen.

10.2.3 Konfigurieren von logischen Volumes

Nachdem die Volume-Gruppe mit PVs gefüllt ist, definieren Sie im nächsten Dialogfeld die LVs, die das Betriebssystem verwenden soll. Wählen Sie die aktuelle Volume-Gruppe aus und wechseln Sie zum Karteireiter Logische Volumes. Sie können nach Bedarf LVs mithilfe der entsprechenden Schaltflächen Hinzufügen, Bearbeiten, ihre Größe ändern und sie Löschen, bis der Platz in der Volume-Gruppe verbraucht ist. Weisen Sie jeder Volume-Gruppe mindestens ein LV zu.

Verwaltung von logischen Volumes
Abbildung 10.4: Verwaltung von logischen Volumes

Klicken Sie auf Hinzufügen und führen Sie die Anweisungen im Assistenten-ähnlichen Pop-up-Fenster aus, das geöffnet wird:

  1. Geben Sie den Namen des LV ein. Für eine Partition, die auf /home eingehängt werden soll, kann ein Name wie HOME verwendet werden.

  2. Wählen Sie den Typ des LV aus. Zur Wahl stehen Normal Volume, Thin Pool und Thin Volume. Sie müssen zunächst einen Thin Pool erstellen, in dem dann die einzelnen Thin Volumes gespeichert werden können. Das Thin Provisioning bietet den großen Vorteil, dass die Summe aller in einem Thin-Pool gespeicherten Thin-Volumes die Größe des Pools selbst übersteigen kann.

  3. Wählen Sie die Größe und Anzahl der Stripes für das LV. Wenn Sie nur ein PV haben, ist es nicht sinnvoll, mehrere Stripes auszuwählen.

  4. Wählen Sie das Dateisystem, das auf dem LV verwendet werden soll, und den Einhängepunkt.

Durch die Verwendung von Stripes ist es möglich, den Datenstrom im LV auf mehrere PVs aufzuteilen (Striping). Das Striping eines Volumes kann nur über unterschiedliche PVs erfolgen, von denen jedes mindestens den Speicherplatz des Volumes besitzt. Die maximale Anzahl der Stripes entspricht der Anzahl der PVs, wobei Stripe „1“ für „no striping“ (kein Striping) steht. Das Striping ist nur mit PVs sinnvoll, die sich auf unterschiedlichen Festplatten befinden. Andernfalls verschlechtert sich die Leistung.

Warnung
Warnung: Striping

YaST kann in Bezug auf Striping die Richtigkeit Ihrer Einträge nicht überprüfen. Fehler an dieser Stelle können erst festgestellt werden, wenn LVM auf der Festplatte in Betrieb genommen wird.

Falls Sie auf Ihrem System LVM bereits konfiguriert haben, können Sie auch die vorhandenen logischen Volumes verwenden. Bevor Sie fortfahren, weisen Sie diesen LVs passende Einhängepunkte zu. Klicken Sie auf Fertig stellen, um in den YaST Expert Partitioner zurückzukehren und Ihre Arbeit dort abzuschließen.

10.3 Soft-RAID

In diesem Abschnitt werden die Aktionen beschrieben, die für die Erstellung und Konfiguration der verschiedenen RAID-Typen erforderlich sind. Hintergrundinformationen zu RAID finden Sie im Book “Storage Administration Guide”, Chapter 7 “Software RAID configuration”, Section 7.1 “Understanding RAID levels”.

10.3.1 Soft-RAID-Konfiguration

Zur YaST-RAID-Konfiguration gelangen Sie über den YaST-Expertenmodus des Partitionierungsmoduls, der in Abschnitt 10.1, „Verwenden von Festplatte vorbereiten: Expertenmodus beschrieben ist. Mit diesem Partitionierungswerkzeug können Sie vorhandene Partitionen bearbeiten und löschen sowie neue Partitionen erstellen, die mit Soft-RAID verwendet werden sollen:

  1. Wählen Sie unter Festplatten eine Festplatte aus.

  2. Wechseln Sie in den Karteireiter Partitionen.

  3. Klicken Sie auf Hinzufügen und geben Sie die gewünschte Größe der RAID-Partition auf dieser Platte ein.

  4. Verwenden Sie Partition nicht formatieren und ändern Sie die Dateisystem-ID in 0xFD Linux RAID. Hängen Sie diese Partition nicht ein.

  5. Wiederholen Sie diesen Vorgang, bis alle gewünschten physischen Volumes auf den verfügbaren Platten definiert sind.

Für RAID 0 und RAID 1 sind mindestens zwei Partitionen erforderlich, für RAID 1 in der Regel exakt zwei. Bei RAID 5 sind mindestens drei Partitionen erforderlich, bei RAID 6 und RAID 10 dagegen mindestens vier Partitionen. Es empfiehlt sich, nur Partitionen derselben Größe zu verwenden. Die RAID-Partitionen sollten sich auf verschiedenen Festplatten befinden, um das Risiko eines Datenverlusts gering zu halten, falls eine (RAID 1 und 5) defekt ist, und die Leistung von RAID 0 zu optimieren. Nachdem alle gewünschten Partitionen für RAID erstellt sind, klicken Sie auf RAID › RAID hinzufügen, um mit der RAID-Konfiguration zu beginnen.

Wählen Sie im nächsten Dialogfeld zwischen RAID-Level 0, 1, 5, 6 oder 10. Wählen Sie dann alle Partitionen mit dem Typ Linux RAID oder Linux native aus, die das RAID-System benutzen soll. Swap- oder DOS-Partitionen werden nicht angezeigt.

RAID-Partitionen
Abbildung 10.5: RAID-Partitionen

Um dem ausgewählten RAID-Volume eine zuvor nicht zugewiesene Partition zuzuweisen, klicken Sie zuerst auf die Partition und anschließend auf Hinzufügen. Weisen Sie alle für RAID reservierten Partitionen zu. Anderenfalls bleibt der Speicherplatz in den Partitionen unbenutzt. Klicken Sie nach dem Zuweisen aller Partitionen auf Weiter, um die verfügbaren RAID-Optionen auszuwählen.

Legen Sie in diesem letzten Schritt das zu verwendende Dateisystem sowie die Verschlüsselung und den Einhängepunkt für das RAID-Volume fest. Wenn Sie die Konfiguration mit Finish (Fertig stellen) abgeschlossen haben, sind im Expertenmodus des Partitionierungsmoduls das Gerät /dev/md0 und andere Geräte mit RAID gekennzeichnet.

10.3.2 Fehlerbehebung

Prüfen Sie die Datei /proc/mdstat, um festzustellen, ob eine RAID-Partition beschädigt ist. Grundsätzliche Vorgehensweise bei einem Systemfehler ist es, Ihr Linux-System herunterzufahren und die defekte Festplatte durch eine neue, gleichartig partitionierte Platte zu ersetzen. Starten Sie das System anschließend neu und geben Sie den Befehl mdadm /dev/mdX --add /dev/sdX ein. Ersetzen Sie „X“ durch die entsprechende Geräte-ID. Damit wird die neue Festplatte automatisch in das RAID-System integriert und vollautomatisch rekonstruiert.

Beachten Sie, dass Sie zwar bei einem Neuaufbau auf alle Daten zugreifen können, jedoch bis zum vollständigen RAID-Neuaufbau einige Probleme in der Leistung auftreten können.

10.3.3 Zusätzliche Informationsquellen

Weitere Informationen sowie eine Anleitung zur Konfiguration von Soft-RAID finden Sie im:

Linux-RAID-Mailinglisten sind beispielsweise unter folgender URL verfügbar: http://marc.info/?l=linux-raid.

11 Ferninstallation

SUSE® Linux Enterprise Server kann vollständig über das Netzwerk installiert werden. In diesem Kapitel wird beschrieben, wie Sie die erforderliche Umgebung für den Boot-Vorgang, die Installation und die Steuerung über das Netzwerk bereitstellen.

11.1 Überblick

Bei einer Ferninstallation ist zu überlegen, wie der Bootvorgang und die Installationssteuerung erfolgen sollen und welche Installationsdatenquelle zu verwenden ist. Alle verfügbaren Optionen können miteinander kombiniert werden, sofern sie für Ihre Hardware-Plattform zur Verfügung stehen.

Boot-Methode

Je nach Hardware stehen verschiedene Optionen zum Booten eines Systems zur Auswahl. Gängige Optionen sind DVD, USB-Laufwerk oder PXE-Booten. Weitere Informationen zu Ihrer Plattform finden Sie in Teil I, „Installationsvorbereitung“.

Weitere Informationen zum Einrichten eines Servers für das Booten über PXE finden Sie in Kapitel 17, Vorbereiten der Netzwerk-Boot-Umgebung.

Datenquelle

In aller Regel fungieren DVDs oder USB-Laufwerke als Installationsquelle für SUSE Linux Enterprise Server. Alternativ können Sie einen Installationsserver heranziehen. In diesem Fall geben Sie die Quelle mit dem Boot-Parameter install an. Detaillierte Informationen finden Sie in Abschnitt 7.3.3, „Angeben der Installationsquelle“.

Soll die Installation über eine Netzwerkquelle erfolgen, bereiten Sie einen Server gemäß den Anweisungen in Kapitel 16, Einrichten einer Netzwerkinstallationsquelle vor.

Steuern der Installation

Sie können die Installation wahlweise über eine Tastatur und einen Monitor steuern, die direkt mit dem Zielcomputer verbunden sind, oder auch über SSH, VNC oder die serielle Konsole eines Computers. Dies wird in den Abschnitten Abschnitt 11.3, „Überwachen der Installation über VNC“, Abschnitt 11.4, „Überwachen der Installation über SSH“ und Abschnitt 11.5, „Überwachen der Installation über die serielle Konsole“ beschrieben.

Statt der manuellen Steuerung der Installation können Sie den Installationsvorgang auch mit AutoYaST vollständig automatisieren. Detaillierte Informationen finden Sie in Book “AutoYaST Guide”.

11.2 Szenarien einer Ferninstallation

In diesem Abschnitt werden die gängigsten Installationsszenarien für Installationen auf entfernten Systemen beschrieben. Prüfen Sie für jedes Szenario die Liste der Voraussetzungen und befolgen Sie das für dieses Szenario beschriebene Verfahren. Falls Sie für einen bestimmten Schritt ausführliche Anweisungen benötigen, folgen Sie den entsprechenden Links.

11.2.1 Installation von Quellenmedien über VNC

Diese Art der Installation erfordert physischen Zugriff auf das Zielsystem, um dieses für die Installation zu booten. Die Installation wird von einer entfernten Arbeitsstation gesteuert, die mit dem Installationsprogramm über VNC verbunden ist. Das Eingreifen des Benutzers ist wie bei der manuellen Installation erforderlich (siehe Kapitel 8, Installationsschritte).

Stellen Sie bei dieser Art der Installation sicher, dass die folgenden Anforderungen erfüllt sind:

  • Zielsystem mit funktionierender Netzwerkverbindung

  • Steuersystem mit funktionierender Netzwerkverbindung und VNC-Viewer-Software oder JavaScript-fähigem Browser (Firefox, Chromium, Internet Explorer, Opera usw.)

  • Installations-DVD oder USB-Flash-Laufwerk

Gehen Sie wie folgt vor, um diese Art der Installation durchzuführen:

  1. Booten Sie das Zielsystem vom Installationsmedium (USB-Flash-Laufwerk) des Medienkits von SUSE Linux Enterprise Server.

  2. Wenn der Boot-Bildschirm des Ziel-Systems geöffnet wird, legen Sie die VNC-Optionen sowie ggf. die statische Netzwerkkonfiguration über die Eingabeanforderung für die Boot-Parameter fest. Weitere Informationen zu den Boot-Parametern finden Sie in Kapitel 7, Boot-Parameter

    1. Boot-Parameter für eine statische Netzwerkkonfiguration:

      netdevice=NETDEVICE hostip=IP_ADDRESS netmask=NETMASK gateway=IP_GATEWAY vnc=1 VNCPassword=PASSWORD
    2. Boot-Parameter für eine dynamische Netzwerkkonfiguration (DHCP):

      vnc=1 VNCPassword=PASSWORD
  3. Das Zielsystem bootet in eine textbasierte Umgebung und gibt die Netzwerkadresse und Anzeigenummer an, unter der die grafische Installationsumgebung über eine VNC-Viewer-Anwendung oder einen Browser erreichbar ist. VNC-Installationen werden über OpenSLP angekündigt, sofern dies in den Firewall-Einstellungen zulässig ist. Sie finden sie mit slptool, wie in Abschnitt 11.3.1, „Vorbereiten der VNC-Installation“ beschrieben.

  4. Öffnen Sie auf der steuernden Arbeitsstation eine VNC-Viewer-Anwendung oder einen Webbrowser und stellen Sie wie in Abschnitt 11.3, „Überwachen der Installation über VNC“ beschrieben eine Verbindung zum Zielsystem her.

  5. Führen Sie die Installation wie in Kapitel 8, Installationsschritte beschrieben aus.

  6. Sobald das Zielsystem zur anfänglichen Systemkonfiguration neu gebootet wurde, stellen Sie die Verbindung zum Zielsystem wieder her. Weitere Informationen finden Sie im Teil V, „Erstkonfiguration des Systems“.

11.2.2 Installation vom Netzwerk über VNC

Bei dieser Installationsmethode ist keine direkte Interaktion mit dem Zielcomputer erforderlich. Das System wird über PXE gebootet und die Installationsdaten werden von einem Server abgerufen.

Stellen Sie bei dieser Art der Installation sicher, dass die folgenden Anforderungen erfüllt sind:

  • Mindestens ein Computer, über den ein DHCP-, NFS-, HTTP-, FTP-, TFTP- oder SMB-Server installiert werden kann.

  • Zielsystem, das PXE-Boot-, Netzwerk- und Wake-on-LAN-fähig, angeschlossen und mit dem Netzwerk verbunden ist.

  • Steuersystem mit funktionierender Netzwerkverbindung und VNC-Viewer-Software oder JavaScript-fähiger Browser (Firefox, Chromium, Microsoft Edge, Opera usw.).

Gehen Sie wie folgt vor, um diese Art der Installation auszuführen:

  1. Richten Sie den Server ein, auf dem sich die Installationsdaten befinden. Weitere Informationen finden Sie im Teil IV, „Einrichten eines Installationsservers“.

  2. Richten Sie einen DHCP- und einen TFTP-Server für das Netzwerk ein. Die Konfiguration eines solchen Servers wird in Kapitel 17, Vorbereiten der Netzwerk-Boot-Umgebung beschrieben. Aktivieren Sie den VNC-Server mit den erforderlichen Boot-Parametern.

  3. Aktivieren Sie das PXE-Booten in der Firmware des Zielcomputers. Weitere Informationen finden Sie im Abschnitt 17.4, „Vorbereiten des Zielsystems für PXE-Boot“.

  4. Initiieren Sie den Bootvorgang des Zielsystems mithilfe von Wake-on-LAN. Die Konfiguration eines solchen Servers wird in Abschnitt 17.5, „Verwenden von Wake-on-LAN für Fernaktivierungen“ beschrieben.

  5. Öffnen Sie auf der steuernden Arbeitsstation eine VNC-Viewer-Anwendung oder einen Webbrowser und stellen Sie wie in Abschnitt 11.3, „Überwachen der Installation über VNC“ beschrieben eine Verbindung zum Zielsystem her.

  6. Führen Sie die Installation wie in Kapitel 8, Installationsschritte beschrieben aus.

  7. Sobald das Zielsystem zur anfänglichen Systemkonfiguration neu gebootet wurde, stellen Sie die Verbindung zum Zielsystem wieder her. Weitere Informationen finden Sie im Teil V, „Erstkonfiguration des Systems“.

11.2.3 Installation von Quellenmedien über SSH

Diese Art der Installation erfordert physischen Zugriff auf das Zielsystem, um dieses für die Installation zu booten und um die IP-Adresse des Installationsziels zu ermitteln. Die Installation selbst wird vollständig von einer entfernten Arbeitsstation gesteuert, die mit dem Installationsprogramm über SSH verbunden ist. Das Eingreifen des Benutzers ist wie bei der regulären Installation erforderlich (siehe Kapitel 8, Installationsschritte).

Stellen Sie bei dieser Art der Installation sicher, dass die folgenden Anforderungen erfüllt sind:

  • Zielsystem mit funktionierender Netzwerkverbindung

  • Steuersystem mit funktionierender Netzwerkverbindung und funktionierender SSH-Client-Software.

  • Installations-DVD oder USB-Flash-Laufwerk

Gehen Sie wie folgt vor, um diese Art der Installation durchzuführen:

  1. Richten Sie das Installationsziel und den Installationsserver gemäß Teil IV, „Einrichten eines Installationsservers“ ein.

  2. Booten Sie das Zielsystem vom Installationsmedium (USB-Flash-Laufwerk) des Medienkits von SUSE Linux Enterprise Server.

  3. Wenn der Boot-Bildschirm des Zielsystems geöffnet wird, legen Sie die SSH-Optionen sowie ggf. die statische Netzwerkkonfiguration über die Boot-Parameter-Eingabeaufforderung fest. Weitere Informationen zu den Boot-Parametern finden Sie in Kapitel 7, Boot-Parameter

    1. Boot-Parameter für eine statische Netzwerkkonfiguration:

      netdevice=NETDEVICE hostip=IP_ADDRESS netmask=NETMASK gateway=IP_GATEWAY ssh=1 ssh.password=PASSWORD
    2. Boot-Parameter für eine dynamische Netzwerkkonfiguration (DHCP):

      ssh=1 ssh.password=PASSWORD
  4. Das Zielsystem bootet in eine textbasierte Umgebung und gibt die Netzwerkadresse an, unter der die grafische Installationsumgebung von einen beliebigen SSH-Client adressiert werden kann.

  5. Öffnen Sie auf der steuernden Arbeitsstation ein Terminalfenster und stellen Sie wie in Abschnitt 11.4.2, „Herstellen der Verbindung mit dem Installationsprogramm“ beschrieben eine Verbindung zum Zielsystem her.

  6. Führen Sie die Installation wie in Kapitel 8, Installationsschritte beschrieben aus.

  7. Sobald das Zielsystem zur anfänglichen Systemkonfiguration neu gebootet wurde, stellen Sie die Verbindung zum Zielsystem wieder her. Weitere Informationen finden Sie im Teil V, „Erstkonfiguration des Systems“.

11.2.4 Installation vom Netzwerk über SSH

Bei dieser Installationsmethode ist keine direkte Interaktion mit dem Zielcomputer erforderlich. Das System wird über PXE gebootet und die Installationsdaten werden von einem Server abgerufen.

Stellen Sie bei dieser Art der Installation sicher, dass die folgenden Anforderungen erfüllt sind:

  • Mindestens ein Computer, über den ein DHCP-, NFS-, HTTP-, FTP-, TFTP- oder SMB-Server installiert werden kann.

  • Zielsystem, das PXE-Boot-, Netzwerk- und Wake-on-LAN-fähig, angeschlossen und mit dem Netzwerk verbunden ist.

  • Steuersystem mit funktionierender Netzwerkverbindung und SSH-Viewer-Software.

Gehen Sie wie folgt vor, um diese Art der Installation auszuführen:

  1. Richten Sie den Server ein, auf dem sich die Installationsdaten befinden. Weitere Informationen finden Sie im Teil IV, „Einrichten eines Installationsservers“.

  2. Richten Sie einen DHCP- und einen TFTP-Server für das Netzwerk ein. Die Konfiguration eines solchen Servers wird in Kapitel 17, Vorbereiten der Netzwerk-Boot-Umgebung beschrieben. Aktivieren Sie den SSH-Server mit den erforderlichen Boot-Parametern.

  3. Aktivieren Sie das PXE-Booten in der Firmware des Zielcomputers. Weitere Informationen finden Sie im Abschnitt 17.4, „Vorbereiten des Zielsystems für PXE-Boot“.

  4. Initiieren Sie den Bootvorgang des Zielsystems mithilfe von Wake-on-LAN. Die Konfiguration eines solchen Servers wird in Abschnitt 17.5, „Verwenden von Wake-on-LAN für Fernaktivierungen“ beschrieben.

  5. Öffnen Sie auf der steuernden Arbeitsstation eine SSH-Client-Software und stellen Sie wie in Abschnitt 11.4, „Überwachen der Installation über SSH“ beschrieben eine Verbindung zum Zielsystem her.

  6. Führen Sie die Installation wie in Kapitel 8, Installationsschritte beschrieben aus.

  7. Sobald das Zielsystem zur anfänglichen Systemkonfiguration neu gebootet wurde, stellen Sie die Verbindung zum Zielsystem wieder her. Weitere Informationen finden Sie im Teil V, „Erstkonfiguration des Systems“.

11.3 Überwachen der Installation über VNC

Mithilfe einer beliebigen VNC-Viewer-Software können Sie die Installation von SUSE Linux Enterprise Server von praktisch jedem Betriebssystem aus überwachen. In diesem Abschnitt wird das Setup mithilfe einer VNC-Viewer-Anwendung oder eines Webbrowsers beschrieben.

11.3.1 Vorbereiten der VNC-Installation

Zum Aktivieren von VNC auf dem Installationsziel geben Sie die entsprechenden Boot-Parameter beim ersten Booten für die Installation an (siehe Kapitel 7, Boot-Parameter). Das Zielsystem bootet in eine textbasierte Umgebung und wartet darauf, dass ein VNC-Client eine Verbindung zum Installationsprogramm herstellt.

Das Installationsprogramm gibt die IP-Adresse bekannt und zeigt die für die Verbindung zum Installationsprogramm erforderliche Nummer an. Wenn Sie physischen Zugriff auf das Zielsystem haben, werden diese Informationen sofort nach dem Booten des Systems für die Installation zur Verfügung gestellt. Geben Sie diese Daten ein, wenn Sie von der VNC-Client-Software dazu aufgefordert werden, und geben Sie Ihr Passwort ein.

Das Installationsziel gibt sich selbst über OpenSLP bekannt, sodass Sie die Adressangaben des Installationsziels über einen SLP-Browser abrufen können. Sie müssen das Installationsziel nicht persönlich aufsuchen, sofern die Netzwerkeinrichtung und alle Computer OpenSLP unterstützen:

Vorgehen 11.1: Auffinden von VNC-Installationen über OpenSLP
  1. Führen Sie slptool findsrvtypes | grep vnc aus, um eine Liste aller Dienste zu erhalten, die VNC anbieten. Die VNC-Installationsziele müssen unter einem Dienst mit dem Namen YaST.installation.suse bereitstehen.

  2. Mit slptool findsrvs YaST.installation.suse erhalten Sie eine Liste der verfügbaren Installationen. Geben Sie die IP-Adresse und den Port (in der Regel 5901) an; diese Angaben sind dem VNC-Viewer beigelegt.

11.3.2 Herstellen der Verbindung mit dem Installationsprogramm

Es gibt zwei Möglichkeiten, eine Verbindung zu einem VNC-Server (dem Installationsziel in diesem Fall) herzustellen. Sie können entweder eine unabhängige VNC-Viewer-Anwendung unter einem beliebigen Betriebssystem starten oder die Verbindung über einen JavaScript-fähigen Webbrowser herstellen.

Mit VNC können Sie die Installation eines Linux-Systems von jedem Betriebssystem, einschließlich anderer Linux-, Windows- oder macOS-Betriebssysteme, aus steuern.

Stellen Sie auf einem Linux-Computer sicher, dass das Paket tightvnc installiert ist. Installieren Sie auf einem Windows-Computer den Windows-Port dieser Anwendung, der über die Homepage von TightVNC (http://www.tightvnc.com/download.html) erhältlich ist.

Gehen Sie wie folgt vor, um eine Verbindung zu dem auf dem Zielcomputer ausgeführten Installationsprogramm herzustellen:

  1. Starten Sie den VNC-Viewer.

  2. Geben Sie die IP-Adresse und die Anzeigenummer des Installationsziels wie vom SLP-Browser oder dem Installationsprogramm selbst zur Verfügung gestellt ein:

    IP_ADDRESS:DISPLAY_NUMBER

    Auf dem Desktop wird ein Fenster geöffnet, in dem die YaST-Bildschirme wie bei einer normalen lokalen Installation angezeigt werden.

Wenn Sie die Verbindung zum Installationsprogramm mithilfe eines Webbrowsers herstellen, sind Sie von der VNC-Software bzw. dem zu Grunde liegenden Betriebssystem vollkommen unabhängig. Sie können die Installation des Linux-Systems in einem beliebigen Browser (Firefox, Internet Explorer, Chromium, Opera usw.) ausführen, solange dieser JavaScript unterstützt.)

Die Browser-VNC-Verbindung ist nicht verschlüsselt.

Gehen Sie wie folgt vor, um eine VNC-Installation auszuführen:

  1. Starten Sie Ihren bevorzugten Webbrowser.

  2. Geben Sie in der Adressleiste Folgendes ein:

    http://IP_ADDRESS_OF_TARGET:5801
  3. Geben Sie Ihr VNC-Passwort ein, wenn Sie dazu aufgefordert werden. Die YaST-Bildschirme werden im Browserfenster wie bei einer normalen lokalen Installation angezeigt.

11.4 Überwachen der Installation über SSH

Mithilfe von SSH können Sie die Installation des Linux-Computers unter Verwendung einer beliebigen SSH-Client-Software von einem entfernten Standort aus überwachen.

11.4.1 Vorbereiten der SSH-Installation

Zusätzlich zum Installieren des erforderlichen Softwarepakets (OpenSSH für Linux und PuTTY für Windows) müssen Sie die entsprechenden Boot-Parameter angeben, um SSH für die Installation zu aktivieren. Weitere Informationen finden Sie in Kapitel 7, Boot-Parameter. OpenSSH wird auf allen SUSE Linux-basierten Betriebssystemen standardmäßig installiert.

11.4.2 Herstellen der Verbindung mit dem Installationsprogramm

Sobald Sie die SSH-Installation gestartet haben, stellen Sie mit diesem Verfahren die Verbindung zur SSH-Sitzung her.

  1. Rufen Sie die IP-Adresse des Installationsziels ab. Wenn Sie physischen Zugriff auf den Zielrechner haben, verwenden Sie die IP-Adresse, die von der Installationsroutine nach dem anfänglichen Bootvorgang in der Konsole angezeigt wird. Verwenden Sie andernfalls die IP-Adresse, die diesem Host in der DHCP-Serverkonfiguration zugewiesen wurde.

  2. Geben Sie in eine Kommandozeile das folgende Kommando ein:

    ssh -X root@TARGET_IP_ADDRESS

    Ersetzen Sie TARGET_IP_ADDRESS durch die IP-Adresse des Installationsziels.

  3. Wenn Sie zur Eingabe eines Benutzernamens aufgefordert werden, geben Sie root ein.

  4. Wenn Sie zur Eingabe eines Passworts aufgefordert werden, geben Sie das Passwort ein, das mit dem SSH-Boot-Parameter festgelegt wurde. Wenn Sie sich erfolgreich authentifiziert haben, wird eine Kommandozeilenaufforderung für das Installationsziel angezeigt.

  5. Geben Sie yast ein, um das Installationsprogramm zu starten. Es wird ein Fenster geöffnet, in dem die üblichen YaST-Bildschirme wie in Kapitel 8, Installationsschritte beschrieben angezeigt werden.

11.5 Überwachen der Installation über die serielle Konsole

Für diese Installationsmethode ist ein zweiter Computer erforderlich, der über ein Null-Modem-Kabel mit dem Computer verbunden ist, auf dem SUSE Linux Enterprise Server installiert werden soll. Die Hardware und Firmware beider Computer muss die serielle Konsole unterstützen. Einige Firmware-Implementierungen sind bereits so konfiguriert, dass die Ausgabe der Bootkonsole an eine serielle Konsole gesendet wird (durch entsprechende Angabe einer Geräte-Baumstruktur mit „/chosen/stdout-path“). In diesem Fall ist keine zusätzliche Konfiguration erforderlich.

Falls die Firmware nicht die serielle Konsole für die Ausgabe der Boot-Konsole heranzieht, legen Sie den folgenden Boot-Parameter für die Installation fest: console=TTY,BAUDRATE. Weitere Informationen hierzu finden Sie in Book “Verwaltungshandbuch”, Chapter 14 “Der Bootloader GRUB 2”, Section 14.2.5 “Ändern von Menüeinträgen während des Bootvorgangs” und Kapitel 7, Boot-Parameter.

Ersetzen Sie BAUDRATE durch die Baudrate der Schnittstelle. Gültige Werte: 115200, 38400 oder 9600. Ersetzen Sie TTY durch den Namen der Schnittstelle. Die meisten Computer verfügen über mindestens eine serielle Schnittstelle. Die Namen der Schnittstellen können je nach Hardware variieren:

  • ttyS0 bei APM

  • ttyAMA0 bei Server Base System Architecture (SBSA)

  • ttyPS0 bei Xilinx

Für die Installation benötigen Sie ein Terminalprogramm, z. B. minicom oder screen. Initiieren Sie die serielle Verbindung, indem Sie das screen-Programm in einer lokalen Konsole durch die Eingabe des folgenden Kommandos starten:

tux > screen /dev/ttyUSB0 115200

Das bedeutet, dass screen den ersten seriellen Port mit einer Baudrate von 115200 überwacht. Von nun an fährt die Installation ähnlich der textbasierten Installation über dieses Terminal fort.

12 Fehlerbehebung

In diesem Abschnitt werden einige typische Probleme vorgestellt, die häufig bei der Installation auftreten, und es werden mögliche Lösungen oder Behelfslösungen aufgezeigt.

12.1 Überprüfen von Medien

Wenn Probleme bei der Verwendung des SUSE Linux Enterprise Server-Installationsmediums auftreten, können Sie die Integrität des Installationsmediums überprüfen. Booten Sie von dem Medium aus und wählen Sie im Startmenü die Option Weitere › Installationsmedium prüfen aus. Ein minimalistisches System wird gebootet und Sie haben die Wahl, welches Gerät geprüft werden soll. Wählen Sie das entsprechende Gerät aus und bestätigen Sie mit OK, um die Prüfung durchzuführen.

Starten Sie in einem aktiven System YaST, und wählen Sie Software › Medienprüfung. Legen Sie das Medium ein und klicken Sie auf Prüfvorgang starten. Dieser Vorgang kann mehrere Minuten in Anspruch nehmen.

Wenn bei der Prüfung Fehler gefunden werden, sollten Sie dieses Medium nicht für die Installation verwenden. Probleme mit den Medien treten beispielsweise dann auf, wenn Sie das Medium selbst auf DVD gebrannt haben. Durch Brennen des Mediums bei niedriger Geschwindigkeit (4x) können Probleme vermieden werden.

12.2 Kein bootfähiges Laufwerk verfügbar

Es gibt verschiedene Alternativen, falls Ihr Rechner nicht vom USB- oder DVD-Laufwerk aus booten kann. Diese Option ist auch möglich, wenn das Laufwerk nicht von SUSE Linux Enterprise Server unterstützt wird.

Verwenden eines externen USB-Flash- oder DVD-Laufwerks

Linux unterstützt die meisten verfügbaren USB-Flash- und DVD-Laufwerke. Wenn das System nicht über ein USB-Flash- oder DVD-Laufwerk verfügt, kann ein externes, über USB, FireWire oder SCSI angeschlossenes Laufwerk zum Booten des Systems verwendet werden. In einigen Fällen kann bei Problemen ein Firmware-Update hilfreich sein.

Netzwerk-Boot über PXE

Führen Sie eine vollständig netzwerkbasierte Installation durch, wenn ein Rechner kein USB-Flash oder DVD-Laufwerk aufweist, jedoch eine funktionierende Ethernet-Verbindung verfügbar ist. Details finden Sie im Abschnitt 11.2.2, „Installation vom Netzwerk über VNC“ und Abschnitt 11.2.4, „Installation vom Netzwerk über SSH“.

USB-Flash-Laufwerk

Falls der Computer weder ein DVD-Laufwerk noch eine Netzwerkverbindung aufweist, können Sie ein USB-Flash-Laufwerk verwenden. Weitere Informationen finden Sie im:

12.3 Vom Installationsmedium kann nicht gebootet werden

Wenn ein Computer nicht vom Installationsmedium booten kann, ist im BIOS möglicherweise eine falsche Bootsequenz eingestellt. In der BIOS-Boot-Sequenz muss das USB-Flash- oder DVD-Laufwerk als erster Eintrag zum Booten festgelegt sein. Andernfalls versucht der Computer, von einem anderen Medium zu booten, in der Regel von der Festplatte. Anweisungen zum Ändern der Firmware-Boot-Sequenz finden Sie in der Dokumentation zu Ihrer Hauptplatine bzw. in den nachfolgenden Abschnitten.

Als BIOS wird die Software bezeichnet, die die absolut grundlegenden Funktionen eines Computers ermöglicht. Motherboard-Hersteller stellen ein speziell für ihre Hardware konzipiertes BIOS bereit. Normalerweise kann nur zu einem bestimmten Zeitpunkt auf das BIOS-Setup zugegriffen werden – wenn der Computer gebootet wird. Während dieser Initialisierungsphase führt der Computer einige Diagnosetests der Hardware durch. Einer davon ist die Überprüfung des Arbeitsspeichers, auf die durch einen Arbeitsspeicherzähler hingewiesen wird. Wenn der Zähler eingeblendet wird, suchen Sie nach der Zeile, in der die Taste für den Zugriff auf das BIOS-Setup angegeben wird (diese Zeile befindet sich in der Regel unterhalb des Zählers oder am unteren Rand). In der Regel muss die Taste Entf, F1 oder Esc gedrückt werden. Halten Sie diese Taste gedrückt, bis der Bildschirm mit dem BIOS-Setup angezeigt wird.

Vorgehen 12.1: Ändern der BIOS-Bootsequenz
  1. Drücken Sie die aus den Bootroutinen hervorgehende Taste, um ins BIOS zu gelangen, und warten Sie, bis der BIOS-Bildschirm angezeigt wird.

  2. Wenn Sie die Bootsequenz in einem AWARD BIOS ändern möchten, suchen Sie nach dem Eintrag BIOS FEATURES SETUP (SETUP DER BIOS-FUNKTIONEN). Andere Hersteller verwenden hierfür eine andere Bezeichnung, beispielsweise ADVANCED CMOS SETUP (ERWEITERTES CMOS-SETUP). Wenn Sie den Eintrag gefunden haben, wählen Sie ihn aus, und bestätigen Sie ihn mit der Eingabetaste.

  3. Suchen Sie im daraufhin angezeigten Bildschirm nach dem Untereintrag BOOT SEQUENCE (BOOTSEQUENZ) oder BOOT ORDER (BOOTREIHENFOLGE). Zum Ändern der Einstellungen drücken Sie Bild ↑ oder Bild ↓, bis das USB-Flash oder DVD-Laufwerk an erster Stelle aufgeführt wird.

  4. Drücken Sie Esc, um den BIOS-Setup-Bildschirm zu schließen. Zum Speichern der Änderungen wählen Sie SAVE & EXIT SETUP (SPEICHERN & SETUP BEENDEN) oder drücken Sie F10. Um zu bestätigen, dass Ihre Einstellungen gespeichert werden sollen, drücken Sie Y.

Vorgehen 12.2: Ändern der Bootsequenz in einem SCSI-BIOS (Adaptec-Hostadapter)
  1. Öffnen Sie das Setup, indem Sie die Tastenkombination StrgA drücken.

  2. Wählen Sie Disk Utilities (Festplattendienstprogramme) aus. Nun werden die angeschlossenen Hardwarekomponenten angezeigt.

    Notieren Sie sich die SCSI-ID Ihres USB-Flash- oder DVD-Laufwerks.

  3. Verlassen Sie das Menü mit Esc.

  4. Öffnen Sie Configure Adapter Settings (Adaptereinstellungen konfigurieren). Wählen Sie unter Additional Options (Zusätzliche Optionen) den Eintrag Boot Device Options (Boot-Gerät-Optionen) aus, und drücken Sie Eingabetaste.

  5. Geben Sie die ID des USB-Flash- oder DVD-Laufwerks ein und drücken Sie erneut auf die Eingabetaste.

  6. Drücken Sie zweimal Esc, um zum Startbildschirm des SCSI-BIOS zurückzukehren.

  7. Schließen Sie diesen Bildschirm und bestätigen Sie mit Yes (Ja), um den Computer zu booten.

Unabhängig von Sprache und Tastaturbelegung Ihrer endgültigen Installation wird in den meisten BIOS-Konfigurationen die US-Tastaturbelegung verwendet (siehe Abbildung):

US-Tastaturbelegung
Abbildung 12.1: US-Tastaturbelegung

12.4 Boot-Fehler

Bei bestimmter Hardware, insbesondere bei sehr alter bzw. sehr neuer, kann beim Booten ein Fehler auftreten. Beispielsweise wird die Hardware nicht durch den Installations-Kernel unterstützt oder die Treiber verursachen Probleme auf bestimmten Hardwareprodukten.

Wenn Ihr System über den standardmäßigen Modus für die Installation (Installation) im ersten Installations-Bootbildschirm nicht installiert werden kann, gehen Sie folgendermaßen vor:

  1. Belassen Sie das Installationsmedium im Laufwerk und booten Sie den Rechner über die Tastenkombination StrgAltEntf bzw. über die Reset-Taste der Hardware neu.

  2. Drücken Sie, sobald der Bootbildschirm angezeigt wird, F5, navigieren Sie mithilfe der Pfeiltasten der Tastatur zu Keine ACPI und drücken Sie Eingabetaste, um den Boot- und Installationsvorgang zu starten. Mit dieser Option wird die Unterstützung für ACPI-Energieverwaltungstechniken deaktiviert.

  3. Fahren Sie wie in Kapitel 8, Installationsschritte beschrieben mit der Installation fort.

Wenn es hierbei zu Problemen kommt, fahren Sie wie oben beschrieben fort, wählen Sie jedoch in diesem Fall Sichere Einstellungen aus. Mit dieser Option wird die Unterstützung für ACPI und DMA (Direct Memory Access) deaktiviert. Mit dieser Option kann die meiste Hardware gebootet werden.

Wenn bei diesen beiden Optionen Probleme auftauchen, versuchen Sie mithilfe der Boot-Parameter-Eingabeaufforderung alle zusätzlichen Parameter, die für die Unterstützung dieses Hardwaretyps erforderlich sind, an den Installationskernel zu übermitteln. Weitere Informationen zu den Parametern, die als Boot-Parameter zur Verfügung stehen, finden Sie in der Kernel-Dokumentation unter /usr/src/linux/Documentation/kernel-parameters.txt.

Tipp
Tipp: Aufrufen der Kernel-Dokumentation

Installieren Sie das Paket kernel-source. Darin ist die Kernel-Dokumentation enthalten.

Es gibt noch weitere mit ACPI in Zusammenhang stehende Kernel-Parameter, die vor dem Booten zu Installationszwecken an der Booteingabeaufforderung eingegeben werden können:

acpi=off

Mit diesem Parameter wird das vollständige ACPI-Subsystem auf Ihrem Computer deaktiviert. Dies kann hilfreich sein, wenn ACPI von Ihrem Computer nicht unterstützt wird bzw. Sie vermuten, dass ACPI auf Ihrem Computer zu Problemen führt.

acpi=force

Aktivieren Sie immer ACPI, auch wenn Ihr Computer ein altes BIOS hat, das von vor dem Jahr 2000 datiert. Dieser Parameter aktiviert auch ACPI, wenn er zusätzlich zu acpi=off festgelegt ist.

acpi=noirq

ACPI nicht für IRQ-Routing verwenden.

acpi=ht

Nur genügend ACPI ausführen, um Hyper-Threading zu aktivieren.

acpi=strict

Geringere Toleranz von Plattformen, die nicht genau der ACPI-Spezifikation entsprechen.

pci=noacpi

Deaktiviert das PCI-IRQ-Routing des neuen ACPI-Systems.

pnpacpi=off

Diese Option ist für Probleme mit seriellen oder parallelen Ports vorgesehen, wenn Ihr BIOS-Setup falsche Interrupts oder Ports enthält.

notsc

Hiermit wird der Zeitstempelzähler deaktiviert. Diese Option dient der Umgehung von Timing-Problemen auf Ihren Systemen. Es handelt sich um eine recht neue Funktion, die insbesondere dann nützlich sein kann, wenn Sie auf Ihrem Rechner Rückwärtsentwicklungen bemerken, insbesondere zeitbezogene Rückwärtsentwicklungen. Gilt auch für Fälle, in denen keinerlei Reaktion mehr zu verzeichnen ist.

nohz=off

Hiermit wird die nohz-Funktion deaktiviert. Wenn der Rechner nicht mehr reagiert, ist diese Option vielleicht die Lösung. Andernfalls wird sie Ihnen kaum nützlich sein.

Wenn Sie die richtige Parameterkombination ermittelt haben, schreibt YaST sie automatisch in die Bootloader-Konfiguration, um sicherzustellen, dass das System beim nächsten Mal vorschriftsmäßig gebootet wird.

Falls beim Laden des Kernel oder bei der Installation unerwartete Fehler auftreten, wählen Sie im Bootmenü die Option Memory Test (Speichertest), um den Arbeitsspeicher zu überprüfen. Wenn von Memory Test (Speichertest) ein Fehler zurückgegeben wird, liegt in der Regel ein Hardware-Fehler vor.

12.5 Grafisches Installationsprogramm lässt sich nicht starten

Nachdem Sie das Medium in das Laufwerk eingelegt und den Computer neu gebootet haben, wird der Installationsbildschirm angezeigt, nach der Auswahl von Installation wird jedoch das grafische Installationsprogramm nicht aufgerufen.

In diesem Fall haben Sie mehrere Möglichkeiten:

  • Wählen Sie eine andere Bildschirmauflösung für die installationsbezogenen Dialogfelder.

  • Wählen Sie den Text Mode (Expertenmodus) für die Installation aus.

  • Führen Sie über VNC und unter Verwendung des grafischen Installationsprogramms eine entfernte Installation durch.

Vorgehen 12.3: Ändert die Bildschirmauflösung für die Installation
  1. Booten Sie zu Installationszwecken.

  2. Drücken Sie F3, um ein Menü zu öffnen, in dem Sie für Installationszwecke eine niedrigere Auflösung auswählen können.

  3. Wählen Sie Installation aus und fahren Sie, wie in Kapitel 8, Installationsschritte beschrieben, mit der Installation fort.

Vorgehen 12.4: Installation im Textmodus
  1. Booten Sie zu Installationszwecken.

  2. Drücken Sie F3 und wählen Sie Text Mode (Expertenmodus) aus.

  3. Wählen Sie Installation aus und fahren Sie, wie in Kapitel 8, Installationsschritte beschrieben, mit der Installation fort.

Vorgehen 12.5: VNC-Installation
  1. Booten Sie zu Installationszwecken.

  2. Geben Sie an der Boot-Parameter-Eingabeaufforderung folgenden Text ein:

    vnc=1 vncpassword=SOME_PASSWORD

    Ersetzen Sie BELIEBIGES_PASSWORT durch das für die VNC-Installation zu verwendende Passwort.

  3. Wählen Sie Installation aus und drücken Sie dann Eingabetaste, um die Installation zu starten.

    Das System wird nicht direkt in der grafischen Installationsroutine gestartet, sondern wird weiterhin im Textmodus ausgeführt. Das System wird dann angehalten und es wird eine Meldung mit der IP-Adresse und der Port-Nummer angezeigt, unter der das Installationsprogramm über eine Browser-Oberfläche oder eine VNC-Viewer-Anwendung erreicht werden kann.

  4. Wenn Sie über einen Browser auf das Installationsprogramm zugreifen, starten Sie den Browser, geben Sie die Adressinformationen ein, die von den Installationsroutinen auf dem zukünftigen SUSE Linux Enterprise Server-Computer bereitgestellt werden, und drücken Sie Eingabetaste:

    http://IP_ADDRESS_OF_MACHINE:5801

    Im Browserfenster wird ein Dialogfeld geöffnet, in dem Sie zur Eingabe des VNC-Passworts aufgefordert werden. Geben Sie das Passwort ein und fahren Sie, wie in Kapitel 8, Installationsschritte beschrieben, mit der Installation fort.

    Wichtig
    Wichtig: Plattformübergreifende Unterstützung

    Die Installation über VNC kann mit jedem Browser und unter jedem beliebigen Betriebssystem vorgenommen werden, vorausgesetzt, die Java-Unterstützung ist aktiviert.

    Geben Sie auf Aufforderung die IP-Adresse und das Passwort für Ihren VNC-Viewer ein. Daraufhin wird ein Fenster mit den installationsbezogenen Dialogfeldern geöffnet. Fahren Sie wie gewohnt mit der Installation fort.

12.6 Nur ein minimalistischer Boot-Bildschirm wird eingeblendet

Sie haben das Medium in das Laufwerk eingelegt, die BIOS-Routinen sind abgeschlossen, das System zeigt jedoch den grafischen Bootbildschirm nicht an. Stattdessen wird eine sehr minimalistische textbasierte Oberfläche angezeigt. Dies kann auf Computern der Fall sein, die für die Darstellung eines grafischen Bootbildschirms nicht ausreichend Grafikspeicher aufweisen.

Obwohl der textbasierte Boot-Bildschirm minimalistisch wirkt, bietet er nahezu dieselbe Funktionalität wie der grafische:

Bootoptionen

Im Gegensatz zur grafischen Oberfläche können die unterschiedlichen Boot-Parameter nicht mithilfe der Cursortasten der Tastatur ausgewählt werden. Das Bootmenü des Expertenmodus-Bootbildschirms ermöglicht die Eingabe einiger Schlüsselwörter an der Booteingabeaufforderung. Diese Schlüsselwörter sind den Optionen in der grafischen Version zugeordnet. Treffen Sie Ihre Wahl und drücken Sie Eingabetaste, um den Bootvorgang zu starten.

Benutzerdefinierte Bootoptionen

Geben Sie nach der Auswahl eines Boot-Parameters das entsprechende Schlüsselwort an der Boot-Eingabeaufforderung ein; Sie können auch einige benutzerdefinierte Boot-Parameter eingeben (siehe Beschreibung in Abschnitt 12.4, „Boot-Fehler“). Wenn Sie den Installationsvorgang starten möchten, drücken Sie Eingabetaste.

Bildschirmauflösungen

Ermitteln Sie mit den Funktionstasten (F1 bis F12) die Bildschirmauflösung für die Installation. Wenn Sie im Expertenmodus, also im Textmodus, booten müssen, drücken Sie F3.

12.7 Protokolldateien

Weitere Informationen zu Protokolldateien, die während der Installation erstellt werden, finden Sie in Book “Verwaltungshandbuch”, Chapter 39 “Erfassen der Systeminformationen für den Support”, Section 39.5 “Sammeln von Informationen bei der Installation”.

Teil III Anpassen von Installations-Images

  • 13 Klonen von Festplatten-Images
  • In diesem Kapitel wird beschrieben, wie Sie SUSE Linux Enterprise Server anhand von geklonten Images installieren. Diese Vorgehensweise wird meist in virtualisierten Umgebungen herangezogen.

  • 14 Anpassen von Installations-Images mit mksusecd
  • mksusecd ist ein nützliches Tool zum Erstellen eines angepassten Installations-Image. Bearbeiten Sie damit die normalen Installations-Images für SUSE Linux Enterprise, um Dateien hinzuzufügen und zu entfernen, ein minimales Netzwerkinstallations-Image zu erstellen, Boot- und Repository-Optionen anzupassen und ein minimales Boot-Image als Alternative zum Booten eines Systems von einem PXE-Server aus zu erstellen.

  • 15 Manuelles Anpassen von Installations-Images
  • Die standardmäßigen Installations-Images für SUSE Linux Enterprise lassen sich durch Bearbeiten einer Datei im Installations-ISO-Image media.1/products anpassen. Fügen Sie zum Erstellen eines einzelnen benutzerdefinierten Installations-Image alle Module und Erweiterungen hinzu. Kopieren Sie dann das benutzerdefinierte Image auf CD, DVD oder ein USB-Flash-Laufwerk, um ein benutzerdefiniertes bootfähiges Installationsmedium zu erstellen. Die vollständigen Anleitungen finden Sie im SUSE Best Practices-Dokument unter Erstellen eines benutzerdefinierten Installationsmediums für SUSE Linux Enterprise 15.

13 Klonen von Festplatten-Images

In diesem Kapitel wird beschrieben, wie Sie SUSE Linux Enterprise Server anhand von geklonten Images installieren. Diese Vorgehensweise wird meist in virtualisierten Umgebungen herangezogen.

13.1 Überblick

SUSE Linux Enterprise Server bietet für jede Installation ein individuelles Skript zum Bereinigen der Konfiguration. Seit der Einführung von systemd werden eindeutige Systemkennungen herangezogen und in verschiedenen Bereichen und Dateien festgelegt. Es wird daher nicht mehr empfohlen, System-Images durch Klonen anzulegen. Die Images können mit KIWI erstellt werden (siehe https://doc.suse.com/kiwi/).

Weitere Informationen zum Klonen von Computer-Festplatten finden Sie in der Dokumentation zur Virtualisierungsumgebung.

13.2 Bereinigen von eindeutigen Systemkennungen

Warnung
Warnung: Verlust wichtiger Konfigurationen

Mit dem nachfolgenden Verfahren werden wichtige Systemkonfigurationsdaten dauerhaft gelöscht. Falls das Quellsystem für den Klon in der Produktionsumgebung eingesetzt wird, führen Sie das Bereinigungsskript für das geklonte Image aus.

Mit dem nachfolgenden Verfahren können Sie alle eindeutigen Systemkennungen bereinigen, wahlweise vor oder nach dem Klonen eines Festplatten-Images. Wenn dieses Verfahren auf dem Klon ausgeführt werden soll, muss es auf allen Klonen ausgeführt werden. Es wird daher empfohlen, ein Gold-Image zu erstellen, das nicht in der Produktion verwendet wird und lediglich als Quelle für neue Klone fungiert. Das Gold-Image ist bereits bereinigt und die Klone können sofort verwendet werden.

Beispielsweise wird mit dem Kommando clone-master-clean-up Folgendes entfernt:

  • Swap-Dateien

  • Zypper-Repositorys

  • SSH-Host- und Client-Schlüssel

  • Temporäre Verzeichnisse wie /tmp/*

  • Postfix-Daten

  • HANA-Firewall-Skript

  • systemd-Journal

  1. Starten Sie zypper und installieren Sie clone-master-clean-up:

    tux > sudo zypper install clone-master-clean-up
  2. Konfigurieren Sie das Verhalten von clone-master-clean-up in der Datei /etc/sysconfig/clone-master-clean-up. Diese Konfigurationsdatei gibt an, ob Benutzer mit einer UID größer 1.000, die Datei /etc/sudoers, die Software-Repositorys für die Paketinstallation sowie die Btrfs-Snapshots entfernt werden sollen.

  3. Entfernen Sie die vorhandene Konfiguration und die eindeutigen Kennungen mit dem folgenden Skript:

    tux > sudo clone-master-clean-up

14 Anpassen von Installations-Images mit mksusecd

mksusecd ist ein nützliches Tool zum Erstellen eines angepassten Installations-Image. Bearbeiten Sie damit die normalen Installations-Images für SUSE Linux Enterprise, um Dateien hinzuzufügen und zu entfernen, ein minimales Netzwerkinstallations-Image zu erstellen, Boot- und Repository-Optionen anzupassen und ein minimales Boot-Image als Alternative zum Booten eines Systems von einem PXE-Server aus zu erstellen.

14.1 Installieren von mksusecd

In SLE 15 befindet sich mksusecd im Modul Development Tools. Sie müssen dieses Modul aktivieren, falls nicht bereits erfolgt. Suchen Sie zunächst den genauen Modulnamen mit zypper:

tux > zypper search-packages mksusecd
Following packages were found in following modules:

Package               Module or Repository
--------------------  -----------------------------------------------------------------
mksusecd              Development Tools Module (sle-module-development-tools/15/x86_64)
mksusecd-debuginfo    Development Tools Module (sle-module-development-tools/15/x86_64)
mksusecd-debugsource  Development Tools Module (sle-module-development-tools/15/x86_64)
mksusecd              Available
srcpackage:mksusecd   Available

To activate the respective module or product, use SUSEConnect --product.
Use SUSEConnect --help for more details.

Aktivieren Sie es mit SUSEConnect:

tux > sudo SUSEConnect -p sle-module-development-tools/15/x86_64

In SLE 15.1 und höher befindet es sich im Hauptaktualisierungs-Repository, das standardmäßig aktiviert ist.

Installieren Sie mksusecd wie üblich:

tux > sudo zypper se mksusecd

Führen Sie mksusecd --help aus, um eine vollständige Liste der Kommandos anzuzeigen.

Nach dem Erstellen eines benutzerdefinierten Image brennen Sie es mit Ihrem bevorzugten Brennprogramm wie Brasero oder mybashburn auf CD/DVD oder erstellen Sie ein bootfähiges USB-Flash-Laufwerk mit dem Kommando dd. Vergewissern Sie sich, dass das Gerät nicht eingehängt ist und führen Sie dann folgendes Kommando aus:

root # dd if=min-install.iso of=/dev/SDB bs=4M

Danach ist Ihr neues bootfähiges Gerät betriebsbereit.

14.2 Erstellen eines minimalen Boot-Image

Erstellen Sie mit mksusecd ein minimales Boot-Image zum Starten von Client-Rechnern von CD/DVD oder einem USB-Flash-Laufwerk statt von einem PXE-Boot-Server. Das minimale Boot-Image startet den Kernel und initrd. Danach werden die verbleibenden Installationsdateien von einem lokalen NFS-Server abgerufen (weitere Informationen finden Sie in Abschnitt 16.1, „Einrichten eines Installationsservers mithilfe von YaST“).

Führen Sie zum Erstellen des minimalen ISO-Image folgendes Kommando aus:

tux > sudo mksusecd --create min-install.iso \
--net=nfs://192.168.1.1:/srv/install/ARCH/OS_VERSION/SP_VERSION/cd1  \
/srv/tftpboot/EFI/ARCH/boot

Ersetzen Sie die NFS-Server-Adresse durch Ihre Adresse. Ersetzen Sie ARCH durch das entsprechende Verzeichnis für die Zielsystemarchitektur. Ersetzen Sie außerdem OS_version und SP_VERSION (Service Pack) entsprechend Ihrer Pfade in Abschnitt 16.1, „Einrichten eines Installationsservers mithilfe von YaST“.

14.3 Festlegen von standardmäßigen Kernel-Boot-Parametern

Konfigurieren Sie Ihre benutzerdefinierten Kernel-Boot-Parameter in einem benutzerdefinierten mksusecd-Image anstatt auf eine Boot-Eingabeaufforderung zu warten:

tux > sudo mksusecd --create install.iso \
--boot "textmode=1 splash=silent mitigations=auto"

Überprüfen Sie durch Abfragen von /proc, ob Ihre benutzerdefinierten Parameter nach dem Start korrekt geladen wurden:

tux > cat /proc/cmdline

14.4 Anpassen von Modulen, Erweiterungen und Repositorys

SUSE Linux Enterprise 15 unterstützt Module (nicht zu verwechseln mit Kernel-Modulen) und Erweiterungen für verschiedene Produktkomponenten. Hierbei handelt es sich um Add-ons zum standardmäßigen Basissystem, wie zum Beispiel Development Tools, Desktop Applications und SUSE Linux Enterprise Live Patching. Weitere Informationen finden Sie im Handbuch Kurzanleitung zu Modulen und Erweiterungen.

Mit mksusecd erstellen Sie ein Installations-Image, das alle gewünschten zusätzlichen Module und Erweiterungen enthält. Beginnen Sie mit der Abfrage bestehender Images wie bei diesem Beispiel für SUSE Linux Enterprise 15 SP3:

tux > sudo mksusecd --list-repos SLE-15-SP3-Full-ARCH-GM-media1.iso
Repositories:
  SLES15-SP3 [15.3-0]
  SLES15 [15.3-0]
  Basesystem-Module [15.3-0]
  SUSE-CAP-Tools-Module [15.3-0]
  Containers-Module [15.3-0]
  Desktop-Applications-Module [15.3-0]
  Development-Tools-Module [15.3-0]

Erstellen Sie ein neues Installations-Image, das aus den ausgewählten Modulen, Erweiterungen und Repositorys besteht, und aktivieren Sie es automatisch:

tux > sudo mksusecd --create myinstaller.iso\
  --enable-repos auto --include-repos Basesystem-Module,Desktop-Applications-Module \
  SLE-15-SP3-Online-ARCH-GM-media1.iso \
  SLE-15-SP3-Full-ARCH-GM-media1.iso

Dadurch wird die Datei add_on_products.xml erstellt und dem neuen Image hinzugefügt. Ersetzen Sie --enable-repos auto durch --enable-repos ask, damit das Installationsprogramm ein Dialogfeld zur Auswahl von Modulen anzeigt.

Anmerkung
Anmerkung: AutoYaST-Steuerdatei

Wenn Sie Ihre Installationen mit AutoYaST konfigurieren, ist es nicht notwendig, diese Module in der AutoYaST-Steuerungsdatei aufzulisten, wenn Sie die Option --enable-repos verwenden.

14.5 Erstellen einer minimalen Netzinstallations-ISO

Verwenden Sie die Option --nano, um ein minimales Installations-Image zum Starten einer Netzwerkinstallation zu erstellen:

tux > sudo mksusecd --create netinstall.iso \
--nano SLE-15-SP3-Online-ARCH-GM-media1.iso

14.6 Standard-Repository ändern

Verwenden Sie die Option --net, um ein anderes Repository wie ein eigenes lokales festzulegen:

tux > sudo mksusecd --create localinstall.iso \
--net "https://example.com/local" SLE-15-SP3-Online-ARCH-GM-media1.iso

15 Manuelles Anpassen von Installations-Images

Die standardmäßigen Installations-Images für SUSE Linux Enterprise lassen sich durch Bearbeiten einer Datei im Installations-ISO-Image media.1/products anpassen. Fügen Sie zum Erstellen eines einzelnen benutzerdefinierten Installations-Image alle Module und Erweiterungen hinzu. Kopieren Sie dann das benutzerdefinierte Image auf CD, DVD oder ein USB-Flash-Laufwerk, um ein benutzerdefiniertes bootfähiges Installationsmedium zu erstellen. Die vollständigen Anleitungen finden Sie im SUSE Best Practices-Dokument unter Erstellen eines benutzerdefinierten Installationsmediums für SUSE Linux Enterprise 15.

Teil IV Einrichten eines Installationsservers

  • 16 Einrichten einer Netzwerkinstallationsquelle
  • In diesem Kapitel wird beschrieben, wie Sie einen Server erstellen, auf dem die erforderlichen Daten für die Installation von SUSE Linux Enterprise Server über das Netzwerk bereitgestellt werden.

  • 17 Vorbereiten der Netzwerk-Boot-Umgebung
  • In diesem Kapitel wird beschrieben, wie Sie einen DHCP- und einen TFTP-Server konfigurieren, die die erforderliche Infrastruktur für das Booten über PXE bilden.

  • 18 Einrichten eines UEFI HTTP-Boot-Servers
  • In diesem Kapitel wird beschrieben, wie Sie einen UEFI HTTP-Boot-Server einrichten und konfigurieren.

  • 19 Installieren von benutzerdefinierten Vorinstallationen
  • Durch die Verteilung angepasster Vorinstallationen von SUSE Linux Enterprise Server auf viele identische Rechner können Sie es vermeiden, die Installation auf jedem einzelnen Rechner durchführen zu müssen. Gleichzeitig erhalten die Endbenutzer ein standardisiertes Installationsverfahren. Erstellen S…

16 Einrichten einer Netzwerkinstallationsquelle

In diesem Kapitel wird beschrieben, wie Sie einen Server erstellen, auf dem die erforderlichen Daten für die Installation von SUSE Linux Enterprise Server über das Netzwerk bereitgestellt werden.

Abhängig vom Betriebssystem auf dem Computer, der als Netzwerk-Installationsquelle für SUSE Linux Enterprise Server fungiert, stehen für die Serverkonfiguration mehrere Möglichkeiten zur Auswahl. Am einfachsten lässt sich ein Installationsserver mit YaST einrichten.

Tipp
Tipp: Betriebssystem des Installationsservers

Für die Linux-Implementierung kann auch ein Microsoft Windows-Computer als Installationsserver verwendet werden. Weitere Informationen finden Sie in Abschnitt 16.5, „Verwalten eines SMB-Repositorys“.

16.1 Einrichten eines Installationsservers mithilfe von YaST

YaST bietet ein grafisches Werkzeug zum Erstellen von Repositorys. Es unterstützt HTTP-, FTP- und NFS-Netzwerk-Installationsserver.

  1. Melden Sie sich bei dem Computer, der als Installationsserver verwendet werden soll, als root an.

  2. Starten Sie YaST › Verschiedenes › Installationsserver.

  3. Wählen Sie den gewünschten Repositorytyp (HTTP, FTP oder NFS). Der ausgewählte Dienst wird bei jedem Systemstart automatisch gestartet. Wenn ein Dienst des ausgewählten Typs auf dem System bereits ausgeführt wird und Sie diesen Dienst für den Server manuell konfigurieren möchten, deaktivieren Sie die automatische Konfiguration des Serverdiensts, indem Sie Keine Netzwerkdienste konfigurieren wählen. Geben Sie in beiden Fällen das Verzeichnis an, in dem die Installationsdaten auf dem Server zur Verfügung gestellt werden sollen.

  4. Konfigurieren Sie den erforderlichen Repositorytyp. Dieser Schritt bezieht sich auf die automatische Konfiguration der Serverdienste. Wenn die automatische Konfiguration deaktiviert ist, wird dieser Schritt übersprungen.

    Legen Sie einen Aliasnamen für das root-Verzeichnis auf dem FTP- oder HTTP-Server fest, in dem die Installationsdaten gespeichert werden sollen. Das Repository befindet sich später unter ftp://Server-IP/Alias/Name (FTP) oder unter http://Server-IP/Alias/Name (HTTP). Name steht für den Namen des Repositorys, das im folgenden Schritt definiert wird. Wenn Sie im vorherigen Schritt NFS ausgewählt haben, legen Sie Platzhalter und Exportoptionen fest. Der Zugriff auf den NFS-Server erfolgt über nfs://Server-IP/Name. Informationen zu NFS und Exportvorgängen finden Sie in Book “Storage Administration Guide”, Chapter 19 “Sharing file systems with NFS”.

    Tipp
    Tipp: Firewall-Einstellungen

    Stellen Sie sicher, dass die Firewall-Einstellungen Ihres Server-Systems Datenverkehr an den entsprechenden Ports für HTTP, NFS und FTP erlauben. Ist dies nicht der Fall, aktivieren Sie zuvor Firewall-Port öffnen oder Firewall-Details.

  5. Konfigurieren Sie das Repository. Bevor die Installationsmedien in ihr Zielverzeichnis kopiert werden, müssen Sie den Namen des Repositorys angeben (dies sollte im Idealfall eine leicht zu merkende Abkürzung des Produkts und der Version sein). YaST ermöglicht das Bereitstellen von ISO-Images der Medien an Stelle von Kopien der Installations-DVDs. Wenn Sie diese Funktion verwenden möchten, aktivieren Sie das entsprechende Kontrollkästchen und geben Sie den Verzeichnispfad an, in dem sich die ISO-Dateien lokal befinden. Abhängig vom Produkt, das über diesen Installationsserver verteilt werden soll, müssen Sie ggf. Medien als zusätzliche Repositorys hinzufügen, z. B. ServicePack-DVDs. Um den Installationsserver über OpenSLP im Netzwerk bekannt zu geben, aktivieren Sie die entsprechende Option.

    Tipp
    Tipp: Bekanntgabe des Repositorys

    Wenn Ihr Netzwerk diese Option unterstützt, sollten Sie Ihr Repository auf jeden Fall über OpenSLP bekannt machen. Dadurch ersparen Sie sich die Eingabe des Netzwerk-Installationspfads auf den einzelnen Zielcomputern. Die Zielsysteme werden unter Verwendung des SLP-Boot-Parameters gebootet und finden das Netzwerk-Repository ohne weitere Konfigurationsschritte. Weitere Informationen zu dieser Option finden Sie in Kapitel 7, Boot-Parameter.

  6. Konfiguration weiterer Repositorys. In YaST gilt eine bestimmte Namenskonvention für die Konfiguration von Repositorys mit Add-on-CDs oder Service Pack-CDs. Die Konfiguration wird nur dann akzeptiert, wenn der Repository-Name der Add-on-CDs mit dem Repository-Namen der Installationsmedien beginnt. Wenn Sie also beispielsweise SLES12SP1 als Repository-Namen für DVD1 angeben, müssen Sie SLES12SP1addon als Repository-Namen für DVD2 auswählen.

  7. Laden Sie die Installationsdaten hoch. Der die meiste Zeit in Anspruch nehmende Schritt bei der Konfiguration eines Installationsservers ist das Kopieren der eigentlichen Installations-DVDs. Legen Sie die Medien in der von YaST angegebenen Reihenfolge ein und warten Sie, bis der Kopiervorgang abgeschlossen ist. Wenn alle Quellen erfolgreich kopiert wurden, kehren Sie zur Übersicht der vorhandenen Repositorys zurück und schließen Sie die Konfiguration, indem Sie Verlassen wählen.

    Der Installationsserver ist jetzt vollständig konfiguriert und betriebsbereit. Er wird bei jedem Systemstart automatisch gestartet. Es sind keine weiteren Aktionen erforderlich. Sie müssen diesen Dienst nur dann ordnungsgemäß manuell konfigurieren und starten, wenn die automatische Konfiguration der ausgewählten Netzwerkdienste mit YaST anfänglich deaktiviert wurde.

Wählen Sie zum Deaktivieren eines Repositorys das zu entfernende Repository aus und wählen Sie dann Löschen. Die Installationsdaten werden vom System entfernt. Um den Netzwerkdienst zu deaktivieren, verwenden Sie das entsprechende YaST-Modul.

Wenn Ihr Installationsserver die Installationsdaten für mehrere Produkte der Produktversion bereitstellen muss, starten Sie das YaST-Installationsserver-Modul. Wählen Sie dann in der Übersicht der vorhandenen Repositorys die Option Hinzufügen und konfigurieren Sie das neue Repository.

Warnung
Warnung: YaST-Installationsserver verursacht einen Konflikt mit dem RMT-Server

Durch die Konfiguration eines Servers als Installationsserver mit YaST wird automatisch der Apache Web-Server installiert und zur Überwachung auf Port 80 konfiguriert.

Wird ein Rechner jedoch als RMT-Server (Repository Mirroring Tool) konfiguriert, dann wird automatisch der NGINX Web-Server installiert und zur Überwachung auf Port 80 konfiguriert.

Versuchen Sie nicht, beide Funktionen auf demselben Server zu aktivieren. Ein einzelner Server kann nicht beide hosten.

16.2 Manuelles Einrichten eines NFS-Repositorys

Das Einrichten einer NFS-Quelle für die Installation erfolgt in zwei Hauptschritten. Im ersten Schritt erstellen Sie die Verzeichnisstruktur für die Installationsdaten und kopieren diese in die Struktur. Im zweiten Schritt exportieren Sie das Verzeichnis mit den Installationsdaten in das Netzwerk.

Gehen Sie wie folgt vor, um ein Verzeichnis für die Installationsdaten zu erstellen:

  1. Melden Sie sich als root-Benutzer an.

  2. Erstellen Sie ein Verzeichnis, in dem die Installationsdaten gespeichert werden sollen, und wechseln Sie in dieses Verzeichnis. Beispiel:

    root # mkdir -p /srv/install/PRODUCT/PRODUCTVERSION
    root # cd /srv/install/PRODUCT/PRODUCTVERSION

    Ersetzen Sie PRODUCT durch eine Abkürzung des Produktnamens und PRODUCTVERSION durch eine Zeichenkette, die den Produktnamen und die Version enthält (beispielsweise /srv/install/SLES/15.1).

  3. Führen Sie für die einzelnen im Medienkit enthaltenen Installationsmedien die folgenden Kommandos aus:

    1. Kopieren Sie den gesamten Inhalt des Installationsmediums in das Server-Installationsverzeichnis:

      root # cp -a /media/PATH_TO_YOUR_MEDIA_DRIVE .

      Ersetzen Sie PATH_TO_YOUR_MEDIA_DRIVE durch den tatsächlichen Pfad, in dem sich das Laufwerk mit den Installationsmedien befindet.

    2. Benennen Sie das Verzeichnis in die Mediennummer um:

      root # mv PATH_TO_YOUR_MEDIA_DRIVE DVDX

      Ersetzen Sie X durch die Nummer Ihres Installationsmediums.

In SUSE Linux Enterprise Server können Sie das Repository mit NFS unter Verwendung von YaST exportieren. Führen Sie dazu die folgenden Schritte aus:

  1. Melden Sie sich als root-Benutzer an.

  2. Starten Sie YaST › Netzwerkdienste › NFS-Server.

  3. Wählen Sie Starten und Firewall-Port öffnen und klicken Sie auf Weiter.

  4. Wählen Sie Verzeichnis hinzufügen und navigieren Sie zum Verzeichnis mit den Installationsquellen, in diesem Fall PRODUKTVERSION.

  5. Wählen Sie Host hinzufügen, und geben Sie die Hostnamen der Computer ein, auf die die Installationsdaten exportiert werden sollen. An Stelle der Hostnamen können Sie hier auch Platzhalter, Netzwerkadressbereiche oder den Domänennamen Ihres Netzwerks eingeben. Geben Sie die gewünschten Exportoptionen an oder übernehmen Sie die Vorgabe, die für die meisten Konfigurationen ausreichend ist. Weitere Informationen dazu, welche Syntax beim Exportieren von NFS-Freigaben verwendet wird, finden Sie auf der man-Seite zu exports.

  6. Klicken Sie auf Verlassen. Der NFS-Server, auf dem sich das SUSE Linux Enterprise Server-Repository befindet, wird automatisch gestartet und in den Bootvorgang integriert.

Wenn Sie die Repositorys nicht mit dem YaST-NFS-Servermodul, sondern manuell exportieren möchten, gehen Sie wie folgt vor:

  1. Melden Sie sich als root-Benutzer an.

  2. Öffnen Sie die Datei /etc/exports und geben Sie die folgende Zeile ein:

    /PRODUCTVERSION *(ro,root_squash,sync)

    Dadurch wird das Verzeichnis /PRODUKTVERSION auf alle Hosts exportiert, die Teil dieses Netzwerks sind oder eine Verbindung zu diesem Server herstellen können. Um den Zugriff auf diesen Server zu beschränken, geben Sie an Stelle des allgemeinen Platzhalters * Netzmasken oder Domänennamen an. Weitere Informationen hierzu finden Sie auf der man-Seite für den Befehl export. Speichern und schließen Sie diese Konfigurationsdatei.

  3. Um den NFS-Dienst zu der beim Booten des System generierten Liste der Server hinzuzufügen, führen Sie die folgenden Befehle aus:

    root # systemctl enable nfsserver
  4. Starten Sie den NFS-Server mit systemctl start nfsserver. Wenn Sie die Konfiguration des NFS-Servers zu einem späteren Zeitpunkt ändern müssen, ändern Sie die Konfigurationsdatei wie erforderlich und starten Sie den NFS-Daemon mit systemctl restart nfsserver neu.

Die Bekanntgabe des NFS-Servers über OpenSLP stellt dessen Adresse allen Clients im Netzwerk zur Verfügung.

  1. Melden Sie sich als root-Benutzer an.

  2. Erstellen Sie die Konfigurationsdatei /etc/slp.reg.d/install.suse.nfs.reg mit folgenden Zeilen:

    # Register the NFS Installation Server
    service:install.suse:nfs://$HOSTNAME/PATH_TO_REPOSITORY/DVD1,en,65535
    description=NFS Repository

    Ersetzen Sie PATH_TO_REPOSITORY durch den eigentlichen Pfad der Installationsquelle auf dem Server.

  3. Starten Sie den OpenSLP-Daemon mit systemctl start slpd.

Weitere Informationen zu OpenSLP finden Sie in der Paket-Dokumentation im Verzeichnis /usr/share/doc/packages/openslp/ oder in Book “Verwaltungshandbuch”, Chapter 33 “SLP”. Weitere Informationen zu NFS finden Sie im Book “Storage Administration Guide”, Chapter 19 “Sharing file systems with NFS”.

16.3 Manuelles Einrichten eines FTP-Repositorys

Das Erstellen eines FTP-Repositorys ist dem Erstellen eines NFS-Repositorys sehr ähnlich. Ein FTP-Repository kann ebenfalls mit OpenSLP im Netzwerk bekannt gegeben werden.

  1. Erstellen Sie wie in Abschnitt 16.2, „Manuelles Einrichten eines NFS-Repositorys“ beschrieben ein Verzeichnis für die Installationsquellen.

  2. Konfigurieren Sie den FTP-Server für die Verteilung des Inhalts des Installationsverzeichnisses:

    1. Melden Sie sich als root an, und installieren Sie mithilfe der YaST-Softwareverwaltung das Paket vsftpd.

    2. Wechseln Sie in das root-Verzeichnis des FTP-Servers:

      root # cd /srv/ftp
    3. Erstellen Sie im root-Verzeichnis des FTP-Servers ein Unterverzeichnis für die Installationsquellen:

      root # mkdir REPOSITORY

      Ersetzen Sie REPOSITORY durch den Produktnamen.

    4. Hängen Sie den Inhalt des Installations-Repository in der change-root-Umgebung des FTP-Servers ein:

      root # mount --bind PATH_TO_REPOSITORY /srv/ftp/REPOSITORY

      Ersetzen Sie PATH_TO_REPOSITORY und REPOSITORY durch die entsprechenden Werte für Ihre Konfiguration. Wenn diese Einstellungen dauerhaft übernommen werden sollen, fügen Sie sie zu /etc/fstab hinzu.

    5. Starten Sie vsftpd mit vsftpd.

  3. Geben Sie das Repository über OpenSLP bekannt, sofern dies von Ihrer Netzwerkkonfiguration unterstützt wird:

    1. Erstellen Sie die Konfigurationsdatei /etc/slp.reg.d/install.suse.ftp.reg mit folgenden Zeilen:

      # Register the FTP Installation Server
      service:install.suse:ftp://$HOSTNAME/REPOSITORY/DVD1,en,65535
      description=FTP Repository

      Ersetzen Sie REPOSITORY durch den Namen des Repository-Verzeichnisses auf Ihrem Server. Die Zeile Dienst: sollte als eine fortlaufende Zeile eingegeben werden.

    2. Starten Sie den OpenSLP-Daemon mit systemctl start slpd.

Tipp
Tipp: Konfigurieren eines FTP-Servers mit YaST

Wenn Sie den FTP-Installationsserver nicht manuell, sondern über YaST konfigurieren möchten, beachten Sie Book “Verwaltungshandbuch”, Chapter 35 “Einrichten eines FTP-Servers mit YaST”.

16.4 Manuelles Einrichten eines HTTP-Repositorys

Das Erstellen eines HTTP-Repositorys ist dem Erstellen eines NFS-Repositorys sehr ähnlich. Ein HTTP-Repository kann ebenfalls mit OpenSLP im Netzwerk bekannt gegeben werden.

  1. Erstellen Sie wie in Abschnitt 16.2, „Manuelles Einrichten eines NFS-Repositorys“ beschrieben ein Verzeichnis für die Installationsquellen.

  2. Konfigurieren Sie den HTTP-Server für die Verteilung des Inhalts des Installationsverzeichnisses:

    1. Installieren Sie den Webserver Apache wie in Book “Verwaltungshandbuch”, Chapter 34 “Der HTTP-Server Apache”, Section 34.1.2 “Installation” beschrieben.

    2. Wechseln Sie in das root-Verzeichnis des HTTP-Servers (/srv/www/htdocs) und erstellen Sie ein Unterverzeichnis für die Installationsquellen:

      root # mkdir REPOSITORY

      Ersetzen Sie REPOSITORY durch den Produktnamen.

    3. Erstellen Sie einen symbolischen Link vom Speicherort der Installationsquellen zum root-Verzeichnis des Webservers (/srv/www/htdocs):

      root # ln -s /PATH_TO_REPOSITORY/srv/www/htdocs/REPOSITORY
    4. Ändern Sie die Konfigurationsdatei des HTTP-Servers (/etc/apache2/default-server.conf) so, dass sie symbolischen Links folgt. Ersetzen Sie die folgende Zeile:

      Options None

      mit

      Options Indexes FollowSymLinks
    5. Laden Sie die HTTP-Server-Konfiguration mit systemctl reload apache2 neu.

  3. Geben Sie das Repository über OpenSLP bekannt, sofern dies von Ihrer Netzwerkkonfiguration unterstützt wird:

    1. Erstellen Sie die Konfigurationsdatei /etc/slp.reg.d/install.suse.http.reg mit folgenden Zeilen:

      # Register the HTTP Installation Server
      service:install.suse:http://$HOSTNAME/REPOSITORY/DVD1/,en,65535
      description=HTTP Repository

      Ersetzen Sie REPOSITORY durch den eigentlichen Pfad des Repositorys auf dem Server. Die Zeile Dienst: sollte als eine fortlaufende Zeile eingegeben werden.

    2. Starten Sie den OpenSLP-Daemon mit systemctl start slpd.

16.5 Verwalten eines SMB-Repositorys

Mithilfe von SMB können Sie die Installationsquellen von einem Microsoft Windows-Server importieren und die Linux-Implementierung starten, ohne dass ein Linux-Computer vorhanden sein muss.

Gehen Sie wie folgt vor, um eine exportierte Windows Share mit demSUSE Linux Enterprise Server-Repository einzurichten:

  1. Melden Sie sich auf dem Windows-Computer an.

  2. Erstellen Sie ein neues Verzeichnis, das die gesamte Baumstruktur der Installation aufnehmen soll, und nennen Sie es beispielsweise INSTALL.

  3. Geben Sie dieses Verzeichnis wie in der Windows-Dokumentation beschrieben im Netzwerk frei.

  4. Wechseln Sie in das freigegebene Verzeichnis und erstellen Sie ein Unterverzeichnis mit dem Namen PRODUKT. Ersetzen Sie PRODUKT durch den tatsächlichen Produktnamen.

  5. Wechseln Sie in das Verzeichnis INSTALL/PRODUCT, und kopieren Sie jedes Medium in ein separates Verzeichnis, beispielsweise DVD1 und DVD2.

Gehen Sie wie folgt vor, um eine SMB-eingehängte Freigabe als Repository zu verwenden:

  1. Booten Sie das Installationsziel.

  2. Wählen Sie Installation.

  3. Drücken Sie F4, um eine Auswahl der Repositorys anzuzeigen.

  4. Wählen Sie „SMB“ und geben Sie den Namen oder die IP-Adresse des Windows-Computers, den Freigabenamen (in diesem Beispiel INSTALL/PRODUKT/DVD1), den Benutzernamen und das Passwort ein. Beispiel für die Syntax:

    smb://workdomain;user:password@server/INSTALL/DVD1

    Wenn Sie Eingabetaste drücken, wird YaST gestartet und Sie können die Installation ausführen.

16.6 Verwenden von ISO-Images der Installationsmedien auf dem Server

Statt physische Medien manuell in Ihr Serververzeichnis zu kopieren, können Sie auch die ISO-Images der Installationsmedien in Ihrem Installationsserver einhängen und als Repository verwenden. Gehen Sie wie folgt vor, um einen HTTP-, NFS- oder FTP-Server einzurichten, der ISO-Images anstelle von Medienkopien verwendet:

  1. Laden Sie die ISO-Images herunter und speichern Sie sie auf dem Rechner, den Sie als Installationsserver verwenden möchten.

  2. Melden Sie sich als root-Benutzer an.

  3. Wählen und erstellen Sie einen geeigneten Speicherort für die Installationsdaten. Siehe dazu Abschnitt 16.2, „Manuelles Einrichten eines NFS-Repositorys“, Abschnitt 16.3, „Manuelles Einrichten eines FTP-Repositorys“ oder Abschnitt 16.4, „Manuelles Einrichten eines HTTP-Repositorys“.

  4. Erstellen Sie für jedes Installationsmedium ein Unterverzeichnis.

  5. Erteilen Sie folgenden Befehl, um jedes ISO-Image an der endgültigen Position einzuhängen und zu entpacken:

    root # mount -o loop PATH_TO_ISO PATH_TO_REPOSITORY/PRODUCT/MEDIUMX

    Ersetzen Sie PATH_TO_ISO durch den Pfad zur lokalen Kopie des ISO-Images. Ersetzen Sie PATH_TO_REPOSITORY durch das Quellverzeichnis des Servers. Ersetzen Sie PRODUCT durch den Produktnamen und MEDIUMX durch den Typ (CD oder DVD) und die Nummer des verwendeten Mediums.

  6. Wiederholen Sie die vorherigen Schritte, um alle erforderlichen ISO-Images für Ihr Produkt einzuhängen.

  7. Starten Sie den Installationsserver wie gewohnt wie unter Abschnitt 16.2, „Manuelles Einrichten eines NFS-Repositorys“, Abschnitt 16.3, „Manuelles Einrichten eines FTP-Repositorys“ oder Abschnitt 16.4, „Manuelles Einrichten eines HTTP-Repositorys“ beschrieben.

Um ISO-Images beim Systemstart automatisch einzuhängen, fügen Sie die entsprechenden Einhänge-Einträge /etc/fstab hinzu. Ein Eintrag würde dann gemäß dem vorherigen Beispiel wie folgt aussehen:

PATH_TO_ISO PATH_TO_REPOSITORY/PRODUCTMEDIUM auto loop

17 Vorbereiten der Netzwerk-Boot-Umgebung

In diesem Kapitel wird beschrieben, wie Sie einen DHCP- und einen TFTP-Server konfigurieren, die die erforderliche Infrastruktur für das Booten über PXE bilden.

SUSE® Linux Enterprise Server kann über PXE (Preboot Execution Environment) installiert werden. Die Client-Hardware muss das Booten über PXE unterstützen. Das Netzwerk muss einen DHCP-Server und einen TFTP-Server umfassen, die den Clients die erforderlichen Daten bereitstellen. Dieses Kapitel führt Sie durch die Einrichtung der erforderlichen Server.

Mit PXE werden lediglich ein Kernel und initrd gebootet. Hiermit können Sie in eine Installationsumgebung oder in Live-Systeme booten. Weitere Informationen zum Einrichten der Installationsquellen finden Sie in Kapitel 16, Einrichten einer Netzwerkinstallationsquelle.

In diesem Abschnitt werden die für komplexe Boot-Szenarien erforderlichen Konfigurationsschritte beschrieben. Er enthält zudem Konfigurationsbeispiele für DHCP, PXE-Boot, TFTP und Wake-on-LAN.

Bei den Beispielen wird davon ausgegangen, dass sich der DHCP-, TFTP- und NFS-Server auf demselben Rechner mit IP 192.168.1.1 befinden. Alle Dienste können sich problemlos auf verschiedenen Rechnern befinden. Ändern Sie die IP-Adressen in jedem Fall entsprechend.

17.1 Einrichten eines DHCP-Servers

Ein DHCP-Server weist Ihren Netzwerk-Clients sowohl dynamische (Abschnitt 17.1.1, „Dynamische Adressenzuweisung“) als auch statische (Abschnitt 17.1.2, „Zuweisen von statischen IP-Adressen“) IP-Adressen zu. Er gibt Server, Routen und Domänen bekannt. Für TFTP-Server gibt DHCP auch den Kernel und die initrd-Dateien an. Welche Dateien geladen werden hängt von der Architektur des Zielrechners ab und davon, ob Legacy-BIOS oder UEFI-Boot verwendet wird. Die Clients übermitteln ihren Architekturtyp in den DHCP-Anforderungen. Auf der Grundlage dieser Information entscheidet der DHCP-Server, welche Dateien der Client zum Booten herunterladen muss.

Warnung
Warnung: Fehler bei der PXE- und AutoYaST-Installation

Ab SUSE Linux Enterprise 15.0 treten unter bestimmten Umständen Fehler beim PXE-Boot und den AutoYaST-Installationen auf. Weitere Informationen und die Lösung finden Sie in Abschnitt 17.1.3, „Fehler bei der PXE- und AutoYaST-Installation“.

17.1.1 Dynamische Adressenzuweisung

Im folgenden Beispiel wird gezeigt, wie ein DHCP-Server eingerichtet wird, der dynamisch IP-Adressen zu Clients zuweist und Server, Router, Domänen und Boot-Dateien bekannt gibt.

  1. Melden Sie sich als root auf dem Computer an, der den DHCP-Server bereitstellt.

  2. Aktivieren Sie den DHCP-Server mit systemctl enable dhcpd.

  3. Fügen Sie einer Subnetzkonfiguration in der Konfigurationsdatei des DHCP-Servers, die sich unter /etc/dhcpd.conf befindet, folgende Zeilen hinzu:

    # The following lines are optional
    option domain-name "my.lab";
    option domain-name-servers 192.168.1.1;
    option routers 192.168.1.1;
    option ntp-servers 192.168.1.1;
    ddns-update-style none;
    default-lease-time 3600;
    
    # The following lines are required
    option arch code 93 = unsigned integer 16; # RFC4578
    subnet 192.168.1.0 netmask 255.255.255.0 {
     next-server 192.168.1.1;
     range 192.168.1.100 192.168.1.199;
     default-lease-time 3600;
     max-lease-time 3600;
     if option arch = 00:07 or option arch = 00:09 {
       filename "/EFI/x86/grub.efi";
     }
     else if option arch = 00:0b {
       filename "/EFI/aarch64/bootaa64.efi";
     }
     else  {
       filename "/BIOS/x86/pxelinux.0";
     }
    }

    Diese Konfiguration verwendet das Teilnetz 192.168.1.0/24 mit DHCP, DNS und dem Gateway am Server mit der IP 192.168.1.1. Vergewissern Sie sich, dass alle IP-Adressen gemäß Ihres Netzwerk-Layouts geändert wurden. Weitere Informationen zu den in dhcpd.conf verfügbaren Optionen finden Sie auf der man-Seite dhcpd.conf.

  4. Starten Sie den DHCP-Server mit systemctl restart dhcpd neu.

17.1.2 Zuweisen von statischen IP-Adressen

Ein DHCP-Server kann auch statische IP-Adressen und Hostnamen zu Netzwerk-Clients zuweisen. Ein Anwendungsfall ist die Zuweisung von statischen Adressen zu Servern. Bei einem weiteren Anwendungsfall wird die Möglichkeit des Beitritts zum Netzwerk auf die Clients mit zugewiesenen statischen IP-Adressen beschränkt und es werden keine dynamischen Adressenpools zur Verfügung gestellt.

Bearbeiten Sie die obige DHCP-Konfiguration entsprechend des folgenden Beispiels:

group {
 host test {
   hardware ethernet MAC_ADDRESS;
   fixed-address IP_ADDRESS;
   }
}

Die Hostbestimmung weist einen Hostnamen zum Installationsziel zu. Um den Hostnamen und die IP-Adresse an einen bestimmten Host zu binden, müssen Sie die Hardware-Adresse (MAC) des Client angeben. Ersetzen Sie alle Variablen in diesem Beispiel durch die aktuellen Werte, die zu Ihrer Umgebung passen. Speichern Sie dann die Änderungen und starten Sie den DHCP-Server neu.

17.1.3 Fehler bei der PXE- und AutoYaST-Installation

Ab SUSE Linux Enterprise 15.0 und ISC DHCP 4.3.x treten unter bestimmten Umständen Fehler beim PXE-Boot und den AutoYaST-Installationen auf. Die PXE/AutoYaST-Installationen funktionieren nicht, wenn Ihr DHCP-Server keinen Pool von verfügbaren dynamischen IP-Adressen enthält und nur vordefinierte statische Adressen pro Client zulässt, und die Clients RFC 4361-Client-Kennungen senden. (Zufällig ausgewählte Rechner können dem Netzwerk nicht beitreten, wenn nur Adressen zugelassen werden, die bestimmten Netzwerk-Clients zugewiesen sind, und wenn keine dynamischen Adressenpools zur Verfügung gestellt werden.)

Wenn ein neues System in PXE startet, sendet es eine Anforderung an den DHCP-Server und erkennt sich selbst anhand einer Client-Kennung, die aus dem Hardwaretyp plus der MAC-Adresse der Netzwerkschnittstelle erstellt wurde. Dies ist eine RFC 2132 client-id. Der DHCP-Server bietet dann die zugewiesene IP-Adresse an. Als nächstes wird der Installations-Kernel geladen und er sendet eine weitere DHCP-Anforderung. Doch diese client-id ist anders und wird im RFC 4361-Format gesendet. Der DHCP-Server erkennt sie nicht als denselben Client und sucht nach einer freien dynamischen IP-Adresse. Da diese nicht verfügbar ist, wird der Installationsvorgang angehalten.

Die Lösung besteht darin, Clients so zu konfigurieren, dass sie RFC 2132-Client-IDs senden. Verwenden Sie zum Senden einer RFC 2132 client-id während der Installation linuxrc, um das folgende ifcfg-Kommando weiterzugeben:

ifcfg=eth0=dhcp,DHCLIENT_CLIENT_ID=01:03:52:54:00:02:c2:67,
DHCLIENT6_CLIENT_ID=00:03:52:54:00:02:c2:67

Die üblicherweise verwendete RFC 2132 DHCPv4 client-id im Ethernet setzt sich aus dem Hardwaretyp (01 für Ethernet) gefolgt von der Hardwareadresse (der MAC-Adresse) zusammen, wie zum Beispiel:

01:52:54:00:02:c2:67

Die RFC 4361 DHCPv4 client-id versucht das Problem, einen Rechner mit mehr als einer Netzwerkschnittstelle zu erkennen, zu korrigieren. Die neue DHCPv4 client-id hat dasselbe Format wie die DHCPv6 client-id. Sie beginnt mit dem Präfix 0xff anstelle des Hardwaretyps, gefolgt von der DHCPv6 IAID (der ID der Schnittstellenadressverknüpfung, die die Schnittstelle am Rechner beschreibt), gefolgt von der eindeutigen DHCPv6-Kennung (DUID), mit der der Rechner eindeutig gekennzeichnet ist.

Mit der oben genannten DUID auf Basis des Hardwaretyps und der Hardwareadresse wäre die neue RFC 4361 DHCPv4 client-id:

  • Unter Verwendung der letzten Bytes der MAC-Adresse der IAID: ff:00:02:c2:67:00:01:xx:xx:xx:xx:52:54:00:02:c2:67

  • Wenn die IAID eine einfache inkrementierte Zahl ist: ff:00:00:00:01:00:01:xx:xx:xx:xx:52:54:00:02:c2:67

Das Feld xx:xx:xx:xx im DUID-Link-Layer-Zeitstempel (DUID-LLT) ist ein Erstellungszeitstempel. Ein DUID-Link-Layer (DUID-LL) (00:03:00:01:$MAC) hat keinen Zeitstempel.

Weitere Informationen zur Verwendung vonlinuxrc finden Sie im AutoYaST-Handbuch. Sehen Sie sich dazu auch man 4 initrd und die Dokumentation für die Optionen dhcp4 "create-cid", dhcp6 "default-duid" in man 5 wicked-config, wicked duid --help und wicked iaid --help an.

17.2 Einrichten eines TFTP-Servers

Im folgenden Verfahren wird beschrieben, wie der Server so vorbereitet wird, dass die Client-Rechner mit UEFI und BIOS dezentral mit den durch TFTP exportierten Dateien gebootet werden können.

17.2.1 Installieren eines TFTP-Servers

So installieren Sie einen TFTP-Server:

  1. Installieren Sie das Paket tftp.

    tux > sudo zypper in tftp
  2. Überprüfen Sie die tftpd-Konfiguration unter /etc/sysconfig/tftp und ergänzen oder ändern Sie die Optionen je nach Bedarf. Weitere Informationen finden Sie im man 8 tftpd. Beim TFTP-Daemon muss die Konfiguration nicht geändert werden. Das Standard-Stammverzeichnis für die Dateien lautet /srv/tftpboot.

  3. tftpd muss beim Booten gestartet werden; starten Sie es zum Einlesen der neuen Konfiguration erneut.

    tux > sudo systemctl enable tftp.socket
    tux > sudo systemctl restart tftp.socket

17.2.2 Installieren der Dateien zum Booten

SUSE Linux Enterprise Server stellt die erforderlichen Dateien zum Booten über PXE auf BIOS- oder UEFI-Rechnern bereit. Die folgenden Hardwarearchitekturen werden unterstützt:

  • AMD64/Intel 64

  • AArch64

  • POWER

  • IBM Z

Dateien, die von einer bestimmten Hardwarearchitektur gebootet werden müssen, sind in einem RPM-Paket enthalten. Installieren Sie die Dateien auf dem Rechner, auf dem der TFTP-Server ausgeführt wird:

tux > sudo zypper in tftpboot-installation-SLE-OS_VERSION-ARCHITECTURE

Ersetzen Sie OS_VERSION durch die Versionsnummer Ihrer SUSE Linux Enterprise Server-Installation (z. B. SLE-15-SP3-x86_64) und ARCHITECTURE durch die Architektur Ihres Systems (z. B. x86_64). Der resultierende Text würde folgendermaßen aussehen: tftpboot-installation-SLE-15-SP3-x86_64. Führen Sie zypper se tftpboot zum Suchen nach allen verfügbaren Versionen und Architekturen aus.

Die Dateien werden unter /srv/tftpboot/SLE-OS_VERSION-ARCHITECTURE installiert. Sie können auch die Dateien für andere Versionen und Architekturen von SUSE Linux Enterprise Server in das Verzeichnis /srv/tftpboot kopieren.

Tipp
Tipp: Bedienen verschiedener Architekturen

Die Hardwarearchitektur von Client und Server kann variieren. Sie können beispielsweise einen AMD64/Intel 64 TFTP-Server ausführen und eine bootfähige Umgebung für AArch64-Clientrechner bereitstellen, indem Sie das Paket tftpboot-installation-SLE-15-SP3-aarch64 Paket verfügbar ist.

Anmerkung
Anmerkung: Bestehendes /srv/tftpboot/-Verzeichnis

Wenn das Verzeichnis /srv/tftpboot/ bereits auf Ihrem Rechner vorhanden ist, werden alle Dateien im Pfad /usr/share/tftpboot-installation/ installiert. Dies ist der Fall, wenn Sie Ihren PXE-Server von einer früheren SLES-Version upgraden.

Kopieren Sie die Dateien manuell von /usr/share/tftpboot-installation/ zu /srv/tftpboot/, um dieses Problem zu beheben. Entfernen Sie alternativ /srv/tftpboot/ und installieren Sie das Paket tftpboot-installation-SLE-OS_VERSION-ARCHITECTURE Paket verfügbar ist.

17.2.3 Konfigurieren von PXELINUX

Öffnen Sie die Datei /srv/tftpboot/SLE-OS_VERSION-ARCHITECTURE/net/pxelinux.cfg/default in einem Editor. Ersetzen Sie den Pfad für den Parameter install gemäß Ihrer Einrichtung (siehe Kapitel 16, Einrichten einer Netzwerkinstallationsquelle). Ersetzen Sie außerdem TFTP_SERVER durch die IP-Adresse des TFTP-Servers. Einen Überblick über die PXELINUX-Konfigurationsoptionen finden Sie in Abschnitt 17.3, „PXELINUX-Konfigurationsoptionen“.

default linux

# install
label linux
  ipappend 2
  kernel boot/ARCHITECTURE/loader/linux
  append initrd=boot/ARCHITECTURE/loader/initrd instsys=tftp://TFTP_SERVER/SLE-OS_VERSION-ARCHITECTURE/boot/ARCHITECTURE/root install=PROTOCOL://SERVER_IP:/PATH

display  message
implicit 1
prompt  1
timeout  50

Weitere Informationen zu den Boot-Parametern in der Zeile append finden Sie in Abschnitt 7.3, „Liste wichtiger Boot-Parameter“.

Wenn eine Meldung im Boot-Menü angezeigt werden soll, bearbeiten Sie gegebenenfalls /srv/tftpboot/SLE-OS_VERSION-ARCHITECTURE/net/pxelinux.cfg/message.

17.2.4 Vorbereiten des PXE-Boot-Vorgangs für EFI mit GRUB2

Normalerweise müssen die GRUB2-Konfigurationsdateien nicht geändert werden. Die Standardeinstellungen enthalten jedoch keine Netzwerkressource für das Installationssystem. Für eine vollständige Installation von SUSE Linux Enterprise Server über das Netzwerk müssen Sie den Parameter install in der Anweisung linuxefi der Datei /srv/tftpboot/SLE-OS_VERSION-ARCHITECTURE/EFI/BOOT/grub.cfg angeben. In Abschnitt 7.3.3, „Angeben der Installationsquelle“ finden Sie weitere Informationen über den Parameter install.

17.3 PXELINUX-Konfigurationsoptionen

Die hier aufgeführten Optionen sind eine Teilmenge der für die PXELINUX-Konfigurationsdatei verfügbaren Optionen.

APPEND OPTIONEN

Fügt der Kernel-Kommandozeile eine oder mehrere Optionen hinzu. Diese werden sowohl bei automatischen als auch bei manuellen Bootvorgängen hinzugefügt. Die Optionen werden an den Beginn der Kernel-Kommandozeile gesetzt und ermöglichen, dass explizit eingegebene Kernel-Optionen sie überschreiben können.

APPEND -

Hiermit wird nichts angehängt. APPEND mit einem Bindestrich als Argument in einem LABEL-Abschnitt kann zum Überschreiben einer globalen APPEND-Option verwendet werden.

DEFAULT KERNEL_OPTIONEN...

Legt die standardmäßige Kernel-Kommandozeile fest. Wenn PXELINUX automatisch gebootet wird, agiert es, als wären die Einträge nach DEFAULT in der Booteingabeaufforderung eingegeben worden, außer, dass die Option für das automatische Booten (boot) automatisch hinzugefügt wird.

Wenn keine Konfigurationsdatei vorhanden oder der DEFAULT-Eintrag in der Konfigurationsdatei nicht definiert ist, wird standardmäßig der Kernel-Name linux ohne Optionen verwendet.

IFAPPEND FLAG

Fügt eine bestimmte Option in die Kernel-Kommandozeile ein, abhängig vom Wert für FLAG. Die Option IFAPPEND ist nur unter PXELINUX verfügbar. Für FLAG ist ein Wert erforderlich, siehe Tabelle 17.1, „Generierte und hinzugefügte Optionen für Kernel-Kommandozeilen von IFAPPEND:

Tabelle 17.1: Generierte und hinzugefügte Optionen für Kernel-Kommandozeilen von IFAPPEND

Argument

Generierte Kernel-Kommandozeile/Beschreibung

1

ip=CLIENT_IP:BOOT_SERVER_IP:GW_IP:NETMASK

Die Platzhalter werden auf der Grundlage der Eingaben vom DHCP/BOOTP- oder PXE-Boot-Server ersetzt.

Diese Option ist kein Ersatz für das Ausführen eines DHCP-Clients im gebooteten System. Ohne regelmäßige Verlängerung läuft die vom PXE BIOS erworbene Lease ab, sodass die IP-Adresse zur erneuten Verwendung durch den DHCP-Server verfügbar wird.

2

BOOTIF=MAC_ADDRESS_OF_BOOT_INTERFACE

Mit dieser Option lässt sich eine Zeitüberschreitung vermeiden, wenn der Installationsserver die LAN-Schnittstellen einzeln nacheinander abfragt, bis er eine Antwort von einem DHCP-Server erhält. Ein initrd-Programm kann dabei ermitteln, von welcher Schnittstelle das System gebootet wurde. linuxrc liest diese Option aus und verwendet die erkannte Netzwerkschnittstelle.

4

SYSUUID=SYSTEM_UUID

Fügt UUIDs im Hexadezimalformat mit Kleinbuchstaben hinzu, siehe /usr/share/doc/packages/syslinux/pxelinux.txt

LABEL KENNUNG KERNEL IMAGE APPEND OPTIONEN...

Wenn KENNUNG als der zu bootende Kernel angegeben wird, soll PXELINUX stattdessen IMAGE booten und dabei die angegebenen APPEND-Optionen heranziehen. Diese Optionen ersetzen die im globalen Abschnitt der Datei vor dem ersten Kommando LABEL angegebenen Optionen. Die Vorgabe für IMAGE ist dieselbe wie für KENNUNG und wenn keine APPEND-Optionen angegeben sind, wird standardmäßig der globale Eintrag verwendet (sofern vorhanden). Es sind bis zu 128 LABEL-Einträge zulässig.

PXELINUX verwendet die folgende Syntax:

label MYLABEL
  kernel MYKERNEL
  append MYOPTIONS

Kennungen werden wie Dateinamen umgesetzt und müssen nach der Umsetzung (sogenanntes Mangling) eindeutig sein. Die beiden Kennungen v2.6.30 und v2.6.31 wären beispielsweise unter PXELINUX nicht unterscheidbar, da beide auf denselben DOS-Dateinamen umgesetzt würden.

Der Kernel muss kein Linux-Kernel sein. Auch ein Bootsektor oder eine COMBOOT-Datei ist möglich.

LOCALBOOT TYP

Wenn Sie unter PXELINUX LOCALBOOT 0 an Stelle einer KERNEL-Option angeben, bedeutet dies, dass diese bestimmte Kennung aufgerufen und die lokale Festplatte an Stelle eines Kernels gebootet wird.

Argument

Beschreibung

0

Führt einen normalen Bootvorgang aus

4

Führt einen lokalen Bootvorgang mit dem noch im Arbeitsspeicher vorhandenen UNDI-Treiber (Universal Network Driver Interface) aus

5

Führt einen lokalen Bootvorgang mit dem gesamten PXE-Stack, einschließlich des UNDI-Treibers aus, der sich im Arbeitsspeicher befindet

Alle anderen Werte sind nicht definiert. Wenn Sie die Werte für die UNDI- oder PXE-Stacks nicht wissen, geben Sie 0 an.

TIMEOUT ZEITLIMIT

Gibt in Einheiten von 1/10 Sekunde an, wie lange die Booteingabeaufforderung angezeigt werden soll, bevor der Bootvorgang automatisch gestartet wird. Das Zeitlimit wird aufgehoben, sobald der Benutzer eine Eingabe über die Tastatur vornimmt, da angenommen wird, dass der Benutzer die Eingabe des Kommandos abschließt. Mit einem Zeitlimit von Null wird das Zeitüberschreitungsoption deaktiviert (dies ist die Vorgabe). Der größtmögliche Wert für das Zeitlimit ist 35996 (etwas weniger als eine Stunde).

PROMPT flag_val

Wenn flag_val auf 0 gesetzt ist, wird die Booteingabeaufforderung nur angezeigt, wenn die Taste Umschalttaste oder Alt gedrückt wird oder die Feststelltaste oder die Taste Rollen gesetzt ist (dies ist die Standardeinstellung). Wenn flag_val 1 ist, wird die Booteingabeaufforderung immer angezeigt.

F2  FILENAME
F1  FILENAME
..etc...
F9  FILENAME
F10 FILENAME

Zeigt die angegebene Datei auf dem Bildschirm an, wenn an der Booteingabeaufforderung eine Funktionstaste gedrückt wird. Mithilfe dieser Option kann auch die Preboot-Online-Hilfe implementiert werden (für die Kernel-Kommandozeilenoptionen). Aus Gründen der Kompabilität mit früheren Versionen kann F10 auch als F0 verwendet werden. Beachten Sie, dass derzeit keine Möglichkeit besteht, Dateinamen an F11 und F12 zu binden.

17.4 Vorbereiten des Zielsystems für PXE-Boot

Bereiten Sie das System-BIOS für PXE-Boot vor, indem Sie die PXE-Option in die BIOS-Boot-Reihenfolge aufnehmen.

Warnung
Warnung: BIOS-Bootreihenfolge

Die PXE-Option darf im BIOS nicht vor dem Boot-Parameter für die Festplatte stehen. Andernfalls würde dieses System versuchen, sich selbst bei jedem Booten neu zu installieren.

17.5 Verwenden von Wake-on-LAN für Fernaktivierungen

Wake-on-LAN (WOL) ist ein Ethernet-Standard zum Fernaktivieren eines Rechners durch Senden eines Aktivierungssignals über ein Netzwerk. Dieses Signal wird Magic Packet genannt. Installieren Sie WOL auf Client-Rechnern, um Fernaktivierungen zu ermöglichen, und auf jedem Rechner, den Sie zum Senden des Aktivierungssignals verwenden möchten. Das Magic Packet wird über UDP-Port 9 an die MAC-Adresse der Netzwerkschnittstelle auf dem Client-Rechner gesendet.

Beim Herunterfahren werden Rechner in der Regel nicht ganz ausgeschaltet, sondern verbleiben in einem Energiesparmodus. Wenn die Netzwerkschnittstelle WOL unterstützt, überwacht sie auf das Aktivierungssignal des Magic Packet, wenn das Gerät ausgeschaltet ist. Sie können das Magic Packet manuell senden oder Aktivierungen in einem Cron auf dem sendenden Rechner planen.

17.5.1 Voraussetzungen

WOL funktioniert sowohl mit kabelgebundenen als auch mit drahtlosen Ethernet-Karten, die es unterstützen.

Möglicherweise müssen Sie WOL in Ihrem System-BIOS/UEFI aktivieren.

Überprüfen Sie Ihre BIOS/UEFI-Einstellungen für PXE-Boot und stellen Sie sicher, dass es deaktiviert ist, um versehentliche Neuinstallationen zu verhindern.

Passen Sie Ihre Firewall so an, dass der Datenverkehr über UDP-Port 9 zugelassen wird.

17.5.2 Überprüfen der Unterstützung von kabelgebundenem Ethernet

Führen Sie folgendes Kommando aus, um festzustellen, ob eine kabelgebundene Ethernet-Schnittstelle WOL unterstützt:

tux > sudo ethtool eth0 | grep -i wake-on
Supports Wake-on: pumbg
Wake-on: g

Die Ausgabe im Beispiel zeigt, dass WOL von eth0 unterstützt wird, angezeigt durch das g-Flag in der Zeile Supports Wake-on. Wake-on: g zeigt an, dass WOL bereits aktiviert ist, sodass diese Schnittstelle bereit ist, Aktivierungssignale zu empfangen. Wenn WOL nicht aktiviert ist, aktivieren Sie es mit folgendem Kommando:

tux > sudo ethtool -s eth0 wol g

17.5.3 Überprüfen der Unterstützung für drahtlose Schnittstellen

Für Wakeup-over-wifi (WoWLAN) ist eine drahtlose Netzwerkschnittstelle erforderlich, die WoWLAN unterstützt. Testen Sie dies mit dem Kommando iw, das im iw Paket verfügbar ist:

tux > sudo zypper in iw

Suchen Sie den Gerätenamen:

tux > sudo iw dev
phy#0
        Interface wlan2
                ifindex 3
                wdev 0x1
                addr 9c:ef:d5:fe:01:7c
                ssid accesspoint
                type managed
                channel 11 (2462 MHz), width: 20 MHz, center1: 2462 MHz
                txpower 20.00 dBm

In diesem Beispiel lautet der Gerätename zum Abfragen der WoWLAN-Unterstützung phy#0. Dieses Beispiel zeigt, dass es nicht unterstützt wird:

tux > sudo iw phy#0 wowlan show
command failed: Operation not supported (-95)

Dieses Beispiel zeigt eine Schnittstelle, die WoWLAN unterstützt, aber nicht aktiviert ist:

tux > sudo iw phy#0 wowlan show
WoWLAN is disabled

Aktivieren Sie sie:

tux > sudo iw phy#0 wowlan enable magic-packet
WoWLAN is enabled:
* wake up on magic packet

17.5.4 Installieren und Testen von WOL

Installieren Sie zur Verwendung von WOL das Paket wol am Client und den sendenden Rechnern:

tux > sudo zypper in wol

Installieren Sie wol-udev-rules auf Ihren Client-Rechnern. Dieses Paket installiert eine udev-Regel, die WOL automatisch beim Start aktiviert.

Ermitteln Sie die MAC-Adresse der Netzwerkschnittstelle auf dem Client-Rechner:

tux > sudo ip addr show eth0|grep ether
link/ether 7c:ef:a5:fe:06:7c brd ff:ff:ff:ff:ff:ff

In der Ausgabe des Beispiels ist 7c:ef:a5:fe:06:7c die MAC-Adresse.

Fahren Sie Ihren Client-Rechner herunter und senden Sie ihm ein Aktivierungssignal von einem anderen Rechner im selben Teilnetz:

tux > wol 7c:ef:a5:fe:06:7c

Wenn sich Ihr Zielgerät und das zweite Gerät zwar im selben Netzwerk, aber in unterschiedlichen Teilnetzen befinden, geben Sie die Broadcast-Adresse für Ihr Zielgerät an:

tux > wol -i 192.168.0.63 7c:ef:a5:fe:06:7c

Da WOL auf Broadcast-Domänen beruht, muss sich der sendende Rechner im selben Netzwerk befinden, kann aber auch in einem anderen Netzwerksegment liegen.

Es ist möglich, das Magic Packet von einem anderen Netzwerk aus zu senden. Eine Möglichkeit ist die Portweiterleitung, wenn Ihr Router die Portweiterleitung auf eine Broadcast-Adresse unterstützt. Eine sicherere Methode ist es, sich über SSH mit einem Host innerhalb Ihres Netzwerks zu verbinden und das Magic Packet von dort aus zu senden.

18 Einrichten eines UEFI HTTP-Boot-Servers

In diesem Kapitel wird beschrieben, wie Sie einen UEFI HTTP-Boot-Server einrichten und konfigurieren.

18.1 Einführung

HTTP-Boot kombiniert DHCP, DNS und HTTP, um das Booten und Bereitstellen von Systemen über das Netzwerk zu ermöglichen. HTTP-Boot kann als leistungsstarker Ersatz für PXE verwendet werden. HTTP-Boot ermöglicht das Booten eines Servers von einem URI über HTTP und damit die schnelle Übertragung großer Dateien, wie zum Beispiel des Linux-Kernels und des Root-Dateisystems, von Servern außerhalb Ihres lokalen Netzwerks.

18.1.1 Konfigurieren des Client-Rechners

Die Aktivierung von HTTP-Boot auf einem physischen Client-Rechner hängt von Ihrer spezifischen Hardware ab. In der Dokumentation finden Sie weitere Informationen zur Aktivierung von HTTP-Boot auf Ihrem Rechner.

18.1.2 Vorbereitung

Bei der hier beschriebenen Einrichtung werden die IP-Teilnetze 192.168.111.0/24 (IPv4) und 2001:db8:f00f:cafe::/64 (IPv6) verwendet. Die Server-IP-Adressen lauten beispielsweise 192.168.111.1(IPv4) und 2001:db8:f00f:cafe::1/64 (IPv6). Passen Sie diese Werte an Ihre spezifische Einrichtung an.

Installieren Sie die folgenden Pakete auf dem Rechner, den Sie als HTTP-Boot-Server verwenden möchten: dhcp-server, apache2 (oder lighttpd), und dnsmasq.

18.2 Konfigurieren des Servers

18.2.1 DNS-Server

Die Konfiguration des DNS-Servers ist zwar optional, ermöglicht aber die Vergabe eines benutzerfreundlichen Namens für den HTTP-Boot-Server. Fügen Sie zum Einrichten des DNS-Servers Folgendes zur Datei /etc/dnsmasq.conf hinzu:

interface=eth0
addn-hosts=/etc/dnsmasq.d/hosts.conf

Weisen Sie den IP-Adressen in der Datei /etc/dnsmasq.d/hosts.conf einen Domänennamen zu:

192.168.111.1 www.httpboot.local
2001:db8:f00f:cafe::1 www.httpboot.local

Starten Sie den DNS-Server.

systemctl start dnsmasq
Anmerkung
Anmerkung: Verwenden des Schnittstellenmodul-Bootloaders

Aufgrund einer Änderung in UEFI 2.7 empfehlen wir die Verwendung eines Schnittstellenmodul-Bootloaders von SLE 15 oder neuer, um mögliche Fehler durch den zusätzlichen DNS-Knoten zu vermeiden.

18.2.1.1 Konfigurieren des DHCP-Servers

Geben Sie die Netzwerkschnittstelle für die DHCP-Server in /etc/sysconfig/dhcpd an, bevor Sie sie einrichten:

DHCPD_INTERFACE="eth0"
DHCPD6_INTERFACE="eth0"

Auf diese Weise stellen die DHCP-Server den Dienst nur auf der eth0-Schnittstelle zur Verfügung.

Fügen Sie die folgende Konfiguration zur Datei /etc/dhcpd.conf hinzu, um einen DHCPv4-Server sowohl für PXE-Boot als auch für HTTP-Boot einzurichten:

option domain-name-servers 192.168.111.1;
option routers 192.168.111.1;
default-lease-time 14400;
ddns-update-style none;
  subnet 192.168.111.0 netmask 255.255.255.0 {
    range dynamic-bootp 192.168.111.100 192.168.111.120;
    default-lease-time 14400;
    max-lease-time 172800;
    class "pxeclients"{
      match if substring (option vendor-class-identifier, 0, 9) = "PXEClient";
      next-server 192.168.111.1;
      filename "/bootx64.efi";
    }
    class "httpclients" {
      match if substring (option vendor-class-identifier, 0, 10) = "HTTPClient";
      option vendor-class-identifier "HTTPClient";
      filename "http://www.httpboot.local/sle/EFI/BOOT/bootx64.efi";
    }
}

Beachten Sie, dass der DHCPv4-Server den HTTPClient-Parameter für die ID der Herstellerklasse verwenden muss, da der Client diesen zur Identifizierung eines HTTP-Boot-Angebots verwendet.

Starten Sie den DHCP-Daemon:

systemctl start dhcpd

18.2.1.2 Konfigurieren des DHCPv6-Servers

Fügen Sie zum Einrichten des DHCPv6-Servers Folgendes zur Datei /etc/dhcpd6.conf hinzu:

option dhcp6.bootfile-url code 59 = string;
option dhcp6.vendor-class code 16 = {integer 32, integer 16, string};
subnet6 2001:db8:f00f:cafe::/64 {
        range6 2001:db8:f00f:cafe::42:10 2001:db8:f00f:cafe::42:99;
        option dhcp6.bootfile-url "http://www.httpboot.local/sle/EFI/BOOT/bootx64.efi";
        option dhcp6.name-servers 2001:db8:f00f:cafe::1;
        option dhcp6.vendor-class 0 10 "HTTPClient";
}

Diese Konfiguration definiert den Typ der Boot-URL, die Herstellerklasse und andere erforderliche Optionen. Ähnlich wie bei den DHCPv4-Einstellungen ist es erforderlich, die Boot-URL anzugeben, die eine IPv6-Adresse enthalten muss. Es ist auch notwendig, die Option der Herstellerklasse anzugeben. Bei DHCPv6 besteht sie aus der Unternehmensnummer und den Daten der Herstellerklasse (Länge und Inhalt). Da der HTTP-Boot-Treiber die Unternehmensnummer ignoriert, können Sie sie auf 0 festlegen. Der Inhalt der Herstellerklassedaten muss HTTPClient lauten, da ansonsten der Client das Angebot ignoriert.

Für die ältere HTTP-Boot-Implementierung, die nicht RFC 3315 folgt, ist eine andere Konfiguration erforderlich:

option dhcp6.bootfile-url code 59 = string;
option dhcp6.vendor-class code 16 = string;
        subnet6 2001:db8:f00f:cafe::/64 {
        range6 2001:db8:f00f:cafe::42:10 2001:db8:f00f:cafe::42:99;
        option dhcp6.bootfile-url "http://www.httpboot.local/sle/EFI/BOOT/bootx64.efi;
	option dhcp6.name-servers 2001:db8:f00f:cafe::1;
	option dhcp6.vendor-class "HTTPClient";
}

Starten Sie den dhcpv6-Daemon.

systemctl start dhcpd6
18.2.1.2.1 Einrichten des DHCPv6-Servers für PXE- und HTTP-Boot

Mit der folgenden Konfiguration ist es möglich, den DHCPv6-Server sowohl für PXE-Boot als auch für HTTP-Boot zu konfigurieren:

option dhcp6.bootfile-url code 59 = string;
option dhcp6.vendor-class code 16 = {integer 32, integer 16, string};

subnet6 2001:db8:f00f:cafe::/64 {
        range6 2001:db8:f00f:cafe::42:10 2001:db8:f00f:cafe::42:99;

        class "PXEClient" {
	        match substring (option dhcp6.vendor-class, 6, 9);
	}

        subclass "PXEClient" "PXEClient" {
	        option dhcp6.bootfile-url "tftp://[2001:db8:f00f:cafe::1]/bootloader.efi";
	}

	class "HTTPClient"; {
	        match substring (option dhcp6.vendor-class, 6, 10);
	}

	subclass "HTTPClient" "HTTPClient" {
	        option dhcp6.bootfile-url "http://www.httpboot.local/sle/EFI/BOOT/bootx64.efi";
		option dhcp6.name-servers 2001:db8:f00f:cafe::1;
		option dhcp6.vendor-class 0 10 "HTTPClient";
	}
}

Es ist auch möglich, die Herstellerklasse einer bestimmten Architektur zuzuordnen, und zwar wie folgt:

class "HTTPClient" {
        match substring (option dhcp6.vendor-class, 6, 21);
	}

subclass "HTTPClient" "HTTPClient":Arch:00016 {
        option dhcp6.bootfile-url "http://www.httpboot.local/sle/EFI/BOOT/bootx64.efi";
	option dhcp6.name-servers 2001:db8:f00f:cafe::1;
	option dhcp6.vendor-class 0 10 "HTTPClient";
}

In diesem Beispiel bezieht sich HTTPClient:Arch:00016 auf einen AMD64/Intel 64 HTTP-Boot-Client. Mit dieser Konfiguration kann der Server verschiedene Architekturen gleichzeitig bedienen.

18.2.1.2.2 Konfigurieren der Firewall

Falls DHCPv6-Pakete vom RP-Filter in der Firewall verworfen werden, überprüfen Sie das Protokoll. Sollte es den Eintrag rpfilter_DROP enthalten, deaktivieren Sie den Filter mit der folgenden Konfiguration in /etc/firewalld/firewalld.conf:

IPv6_rpfilter=no

18.2.1.3 Bereitstellen eines TFTP-Servers (optional)

Stellen Sie einen TFTP-Server bereit, wenn sowohl PXE-Boot als auch HTTP-Boot unterstützt werden soll. Installieren Sie die Pakete tftp und starten Sie den Dienst:

 systemctl start tftp.socket
systemctl start tftp.service

Außerdem muss ein spezielles tftpboot-installation -Paket installiert werden, um PXE-Boot zu verwenden. Führen Sie das Kommando zypper se tftpboot aus, um die verfügbaren tftp-installation -Pakete aufzulisten. Installieren Sie dann das Paket für die gewünschte Systemversion und Architektur, z. B. tftpboot-installation-SLE-15-SP3-x86_64 Beispiel: tftpboot-installation-SLE-VERSION-x86_64 (ersetzen SieVERSION durch die tatsächliche Version). Kopieren Sie den Inhalt des Verzeichnisses SLE-VERSION-x86_64 in das Root-Verzeichnis des TFTP-Servers:

Weitere Informationen finden Sie im /usr/share/tftpboot-installation/SLE-VERSION-x86_64/README

18.2.1.4 Einrichten des HTTP-Servers

Kopieren Sie den gesamten Inhalt des ersten System-ISO-Image in das Verzeichnis /srv/www/htdocs/sle/. Bearbeiten Sie dann die Datei /srv/www/htdocs/sle/grub.cfg. Verwenden Sie das folgende Beispiel als Referenz:

timeout=60
default=1

menuentry 'Installation IPv4' --class opensuse --class gnu-linux --class gnu --class os {
    set gfxpayload=keep
    echo 'Loading kernel ...'
    linuxefi /sle/boot/x86_64/loader/linux install=http://www.httpboot.local/sle
    echo 'Loading initial ramdisk ...'
    initrdefi /sle/boot/x86_64/loader/initrd
}

menuentry 'Installation IPv6' --class opensuse --class gnu-linux --class gnu --class os {
    set gfxpayload=keep
    echo 'Loading kernel ...'
    linuxefi /sle/boot/x86_64/loader/linux install=install=http://www.httpboot.local/sle ipv6only=1 ifcfg=*=dhcp6,DHCLIENT6_MODE=managed
    echo 'Loading initial ramdisk ...'
    initrdefi /sle/boot/x86_64/loader/initrd
}
18.2.1.4.1 Konfigurieren von lighttpd

Ändern Sie /etc/lighttpd/lighttpd.conf wie folgt, um die Unterstützung sowohl für IPv4 als auch für IPv6 in lighttpd zu aktivieren:

##
## Use IPv6?
##
#server.use-ipv6 = "enable"
$SERVER["socket"] == "[::]:80" {  }

Starten Sie den lighttpd-Daemon:

systemctl start lighttpd
18.2.1.4.2 Konfigurieren von apache2

Für Apache ist keine zusätzliche Konfiguration erforderlich. Starten Sie den apache2-Daemon:

systemctl start apache2

18.2.1.5 Aktivieren der SSL-Unterstützung für den HTTP-Server (optional)

Zur Verwendung des HTTPS-Boot müssen Sie ein vorhandenes Serverzertifikat in das DER-Format konvertieren und in die Firmware des Clients eintragen.

Falls auf Ihrem Server bereits ein Zertifikat installiert ist, konvertieren Sie es mit folgendem Kommando in das DER-Format, damit es vom Client verwendet werden kann:

openssl x509 -in CERTIFICATE.crt -outform der -out CERTIFICATE.der
18.2.1.5.1 Tragen Sie das Serverzertifikat in der Client-Firmware ein

Die genaue Vorgehensweise zum Eintragen des konvertierten Zertifikats hängt von der spezifischen Implementierung der Firmware des Clients ab. Bei bestimmter Hardware müssen Sie das Zertifikat manuell über die Firmware-Benutzeroberfläche eintragen. Verwenden Sie dazu ein externes Speichermedium, auf dem sich das Zertifikat befindet. Rechner mit Redfish-Unterstützung können das Zertifikat im Fernverfahren eintragen. Weitere Informationen zum Eintragen von Zertifikaten finden Sie in der Dokumentation zu Ihrer spezifischen Hardware.

18.2.1.5.2 Aktivieren der SSL-Unterstützung in lighttpd

Da lighttpd den privaten Schlüssel und das Zertifikat in derselben Datei benötigt, vereinheitlichen Sie sie mit folgendem Kommando:

cat CERTIFICATE.crt server.key > CERTIFICATE.pem

Kopieren Sie CERTIFICATE.pem in das Verzeichnis /etc/ssl/private/.

cp server-almighty.pem /etc/ssl/private/
chown -R root:lighttpd /etc/ssl/private/server-almighty.pem
chmod 640 /etc/ssl/private/server-almighty.pem

Vergewissern Sie sich, dass mod_openssl in der Datei /etc/lighttpd/modules.conf im Abschnitt server.modules aufgelistet ist, wie zum Beispiel:

server.modules = (
  "mod_access",
  "mod_openssl",
)

Fügen Sie die folgenden Zeilen in der Datei /etc/lighttpd/lighttpd.conf zum Abschnitt SSL-Unterstützung hinzu:

# IPv4
$SERVER["socket"] == ":443" {
    ssl.engine                 = "enable"
    ssl.pemfile                = "/etc/ssl/private/server-almighty.pem"
}
# IPv6
$SERVER["socket"] == "[::]:443" {
    ssl.engine                 = "enable"
    ssl.pemfile                = "/etc/ssl/private/server-almighty.pem"
}

Starten Sie lighttpd neu, um die SSL-Unterstützung zu aktivieren:

systemctl restart lighttpd
18.2.1.5.3 Aktivieren der SSL-Unterstützung in Apache

Öffnen Sie die Datei /etc/sysconfig/apache2 und fügen Sie das SSL-Flag wie folgt hinzu:

APACHE_SERVER_FLAGS="SSL"

Vergewissern Sie sich, dass das ssl-Modul in APACHE_MODULES aufgeführt ist, wie zum Beispiel:

Als Nächstes kopieren Sie den privaten Schlüssel und das Zertifikat in das Verzeichnis /etc/apache2/.

cp server.key /etc/apache2/ssl.key/
chown wwwrun /etc/apache2/ssl.key/server.key
chmod 600 /etc/apache2/ssl.key/server.key
cp server.crt /etc/apache2/ssl.crt/

Erstellen Sie die ssl vhost-Konfiguration.

cd /etc/apache2/vhosts.d
cp vhost-ssl.template vhost-ssl.conf

Bearbeiten Sie /etc/apache2/vhosts.d/vhost-ssl.conf, um den privaten Schlüssel und das Zertifikat zu ändern:

SSLCertificateFile /etc/apache2/ssl.crt/server.crt
 SSLCertificateKeyFile /etc/apache2/ssl.key/server.key

Starten Sie Apache neu, um die SSL-Unterstützung zu aktivieren:

systemctl restart apache2
18.2.1.5.4 Ändern der DHCP-Konfiguration

Ersetzen Sie in dhcpd.conf/dhcpd6.conf das Präfix http:// durch https:// und starten Sie den DHCP-Server neu.

systemctl restart dhcpd
systemctl restart dhcpd6

18.3 Booten des Client über HTTP-Boot

Wenn die Firmware bereits HTTP-Boot unterstützt, stecken Sie das Kabel ein und wählen Sie die richtige Boot-Option.

19 Installieren von benutzerdefinierten Vorinstallationen

Durch die Verteilung angepasster Vorinstallationen von SUSE Linux Enterprise Server auf viele identische Rechner können Sie es vermeiden, die Installation auf jedem einzelnen Rechner durchführen zu müssen. Gleichzeitig erhalten die Endbenutzer ein standardisiertes Installationsverfahren. Erstellen Sie mit YaST Firstboot benutzerdefinierte Vorinstallations-Images und legen Sie den Workflow für die abschließenden Personalisierungsschritte fest, bei denen das Eingreifen der Endbenutzer erforderlich ist (im Gegensatz zu AutoYaST, das vollständig automatische Installationen zulässt). Weitere Informationen finden Sie im Buch AutoYaST Guide, Kapitel System registration and extension selection.

Führen Sie die folgenden Schritte aus, um eine benutzerdefinierte Installation zu erstellen, an Ihre Hardware zu verteilen und das endgültige Produkt anzupassen:

  1. Bereiten Sie den Master-Computer vor, dessen Festplatte auf die Client-Computer geklont werden muss. Weitere Informationen hierzu finden Sie im Abschnitt 19.1, „Vorbereiten des Master-Rechners“.

  2. Passen Sie den Firstboot-Workflow an. Weitere Informationen hierzu finden Sie im Abschnitt 19.2, „Anpassen der Firstboot-Installation“.

  3. Erstellen Sie einen Klon der Festplatte des Master-Rechners und verteilen Sie das Image auf den Festplatten der Clients. Weitere Informationen hierzu finden Sie im Abschnitt 19.3, „Klonen der Master-Installation“.

  4. Lassen Sie den Endbenutzer die Instanz von SUSE Linux Enterprise Server personalisieren. Weitere Informationen hierzu finden Sie im Abschnitt 19.4, „Anpassen der Installation“.

19.1 Vorbereiten des Master-Rechners

Um einen Master-Rechner für einen Firstboot-Workflow vorzubereiten, gehen Sie wie folgt vor:

  1. Legen Sie das Installationsmedium in den Master-Rechner ein.

  2. Booten Sie den Rechner.

  3. Führen Sie eine normale Installation mit allen erforderlichen Konfigurationsschritten durch und stellen Sie sicher, dass Sie das Paket yast2-firstboot für die Installation auswählen.

  4. Um Ihren eigenen Workflow von YaST-Konfigurationsschritten für den Endbenutzer zu definieren oder diesem Workflow Ihre eigenen YaST-Module hinzuzufügen, fahren Sie mit Abschnitt 19.2, „Anpassen der Firstboot-Installation“ fort. Fahren Sie andernfalls direkt bei Schritt 5 fort.

  5. Aktivieren Sie Firstboot als root:

    Erstellen Sie eine leere Datei /var/lib/YaST2/reconfig_system, um die Ausführung von Firstboot auszulösen. Diese Datei wird gelöscht, sobald die Firstboot-Konfiguration erfolgreich durchgeführt wurde. Erstellen Sie diese Datei mit dem folgenden Befehl:

    touch /var/lib/YaST2/reconfig_system
  6. Fahren Sie mit Abschnitt 19.3, „Klonen der Master-Installation“ fort.

19.2 Anpassen der Firstboot-Installation

Beim Anpassen des Workflows der Firstboot-Installation können mehrere Komponenten betroffen sein. Es wird empfohlen, sie anzupassen. Wenn Sie keine Änderungen vornehmen, führt Firstboot die Installation mithilfe von Standardeinstellungen aus. Folgende Optionen sind verfügbar:

So bearbeiten Sie die folgenden Konfigurationsdateien, um diese Komponenten anzupassen:

/etc/sysconfig/firstboot

Konfiguriert verschiedene Aspekte von Firstboot (wie Versionshinweise, Skripten und Lizenzaktionen).

/etc/YaST2/firstboot.xml

Zur Konfiguration des Installations-Workflows durch Aktivierung oder Deaktivierung von Komponenten oder Hinzufügen von benutzerdefinierten Komponenten

Bietet Übersetzungen für den Workflow einer angepassten Installation wie unter Abschnitt 19.2.6, „Bereitstellen von Übersetzungen des Installations-Workflows“ beschrieben.

Tipp
Tipp: Alternativer Speicherort der Steuerdatei

Der Standardpfad für die Steuerdatei, die mit dem Paket yast2-firstboot installiert wird, lautet /etc/YaST2/firstboot.xml. Wenn ein anderer Speicherort für die Steuerdatei definiert werden soll, bearbeiten Sie /etc/sysconfig/firstboot und geben Sie in der Variablen FIRSTBOOT_CONTROL_FILE den gewünschten Speicherort an.

Wenn Sie mehr als nur die Arbeitsflusskomponenten anpassen möchten, finden Sie Informationen in der Dokumentation zu control.xml unter http://doc.opensuse.org/projects/YaST/SLES11/tdg/inst_in_general_chap.html#product_control.

19.2.1 Anpassen von YaST-Meldungen

Standardmäßig enthält eine Installation von SUSE Linux Enterprise Server verschiedene Standardnachrichten, die in verschiedenen Phasen des Installationsprozesses lokalisiert und angezeigt werden. Dazu gehört eine Willkommensmitteilung, eine Lizenzmitteilung und eine Glückwunschmitteilung am Ende der Installation. Sie können diese Meldungen durch eigene Versionen ersetzen und lokalisierte Versionen in die Installation aufnehmen. Gehen Sie wie folgt vor, um Ihre eigene Willkommensmitteilung einzubinden:

  1. Melden Sie sich als root-Benutzer an.

  2. Öffnen Sie die Konfigurationsdatei /etc/sysconfig/firstboot, und wenden Sie die folgenden Änderungen an:

    1. Legen Sie FIRSTBOOT_WELCOME_DIR auf den Verzeichnispfad fest, in dem Sie die Dateien speichern möchten, die die Willkommensnachricht und die lokalisierten Versionen enthalten, z.B.:

      FIRSTBOOT_WELCOME_DIR="/usr/share/firstboot/"
    2. Wenn der Dateiname der Willkommensnachricht weder welcome.txt noch welcome_locale.txt lautet (wobei locale dem ISO 639-Sprachcode entspricht, wie cs oder de), legen Sie das Dateinamensschema in FIRSTBOOT_WELCOME_PATTERNS fest. Beispiel:

      FIRSTBOOT_WELCOME_PATTERNS="mywelcome.txt"

      Falls nicht anderweitig festgelegt, wird vom Standardwert welcome.txt ausgegangen.

  3. Erstellen Sie die Willkommensdatei und die lokalisierten Versionen, und legen Sie sie in das in der Konfigurationsdatei /etc/sysconfig/firstboot angegebene Verzeichnis ab.

Gehen Sie genauso vor, um angepasste Lizenz- und Beendigungsmitteilungen zu konfigurieren. Diese Variablen lauten FIRSTBOOT_LICENSE_DIR und FIRSTBOOT_FINISH_FILE.

Ändern Sie die Einstellung von SHOW_Y2CC_CHECKBOX in Ja, wenn der Benutzer in der Lage sein soll, YaST direkt nach dem Ausführen der Installation zu starten.

19.2.2 Anpassen der Lizenzaktion

Sie können die Reaktion des Installationssystems auf Benutzer, die die Lizenzvereinbarung nicht akzeptieren, anpassen. Das System kann auf die folgenden drei Arten auf dieses Szenario reagieren:

Halt

Die Firstboot-Installation wird abgebrochen und das gesamte System wird heruntergefahren. Das ist die Standardeinstellung.

Fortsetzen

Die Firstboot-Installation wird fortgesetzt.

Abbrechen

Die Firstboot-Installation wird abgebrochen, das System versucht jedoch zu booten.

Wählen Sie die geeignete Option aus, und stellen Sie für LICENSE_REFUSAL_ACTION den entsprechenden Wert ein.

19.2.3 Anpassen der Versionshinweise

Je nachdem, ob Sie die Instanz von SUSE Linux Enterprise Server, die Sie mit Firstboot installieren möchten, geändert haben, müssen Sie die Endbenutzer möglicherweise über wichtige Aspekte ihres neuen Betriebssystems unterrichten. Eine Standardinstallation verwendet Versionshinweise (angezeigt in einer der abschließenden Phasen der Installation), um Benutzer über wichtige Änderungen zu informieren. Wenn Ihre eigenen bearbeiteten Versionshinweise als Teil einer Firstboot-Installation angezeigt werden sollen, gehen Sie wie folgt vor:

  1. Erstellen Sie Ihre eigene Versionshinweisdatei. Verwenden Sie das RTF-Format wie in der Beispieldatei in /usr/share/doc/release-notes und speichern Sie das Ergebnis als VERSIONSHINWEISE.

  2. Speichern Sie die optional lokalisierte Version neben der ursprünglichen Version, und ersetzen Sie den Teil en des Dateinamens durch den tatsächlichen ISO 639-Sprachcode, beispielsweise de für Deutsch.

  3. Öffnen Sie die Firstboot-Konfigurationsdatei von /etc/sysconfig/firstboot und stellen Sie FIRSTBOOT_RELEASE_NOTES_PATH auf das tatsächliche Verzeichnis ein, in dem die Versionshinweisdateien gespeichert sind.

19.2.4 Anpassen des Workflows

Das mitgelieferte Beispiel /etc/YaST2/firstboot.xml definiert einen Standard-Workflow, der die folgenden aktivierten Komponenten enthält:

  • Sprachauswahl

  • Willkommen

  • Lizenzvereinbarung

  • Zeit und Datum

  • Benutzer

  • Stammpasswort

  • Beenden der Einrichtung

Beachten Sie, dass dieser Workflow eine Vorlage ist. Sie können sie richtig anpassen, indem Sie die Firstboot-Konfigurationsdatei /etc/YaST2/firstboot.xml manuell bearbeiten. Die XML-Datei ist eine Teilmenge der Standarddatei control.xml, die von YaST verwendet wird, um den Installations-Workflow zu steuern. In Beispiel 19.2, „Konfigurieren des Workflow-Abschnitts“ erfahren Sie mehr darüber, wie Sie den Workflow-Bereich konfigurieren.

Eine Übersicht mit Vorschlägen finden Sie in Beispiel 19.1, „Konfigurieren von Vorschlagsbildschirmen“. Dort werden Ihnen alle Hintergrundinformationen bereitgestellt, die Sie benötigen, um den Workflow für die Firstboot-Installation zu ändern. Die Basissyntax der Firstboot-Konfigurationsdatei (und die Konfiguration der Schlüsselelemente) werden anhand dieses Beispiels erklärt.

Beispiel 19.1: Konfigurieren von Vorschlagsbildschirmen
    …
    <proposals config:type="list">1
        <proposal>2
            <name>firstboot_hardware</name>3
            <mode>installation</mode>4
            <stage>firstboot</stage>5
            <label>Hardware Configuration</label>6
            <proposal_modules config:type="list">7
                <proposal_module>printer</proposal_module>8
            </proposal_modules>
        </proposal>
        <proposal>
        …
        </proposal>
    </proposals>

1

Der Container für alle Vorschläge, die Teil des Firstboot-Workflows sein sollen.

2

Der Container für einen einzelnen Vorschlag.

3

Der interne Name des Vorschlags.

4

Der Modus dieses Vorschlags. Nehmen Sie hier keine Änderungen vor. Für eine Firstboot-Installation muss diese Option auf Installation eingestellt sein.

5

Die Phase des Installationsprozesses, in der dieser Vorschlag aufgerufen wird. Nehmen Sie hier keine Änderungen vor. Für eine Firstboot-Installation muss diese Option auf firstbook eingestellt sein.

6

Die auf dem Vorschlag anzuzeigende Kennung.

7

Der Container für alle Module, die Teil des Vorschlagbildschirms sind.

8

Ein oder mehrere Module, die Teil des Vorschlagbildschirms sind.

Der nächste Abschnitt der Firstboot-Konfigurationsdatei besteht aus der Workflow-Definition. Alle Module, die Teil des Firstboot-Installations-Workflows sein sollen, müssen hier aufgeführt werden.

Beispiel 19.2: Konfigurieren des Workflow-Abschnitts
    <workflows  config:type="list">
        <workflow>
            <defaults>
                <enable_back>yes</enable_back>
                <enable_next>yes</enable_next>
                <archs>all</archs>
            </defaults>
            <stage>firstboot</stage>
            <label>Configuration</label>
            <mode>installation</mode>
            … <!–– list of modules  ––>
            </modules>
        </workflow>
    </workflows>
    …

Die Gesamtstruktur des Abschnitts Workflows entspricht weitgehend dem des Abschnitts Vorschläge. Ein Container enthält die Workflow-Elemente, die Workflow-Elemente enthalten wiederum Informationen zu Stufe, Kennung und Modus (wie die in Beispiel 19.1, „Konfigurieren von Vorschlagsbildschirmen“ eingeführten Vorschläge). Der Abschnitt Standard ist am unterschiedlichsten. Er enthält grundlegende Design-Informationen für die Workflow-Komponenten:

enable_back

Zeigt in allen Dialogfeldern die Schaltfläche Zurück an.

enable_next

Zeigt in allen Dialogfeldern die Schaltfläche Weiter an.

archs

Geben Sie die Hardware-Architekturen an, in denen dieser Workflow verwendet werden soll.

Beispiel 19.3: Konfigurieren der Liste der Workflow-Komponenten
    <modules  config:type="list">1
        <module>2
            <label>Language</label>3
            <enabled config:type="boolean">false</enabled>4
            <name>firstboot_language</name>5
        </module>
    <modules>

1

Der Container für alle Komponenten des Workflows

2

Die Moduldefinitionen

3

Die mit allen Modulen angezeigte Kennung

4

Der Schalter zum Aktivieren/Deaktivieren dieser Komponenten im Workflow

5

Der Modulname – Das Modul selbst muss sich unter /usr/share/YaST2/clients befinden.

Um während der Firstboot-Installation Änderungen an der Zahl und Reihenfolge der Vorschlagsbildschirme durchzuführen, fahren Sie fort wie folgt:

  1. Öffnen Sie die Firstboot-Konfigurationsdatei unter /etc/YaST2/firstboot.xml.

  2. Löschen Sie Vorschlagsbildschirme, fügen Sie Bildschirme hinzu oder ändern Sie die Reihenfolge von vorhandenen Bildschirmen:

    • Um einen Gesamtvorschlag zu löschen, entfernen Sie das Element Vorschlag einschließlich aller Unterelemente aus dem Abschnitt Vorschläge und entfernen Sie das entsprechende Element Modul (mit Unterelementen) aus dem Workflow.

    • Um einen neuen Vorschlag hinzuzufügen, erstellen Sie ein neues Element Vorschlag, und tragen Sie alle erforderlichen Unterelemente ein. Stellen Sie sicher, dass der Vorschlag in /usr/share/YaST2/clients als YaST-Modul vorhanden ist.

    • Um die Reihenfolge der Vorschläge zu ändern, verschieben Sie die entsprechenden Modulelemente Modul, die die Vorschlagsbildschirme enthalten, im Workflow. Beachten Sie, dass Abhängigkeiten von anderen Installationsschritten bestehen können, die eine bestimmte Reihenfolge der Vorschläge und Workflow-Komponenten voraussetzen.

  3. Wenden Sie Ihre Änderungen an und schließen Sie die Konfigurationsdatei.

Sie können den Workflow der Konfigurationsschritte immer ändern, wenn der Standard Ihren Anforderungen nicht entspricht. Aktivieren oder deaktivieren Sie bestimmte Module im Workflow (oder fügen Sie eigene Workflows hinzu).

Um den Status eines Moduls im Firstboot-Workflow umzuschalten, gehen Sie wie folgt vor:

  1. Öffnen Sie die Konfigurationsdatei /etc/YaST2/firstboot.xml.

  2. Ändern Sie den Wert für das Element enabled von true in false, um das Modul zu deaktivieren oder von false in true, um es erneut zu aktivieren.

    <module>
        <label>Time and Date</label>
        <enabled config:type="boolean">true</enabled>
        <name>firstboot_timezone</name>
    </module>
  3. Wenden Sie Ihre Änderungen an und schließen Sie die Konfigurationsdatei.

Um dem benutzerdefinierten Modul einen Workflow hinzuzufügen, gehen Sie wie folgt vor:

  1. Erstellen Sie ein eigenes YaST-Modul und speichern Sie die Moduldatei module_name.rb in /usr/share/YaST2/clients.

  2. Öffnen Sie die Konfigurationsdatei /etc/YaST2/firstboot.xml.

  3. Legen Sie fest, an welchem Punkt des Workflows Ihr neues Modul ausgeführt werden soll. Stellen Sie dabei sicher, dass Abhängigkeiten von anderen Schritten im Workflow berücksichtigt und aufgelöst werden.

  4. Erstellen Sie im Container Module ein neues Modul-Element und fügen Sie die entsprechenden Unterelemente hinzu:

    <modules config:type="list">
         …
         <module>
            <label>my_module</label>
            <enabled config:type="boolean">true</enabled>
            <name>filename_my_module</name>
         </module>
    </modules>
    1. Geben Sie die Kennung ein, die im Element Kennung auf Ihrem Modul angezeigt werden soll.

    2. Stellen Sie sicher, dass Enabled auf true eingestellt ist, damit Ihr Modul in den Workflow aufgenommen wird.

    3. Geben Sie den Dateinamen Ihres Moduls in das Element Name ein. Lassen Sie den vollständigen Pfad und das Suffix .rb weg.

  5. Wenden Sie Ihre Einstellungen an, und schließen Sie die Konfigurationsdatei.

Tipp
Tipp: Suchen der angeschlossenen Netzwerkschnittstelle für die automatische Konfiguration

Falls die Zielhardware mehrere Netzwerkschnittstellen besitzen könnte, fügen Sie das network-autoconfig-Paket zum Anwendungs-Image hinzu. network-autoconfig durchläuft alle verfügbaren Ethernet-Schnittstellen, bis eine erfolgreich per DHCP konfiguriert ist.

19.2.5 Konfigurieren von zusätzlichen Skripten

Firstboot kann so konfiguriert werden, dass zusätzliche Skripten ausgeführt werden, nachdem der Firstboot-Workflow abgeschlossen wurde. Um der Firstboot-Sequenz zusätzliche Skripten hinzuzufügen, gehen Sie wie folgt vor:

  1. Öffnen Sie die Konfigurationsdatei /etc/sysconfig/firstboot, und stellen Sie sicher, dass der für SCRIPT_DIR angegebene Pfad korrekt ist. Der Standardwert ist /usr/share/firstboot/scripts.

  2. Erstellen Sie Ihr Shell-Skript, speichern Sie es in das angegebene Verzeichnis und wenden Sie die entsprechenden Dateiberechtigungen an.

19.2.6 Bereitstellen von Übersetzungen des Installations-Workflows

Abhängig vom Endbenutzer könnten Übersetzungen des benutzerdefinierten Workflows gewünscht werden. Diese Übersetzungen könnten notwendig sein, wenn Sie den Workflow durch Ändern der Datei /etc/YaST2/firstboot.xml wie in Abschnitt 19.2.4, „Anpassen des Workflows“ beschrieben angepasst haben.

Wenn Sie die Datei /etc/YaST2/firstboot.xml geändert und Änderungen an Zeichenketten vorgenommen haben, erstellen Sie eine neue Übersetzungsvorlagendatei (.pot-Datei) und verwenden Sie die gettext-Toolkette zur Übersetzung. Installieren Sie die übersetzten Dateien schließlich in den YaST-Locale-Verzeichnissen (/usr/share/YaST2/locale) als kompilierte .mo-Dateien. Führen Sie dazu die folgenden Schritte aus:

  1. Ändern Sie beispielsweise die Einstellung textdomain von:

    <textdomain>firstboot</textdomain>

    zu:

    <textdomain>firstboot-oem</textdomain>
  2. Verwenden Sie xgettext, um die übersetzbaren Zeichenketten zur Übersetzungsvorlagendatei (.pot-Datei) hinzuzufügen, zum Beispiel zu firstboot-oem.pot:

    xgettext -L Glade -o firstboot-oem.pot /etc/YaST2/firstboot.xml
  3. Starten Sie den Übersetzungsprozess. Packen Sie anschließend die übersetzten Dateien (LL_code.po-Dateien) genauso wie die Übersetzungen der anderen Projekte und installieren Sie die kompilierten firstboot-oem.mo-Dateien.

Falls Sie Übersetzungen für zusätzliche oder geänderte YaST-Module benötigen, stellen Sie die Übersetzungen in einem derartigen Modul selbst bereit. Wenn Sie ein vorhandenes Modul geändert haben, ändern Sie auf jeden Fall auch dessen Textdomain-Anweisung, um unerwünschte Nebeneffekte zu vermeiden.

Tipp
Tipp: Zusätzliche Informationsquellen

Weitere Informationen zur YaST-Bereitstellung finden Sie in https://en.opensuse.org/openSUSE:YaST_development. Detaillierte Informationen über YaST Firstboot finden Sie im http://doc.opensuse.org/projects/YaST/SLES11/tdg/bk09ch01s02.html.

19.3 Klonen der Master-Installation

Klonen Sie die Festplatte des Master-Rechners mit einem verfügbaren Imaging-Mechanismus und führen Sie die Images auf den Zielrechnern ein. Weitere Informationen zum Imaging finden Sie im https://doc.suse.com/kiwi/.

19.4 Anpassen der Installation

Sobald das geklonte Festplatten-Image gebootet wurde, startet Firstboot, und die Installation fährt genauso fort wie in Abschnitt 19.2.4, „Anpassen des Workflows“ beschrieben. Nur die Komponenten werden gestartet, die in der Firstboot-Workflow-Konfiguration enthalten sind. Alle anderen Installationsschritte werden übersprungen. Der Endbenutzer passt Sprache, Tastatur, Netzwerk und Passworteinstellungen an, um den Arbeitsplatzrechner zu personalisieren. Nach Abschluss dieses Vorgangs verhält sich ein mit Firstboot installiertes System wie eine normale Instanz von SUSE Linux Enterprise Server.

Teil V Erstkonfiguration des Systems

  • 20 Einrichten von Hardwarekomponenten mit YaST
  • Mit YaST können Sie Hardwarekomponenten wie Audiohardware, die Systemtastaturbelegung oder Drucker konfigurieren.

  • 21 Installieren bzw. Entfernen von Software
  • Suchen Sie mit dem Softwareverwaltungswerkzeug von YaST nach Softwarekomponenten, die Sie hinzufügen oder entfernen möchten. YaST löst alle Abhängigkeiten für Sie. Zum Installieren von Paketen, die nicht auf den Installationsmedien vorliegen, fügen Sie Ihrer Einrichtung Software-Repositorys hinzu, und lassen Sie diese mit YaST verwalten. Mit dem Aktualisierungs-Miniprogramm können Sie Softwareaktualisierungen verwalten und Ihr System so auf dem neuesten Stand halten.

  • 22 Installieren von Modulen, Erweiterungen und Add-on-Produkten von Drittanbietern
  • Module und Erweiterungen ergänzen das System um Bestandteile oder Funktionen. In diesem Kapitel werden die Installation, der Umfang, der Supportstatus und der Lebenszyklus beschrieben.

  • 23 Installieren von mehreren Kernel-Versionen
  • SUSE Linux Enterprise Server unterstützt die parallele Installation von mehreren Kernel-Versionen. Beim Installieren eines zweiten Kernels werden automatisch ein Boot-Eintrag und ein initrd erstellt; es sind also keine weiteren manuellen Konfigurationsschritte erforderlich. Beim Neustarten des Rechners wird der hinzugefügte Kernel als zusätzlicher Boot-Parameter angeboten.

    Mithilfe dieser Funktion können Sie Kernel-Aktualisierungen zunächst auf sichere Weise testen, wobei Sie jederzeit ein Fallback auf den bisherigen (einwandfrei funktionsfähigen) Kernel vornehmen können. Verwenden Sie hierzu nicht die Aktualisierungswerkzeuge (wie YaST-Online-Update oder das Aktualisierungsmodul), sondern befolgen Sie die Anweisungen in diesem Kapitel.

  • 24 Verwalten von Benutzern mit YaST
  • Während der Installation haben Sie möglicherweise einen lokalen Benutzer für Ihr System erstellt. Mit dem YaST-Modul Benutzer- und Gruppenverwaltung können Sie Benutzer hinzufügen und vorhandene Benutzer bearbeiten. Darüber hinaus können Sie das System für die Authentifizierung von Benutzern über ei…

  • 25 Ändern der Sprach- und Ländereinstellungen mit YaST
  • Für das Arbeiten in verschiedenen Ländern oder in einer mehrsprachigen Umgebung, muss Ihr Rechner entsprechend eingerichtet sein. SUSE® Linux Enterprise Server kann verschiedene Locales parallel verarbeiten. Eine Locale bezeichnet eine Reihe von Parametern, die die Sprache und die Ländereinstellunge…

20 Einrichten von Hardwarekomponenten mit YaST

Mit YaST können Sie Hardwarekomponenten wie Audiohardware, die Systemtastaturbelegung oder Drucker konfigurieren.

Anmerkung
Anmerkung: Einstellungen für Grafikkarte, Monitor, Maus und Tastatur

Grafikkarte, Monitor, Maus und Tastatur können mit GNOME-Werkzeugen konfiguriert werden.

20.1 Einrichten der Systemtastaturbelegung

Mit dem YaST-Modul System-Tastaturlayout definieren Sie die Standard-Tastaturbelegung für das System (auch für die Konsole verwendet). Die Benutzer können die Tastaturbelegung in den jeweiligen X-Sitzungen mithilfe der Desktop-Werkzeuge bearbeiten.

  1. Öffnen Sie das YaST-Dialogfeld Konfiguration der Systemtastatur. Klicken Sie hierzu in YaST auf Hardware › System-Tastaturlayout. Alternativ starten Sie das Modul von der Kommandozeile aus mit dem Kommando sudo yast2 keyboard.

  2. Wählen Sie die gewünschte Tastaturbelegung aus der Liste aus.

  3. Im Textfeld Test können Sie die ausgewählte Tastaturbelegung ausprobieren.

  4. Wenn das Ergebnis Ihren Vorstellungen entspricht, bestätigen Sie Ihre Änderungen, und schließen Sie das Dialogfeld.

  5. Erweiterte Tastatureinstellungen werden unter System › Sysconfig Editor › Hardware › Tastatur konfiguriert. Hier können Sie die Einstellungen für die Tastaturrate und die Verzögerung festlegen sowie die NumLock-, CapsLock- und ScrollLock-Funktion aktivieren oder deaktivieren.

20.2 Einrichten von Soundkarten

YaST erkennt die meisten Soundkarten automatisch und konfiguriert sie mit den entsprechenden Werten. Wenn die Standardeinstellungen geändert werden sollen oder wenn eine Soundkarte eingerichtet werden soll, die nicht automatisch konfiguriert werden kann, verwenden Sie das YaST-Soundmodul. Damit können Sie auch weitere Soundkarten einrichten oder deren Reihenfolge ändern.

Starten Sie YaST, um das Soundmodul zu starten, und klicken Sie auf Hardware ›  Sound. Starten Sie alternativ das Dialogfeld Soundkonfiguration direkt, indem Sie yast2 sound & als root von einer Kommandozeile aus ausführen. Wenn das Audiomodul nicht verfügbar ist, müssen Sie es mit dem Kommando sudo zypper install yast2-sound installieren.

Dialogfeld Soundkonfiguration

Das Dialogfeld zeigt alle erkannten Soundkarten an.

Vorgehen 20.1: Konfigurieren von Soundkarten

Wenn Sie eine neue Soundkarte hinzugefügt haben oder wenn YaST eine vorhandene Soundkarte nicht automatisch konfigurieren konnte, dann führen Sie die folgenden Schritte aus. Für die Konfiguration einer neuen Soundkarte müssen Sie den Hersteller und das Modell Ihrer Soundkarte kennen. Wenn Sie sich nicht sicher sind, finden Sie die erforderlichen Informationen in der Dokumentation zu Ihrer Soundkarte. Eine Referenzliste der von ALSA unterstützten Soundkarten mit ihren zugehörigen Soundmodulen finden Sie im http://www.alsa-project.org/main/index.php/Matrix:Main.

Bei der Konfiguration können Sie zwischen den folgenden Einrichtungsoptionen wählen:

Schnelles automatisches Setup

Sie müssen keine der weiteren Konfigurationsschritte ausführen – die Soundkarte wird automatisch konfiguriert. Sie können die Lautstärke oder zu ändernde Optionen später festlegen.

Normales Setup

Ermöglicht Ihnen die Anpassung der Ausgabelautstärke und das Abspielen eines Testsounds bei der Konfiguration.

Erweitertes Setup mit der Möglichkeit, Optionen zu ändern

Nur für Experten. Ermöglicht Ihnen die Anpassung aller Parameter der Soundkarte.

Wichtig
Wichtig: Erweiterte Konfiguration

Wählen Sie diese Option nur, wenn Sie genau wissen, was Sie tun. Lassen Sie die Parameter andernfalls unverändert und verwenden Sie die normalen oder automatischen Setup-Optionen.

  1. Starten Sie das YaST-Soundmodul.

  2. Wählen Sie für die Konfiguration einer erkannten, aber nicht konfigurierten Soundkarte den entsprechenden Eintrag in der Liste aus und klicken Sie auf Bearbeiten.

    Klicken Sie für die Konfiguration einer neuen Soundkarte auf Hinzufügen. Wählen Sie den Anbieter und das Modell Ihrer Soundkarte aus und klicken Sie auf Weiter.

  3. Wählen Sie eine der Einrichtungsoptionen aus und klicken Sie auf Weiter.

  4. Wenn Sie Normales Setup gewählt haben, können Sie Ihre Soundkonfiguration nun Testen und die Lautstärke anpassen. Sie sollten bei ungefähr 10 Prozent Lautstärke beginnen, um Hörschäden und eine Beschädigung der Lautsprecher zu vermeiden.

  5. Wenn Sie alle Optionen nach Ihren Wünschen festgelegt haben, klicken Sie auf Weiter.

    Im Dialogfeld Soundkonfiguration wird die neu konfigurierte oder bearbeitete Soundkarte angezeigt.

  6. Zum Entfernen einer nicht mehr benötigten Soundkarten-Konfiguration wählen Sie den entsprechenden Eintrag aus und klicken Sie auf Löschen.

  7. Klicken Sie auf OK, um die Änderungen zu speichern und das YaST-Soundmodul zu verlassen.

Vorgehen 20.2: Bearbeiten von Soundkarten-Konfigurationen
  1. Wählen Sie zum Ändern der Konfiguration einer einzelnen Soundkarte (nur durch Experten!) den Soundkarteneintrag im Dialogfeld Soundkonfiguration aus und klicken Sie auf Bearbeiten.

    Dadurch gelangen Sie zu Erweiterte Optionen für die Soundkarte, wo Sie eine Reihe von Parametern feinabstimmen können. Weitere Informationen erhalten Sie durch Klicken auf Hilfe.

  2. Wählen Sie zum Anpassen der Lautstärke einer bereits konfigurierten Soundkarte oder zum Testen der Soundkarte den entsprechenden Soundkarteneintrag im Dialogfeld Soundkonfiguration aus und klicken Sie auf Weitere. Wählen Sie den entsprechenden Menüeintrag aus.

    Anmerkung
    Anmerkung: YaST-Mixer

    Die YaST-Mixer-Einstellungen bieten nur grundlegende Optionen. Sie dienen zur Fehlerbehebung (wenn z. B. kein Textsound hörbar ist). Greifen Sie über Weitere › Lautstärke auf die YaST-Mixereinstellungen zu. Nutzen Sie für den täglichen Einsatz und die Feineinstellung der Soundoptionen das Mixer-Applet Ihres Desktops oder das Kommandozeilenwerkzeug alsasound.

  3. Wählen Sie zur Wiedergabe von MIDI-Dateien die Optionen Weitere › Sequenzer starten aus.

  4. Wenn eine unterstützte Soundkarte erkannt wird, können Sie SoundFonts für die Wiedergabe von MIDI-Dateien installieren:

    1. Legen Sie die Original-Treiber-CD-ROM in Ihr CD- oder DVD-Laufwerk ein.

    2. Wählen Sie Weitere › Soundfonts installieren aus, um SF2 SoundFonts™ auf Ihre Festplatte zu kopieren. Die Soundfonts werden im Verzeichnis /usr/share/sfbank/creative/ gespeichert.

  5. Wenn Sie in Ihrem System mehr als eine Soundkarte konfiguriert haben, können Sie die Reihenfolge Ihrer Soundkarten konfigurieren. Um eine Soundkarte als primäres Gerät festzulegen, wählen Sie die betreffende Soundkarte unter Soundkonfiguration aus und klicken Sie auf Weitere › Als primäre Karte festlegen. Das Audiogerät mit Index 0 ist das Standardgerät, das vom System und den Anwendungen verwendet wird.

  6. Standardmäßig wird in SUSE Linux Enterprise Server das PulseAudio-Soundsystem genutzt. Dies ist eine Abstraktionsschicht, die Ihnen hilft, mehrere Audiostreams zu mischen, indem alle eventuell vorhandenen Hardwarerestriktionen umgangen werden. Klicken Sie zum Aktivieren oder Deaktivieren des PulseAudio-Soundsystems auf Weitere ›  PulseAudio-Konfiguration. Wenn diese Option aktiviert ist, wird der PulseAudio-Daemon zur Audiowiedergabe verwendet. Deaktivieren Sie die PulseAudio-Unterstützung, wenn Sie systemweit eine andere Option verwenden möchten.

Die Lautstärke und die Konfiguration aller installierten Soundkarten werden gespeichert, wenn Sie auf OK klicken und das YaST-Soundmodul verlassen. Die Mixereinstellungen werden in der Datei /etc/asound.state gespeichert. Die ALSA-Konfigurationsdaten werden am Ende der Datei /etc/modprobe.d/sound angefügt und in /etc/sysconfig/sound geschrieben.

20.3 Einrichten eines Druckers

Mit YaST können Sie einen lokalen Drucker konfigurieren, der über USB an Ihren Rechner angeschlossen ist, und das Drucken über Netzwerkdrucker einrichten. Es ist auch möglich, Drucker über das Netzwerk freizugeben. Weitere Informationen zum Drucken (allgemeine Informationen, technische Details und Fehlerbehebung) finden Sie im Book “Verwaltungshandbuch”, Chapter 20 “Druckerbetrieb”.

Klicken Sie in YaST auf Hardware › Drucker, um das Druckermodul zu starten. Es wird standardmäßig in der Ansicht Druckerkonfigurationen geöffnet, die eine Liste aller verfügbaren und konfigurierten Drucker enthält. Diese Ansicht ist besonders dann nützlich, wenn Ihnen im Netzwerk sehr viele Drucker zur Verfügung stehen. Aus dieser Ansicht können Sie auch eine Testseite drucken und Drucker konfigurieren.

Anmerkung
Anmerkung: Starten von CUPS

Zum Drucken vom System muss CUPS ausgeführt werden. Falls es noch nicht ausgeführt wird, werden Sie aufgefordert, es zu starten. Beantworten Sie die Frage mit Ja; ansonsten können Sie das Drucken nicht konfigurieren. Falls CUPS nicht beim Booten gestartet wird, werden Sie außerdem aufgefordert, diese Funktion zu aktivieren. Die Antwort Ja wird empfohlen, da CUPS ansonsten nach jedem Neubooten manuell gestartet werden müsste.

20.3.1 Konfigurieren von Druckern

In der Regel wird ein USB-Drucker automatisch erkannt. Es gibt zwei mögliche Gründe, aus denen er nicht automatisch erkannt wird:

  • Der USB-Drucker ist ausgeschaltet.

  • Die Kommunikation zwischen Drucker und Computer ist nicht möglich. Prüfen Sie das Kabel und die Anschlüsse, um sicherzustellen, dass der Drucker korrekt angeschlossen ist. Wenn das der Fall ist, liegt das Problem möglicherweise nicht am Drucker, sondern am USB-Anschluss.

Die Konfiguration eines Druckers erfolgt in drei Schritten: Geben Sie die Verbindungsart ein, wählen Sie einen Treiber und nennen Sie die Druckwarteschlange für diese Einrichtung.

Für viele Druckermodelle stehen mehrere Treiber zur Verfügung. Beim Konfigurieren des Druckers werden für YaST in der Regel die Drucker voreingestellt, die als empfohlen markiert sind. In der Regel muss der Treiber nicht geändert werden. Wenn jedoch ein Farbdrucker beispielsweise nur Schwarzweiß drucken soll, können Sie einen Treiber verwenden, der keinen Farbdruck unterstützt. Wenn bei der Grafikausgabe mit einem Postscript-Drucker Durchsatzprobleme auftreten, wechseln Sie probeweise von einem PostScript-Treiber zu einem PCL-Treiber (vorausgesetzt Ihr Drucker ist PCL-fähig).

Wenn in der Liste kein Treiber für Ihren Drucker aufgeführt ist, versuchen Sie, einen generischen Treiber mit der passenden Standardsprache auszuwählen. Welche Sprache (Kommandosatz, durch den der Drucker gesteuert wird) Ihr Drucker unterstützt, erfahren Sie in der Dokumentation Ihres Druckers. Weitere mögliche Lösungen finden Sie im Abschnitt 20.3.1.1, „Hinzufügen von Treibern mit YaST“.

Der Ausdruck erfolgt niemals direkt an einem Drucker, sondern immer über eine Druckwarteschlange. Dadurch wird sichergestellt, dass mehrere gleichzeitig gestartete Druckaufträge in eine Warteschlange gestellt und nacheinander ausgeführt werden. Jede Druckwarteschlange ist einem bestimmten Treiber zugewiesen; ein Drucker kann zudem auch über mehrere Warteschlangen verfügen. Sie haben dadurch zum Beispiel die Möglichkeit, für einen Farbdrucker eine zweite Druckwarteschlange für reine Schwarzweißdrucke einzurichten. Weitere Informationen zu Druckwarteschlangen erhalten Sie unter Book “Verwaltungshandbuch”, Chapter 20 “Druckerbetrieb”, Section 20.1 “Der CUPS-Workflow”.

Vorgehen 20.3: Hinzufügen eines neuen Druckers
  1. Starten Sie das YaST-Druckermodul mit Hardware › Drucker.

  2. Klicken Sie im Bildschirm Druckerkonfigurationen auf Hinzufügen.

  3. Wenn Ihr Drucker bereits unter Verbindung angeben aufgeführt ist, fahren Sie mit dem nächsten Schritt fort. Versuchen Sie es andernfalls mit der Option Weitere erkennen oder starten Sie den Verbindungsassistenten.

  4. Geben Sie im Textfeld unter Treiber suchen und zuweisen den Namen des Anbieters und den Modellnamen ein und klicken Sie auf Suchen nach.

  5. Wählen Sie den richtigen Treiber für den Drucker aus. Es wird empfohlen, den zuerst aufgeführten Treiber auszuwählen. Wenn keine passenden Treiber angezeigt werden:

    1. Überprüfen Sie den Suchbegriff.

    2. Erweitern Sie die Suche, indem Sie auf Weitere klicken.

    3. Fügen Sie einen Treiber hinzu, wie unter Abschnitt 20.3.1.1, „Hinzufügen von Treibern mit YaST“ beschrieben.

  6. Geben Sie das Standard-Papierformat an.

  7. Geben Sie im Feld Beliebigen Namen festlegen einen eindeutigen Namen für die Druckerwarteschlange ein.

  8. Für den Drucker sind nun die Standardeinstellungen konfiguriert; er ist damit betriebsbereit. Klicken Sie auf OK, um zur Ansicht Druckerkonfigurationen zurückzukehren. Der neu konfigurierte Drucker wird nun in der Liste der Drucker angezeigt.

20.3.1.1 Hinzufügen von Treibern mit YaST

Nicht alle Druckertreiber, die für SUSE Linux Enterprise Server verfügbar sind, werden auch standardmäßig installiert. Wenn beim Hinzufügen eines neuen Druckers im Dialogfeld Treiber suchen und zuweisen kein passender Treiber vorhanden ist, installieren Sie ein Treiberpaket mit Treibern für Ihren Drucker:

Vorgehen 20.4: Installieren von zusätzlichen Treiberpaketen
  1. Starten Sie das YaST-Druckermodul mit Hardware › Drucker.

  2. Klicken Sie im Bildschirm Druckerkonfigurationen auf Hinzufügen.

  3. Klicken Sie im Abschnitt Treiber suchen und zuweisen auf Treiberpakete.

  4. Wählen Sie ein oder mehrere geeignete Treiberpakete in der Liste aus. Geben Sie nicht den Pfad zu einer Druckerbeschreibungsdatei an.

  5. Wählen Sie OK und bestätigen Sie die Paketinstallation.

  6. Sollen diese Treiber direkt verwendet werden, gehen Sie gemäß den Anweisungen in Prozedur 20.3, „Hinzufügen eines neuen Druckers“ vor.

Für PostScript-Drucker ist keine Druckertreiber-Software erforderlich. Für PostScript-Drucker benötigen Sie lediglich die richtige PostScript-Druckerbeschreibungsdatei (PPD-Datei) für das Druckermodell. Weitere PPD-Dateien erhalten Sie beim Druckerhersteller.

Wenn beim Hinzufügen eines neuen Druckers im Dialogfeld Treiber suchen und zuweisen keine passende PPD-Datei vorhanden ist, installieren Sie eine PPD-Datei für Ihren Drucker:

PPD-Dateien sind an verschiedenen Stellen erhältlich. Es wird empfohlen, zunächst die weiteren Treiberpakete zu nutzen, die in SUSE Linux Enterprise Server inbegriffen sind, jedoch nicht standardmäßig installiert werden (Installationsanweisungen siehe unten). Falls diese Pakete keine geeigneten Dateien für Ihren Drucker enthalten, erhalten Sie die PPD-Dateien direkt vom Druckerhersteller oder von der Treiber-CD eines PostScript-Druckers. Weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 20 “Druckerbetrieb”, Section 20.8.2 “Für einen PostScript-Drucker ist keine geeignete PPD-Datei verfügbar”. PPD-Dateien können Sie auch unter http://www.linuxfoundation.org/collaborate/workgroups/openprinting/database/databaseintro, der Druckerdatenbank von OpenPrinting.org, suchen. Beachten Sie beim Herunterladen von PPD-Dateien von OpenPrinting, dass immer der aktuelle Linux-Support-Status angezeigt wird. Möglicherweise wird er von SUSE Linux Enterprise Server nicht erfüllt.

Vorgehen 20.5: Hinzufügen einer PPD-Datei für PostScript-Drucker
  1. Starten Sie das YaST-Druckermodul mit Hardware › Drucker.

  2. Klicken Sie im Bildschirm Druckerkonfigurationen auf Hinzufügen.

  3. Klicken Sie im Abschnitt Treiber suchen und zuweisen auf Treiberpakete.

  4. Geben Sie im Textfeld unter Eine Druckerbeschreibungsdatei zur Verfügung stellen den vollständigen Pfad für die PPD-Datei ein.

  5. Klicken Sie auf OK, um zum Bildschirm Neue Druckerkonfiguration hinzufügen zurückzukehren.

  6. Gehen Sie wie unter Prozedur 20.3, „Hinzufügen eines neuen Druckers“ beschrieben vor, um diese PPD-Datei direkt zu verwenden.

20.3.1.2 Anpassen einer lokalen Druckerkonfiguration

Sie können die vorhandene Konfiguration für einen Drucker bearbeiten und damit grundlegende Einstellungen wie den Verbindungstyp und den Treiber ändern. Außerdem können Sie die Standardeinstellungen für Papierformat, Auflösung, Medienquelle und vieles mehr anpassen. Sie können die Kennungen für den Drucker ändern, indem Sie die Druckerbeschreibung oder den Druckerort ändern.

  1. Starten Sie das YaST-Druckermodul mit Hardware › Drucker.

  2. Wählen Sie im Bildschirm Druckerkonfigurationen die Konfiguration für einen lokalen Drucker in der Liste aus und klicken Sie auf Bearbeiten.

  3. Ändern Sie die Verbindungsart oder den Treiber wie unter Prozedur 20.3, „Hinzufügen eines neuen Druckers“ beschrieben. Dies sollte jedoch nur erforderlich sein, wenn Sie Probleme mit der aktuellen Konfiguration haben.

  4. Optional: Legen Sie diesen Drucker als Standarddrucker fest, indem Sie die Option Standarddrucker aktivieren.

  5. Passen Sie die Standardeinstellungen an, indem Sie auf Alle Optionen für den aktuellen Treiber klicken. Erweitern Sie zum Ändern einer Einstellung die Liste der Optionen, indem Sie auf das entsprechende + (Pluszeichen) klicken. Ändern Sie die Standardeinstellung, indem Sie auf eine Option klicken. Übernehmen Sie die Änderungen mit OK.

20.3.2 Konfigurieren des Netzwerkdrucks in YaST

Netzwerkdrucker werden nicht automatisch erkannt. Sie müssen manuell konfiguriert werden. Hierfür verwenden Sie das Druckermodul von YaST. Je nach der Einrichtung Ihres Netzwerkes können Sie auf einen Druckserver (CUPS, LPD, SMB oder IPX) oder direkt auf einen Netzwerkdrucker (vorzugsweise über TCP) drucken. Das Fenster für die Konfiguration des Netzwerkdrucks öffnen Sie über die Option Über Netzwerk drucken auf der linken Seite des Druckermoduls von YaST.

20.3.2.1 Verwenden von CUPS

In einer Linux-Umgebung wird für den Netzwerkdruck in der Regel CUPS verwendet. Bei der einfachsten Konfiguration erfolgt der Ausdruck über einen einzigen CUPS-Server, auf den alle Clients zugreifen können. Zum Drucken über mehr als einen CUPS-Server ist ein aktivierter lokaler CUPS-Daemon erforderlich, der mit den entfernten CUPS-Servern kommuniziert.

Wichtig
Wichtig: Durchsuchen der Netzwerkdrucker-Warteschlangen

Die CUPS-Server geben ihre Druckerwarteschlangen entweder über das herkömmliche CUPS-Browsing-Protokoll oder über Bonjour/DND-SD im Netzwerk bekannt. Die Clients müssen diese Listen durchsuchen können, damit die Benutzer bestimmte Drucker auswählen können, an die sie die Druckaufträge senden. Um Netzwerkdruckerwarteschlangen durchsuchen zu können, muss der Dienst cups-browsed aus dem Paket cups-filters-cups-browsed auf allen Clients ausgeführt werden, die über CUPS-Server drucken. cups-browsed wird automatisch gestartet, sobald Sie den Netzwerkdruck mit YaST konfigurieren.

Falls das Durchsuchen nach dem Starten von cups-browsed nicht funktioniert, geben der oder die CUPS-Server die Netzwerkdrucker-Warteschlangen vermutlich über Bonjour/DND-SD bekannt. In diesem Fall müssen Sie zusätzlich das Paket avahi installieren und den zugehörigen Dienst mit sudo systemctl start avahi-daemon auf allen Clients starten.

Vorgehen 20.6: Drucken über einen einzelnen CUPS-Server
  1. Starten Sie das YaST-Druckermodul mit Hardware › Drucker.

  2. Starten Sie im linken Bereich den Bildschirm Über Netzwerk drucken.

  3. Aktivieren Sie Alle Druckaufträge direkt über einen einzelnen CUPS-Server ausführen und geben Sie den Namen oder die IP-Adresse des Servers an.

  4. Klicken Sie auf Server testen, um sicherzustellen, dass Sie den richtigen Namen bzw. die richtige IP-Adresse angegeben haben.

  5. Klicken Sie auf OK, um zum Bildschirm Druckerkonfigurationen zurückzukehren. Alle Drucker, die über den CUPS-Server verfügbar sind, werden nun aufgelistet.

Vorgehen 20.7: Drucken über mehrere CUPS-Server
  1. Starten Sie das YaST-Druckermodul mit Hardware › Drucker.

  2. Starten Sie im linken Bereich den Bildschirm Über Netzwerk drucken.

  3. Aktivieren Sie Druckerankündigungen von CUPS-Servern akzeptieren.

  4. Geben Sie unter Allgemeine Einstellungen die zu verwendenden Server an. Sie können Verbindungen von allen verfügbaren Netzwerken oder von bestimmten Hosts akzeptieren. Wenn Sie letztere Option wählen, müssen Sie die Hostnamen oder IP-Adressen angeben.

  5. Wenn Sie aufgefordert werden, einen lokalen CUPS-Server zu starten, bestätigen Sie dies, indem Sie auf OK und anschließend auf Ja klicken. Nachdem der Server YaST gestartet hat, kehren Sie zum Bildschirm Druckerkonfigurationen zurück. Klicken Sie auf Liste aktualisieren, um die bislang erkannten Drucker anzuzeigen. Klicken Sie erneut auf diese Schaltfläche, wenn weitere Drucker verfügbar sind.

20.3.2.2 Verwenden von Nicht-CUPS-Druckservern

Wenn Ihr Netzwerk Druckservices über Druckserver anbietet, die keine CUPS-Server sind, starten Sie das YaST-Druckermodul mit Hardware › Drucker, und öffnen Sie im linken Bereich den Bildschirm Über Netzwerk drucken. Starten Sie den Verbindungsassistenten und wählen Sie die entsprechende Verbindungsart aus. Ihr Netzwerkadministrator stellt Ihnen weitere Informationen zur Konfiguration eines Netzwerkdruckers in Ihrer Umgebung zur Verfügung.

20.3.3 Freigeben von Druckern im Netzwerk

Drucker, die von einem lokalen CUPS-Daemon verwaltet werden, können über das Netzwerk freigegeben werden und Ihren Computer auf diese Weise zu einem CUPS-Server machen. In der Regel wird ein Drucker durch Aktivierung des sogenannten Browsing-Modus in CUPS freigegeben. Wenn Browsing aktiviert ist, stehen die lokalen Druckwarteschlangen den entfernten CUPS-Daemonen zur Überwachung im Netzwerk zur Verfügung. Es kann aber auch ein dedizierter CUPS-Server eingerichtet werden, der alle Druckwarteschlangen verwaltet und für die entfernten Clients direkt zugänglich ist. In diesem Fall muss Browsing nicht aktiviert werden.

Vorgehen 20.8: Freigeben von Druckern
  1. Starten Sie das YaST-Druckermodul mit Hardware › Drucker.

  2. Starten Sie im linken Bereich den Bildschirm Drucker freigeben.

  3. Wählen Sie Entfernten Zugriff zulassen aus. Aktivieren Sie auch die Option Für Computer im lokalen Netzwerk und aktivieren Sie den Browsing-Modus, indem Sie außerdem die Option Drucker standardmäßig im lokalen Netzwerk veröffentlichen aktivieren.

  4. Klicken Sie auf OK, um den CUPS-Server neu zu starten, und kehren Sie zum Bildschirm Druckerkonfigurationen zurück.

  5. Informationen zu CUPS- und Firewall-Einstellungen finden Sie im https://en.opensuse.org/SDB:CUPS_and_SANE_Firewall_settings.

21 Installieren bzw. Entfernen von Software

Suchen Sie mit dem Softwareverwaltungswerkzeug von YaST nach Softwarekomponenten, die Sie hinzufügen oder entfernen möchten. YaST löst alle Abhängigkeiten für Sie. Zum Installieren von Paketen, die nicht auf den Installationsmedien vorliegen, fügen Sie Ihrer Einrichtung Software-Repositorys hinzu, und lassen Sie diese mit YaST verwalten. Mit dem Aktualisierungs-Miniprogramm können Sie Softwareaktualisierungen verwalten und Ihr System so auf dem neuesten Stand halten.

Ändern Sie die gesammelte Software auf Ihrem System mit dem YaST-Software-Manager. Dieses YaST-Modul ist in zwei Varianten verfügbar: eine grafische Ausführung für X Window und eine textbasierte Ausführung für die Kommandozeile. Im Folgenden wird die grafische Variante beschrieben; weitere Informationen zum textbasierten YaST finden Sie in Book “Verwaltungshandbuch”, Chapter 4 “YaST im Textmodus”.

Anmerkung
Anmerkung: Bestätigung und Überprüfung der Änderungen

Wenn Sie Pakete installieren, aktualisieren oder entfernen, treten alle Änderungen im Software-Manager nur dann in Kraft, wenn Sie auf Akzeptieren oder Übernehmen klicken. YaST führt eine Liste mit allen Aktionen, so dass Sie Ihre Änderungen prüfen und bearbeiten können, bevor sie endgültig in das System übernommen werden.

21.1 Definition der Begriffe

Die folgenden Begriffe sind für die Vorgänge beim Installieren und Entfernen von Software in SUSE Linux Enterprise Server unerlässlich.

Repository

Ein lokales oder entferntes Verzeichnis mit Paketen und zusätzlichen Informationen zu diesen Paketen (Metadaten des Pakets).

(Repository-)Alias/Repository-Name

Kurzname für ein Repository (in Zypper als Alias und in YaST als Repository-Name bezeichnet). Dieser Name kann vom Benutzer beim Hinzufügen eines Repositorys ausgewählt werden und muss eindeutig sein.

Repository-Beschreibungsdateien

Jedes Repository enthält Dateien mit einer Beschreibung des Repository-Inhalts (Paketnamen, Versionen usw.). Diese Repository-Beschreibungsdateien werden in einen lokalen Cache heruntergeladen, der von YaST genutzt wird.

Produkt

Bezeichnung für ein Produkt als Ganzes, z. B. SUSE® Linux Enterprise Server.

Muster

Ein Muster ist eine installierbare Gruppe von Paketen, die einem bestimmten Zweck dient. Das Laptop-Muster enthält beispielsweise alle Pakete, die in einer mobilen Rechnerumgebung benötigt werden. Die Muster definieren Paketabhängigkeiten (z. B. erforderliche oder empfohlene Pakete) und ein Teil der Pakete ist bereits für die Installation markiert. Damit ist sichergestellt, dass die wichtigsten Pakete für einen bestimmten Zweck auf dem System zur Verfügung stehen, sobald das Muster installiert wurde. Bei Bedarf können Sie Pakete in einem Schema manuell auswählen bzw. die Auswahl manuell aufheben.

Paket

Ein Paket ist eine komprimierte Datei im RPM-Format, die die Dateien für ein bestimmtes Programm enthält.

Patch

Ein Patch enthält mindestens ein Paket und kann per Delta-RPMs angewendet werden. Unter Umständen werden auch Abhängigkeiten zu Paketen aufgebaut, die noch nicht installiert wurden.

Auflösbares Objekt

Ein generischer Begriff für Produkt, Schema, Paket oder Patch. Der am häufigsten verwendete Typ auflösbarer Objekte ist ein Paket oder ein Patch.

Delta-RPM

Ein Delta-RPM besteht nur aus der binären diff zwischen zwei definierten Versionen eines Pakets und hat daher die kleinste Downloadgröße. Vor der Installation muss das vollständige RPM-Paket auf dem lokalen Rechner neu aufgebaut werden.

Paketabhängigkeiten

Einige Pakete sind von anderen Paketen abhängig, wie zum Beispiel freigegebene Bibliotheken. Anders gesagt: Für ein bestimmtes Paket können andere Pakete erforderlich sein; falls diese erforderlichen Pakete nicht vorhanden sind, kann das Paket auch nicht installiert werden. Zusätzlich zu Abhängigkeiten (Paketanforderungen), die erfüllt sein müssen, empfehlen einige Pakete andere Pakete. Diese empfohlenen Pakete werden nur dann installiert, wenn sie tatsächlich zur Verfügung stehen. Ansonsten werden sie ignoriert, und das Paket, das diese Pakete empfiehlt, wird dennoch problemlos installiert.

21.2 Registrieren eines installierten Systems

Wenn Sie die Registrierung bei der Installation übersprungen haben oder das System erneut registrieren möchten, können Sie das System jederzeit registrieren. Verwenden Sie das YaST-Modul Produktregistrierung oder das Kommandozeilenwerkzeug SUSEConnect.

21.2.1 Registrieren mit YaST

Zum Registrieren des Systems starten SIe YaST und navigieren Sie zu Software und dann zu Produktregistrierung.

Standardmäßig wird das System beim SUSE Customer Center registriert. Wenn Ihr Unternehmen lokale Registrierungsserver bereitstellt, können Sie einen Server in der Liste der automatisch erkannten Server auswählen oder die URL manuell angeben.

21.2.2 Registrieren mit SUSEConnect

Mit dem folgenden Befehl nehmen Sie die Registrierung über die Kommandozeile vor:

tux > sudo SUSEConnect -r REGISTRATION_CODE -e EMAIL_ADDRESS

Ersetzen Sie REGISTRATION_CODE durch den Registrierungscode, den Sie mit Ihrer Version von SUSE Linux Enterprise Server erhalten haben. Ersetzen Sie EMAIL_ADDRESS durch die E-Mail-Adresse für das SUSE-Konto, mit dem Sie oder Ihr Unternehmen die Abonnements verwalten.

Soll die Registrierung über einen lokalen Registrierungsserver erfolgen, geben Sie auch die URL des Servers an:

tux > sudo SUSEConnect -r REGISTRATION_CODE -e EMAIL_ADDRESS --url "URL"

21.3 Verwenden des YaST-Software-Managers

Starten Sie den Software-Manager im YaST-Kontrollzentrum mit Software ›  Software installieren oder löschen.

Bildschirm YaST Software-Manager

21.3.2 Installieren und Entfernen von Paketen oder Mustern

Einige Pakete sind von anderen Paketen abhängig, wie zum Beispiel freigegebene Bibliotheken. Andererseits können einige Pakete nicht gleichzeitig mit anderen Paketen auf dem System installiert sein. Falls möglich, löst YaST diese Abhängigkeiten oder Konflikte automatisch auf. Wenn Ihre Wahl einen Abhängigkeitskonflikt verursacht, der nicht automatisch gelöst werden kann, müssen Sie diesen Konflikt manuell lösen, wie unter Abschnitt 21.3.4, „Paketabhängigkeiten“ beschrieben.

Anmerkung
Anmerkung: Entfernen von Paketen

Wenn Sie bestimmte Pakete löschen möchten, entfernt YaST standardmäßig nur die ausgewählten Pakete. Falls YaST auch alle anderen Pakete entfernen soll, die nach dem Löschen der angegebenen Pakete nicht mehr benötigt werden, wählen Sie im Hauptmenü den Eintrag Optionen › Beim Löschen von Paketen bereinigen.

  1. Suchen Sie nach Paketen wie unter Abschnitt 21.3.1, „Suche nach Software“ beschrieben.

  2. Die gefundenen Pakete werden im rechten Fensterbereich aufgelistet. Klicken Sie zur Installation oder zum Entfernen eines Pakets mit der rechten Maustaste auf Installieren bzw. Löschen. Wenn die relevante Option nicht verfügbar ist, prüfen Sie den Paketstatus, den das Symbol vor dem Paketnamen angibt – drücken Sie UmschalttasteF1, um Hilfe zu erhalten.

    Tipp
    Tipp: Anwenden einer Aktion auf alle aufgelisteten Pakete

    Wenn Sie eine Aktion auf alle im rechten Bereich aufgelisteten Pakete anwenden möchten, wechseln Sie zum Hauptmenü, und wählen Sie eine Aktion in Paket › Alle in dieser Liste.

  3. Um ein Muster zu installieren, klicken Sie mit der rechten Maustaste auf den Namen des Musters und wählen Sie Installieren.

  4. Es ist nicht möglich, ein Muster zu entfernen. Wählen Sie stattdessen die zu entfernenden Pakete in einem Muster aus und markieren Sie diese Pakete zum Löschen.

  5. Wiederholen Sie zur Auswahl weiterer Pakete die oben genannten Schritte.

  6. Bevor Sie Ihre Änderungen übernehmen, können Sie sie überprüfen und bearbeiten. Klicken Sie hierzu auf Ansicht › Installationsüberblick. Standardmäßig werden alle Pakete aufgelistet, deren Status sich ändern wird.

  7. Um den Status für ein Paket zurückzusetzen, klicken Sie mit der rechten Maustaste auf das Paket und wählen Sie einen der folgenden Einträge aus: Beibehalten, falls das Paket zur Löschung oder Aktualisierung vorgesehen war, bzw. Nicht installieren, falls es zur Installation geplant war. Klicken Sie zum Verwerfen der Änderungen und zum Schließen des Software-Managers auf Abbrechen und Verwerfen.

  8. Wenn Sie fertig sind, klicken Sie auf Anwenden, damit Ihre Änderungen übernommen werden.

  9. Falls YaST Abhängigkeiten zu anderen Paketen findet, wird eine Liste der Pakete angezeigt, die zusätzlich zum Installieren, Aktualisieren oder Entfernen ausgewählt wurden. Klicken Sie auf Weiter, um sie zu akzeptieren.

    Wenn alle ausgewählten Pakete installiert, aktualisiert bzw. gelöscht sind, wird der YaST-Software-Manager automatisch beendet.

Anmerkung
Anmerkung: Installation von Quellpaketen

Das Installieren von Quellpaketen mit dem YaST-Software-Manager ist zurzeit nicht möglich. Verwenden Sie zu diesem Zweck das Kommandozeilenwerkzeug zypper. Weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 6 “Verwalten von Software mit Kommandozeilenwerkzeugen”, Section 6.1.3.5 “Installieren oder Herunterladen von Quellpaketen”.

21.3.3 Aktualisieren von Paketen

Anstelle einzelne Pakete zu aktualisieren, können Sie auch alle installierten Pakete oder alle Pakete aus einem bestimmten Repository aktualisieren. Bei der Sammelaktualisierung von Paketen werden im Allgemeinen die folgenden Aspekte berücksichtigt:

  • Prioritäten der Repositorys, aus denen das Paket stammen,

  • Architektur des Pakets (z. B. AMD64/Intel 64),

  • Versionsnummer des Pakets,

  • Hersteller des Pakets.

Die Aspekte, die die Auswahl der Aktualisierungskandidaten am stärksten beeinflussen, sind abhängig von der jeweils ausgewählten Aktualisierungsoption.

  1. Um alle installierten Pakete auf die jeweils aktuelle Version zu aktualisieren, wählen Sie im Hauptmenü die Option Paket › Alle Pakete › Aktualisieren, wenn neuere Version verfügbar.

    Alle Repositorys werden gemäß der folgenden Richtlinie nach möglichen Aktualisierungskandidaten durchsucht: YaST versucht zuerst die Suche auf Pakete zu begrenzen, die dieselbe Architektur und denselben Hersteller wie das installierte Paket aufweisen. Werden Pakete gefunden, wird daraus der bestmögliche Aktualisierungskandidat gemäß dem nachstehenden Verfahren ausgewählt. Wird jedoch kein vergleichbares Paket desselben Herstellers gefunden, so wird die Suche auf alle Pakete mit derselben Architektur ausgeweitet. Wenn immer noch kein vergleichbares Paket aufgefunden werden kann, werden alle Pakete betrachtet und der bestmögliche Aktualisierungskandidat wird anhand der folgenden Kriterien ermittelt:

    1. Repository-Priorität: Das Paket wird aus dem Repository genommen, das die höchste Priorität besitzt.

    2. Wenn bei dieser Auswahl mehrere Pakete in Frage kommen, wird das Paket mit der bestmöglichen Architektur verwendet (bestmöglich: dieselbe Architektur wie beim installierten Paket).

    Wenn das resultierende Paket eine höhere Versionsnummer aufweist als das installierte Paket, wird das installierte Paket aktualisiert und durch den ausgewählten Aktualisierungskandidaten ersetzt.

    Bei dieser Option wird versucht, Änderungen an der Architektur und am Hersteller der installierten Pakete zu vermeiden; unter bestimmten Umständen werden diese Änderungen jedoch zugelassen.

    Anmerkung
    Anmerkung: Bedingungslos aktualisieren

    Wenn Sie stattdessen Paket › Alle Pakete › Bedingungslos aktualisieren verwenden, werden dieselben Kritieren angewendet, wobei der aufgefundene Paketkandidat bedingungslos aktualisiert wird. Diese Option kann also bei einigen Paketen zum Downgrade führen.

  2. Um sicherzustellen, dass die Pakete für eine Sammelaktualisierung aus einem bestimmten Repository stammen, gehen Sie wie folgt vor:

    1. Wählen Sie das Repository aus, von dem aus die Aktualisierung erfolgen soll, wie unter Abschnitt 21.3.1, „Suche nach Software“ beschrieben.

    2. Klicken Sie auf der rechten Seite des Fensters auf Systempakete auf die Versionen in diesem Repository umstellen. Damit wird YaST explizit ermöglicht, den Paketanbieter beim Austauschen der Pakete zu wechseln.

      Sobald Sie auf Akzeptieren klicken, werden alle installierten Pakete durch Pakete aus diesem Repository ersetzt, sofern verfügbar. Dabei können der Hersteller und die Archtitektur wechseln, und unter Umständen wird sogar ein Downgrade für einige Pakete durchgeführt.

    3. Um dies zu vermeiden, klicken Sie auf Umstellung der Systempakete auf die Versionen in diesem Repository abbrechen. Sie können diesen Vorgang nur abbrechen, bis Sie auf die Schaltfläche Akzeptieren klicken.

  3. Bevor Sie Ihre Änderungen übernehmen, können Sie sie überprüfen und bearbeiten. Klicken Sie hierzu auf Ansicht › Installationsüberblick. Standardmäßig werden alle Pakete aufgelistet, deren Status sich ändern wird.

  4. Sobald alle Optionen gemäß Ihren Anforderungen festgelegt sind, bestätigen Sie Ihre Änderungen mit Akzeptieren. Die Sammelaktualisierung wird gestartet.

21.3.4 Paketabhängigkeiten

Die meisten Pakete hängen von anderen Paketen ab. Wenn ein Paket beispielsweise eine freigegebene Bibliothek verwendet, hängt es von dem Paket ab, das diese Bibliothek bereitstellt. Andererseits können einige Pakete nicht gleichzeitig nebeneinander bestehen und verursachen einen Konflikt. (Sie können beispielsweise nur einen Mail Transfer Agent, Sendmail oder Postfix, installieren.) Beim Installieren oder Entfernen von Software stellt der Software-Manager sicher, dass keine Abhängigkeiten oder Konflikte ungelöst bleiben, um die Systemintegrität zu gewährleisten.

Falls es nur eine Lösung zur Behebung einer Abhängigkeit oder eines Konflikts gibt, erfolgt dies automatisch. Mehrere Lösungen verursachen immer einen Konflikt, der manuell gelöst werden muss. Wenn das Lösen eines Konflikts eine Hersteller- oder Architekturänderung erfordert, muss dieser ebenfalls manuell gelöst werden. Wenn Sie zum Übernehmen von Änderungen im Software-Mananger auf Übernehmen klicken, erhalten Sie eine Übersicht über alle Aktionen, die vom automatischen Resolver ausgelöst wurden und die Sie bestätigen müssen.

Standardmäßig werden Abhängigkeiten automatisch geprüft. Eine Prüfung erfolgt jedesmal, wenn Sie einen Paketstatus ändern (z. B. durch Markieren eines Pakets zum Installieren oder Löschen). Dies ist generell nützlich, kann jedoch beim manuellen Lösen eines Abhängigkeitskonflikts anstrengend werden. Zum Deaktivieren dieser Funktion wechseln Sie zum Hauptmenü, und deaktivieren Sie Abhängigkeiten › Autom. überprüfen. Führen Sie eine Abhängigkeitsprüfung manuell mit Abhängigkeiten › Jetzt überprüfen durch. Eine Konsistenzprüfung wird stets durchgeführt, wenn Sie die Auswahl mit Übernehmen bestätigen.

Um die Abhängigkeiten eines Pakets zu prüfen, klicken Sie mit der rechten Maustaste auf das Paket und wählen Sie Auflösungsinformation anzeigen. Eine Darstellung der Abhängigkeiten wird geöffnet. Pakete, die bereits installiert sind, werden in einem grünen Rahmen angezeigt.

Anmerkung
Anmerkung: Manuelle Auflösung von Paketkonflikten

Sofern Sie nicht sehr erfahren sind, folgen Sie den Vorschlägen von YaST bei der Behandlung von Paketkonflikten, ansonsten sind Sie eventuell nicht in der Lage, die Konflikte zu lösen. Bedenken Sie, dass jede Änderung, die Sie vornehmen, andere Konflikte verursachen kann, d. h., Sie können ganz schnell einer stetig wachsenden Anzahl an Konflikten gegenüberstehen. Halten Sie in einem solchen Fall den Software-Manager über Abbrechen an. Verwerfen Sie alle Ihre Änderungen und beginnen Sie noch einmal von vorne.

Konfliktverwaltung des Software-Managers
Abbildung 21.1: Konfliktverwaltung des Software-Managers

21.3.5 Behandlung von Paketempfehlungen

Neben den starken Abhängigkeiten, die zum Ausführen eines Programms erforderlich sind (z. B. eine bestimmte Bibliothek), können für ein Paket auch schwache Abhängigkeiten gelten, die beispielsweise weitere Funktionen oder Transaktionen bieten. Diese schwachen Abhängigkeiten werden als „Paketempfehlungen“ bezeichnet.

Die Behandlung von Paketempfehlungen hat sich in SUSE Linux Enterprise Server  12 SP1 geringfügig geändert. Beim Installieren eines neuen Pakets sind die Abläufe unverändert; empfohlene Pakete werden nach wie vor standardmäßig installiert.

Vor SUSE Linux Enterprise Server  12 SP1 wurden fehlende Empfehlungen für bereits installierte Pakete automatisch installiert. Diese Pakete werden jetzt nicht mehr automatisch installiert. Soll die bisherige Standardeinstellung wieder gelten, legen Sie PKGMGR_REEVALUATE_RECOMMENDED="yes" in /etc/sysconfig/yast2 fest. Sollen alle fehlenden Empfehlungen für bereits installierte Pakete installiert werden, starten Sie YaST › Software-Manager und wählen Sie Extras › Alle passenden empfohlenen Pakete installieren.

Soll die Installation der empfohlenen Pakete beim Installieren neuer Pakete deaktiviert werden, deaktivieren Sie im YaST-Software-Manager die Option Abhängigkeiten › Empfohlene Pakete installieren. Wenn Sie die Pakete über das Kommandozeilenwerkzeug Zypper installieren, geben Sie die Option --no-recommends an.

21.4 Verwalten von Software-Repositorys und -Diensten

Zum Installieren von Software von Drittanbietern nehmen Sie Software-Repositorys in das System auf. Standardmäßig werden die Produkt-Repositorys wie die SUSE Linux Enterprise Server-DVD 15 SP3 und das zugehörige Aktualisierungs-Repository automatisch konfiguriert, sobald Sie Ihr System registriert haben. Weitere Informationen zur Registrierung finden Sie in Abschnitt 8.7, „Registrierung“ oder Book “Upgradehandbuch”, Chapter 4 “Offline-Upgrade”, Section 4.8 “Registrieren des Systems”. Abhängig vom ursprünglich ausgewählten Produkt kann eventuell auch ein zusätzliches Repository mit Übersetzungen, Wörterbüchern etc. konfiguriert sein.

Zur Verwaltung der Repositorys starten Sie YaST, und wählen Sie Software › Software-Repositorys. Das Dialogfeld Konfigurierte Software-Repositorys wird geöffnet. Hier können Sie auch Abonnements für sogenannte Dienste verwalten, indem Sie den Eintrag Ansicht oben rechts im Dialogfeld zu Alle Dienste ändern. Ein Dienst in diesem Kontext bezeichnet einen Repository Index Service (RIS), der ein oder mehrere Software-Repositorys anbieten kann. Ein solcher Dienst kann dynamisch von seinem Administrator oder Hersteller geändert werden.

Jedes Repository enthält Dateien mit einer Beschreibung des Repository-Inhalts (Paketnamen, Versionen usw.). Diese Repository-Beschreibungsdateien werden in einen lokalen Cache heruntergeladen, der von YaST genutzt wird. Um deren Integrität sicherzustellen, können Software-Repositorys mit dem GPG-Schlüssel des Repository Maintainers signiert werden. Immer, wenn Sie ein neues Repository hinzufügen, bietet YaST die Möglichkeit, seinen Schlüssel zu importieren.

Warnung
Warnung: Einstufen externer Softwarequellen als vertrauenswürdig

Vergewissern Sie sich vor dem Hinzufügen externer Software-Repositorys zu Ihrer Repository-Liste, dass das betreffende Repository vertrauenswürdig ist. SUSE trägt keine Verantwortung für Probleme, die durch die Installation von Software aus Software-Repositorys von Drittanbietern auftreten.

21.4.1 Hinzufügen von Software-Repositorys

Sie können Repositorys von DVD/CD, einem USB-Flash-Laufwerk, einem lokalen Verzeichnis, einem ISO-Image oder von einer Netzwerkquelle hinzufügen.

Zum Hinzufügen von Repositorys über das Dialogfeld Konfigurierte Software-Repositorys in YaST gehen Sie wie folgt vor:

  1. Klicken Sie auf Hinzufügen.

  2. Wählen Sie eine der Optionen im Dialogfeld:

    Hinzufügen eines Software-Repositorys
    Abbildung 21.2: Hinzufügen eines Software-Repositorys
    • Durchsuchen Sie das Netzwerk nach Installationsservern, die ihre Services per SLP bekanntgeben. Wählen Sie hierzu Mithilfe von SLP durchsuchen, und klicken Sie auf Weiter.

    • Um ein Repository von einem Wechsellaufwerk hinzuzufügen, wählen Sie die entsprechende Option aus und legen Sie das Medium ein bzw. schließen Sie das USB-Gerät an den Rechner an. Klicken Sie auf Weiter, um mit der Installation zu beginnen.

    • Bei den meisten Repositorys werden Sie aufgefordert, den Pfad (oder die URL) des Mediums anzugeben, sobald Sie die entsprechende Option ausgewählt und auf Weiter geklickt haben. Die Angabe eines Repository-Namens ist optional. Wenn kein Name angegeben ist, verwendet YaST den Produktnamen oder die URL als Repository-Namen.

    Die Option Dateien mit Repository-Beschreibung herunterladen ist standardmäßig aktiviert. Wenn Sie diese Option deaktivieren, lädt YaST die Dateien später bei Bedarf automatisch herunter.

  3. Je nach hinzugefügtem Repository werden Sie aufgefordert, den GPG-Schlüssel des Repositorys zu importieren oder eine Lizenz zu akzeptieren.

    Sobald Sie diese Meldungen bestätigt haben, beginnt YaST mit dem Herunterladen und Analysieren der Metadaten. Das Repository wird in die Liste Konfigurierte Repositorys aufgenommen.

  4. Bei Bedarf bearbeiten Sie die Eigenschaften des Repositorys gemäß den Anweisungen in Abschnitt 21.4.2, „Verwalten von Repository-Eigenschaften“.

  5. Bestätigen Sie Ihre Änderungen mit OK. Das Konfigurationsdialogfeld wird geschlossen.

  6. Nachdem Sie das Repository erfolgreich hinzugefügt haben, wird der Software-Manager gestartet, und Sie können Pakete aus diesem Repository installieren. Detaillierte Informationen finden Sie in Kapitel 21, Installieren bzw. Entfernen von Software.

21.4.2 Verwalten von Repository-Eigenschaften

In der Übersicht Konfigurierte Software-Repositorys unter Software-Repositorys können Sie die folgenden Repository-Eigenschaften ändern:

Status

Der Repository-Status kann Aktiviert oder Deaktiviert lauten. Sie können nur Pakete von Repositorys installieren, die aktiviert sind. Soll ein Repository vorübergehend deaktiviert werden, wählen Sie das gewünschte Repository aus, und deaktivieren Sie die Option Aktivieren. Alternativ können Sie auf einen Repository-Namen doppelklicken und so den Status umschalten. Mit Löschen wird ein Repository vollständig gelöscht.

Aktualisieren

Beim Aktualisieren eines Repositorys wird seine Inhaltsbeschreibung (Paketnamen, Versionen usw.) in einen lokalen Cache heruntergeladen, den YyST benutzt. Für statische Repositorys wie CDs oder DVDs genügt dies einmal, wohingegen Repositorys mit sich häufig änderndem Inhalt häufig aktualisiert werden sollten. Die einfachste Möglichkeit, einen Repository-Cache auf dem neuesten Stand zu halten, bietet die Option Automatisch aktualisieren. Zur manuellen Aktualisierung klicken Sie auf Aktualisieren und wählen Sie eine der Optionen.

Heruntergeladene Pakete nicht löschen

Pakete von entfernten Repositorys werden vor der Installation heruntergeladen. Standardmäßig werden Sie bei einer erfolgreichen Installation gelöscht. Wenn Sie Heruntergeladene Pakete nicht löschen aktivieren, werden die heruntergeladenen Pakete beibehalten. Der Download-Speicherort wird in /etc/zypp/zypp.conf konfiguriert, standardmäßig ist dies /var/cache/zypp/packages.

Priorität

Die Priorität eines Repositorys ist ein Wert zwischen 1 und 200, wobei 1 die höchste und 200 die niedrigste Priorität bezeichnet. Alle mit YaST hinzugefügten Repositorys erhalten standardmäßig die Priorität 99. Wenn Sie keinen bestimmten Prioritätswert für ein Repository festlegen möchten, können Sie auch den Wert 0 angeben. Das Repository erhält in diesem Fall die Standardpriorität (99). Wenn ein Paket in mehr als einem Repository vorhanden ist, hat das Repository mit der höchsten Priorität Vorrang. Damit können Sie vermeiden, dass Pakete unnötig aus dem Internet heruntergeladen werden, weil ein lokales Repository (beispielsweise eine DVD) eine höhere Priorität erhält.

Wichtig
Wichtig: Priorität im Gegensatz zu Version

Das Repository mit der höchsten Prioriät wird auf jeden Fall bevorzugt. Stellen Sie daher sicher, dass das Update-Repository immer die höchste Priorität hat, andernfalls installieren Sie womöglich eine veraltete Version, die erst beim nächsten Online-Update aktualisiert wird.

Name und URL

Wenn Sie den Namen oder die URL eines Repositorys ändern möchten, wählen Sie das Repository mit einem einfachen Klick in der Liste aus und klicken Sie dann auf Bearbeiten.

21.4.3 Verwalten von Repository-Schlüsseln

Um deren Integrität sicherzustellen, können Software-Repositorys mit dem GPG-Schlüssel des Repository Maintainers signiert werden. Immer, wenn Sie ein neues Repository hinzufügen, bietet YaST Ihnen an, seinen Schlüssel zu importieren. Überprüfen Sie ihn wie jeden anderen GPG-Schlüssel und stellen Sie sicher, dass er nicht geändert wird. Wenn Sie feststellen, dass der Schlüssel geändert wurde, könnte es sich um einen Fehler im Repository handeln. Deaktivieren Sie das Repository als Installationsquelle, bis Sie die Ursache für die Schlüsseländerung kennen.

Klicken Sie zur Verwaltung aller importierten Schlüssel auf GPG-Schlüssel im Dialogfeld Konfigurierte Software-Repositorys. Wählen Sie einen Eintrag mit der Maus. Die Schlüsseleigenschaften werden unten im Fenster angezeigt. Sie können Schlüssel Hinzufügen, Bearbeiten oder Löschen, indem Sie auf die entsprechenden Schaltflächen klicken.

21.5 Der GNOME Package Updater

SUSE stellt fortlaufend Sicherheitspatches und Aktualisierungen für Ihr Softwareprodukt bereit. Diese werden mit den am Desktop vorhandenen Tools oder durch Ausführen des Moduls in YaST-Online-Aktualisierung installiert. In diesem Abschnitt wird beschrieben, wie das System vom GNOME-Desktop aus mit dem Paket-Updater aktualisiert wird.

Im Gegensatz zum YaST Online Update-Modul bietet der GNOME-Paket-Updater nicht nur die Installation von Patches der Aktualisierungs-Repositorys, sondern auch neue Versionen von bereits installierten Paketen. (Patches beheben Sicherheitsprobleme oder Fehlfunktionen. Die Funktionalität und Versionsnummer wird in der Regel nicht geändert. Neue Versionen eines Pakets erhöhen die Versionsnummer und fügen in der Regel Funktionen hinzu oder führen wichtige Änderungen ein.)

Sobald neue Patches oder Paketaktualisierungen verfügbar sind, zeigt GNOME eine Benachrichtigung im Benachrichtigungsbereich oder auf einem Sperrbildschirm an.

Aktualisierungsbenachrichtigung auf dem GNOME-Desktop
Abbildung 21.3: Aktualisierungsbenachrichtigung auf dem GNOME-Desktop

Zur Konfiguration der Benachrichtigungseinstellungen für den Paket-Updater starten Sie GNOME Einstellungen und wählen Benachrichtigungen › Package Updater.

Vorgehen 21.2: Installieren von Patches und Aktualisierungen mit dem GNOME Package Updater
  1. Klicken Sie zum Installieren der Patches und Aktualisierungen auf die Benachrichtigung. Der GNOME-Paket-Updater wird geöffnet. Alternativ kann der Updater unter Aktivitäten geöffnet werden. Tippen Sie dazu package U ein und wählen Sie Paket-Updater.

    Image
  2. Aktualisierungen werden in vier Kategorien eingeteilt:

    Sicherheitsaktualisierungen (Patches)

    Beseitigen ernsthafte Sicherheitsrisiken und sollten stets installiert werden.

    Empfohlene Aktualisierungen (Patches)

    Beseitigen Probleme, die Ihrem Rechner schaden können. Es wird dringend empfohlen, diese zu installieren.

    Optionale Aktualisierungen (Patches)

    Beseitigen nicht sicherheitsrelevante Probleme oder bieten Verbesserungen.

    Sonstige Aktualisierungen

    Neue Versionen von installierten Paketen.

    Alle verfügbaren Aktualisierungen werden zur Installation ausgewählt. Sollten Sie nicht alle Aktualisierungen installieren wollen, heben Sie zunächst die Auswahl von unerwünschten Aktualisierungen auf. Es wird dringend empfohlen, immer alle Sicherheitsaktualisierungen und empfohlenen Aktualisierungen zu installieren.

    Klicken Sie auf den Titel einer Aktualisierung und dann auf Details, um detaillierte Informationen dazu zu erhalten. Die Informationen werden in einem Feld unterhalb der Paketliste angezeigt.

  3. Klicken Sie auf Updates installieren, um die Installation zu starten.

  4. Bei einigen Aktualisierungen ist es möglicherweise erforderlich, den Rechner neu zu starten oder sich abzumelden. Sehen Sie sich die Meldung mit weiteren Anweisungen an, die nach der Installation angezeigt wird.

21.6 Aktualisieren von Paketen mit GNOME-Software

Zusätzlich zur GNOME Package Updater stellt GNOME die GNOME Software mit folgenden Funktionen bereit:

  • Installieren, Aktualisieren und Entfernen von Software, die als RPM über PackageKit bereitgestellt wurde

  • Installieren, Aktualisieren und Entfernen von Software, die als Flatpak bereitgestellt wurde

  • Installieren, Aktualisieren und Entfernen von GNOME-Shell-Erweiterungen (https://extensions.gnome.org)

  • Aktualisieren von Firmware für Hardwaregeräte mit Linux Vendor Firmware Service (LVFS, https://fwupd.org)

Außerdem stellt die GNOME Software Screenshots, Bewertungen und Rezensionen für Software bereit.

GNOME Software – Ansicht Aktualisierungen
Abbildung 21.4: GNOME Software – Ansicht Aktualisierungen

GNOME Software unterscheidet sich von den anderen von SUSE Linux Enterprise Server bereitgestellten Tools wie folgt:

  • Anders als YaST oder Zypper zum Installieren von Software als RPM-Paket ist GNOME Software auf Software beschränkt, die AppStream-Metadaten bereitstellt. Dies beinhaltet die meisten Desktop-Anwendungen.

  • Während der GNOME Package Updater Pakete im laufenden System aktualisiert (und Sie zum Neustart der entsprechenden Anwendungen zwingt), lädt GNOME Software die Updates herunter, wendet sie jedoch erst nach dem nächsten Neustart des Systems an.

22 Installieren von Modulen, Erweiterungen und Add-on-Produkten von Drittanbietern

Module und Erweiterungen ergänzen das System um Bestandteile oder Funktionen. In diesem Kapitel werden die Installation, der Umfang, der Supportstatus und der Lebenszyklus beschrieben.

Module sind vollständig unterstützte Bestandteile von SUSE Linux Enterprise Server, die allerdings einen anderen Lebenszyklus und einen anderen Zeitrahmen für Aktualisierungen aufweisen. Sie sind als Paketsatz gebündelt, weisen einen eindeutig definierten Gültigkeitsbereich auf und werden ausschließlich über den Online-Kanal bereitgestellt. Unter https://www.suse.com/releasenotes/x86_64/SUSE-SLES/15/#Intro.ModuleExtensionRelated finden Sie eine Liste der Module mit ihren Abhängigkeiten und Lebenszyklen.

Für Erweiterungen (z. B. SUSE Linux Workstation Extension oder High Availability Extension), die zusätzliche Funktionen für das System bieten, ist ein kostenpflichtiger Registrierungsschlüssel erforderlich. Erweiterungen werden über einen Online-Kanal oder auf physischen Medien bereitgestellt. Die Online-Kanäle können Sie nur dann abonnieren, wenn Sie sich beim SUSE Customer Center oder bei einem lokalen Registrierungsserver registriert haben. Die Package Hub-Erweiterung (Abschnitt 22.3, „SUSE Package Hub“) ist eine Ausnahme. Für diese Erweiterung ist kein Registrierungsschlüssel erforderlich und sie fällt nicht unter die SUSE-Supportvereinbarungen. Einige Erweiterungen erfordern einen Registrierungsschlüssel, wenn ein bestimmtes Basisprodukt verwendet wird, bei anderen Basisprodukten jedoch nicht, da YaST die Erweiterungen automatisch mit dem Schlüssel des zugehörigen Basisprodukts registriert.

Sobald Sie Ihr System beim SUSE Customer Center oder bei einem lokalen Registrierungsserver registriert haben, erhalten Sie eine Liste der Module und Erweiterungen für Ihr Produkt. Falls Sie die Registrierung während der Installation übersprungen hatten, können Sie das System jederzeit nachträglich mit dem YaST-Modul SUSE Customer Center-Konfiguration nachholen. Detaillierte Informationen finden Sie in Book “Upgradehandbuch”, Chapter 4 “Offline-Upgrade”, Section 4.8 “Registrieren des Systems”.

Verschiedene Add-on-Produkte sind auch von Drittanbietern erhältlich, beispielsweise binäre Treiber, die für die Funktionsfähigkeit bestimmter Hardwaregeräte erforderlich sind. Wenn Sie über solche Hardware verfügen, suchen Sie in den Versionshinweisen Informationen zur Verfügbarkeit von Binärtreibern für Ihr System. Die Versionshinweise sind unter https://www.suse.com/releasenotes/, über YaST oder unter /usr/share/doc/release-notes/ im installierten System zu finden.

22.1 Installieren von Modulen und Erweiterungen über Online-Kanäle

Für das nachfolgende Verfahren müssen Sie Ihr System bereits beim SUSE Customer Center oder bei einem lokalen Registrierungsserver registriert haben. Beim Registrieren des Systems wird sofort nach Schritt 5 in Book “Upgradehandbuch”, Chapter 4 “Offline-Upgrade”, Section 4.8 “Registrieren des Systems” eine Liste der Erweiterungen und Module angezeigt. In diesem Fall überspringen Sie die nächsten Schritte, und fahren Sie mit Schritt 2 fort.

Anmerkung
Anmerkung: Abrufen der bereits installierten Add-on-Produkte

Zum Abrufen der bereits installierten Add-on-Produkte starten Sie YaST und wählen Sie Software › Add-ons

Vorgehen 22.1: Installieren von Add-on-Produkten und Erweiterungen über Online-Kanäle mit YaST
  1. Starten Sie YaST und wählen Sie die Software › -Systemerweiterungen aus.

    YaST stellt eine Verbindung zum Registrierungsserver her und zeigt eine Liste der verfügbaren Erweiterungen und Module an.

    Anmerkung
    Anmerkung: Verfügbare Erweiterungen und Module

    Die Anzahl der verfügbaren Erweiterungen und Module ist abhängig vom Registrierungsserver. Auf einem lokalen Registrierungsserver werden unter Umständen nur Aktualisierungs-Repositorys angeboten, keine sonstigen Erweiterungen.

  2. Wenn Sie auf einen Eintrag klicken, wird eine Beschreibung angezeigt.

  3. Zum Auswählen von einem oder mehreren Einträgen für die Installation aktivieren Sie das zugehörige Kontrollkästchen.

    Installation von Systemerweiterungen
    Abbildung 22.1: Installation von Systemerweiterungen
  4. Klicken Sie auf Weiter, um fortzufahren.

  5. Je nach den Repositorys, die für die Erweiterung oder das Modul hinzugefügt werden müssen, werden Sie aufgefordert, den GPG-Schlüssel des Repositorys zu importieren oder eine Lizenz zu akzeptieren.

    Sobald Sie diese Meldungen bestätigt haben, beginnt YaST mit dem Herunterladen und Analysieren der Metadaten. Die Repositorys für die ausgewählten Erweiterungen werden in das System eingefügt; es sind keine weiteren Installationsquellen erforderlich.

  6. Bei Bedarf bearbeiten Sie die Eigenschaften des Repositorys gemäß den Anweisungen in Abschnitt 21.4.2, „Verwalten von Repository-Eigenschaften“.

22.2 Installieren von Erweiterungen und Add-on-Produkten von Drittanbietern von einem Medium

Beim Installieren einer Erweiterung oder eines Add-on-Produkts von einem Medium stehen verschiedene Medientypen zur Auswahl, beispielsweise DVD/CD, Wechsel-Massenspeichergeräte (z. B. Flash-Laufwerke) oder auch ein lokales Verzeichnis oder ISO-Image. Die Medien können auch über einen Netzwerkserver bereitgestellt werden, beispielsweise per HTTP, FTP, NFS oder Samba.

  1. Starten Sie YaST und wählen Sie Software ›  Add-on-Produkte. Alternativ starten Sie das YaST-Modul Add-on-Produkte von der Befehlszeile aus mit dem Befehl sudo yast2 add-on.

    Das Dialogfeld zeigt eine Übersicht der bereits installierten Add-on-Produkte, Module und Erweiterungen.

    Liste der installierten Add-on-Produkte, Module und Erweiterungen
    Abbildung 22.2: Liste der installierten Add-on-Produkte, Module und Erweiterungen
  2. Mit Hinzufügen installieren Sie ein neues Add-on-Produkt.

  3. Wählen Sie im Dialogfeld Add-on-Produkt die Option für den Typ des Mediums aus, von dem aus die Installation erfolgen soll:

    Installation eines Add-on-Produkts oder einer Erweiterung
    Abbildung 22.3: Installation eines Add-on-Produkts oder einer Erweiterung
    • Durchsuchen Sie das Netzwerk nach Installationsservern, die ihre Services per SLP bekanntgeben. Wählen Sie hierzu Mithilfe von SLP durchsuchen, und klicken Sie auf Weiter.

    • Um ein Repository von einem Wechsellaufwerk hinzuzufügen, wählen Sie die entsprechende Option aus und legen Sie das Medium ein bzw. schließen Sie das USB-Gerät an den Rechner an. Klicken Sie auf Weiter, um mit der Installation zu beginnen.

    • Bei den meisten Medientypen werden Sie aufgefordert, den Pfad (oder die URL) des Mediums anzugeben, sobald Sie die entsprechende Option ausgewählt und auf Weiter geklickt haben. Die Angabe eines Repository-Namens ist optional. Wenn kein Name angegeben ist, verwendet YaST den Produktnamen oder die URL als Repository-Namen.

    Die Option Dateien mit Repository-Beschreibung herunterladen ist standardmäßig aktiviert. Wenn Sie diese Option deaktivieren, lädt YaST die Dateien später bei Bedarf automatisch herunter.

  4. Je nach hinzugefügtem Repository werden Sie aufgefordert, den GPG-Schlüssel des Repositorys zu importieren oder eine Lizenz zu akzeptieren.

    Sobald Sie diese Meldungen bestätigt haben, beginnt YaST mit dem Herunterladen und Analysieren der Metadaten. Das Repository wird in die Liste Konfigurierte Repositorys aufgenommen.

  5. Bei Bedarf bearbeiten Sie die Eigenschaften des Repositorys gemäß den Anweisungen in Abschnitt 21.4.2, „Verwalten von Repository-Eigenschaften“.

  6. Bestätigen Sie Ihre Änderungen mit OK. Das Konfigurationsdialogfeld wird geschlossen.

  7. Nachdem Sie das Repository für die Add-on-Medien erfolgreich hinzugefügt haben, wird der Software-Manager gestartet und Sie können Pakete installieren. Detaillierte Informationen finden Sie in Kapitel 21, Installieren bzw. Entfernen von Software.

22.3 SUSE Package Hub

In der Liste Verfügbare Erweiterungen und Module finden Sie den SUSE Package Hub. Diese Erweiterung ist ohne zusätzliche Gebühr verfügbar. Sie enthält zahlreiche zusätzliche Community-Pakete für SUSE Linux Enterprise, die sich mühelos installieren lassen, jedoch nicht von SUSE unterstützt werden.

Weitere Informationen zum SUSE Package Hub und zur Mitarbeit an dieser Erweiterung finden Sie im https://packagehub.suse.com/

Wichtig
Wichtig: SUSE Package Hub wird nicht unterstützt.

Beachten Sie, dass die Pakete im SUSE Package Hub nicht offiziell von SUSE unterstützt werden. SUSE leistet lediglich Support beim Aktivieren des Package Hub-Repository sowie beim Installieren oder Bereitstellen der RPM-Pakete.

23 Installieren von mehreren Kernel-Versionen

SUSE Linux Enterprise Server unterstützt die parallele Installation von mehreren Kernel-Versionen. Beim Installieren eines zweiten Kernels werden automatisch ein Boot-Eintrag und ein initrd erstellt; es sind also keine weiteren manuellen Konfigurationsschritte erforderlich. Beim Neustarten des Rechners wird der hinzugefügte Kernel als zusätzlicher Boot-Parameter angeboten.

Mithilfe dieser Funktion können Sie Kernel-Aktualisierungen zunächst auf sichere Weise testen, wobei Sie jederzeit ein Fallback auf den bisherigen (einwandfrei funktionsfähigen) Kernel vornehmen können. Verwenden Sie hierzu nicht die Aktualisierungswerkzeuge (wie YaST-Online-Update oder das Aktualisierungsmodul), sondern befolgen Sie die Anweisungen in diesem Kapitel.

Warnung
Warnung: Supportberechtigung

Es ist zu beachten, dass Ihre gesamte Supportberechtigung für den Rechner erlischt, sobald Sie einen selbst kompilierten Kernel oder einen Kernel von Drittanbietern installieren. Es werden nur solche Kernels unterstützt, die zum Lieferumfang von SUSE Linux Enterprise Server gehören oder über die offiziellen Aktualisierungskanäle für SUSE Linux Enterprise Server bezogen werden.

Tipp
Tipp: Prüfen der Bootloader-Konfiguration

Nach dem Installieren eines weiteren Kernels wird empfohlen, die Bootloader-Konfiguration zu prüfen und den gewünschten Standard-Booteintrag festzulegen. Weitere Informationen hierzu finden Sie im Book “Verwaltungshandbuch”, Chapter 14 “Der Bootloader GRUB 2”, Section 14.3 “Konfigurieren des Bootloaders mit YaST”.

23.1 Aktivieren und Konfigurieren der Multiversions-Unterstützung

Die Unterstützung für die Installation mehrerer Versionen eines Softwarepakets (Multiversions-Unterstützung) ist seit SUSE Linux Enterprise Server 12 standardmäßig aktiviert. Diese Einstellung können Sie wie folgt überprüfen:

  1. Öffnen Sie /etc/zypp/zypp.conf als root in einem Editor.

  2. Suchen Sie die Zeichenkette multiversion. Wenn „multiversion“ für alle Kernel-Pakete aktiviert ist, die diese Funktion unterstützen, wird folgende Zeile ohne Kommentare angezeigt:

    multiversion = provides:multiversion(kernel)
  3. Soll die Multiversions-Unterstützung auf bestimmte Kernel-Varianten beschränkt werden, fügen Sie die Paketnamen in einer durch Komma getrennten Liste an die Option multiversion in /etc/zypp/zypp.conf an, beispielsweise

    multiversion = kernel-default,kernel-default-base,kernel-source
  4. Speichern Sie die Änderungen.

Warnung
Warnung: Kernel-Modul-Pakete (KMP)

Stellen Sie sicher, dass die erforderlichen, vom Hersteller bereitgestellten Kernel-Module (Kernel-Modul-Pakete) auch für den neuen, aktualisierten Kernel installiert werden. Während der Aktualisierung des Kernels erhalten Sie keine Warnung zu fehlenden Kernel-Modulen, da die Paketanforderungen noch vom alten, auf dem System beibehaltenen Kernel erfüllt werden.

23.1.1 Automatisches Löschen nicht verwendeter Kernel

Wenn Sie häufig neue Kernel mit aktivierter Multiversions-Unterstützung testen, wird das Bootmenü rasch unübersichtlich. Für eine /boot-Partition gilt in der Regel eine Längenbeschränkung, sodass zu lange Angaben für /boot zu Problemen führen können. Sie können die nicht verwendeten Kernel-Versionen durchaus manuell mit YaST oder Zypper entfernen (Anweisungen siehe unten) oder auch alternativ libzypp so konfigurieren, dass alle nicht mehr genutzten Kernel automatisch gelöscht werden. Standardmäßig werden keine Kernel gelöscht.

  1. Öffnen Sie /etc/zypp/zypp.conf als root in einem Editor.

  2. Suchen Sie die Zeichenkette multiversion.kernels, und aktivieren Sie die Option, indem Sie die Auskommentierung der Zeile aufheben. Diese Option erfordert eine durch Komma getrennte Liste der folgenden Werte:

    5.3.18-53.3: Kernel mit angegebener Versionsnummer beibehalten

    neusten: Kernel mit höchster Versionsnummer beibehalten

    latest-N: Kernel mit n-höchster Versionsnummer beibehalten

    ist und ausgeführt wird: Derzeit ausgeführten Kernel beibehalten

    weitesten: Kernel mit niedrigster Versionsnummer beibehalten (also den Kernel, der aus dem ursprünglichen Lieferumfang von SUSE Linux Enterprise Server stammt)

    oldest+N Kernel mit n-niedrigster Versionsnummer beibehalten

    Hier einige Beispiele

    multiversion.kernels = latest,running

    Behält den jüngsten Kernel und den derzeit ausgeführten Kernel bei. Dies entspricht nahezu dem Nichtaktivieren der Multiversionsfunktion, mit der Ausnahme, dass der alte Kernel nicht direkt nach der Installation entfernt wird, sondern erst nach dem nächsten Neubooten.

    multiversion.kernels = latest,latest-1,running

    Behält die beiden jüngsten Kernel und den derzeit ausgeführten Kernel bei.

    multiversion.kernels = latest,running,5.3.18-53.3

    Behält den jüngsten Kernel, den derzeit ausgeführten Kernel sowie den Kernel 5.3.18-53.3 bei.

    Tipp
    Tipp: Derzeit ausgeführten Kernel beibehalten

    Wenn Sie nicht mit einer besonderen Einrichtung arbeiten, behalten Sie den als derzeit ausgeführt markierten Kernel bei.

    Falls Sie den derzeit ausgeführten Kernel nicht beibehalten, wird dieser Kernel bei einer Kernel-Aktualisierung gelöscht. Dies bedeutet wiederum, dass auch alle Module des derzeit ausgeführten Kernels gelöscht werden und nicht mehr geladen werden können.

    Wenn Sie sich entscheiden, den derzeit ausgeführten Kernel tatsächlich nicht beizubehalten, booten Sie nach einer Kernel-Aktualisierung stets unmittelbar neu, damit keine Probleme mit den Modulen auftreten.

23.1.2 Anwendungsfall: Löschen eines alten Kernels erst nach dem Neustart

Ein alter Kernel soll erst dann gelöscht werden, wenn das System fehlerfrei mit dem neuen Kernel gebootet wurde.

Ändern Sie die folgende Zeile in /etc/zypp/zypp.conf:

multiversion.kernels = latest,running

Die Parameter weisen das System an, den aktuellen Kernel und den ausgeführten Kernel nur dann beizubehalten, wenn sie nicht identisch sind.

23.1.3 Anwendungsfall: Beibehalten älterer Kernel als Fallback

Mindestens eine Kernel-Version soll als Ersatz-Kernel beibehalten werden.

Dies kann von Nutzen sein, wenn Sie mehrere Kernel zu Testzwecken beibehalten möchten. Sollte ein Problem eintreten (beispielsweise weil der Computer nicht bootet), können Sie dennoch auf mindestens eine bekanntermaßen funktionsfähige Kernel-Version zurückgreifen.

Ändern Sie die folgende Zeile in /etc/zypp/zypp.conf:

multiversion.kernels = latest,latest-1,latest-2,running

Wenn Sie das System nach dem Installieren eines neuen Kernels neu booten, behält das System drei Kernel bei: den aktuellen Kernel (als latest,running konfiguriert) und die beiden unmittelbaren Vorgänger (als latest-1 und latest-2 konfiguriert).

23.1.4 Anwendungsfall: Beibehalten einer bestimmten Kernel-Version

Sie nehmen regelmäßige Systemaktualisierungen vor und installieren neue Kernel-Versionen. Daneben kompilieren Sie eine eigene Kernel-Version, die im System beibehalten werden soll.

Ändern Sie die folgende Zeile in /etc/zypp/zypp.conf:

multiversion.kernels = latest,5.3.18-53.3,running

Wenn Sie das System nach der Installation eines neuen Kernels neu booten, behält das System zwei Kernel bei: den neuen und ausgeführten Kernel (als latest,running konfiguriert) und den selbst kompilierten Kernel (als latest-5.3.18-53.3 konfiguriert).

23.2 Installieren/Entfernen von mehreren Kernel-Versionen mit YaST

Mit YaST können Sie mehrere Kernel installieren oder entfernen:

  1. Starten Sie YaST, und öffnen Sie den Software-Manager mit Software ›  Software installieren oder löschen.

  2. Wählen Sie Anzeigen › Paketgruppen › Multiversions-Pakete. Eine Liste aller Pakete, die mehrere Versionen bieten, wird angezeigt.

    Der YaST-Software-Manager: Multiversionsanzeige
    Abbildung 23.1: Der YaST-Software-Manager: Multiversionsanzeige
  3. Wählen Sie ein Paket aus, und öffnen Sie den Karteireiter Version im unteren linken Bereich.

  4. Zum Installieren eines Pakets klicken Sie auf das Kontrollkästchen neben dem Paket. Ein grünes Häkchen zeigt, dass das betreffende Paket zur Installation ausgewählt wurde.

    Soll ein bereits installiertes Paket (mit einem weißen Häkchen markiert) entfernt werden, klicken Sie auf das zugehörige Kontrollkästchen, bis ein rotes X sichtbar ist. Dies bedeutet, dass das Paket zum Entfernen ausgewählt wurde.

  5. Klicken Sie auf Übernehmen, um mit der Installation zu beginnen.

23.3 Installieren/Entfernen von mehreren Kernel-Versionen mit Zypper

Mit zypper können Sie mehrere Kernel installieren oder entfernen:

  1. Rufen Sie mit dem Kommando zypper se -s 'kernel*' eine Liste aller verfügbaren Kernel-Pakete ab:

    S  | Name                 | Type    | Version           | Arch   | Repository
    ---+----------------------+---------+-------------------+--------+---------------------------------
    i+ | kernel-default       | package | 5.3.18-53.3       | x86_64 | (System Packages)
    i+ | kernel-default       | package | 5.3.18-54.2       | x86_64 | SLE-Module-Basesystem15-SP3-Pool
       | kernel-default-base  | package | 5.3.18-54.2.16.15 | x86_64 | SLE-Module-Basesystem15-SP3-Pool
       | kernel-default-devel | package | 5.3.18-54.2       | x86_64 | SLE-Module-Basesystem15-SP3-Pool
       | kernel-devel         | package | 5.3.18-54.2       | noarch | SLE-Module-Basesystem15-SP3-Pool
    i  | kernel-firmware      | package | 20210208-2.4      | noarch | SLE-Module-Basesystem15-SP3-Pool
       | kernel-macros        | package | 5.3.18-54.2       | noarch | SLE-Module-Basesystem15-SP3-Pool
       | kernel-preempt       | package | 5.3.18-54.2       | x86_64 | SLE-Module-Basesystem15-SP3-Pool
  2. Geben Sie beim Installieren die genaue Version an:

    tux > sudo zypper in kernel-default-5.3.18-53.3
  3. Zum Deinstallieren eines Kernels rufen Sie mit dem Kommando zypper se -si 'kernel*' eine Liste aller installierter Kernel ab und entfernen Sie das gewünschte Paket mit dem Kommando zypper rm PAKETNAME-VERSION.

24 Verwalten von Benutzern mit YaST

Während der Installation haben Sie möglicherweise einen lokalen Benutzer für Ihr System erstellt. Mit dem YaST-Modul Benutzer- und Gruppenverwaltung können Sie Benutzer hinzufügen und vorhandene Benutzer bearbeiten. Darüber hinaus können Sie das System für die Authentifizierung von Benutzern über einen Netzwerkserver konfigurieren.

24.1 Dialogfeld „Verwaltung von Benutzern und Gruppen“

Zur Verwaltung von Benutzern oder Gruppen starten Sie YaST, und klicken Sie auf Sicherheit und Benutzer ›  Verwaltung von Benutzern und Gruppen. Das Dialogfeld Verwaltung von Benutzern und Gruppen können Sie auch über die Kommandozeile mittels des Kommandos sudo yast2 users & starten.

YaST – Verwaltung von Benutzern und Gruppen
Abbildung 24.1: YaST – Verwaltung von Benutzern und Gruppen

Jedem Benutzer wird eine systemweite Benutzer-ID (UID) zugewiesen. Neben den Benutzern, die sich an Ihrem Computer anmelden können, gibt es außerdem eine Reihe von Systembenutzern nur für den internen Gebrauch. Jeder Benutzer wird einer oder mehreren Gruppen zugewiesen. Ähnlich wie bei den Systembenutzern gibt es auch Systemgruppen für den internen Gebrauch.

Über Filter geben Sie an, welche Art von Benutzern (lokale Benutzer, Netzwerkbenutzer oder Systembenutzer) in diesem Dialogfeld angezeigt und bearbeitet werden sollen. Entsprechend dieser Auswahl enthält das Hauptfenster verschiedene Karteireiter. Über die Karteireiter können Sie folgende Aufgaben ausführen:

Verwalten von Benutzerkonten

Auf dem Karteireiter Benutzer können Sie Benutzerkonten erstellen, ändern, löschen oder vorübergehend deaktivieren (siehe Abschnitt 24.2, „Verwalten von Benutzerkonten“). Weitere Informationen zur Durchsetzung von Passwortrichtlinien, zur Verwendung von verschlüsselten Home-Verzeichnissen oder zur Verwaltung von Festplattenquoten finden Sie im Abschnitt 24.3, „Weitere Optionen für Benutzerkonten“.

Ändern der Standardeinstellungen

Die Einstellungen auf dem Karteireiter Standardeinstellungen für neue Benutzer legen fest, wie lokale Benutzerkonten erstellt werden. Informationen zur Änderung der Standardgruppenzuweisung oder des Standardpfads und der Zugriffsberechtigungen für Home-Verzeichnisse erhalten Sie unter Abschnitt 24.4, „Ändern der Standardeinstellungen für lokale Benutzer“.

Zuweisen von Benutzern zu Gruppen

Informationen zur Änderung der Gruppenzuweisung für einzelne Benutzer erhalten Sie unter Abschnitt 24.5, „Zuweisen von Benutzern zu Gruppen“.

Gruppen verwalten

Auf dem Karteireiter Gruppen können Sie Gruppen hinzufügen, ändern oder löschen. Informationen hierzu erhalten Sie unter Abschnitt 24.6, „Gruppen verwalten“.

Ändern der Methode zur Benutzerauthentifizierung

Wenn Ihr Computer mit einem Netzwerk verbunden ist, das Benutzerauthentifizierungsmethoden wie NIS oder LDAP unterstützt, können Sie auf dem Karteireiter Authentifizierungseinstellungen zwischen verschiedenen Authentifizierungsmethoden wählen. Weitere Informationen hierzu finden Sie im Abschnitt 24.7, „Ändern der Methode zur Benutzerauthentifizierung“.

Für die Benutzer- und Gruppenverwaltung bietet das Dialogfeld ähnliche Funktionen. Sie können einfach zwischen den Ansichten für die Benutzer- und Gruppenverwaltung umschalten, indem Sie oben im Dialogfeld den entsprechenden Karteireiter auswählen.

Mit Filteroptionen definieren Sie die zu bearbeitenden Benutzer oder Gruppen: Klicken Sie auf der Registerkarte Benutzer oder Gruppe auf Filter festlegen, sodass die Benutzer oder Gruppen angezeigt werden. Diese werden nach bestimmten Kategorien aufgeführt, z. B. Lokale Benutzer oder LDAP-Benutzer (falls zutreffend). Mit Filter festlegen  › Benutzerdefinierte Filtereinstellung können Sie außerdem einen benutzerdefinierten Filter einrichten und verwenden.

Je nach Filter stehen im Dialogfeld nicht alle nachfolgend beschriebenen Optionen und Funktionen zur Verfügung.

24.2 Verwalten von Benutzerkonten

Mit YaST können Sie Benutzerkonten erstellen, bearbeiten, löschen oder vorübergehend deaktivieren. Ändern Sie keine Benutzerkonten, es sei denn, Sie sind ein erfahrener Benutzer oder Administrator.

Anmerkung
Anmerkung: Ändern der Benutzer-IDs bestehender Benutzer

Als Eigentümer einer Datei wird nicht der Name des betreffenden Benutzers, sondern seine Benutzer-ID angegeben. Bei der Änderung einer Benutzer-ID werden die Dateien im Home-Verzeichnis des betreffenden Benutzers automatisch an die neue ID angepasst. Das Eigentum an Dateien, die der Benutzer an anderer Stelle im Dateisystem erstellt hat, geht bei einer Änderung der Benutzer-ID allerdings verloren. Um es zu erhalten, müssten Sie den Eigentümer der Dateien manuell ändern.

Nachfolgend erfahren Sie, wie standardmäßige Benutzerkonten eingerichtet werden. Weitere Optionen finden Sie im Abschnitt 24.3, „Weitere Optionen für Benutzerkonten“.

Vorgehen 24.1: Hinzufügen oder Bearbeiten von Benutzerkonten
  1. Öffnen Sie in YaST das Dialogfeld Verwaltung von Benutzern und Gruppen, und klicken Sie dort auf Benutzer.

  2. Definieren Sie mithilfe von Filter festlegen die Menge der Benutzer, die Sie verwalten möchten. Das Dialogfeld zeigt eine Liste der Benutzer im System und die Gruppen, zu denen die Benutzer gehören.

  3. Wenn Sie Optionen für einen vorhandenen Benutzer bearbeiten möchten, wählen Sie einen Eintrag aus und klicken Sie dann auf Bearbeiten.

    Zum Erstellen eines neuen Benutzerkontos klicken Sie auf Hinzufügen.

  4. Geben Sie die entsprechenden Benutzerdaten auf dem ersten Karteireiter an, beispielsweise Benutzername (zur Anmeldung verwendet) und Passwort. Diese Daten reichen aus, um einen neuen Benutzer zu erstellen. Wenn Sie nun auf OK klicken, weist das System automatisch eine Benutzer-ID zu und legt alle Werte entsprechend der Standardvorgabe fest.

  5. Aktivieren Sie Empfang von System-Emails, wenn alle Systembenachrichtigungen an die Mailbox dieses Benutzers zugestellt werden sollen. Dadurch wird ein Email-Alias für den root erstellt und der Benutzer kann die System-Email lesen, ohne sich vorher als root anmelden zu müssen.

    Die durch Systemdienste gesendeten Emails werden in der lokalen Mailbox unter/var/spool/mail/BENUTZERNAME abgelegt, wobei mit BENUTZERNAME der Anmeldename des ausgewählten Benutzers gemeint ist. E-Mails können mit dem Kommando mail gelesen werden.

  6. Auf der Registerkarte Details können Sie Details wie die Benutzer-ID oder den Pfad zum Home-Verzeichnis des betreffenden Benutzers anpassen.

    Wenn Sie das Home-Verzeichnis eines bestehenden Benutzers an einen anderen Ort verschieben müssen, geben Sie den Pfad des neuen Home-Verzeichnisses hier an und verschieben Sie den Inhalt des aktuellen Home-Verzeichnisses mithilfe von An anderen Speicherort verschieben. Anderenfalls wird ein neues Home-Verzeichnis ohne die bereits vorhandenen Daten erstellt.

  7. Um zu erzwingen, dass die Benutzer ihr Passwort in regelmäßigen Abständen ändern, oder um andere Passwortoptionen festzulegen, wechseln Sie zu Passworteinstellungen und passen Sie die Optionen entsprechend an. Weitere Einzelheiten finden Sie im Abschnitt 24.3.2, „Erzwingen von Passwortrichtlinien“.

  8. Wenn Sie alle Optionen nach Ihren Wünschen festgelegt haben, klicken Sie auf OK.

  9. Klicken Sie auf OK, um das Verwaltungsdialogfeld zu schließen und die Änderungen zu speichern. Ein neu hinzugefügter Benutzer kann sich nun mithilfe des von Ihnen erstellten Anmeldenamens und Passworts beim System anmelden.

    Sollen alle Änderungen gespeichert werden, ohne das Dialogfeld Verwaltung von Benutzern und Gruppen zu schließen, klicken Sie alternativ auf Optionen für Experten › Änderungen jetzt schreiben.

Tipp
Tipp: Zuordnung von Benutzer-IDs

Die (lokale) Benutzer-ID sollte der ID im Netzwerk zugeordnet werden. Binden Sie beispielsweise einen neuen (lokalen) Benutzer auf einem Laptop mit derselben Benutzer-ID in eine Netzwerkumgebung ein. Dadurch wird gewährleistet, dass die Eigentümerschaft an den Dateien, die der Benutzer offline erstellt, dieselbe ist wie bei der Erstellung der Dateien direkt im Netzwerk.

Vorgehen 24.2: Deaktivieren oder Löschen von Benutzerkonten
  1. Öffnen Sie in YaST das Dialogfeld Verwaltung von Benutzern und Gruppen, und klicken Sie dort auf Benutzer.

  2. Um ein Benutzerkonto vorübergehend zu deaktivieren, ohne es zu löschen, wählen Sie es in der Liste aus und klicken Sie auf Bearbeiten. Wählen Sie Benutzernamen deaktivieren aus. Der Benutzer kann sich erst wieder an Ihrem Rechner anmelden, wenn Sie das Konto erneut aktiviert haben.

  3. Um ein Benutzerkonto zu löschen, wählen Sie den Benutzer in der Liste aus und klicken Sie auf Löschen. Wählen Sie aus, ob auch das Home-Verzeichnis des betreffenden Benutzers gelöscht werden soll oder ob die Daten beibehalten werden sollen.

24.3 Weitere Optionen für Benutzerkonten

Neben den Einstellungen für Standard-Benutzerkonten bietet SUSE® Linux Enterprise Server noch weitere Optionen. Dies sind beispielsweise Optionen, mit denen Sie Passwortrichtlinien durchsetzen, verschlüsselte Home-Verzeichnisse verwenden oder Festplattenquoten für Benutzer und Gruppen festlegen.

24.3.1 Automatische Anmeldung und Anmeldung ohne Passwort

Wenn Sie in der GNOME-Desktop-Umgebung arbeiten, können Sie die Automatische Anmeldung für einen bestimmten Benutzer sowie die Anmeldung ohne Passwort für sämtliche Benutzer konfigurieren. Mit der Option für die automatische Anmeldung wird ein Benutzer beim Booten automatisch in der Desktop-Umgebung angemeldet. Diese Funktion kann nur für jeweils einen Benutzer aktiviert werden. Mit der Option für die Anmeldung ohne Passwort können sich sämtliche Benutzer beim System anmelden, nachdem sie ihren Benutzernamen im Anmeldemanager eingegeben haben.

Warnung
Warnung: Sicherheitsrisiko

Die Aktivierung der automatischen Anmeldung bzw. der Anmeldung ohne Passwort ist auf einem Computer, zu dem mehrere Personen Zugang haben, ein Sicherheitsrisiko. Wenn keine Authentifizierung erforderlich ist, erhält jeder Benutzer Zugriff auf Ihr System und Ihre Daten. Verwenden Sie diese Funktion nicht, wenn Ihr System vertrauliche Daten enthält.

Zur Aktivierung der automatischen Anmeldung oder der Anmeldung ohne Passwort greifen Sie auf diese Funktionen in der Verwaltung von Benutzern und Gruppen von YaST über Optionen für Experten › Einstellungen für das Anmelden zu.

24.3.2 Erzwingen von Passwortrichtlinien

Bei einem System mit mehreren Benutzern ist es ratsam, mindestens grundlegende Sicherheitsrichtlinien für Passwörter zu erzwingen. Die Benutzer sollten ihre Passwörter regelmäßig ändern und starke Passwörter verwenden, die nicht so leicht herausgefunden werden können. Gehen Sie bei lokalen Benutzern wie folgt vor:

Vorgehen 24.3: Konfigurieren von Passworteinstellungen
  1. Öffnen Sie in YaST das Dialogfeld Verwaltung von Benutzern und Gruppen, und klicken Sie dort auf den Karteireiter Benutzer.

  2. Wählen Sie den Benutzer aus, dessen Passworteinstellungen Sie ändern möchten, und klicken Sie auf Bearbeiten.

  3. Öffnen Sie den Karteireiter Passworteinstellungen. Die letzte Passwortänderung des Benutzers wird auf dem Karteireiter angezeigt.

  4. Aktivieren Sie Passwortänderung erzwingen, um zu erzwingen, dass der Benutzer sein Passwort bei der nächsten Anmeldung ändert.

  5. Legen Sie zur Erzwingung einer regelmäßigen Passwortänderung eine Maximale Anzahl von Tagen für das gleiche Passwort und eine Minimale Anzahl von Tagen für das gleiche Passwort fest.

  6. Legen Sie unter Tage vor Ablauf des Passworts warnen eine bestimmte Anzahl von Tagen fest, um den Benutzer vor Ablauf seines Passworts an die Passwortänderung zu erinnern.

  7. Legen Sie unterTage nach Ablauf des Passworts Anmeldevorgang möglich eine bestimmte Anzahl von Tagen fest, um den Zeitraum einzuschränken, innerhalb dem sich der Benutzer trotz abgelaufenem Passwort anmelden kann.

  8. Sie können auch ein bestimmtes Ablaufdatum für das gesamte Konto festlegen. Das Ablaufdatum muss im Format JJJJ-MM-TT eingegeben werden. Diese Einstellung hängt nicht mit dem Passwort zusammen, sondern gilt für das Konto selbst.

  9. Weitere Informationen zu den einzelnen Optionen und deren Standardwerten erhalten Sie über die Schaltfläche Hilfe.

  10. Übernehmen Sie die Änderungen mit OK.

24.3.3 Verwalten von Quoten

Um zu verhindern, dass die Systemkapazität ohne Benachrichtigung zur Neige geht, können Systemadministratoren Quoten für Benutzer oder Gruppen einrichten. Quoten können für ein oder mehrere Dateisysteme definiert werden und beschränken den Speicherplatz, der verwendet werden kann, sowie die Anzahl der Inodes (Index-Knoten), die hier erstellt werden können. Inodes sind Datenstrukturen eines Dateisystems, die grundlegende Informationen über normale Datei-, Verzeichnis- oder andere Dateisystemobjekte speichern. Sie speichern alle Attribute eines Dateisystemobjekts (z. B. Eigentümer des Objekts und Berechtigungen wie Lesen, Schreiben oder Ausführen), mit Ausnahme des Dateinamens und des Dateiinhalts.

SUSE Linux Enterprise Server ermöglicht die Verwendung von Softquoten und Hardquoten. Zusätzlich können Kulanzintervalle definiert werden, damit Benutzer oder Gruppen ihre Quoten vorübergehend um bestimmte Werte überschreiten können.

Softlimit

Definiert eine Warnstufe, bei dem die Benutzer informiert werden, sobald sie sich ihrer Grenze nähern. Die Administratoren fordern die Benutzer auf, die Partition zu bereinigen und die Datenmenge auf der Partition zu vermindern. Der Wert für das Softlimit ist in der Regel niedriger als der Wert für das Hardlimit.

Hardlimit

Definiert die Grenze, ab der Schreibanforderungen verweigert werden. Sobald das Hardlimit erreicht wird, können keine Daten mehr gespeichert werden und Anwendungen können unter Umständen abstürzen.

Kulanzzeitraum

Definiert den Zeitraum zwischen dem Überschreiten des Softlimits und der Ausgabe der Warnmeldung. In der Regel ein relativ niedriger Wert von einer oder wenigen Stunden.

Vorgehen 24.4: Aktivieren der Quotenunterstützung für eine Partition

Wenn Sie Quoten für bestimmte Benutzer und Gruppen konfigurieren möchten, müssen Sie zunächst in YaST im Dialogfeld „Festplatte vorbereiten: Expertenmodus“ die Quotenunterstützung für die entsprechende Partition aktivieren.

Anmerkung
Anmerkung: Quoten für Btrfs-Partitionen

Quoten für Btrfs-Partitionen werden anders behandelt. Weitere Informationen finden Sie im Book “Storage Administration Guide”, Chapter 1 “Overview of file systems in Linux”, Section 1.2.5 “Btrfs quota support for subvolumes”.

  1. Wählen Sie in YaST die Optionsfolge System › Partitionieren, und klicken Sie dann auf Ja, um fortzufahren.

  2. Wählen Sie unter Festplatte vorbereiten: Expertenmodus die Partition, für die Sie Quoten aktivieren möchten, und klicken Sie dann auf Bearbeiten.

  3. Klicken Sie auf Optionen für Fstab und aktivieren Sie die Option zur Aktivierung der Quotenunterstützung. Falls das Paket quota noch nicht installiert ist, wird es automatisch installiert, sobald Sie die entsprechende Meldung mit Ja bestätigen.

  4. Bestätigen Sie Ihre Änderungen und beenden Sie Festplatte vorbereiten: Expertenmodus.

  5. Vergewissern Sie sich, dass der Dienst quotaon ausgeführt wird, indem Sie den folgenden Befehl ausführen:

    tux > sudo systemctl status quotaon

    Er sollte als aktiv gekennzeichnet sein. Wenn dies nicht der Fall ist, starten Sie ihn mit dem Befehl systemctl start quotaon.

Vorgehen 24.5: Einrichten von Quoten für Benutzer oder Gruppen

Nun können Sie für spezifische Benutzer oder Gruppen Soft- bzw. Hardquoten definieren und Zeiträume als Kulanzintervalle festlegen.

  1. Wählen Sie in YaST im Dialogfeld Verwaltung von Benutzern und Gruppen den Benutzer bzw. die Gruppe aus, für den/die Sie Quoten festlegen möchten, und klicken Sie dann auf Bearbeiten.

  2. Wählen Sie auf dem Karteireiter Plugins den Eintrag Konfiguration der Benutzerquote aus und klicken Sie dann auf Aufrufen, um das Dialogfeld für die Quotenkonfiguration zu öffnen.

  3. Wählen Sie unter Dateisystem die Partition aus, auf die die Quote angewendet werden soll.

    Image
  4. Beschränken Sie im Bereich Größenbeschränkungen den Speicherplatz. Geben Sie die Anzahl der 1-KB-Blöcke an, über die der Benutzer bzw. die Gruppe auf dieser Partition verfügen kann. Geben Sie einen Wert für Softlimit und einen für Hardlimit an.

  5. Zudem können Sie die Anzahl der Inodes beschränken, über die der Benutzer bzw. die Gruppe auf der Partition verfügen kann. Geben Sie im Bereich für die Inodes-Limits ein Softlimit und ein Hardlimit ein.

  6. Kulanzintervalle können nur definiert werden, wenn der Benutzer bzw. die Gruppe das für die Größe bzw. die Inodes festgelegte Softlimit bereits überschritten hat. Anderenfalls sind die zeitbezogenen Textfelder nicht aktiviert. Geben Sie den Zeitraum an, für den der Benutzer bzw. die Gruppe die oben festgelegten Limits überschreiten darf.

  7. Bestätigen Sie die Einstellungen mit OK.

  8. Klicken Sie auf OK, um das Verwaltungsdialogfeld zu schließen und die Änderungen zu speichern.

    Sollen alle Änderungen gespeichert werden, ohne das Dialogfeld Verwaltung von Benutzern und Gruppen zu schließen, klicken Sie alternativ auf Optionen für Experten › Änderungen jetzt schreiben.

SUSE Linux Enterprise Server umfasst auch Kommandozeilen-Tools wie repquota oder warnquota. Die Systemadministratoren können mit diesen Tools die Festplattennutzung steuern oder Email-Benachrichtigungen an Benutzer senden, die ihre Quote überschritten haben. Mit quota_nld können Administratoren auch Kernel-Meldungen über überschrittene Speicherquoten an D-BUS weiterleiten. Weitere Informationen finden Sie auf der requota-, warnquota- und quota_nld-man-Seite.

24.4 Ändern der Standardeinstellungen für lokale Benutzer

Beim Erstellen von neuen lokalen Benutzern werden von YaST verschiedene Standardeinstellungen verwendet. Zu diesen Einstellungen zählen unter anderem die Primärgruppe sowie die Sekundärgruppen des Benutzers und die Zugriffsberechtigungen für das Home-Verzeichnis des Benutzers. Sie können diese Standardeinstellungen entsprechend Ihren Anforderungen ändern:

  1. Öffnen Sie in YaST das Dialogfeld Verwaltung von Benutzern und Gruppen, und klicken Sie dort auf den Karteireiter Standardeinstellungen für neue Benutzer.

  2. Zur Änderung der Primärgruppe, der neue Benutzer automatisch angehören sollen, wählen Sie unter Standardgruppe eine andere Gruppe aus.

  3. Zur Änderung der Sekundärgruppen für neue Benutzer ändern Sie die unter Sekundäre Gruppen angegebenen Gruppen. Die Namen der Gruppen müssen jeweils durch ein Komma getrennt werden.

  4. Wenn Sie als Standardpfad für das Home-Verzeichnis neuer Benutzer nicht /home/BENUTZERNAME verwenden möchten, ändern Sie den Eintrag unter Pfadpräfix für Home-Verzeichnis.

  5. Wenn Sie die Standardberechtigungsmodi für neu erstellte Home-Verzeichnisse ändern möchten, ändern Sie den umask-Wert unter Umask für Home-Verzeichnis. Weitere Informationen zu 'umask' finden Sie im Book “Security and Hardening Guide”, Chapter 19 “Access control lists in Linux” sowie auf der man-Seite zu umask.

  6. Informationen zu den einzelnen Optionen erhalten Sie über die Schaltfläche Hilfe.

  7. Übernehmen Sie die Änderungen mit OK.

24.5 Zuweisen von Benutzern zu Gruppen

Lokale Benutzer werden mehreren Gruppen zugewiesen. Diese Zuweisung erfolgt gemäß den Standardeinstellungen, die Sie über das Dialogfeld Verwaltung von Benutzern und Gruppen auf dem Karteireiter Standardeinstellungen für neue Benutzer aufrufen können. Im nächsten Abschnitt erfahren Sie, wie Sie die Gruppenzuweisung eines einzelnen Benutzers ändern. Informationen zur Änderung der Standardgruppenzuweisung für neue Benutzer erhalten Sie unter Abschnitt 24.4, „Ändern der Standardeinstellungen für lokale Benutzer“.

Vorgehen 24.6: Ändern der Gruppenzuweisung eines Benutzers
  1. Öffnen Sie in YaST das Dialogfeld Verwaltung von Benutzern und Gruppen, und klicken Sie dort auf Benutzer. Dort werden Benutzer und die Gruppen aufgelistet, denen sie angehören.

  2. Klicken Sie auf Bearbeiten und wechseln Sie zum Karteireiter Details.

  3. Um die primäre Gruppe zu ändern, zu der der Benutzer gehört, klicken Sie auf Standardgruppe und wählen Sie die betreffende Gruppe in der Liste aus.

  4. Um den Benutzer zu zusätzlichen sekundären Gruppen zuzuweisen, aktivieren Sie die zugehörigen Kontrollkästchen in der Liste Zusätzliche Gruppen.

  5. Klicken Sie zum Anwenden der Änderungen auf OK.

  6. Klicken Sie auf OK, um das Verwaltungsdialogfeld zu schließen und die Änderungen zu speichern.

    Sollen alle Änderungen gespeichert werden, ohne das Dialogfeld Verwaltung von Benutzern und Gruppen zu schließen, klicken Sie alternativ auf Optionen für Experten › Änderungen jetzt schreiben.

24.6 Gruppen verwalten

Mit YaST können Sie schnell und einfach Gruppen hinzufügen, bearbeiten und löschen.

Vorgehen 24.7: Erstellen und Bearbeiten von Gruppen
  1. Öffnen Sie in YaST das Dialogfeld Verwaltung von Benutzern und Gruppen, und klicken Sie dort auf den Karteireiter Gruppen.

  2. Definieren Sie mithilfe von Filter festlegen die Menge der Gruppen, die Sie verwalten möchten. Im Dialogfeld werden die Gruppen im System aufgelistet.

  3. Um eine neue Gruppe zu erstellen, klicken Sie auf Hinzufügen.

  4. Um eine vorhandene Gruppe zu ändern, wählen Sie sie aus und klicken Sie dann auf Bearbeiten.

  5. Geben Sie im folgenden Dialogfeld die Daten ein bzw. ändern Sie sie. Die Liste auf der rechten Seite zeigt einen Überblick aller verfügbaren Benutzer und Systembenutzer, die Mitglieder der Gruppe sein können.

    Image
  6. Wenn Sie vorhandene Benutzer einer neuen Gruppe hinzufügen möchten, wählen Sie sie in der Liste der möglichen Gruppenmitglieder aus, indem Sie das entsprechende Kontrollkästchen aktivieren. Wenn Sie sie aus der Gruppe entfernen möchten, deaktivieren Sie das Kontrollkästchen.

  7. Klicken Sie zum Anwenden der Änderungen auf OK.

  8. Klicken Sie auf OK, um das Verwaltungsdialogfeld zu schließen und die Änderungen zu speichern.

    Sollen alle Änderungen gespeichert werden, ohne das Dialogfeld Verwaltung von Benutzern und Gruppen zu schließen, klicken Sie alternativ auf Optionen für Experten › Änderungen jetzt schreiben.

Es können nur Gruppen gelöscht werden, die keine Gruppenmitglieder enthalten. Um eine Gruppe zu löschen, wählen Sie sie in der Liste aus und klicken Sie auf Löschen. Klicken Sie auf OK, um das Verwaltungsdialogfeld zu schließen und die Änderungen zu speichern. Sollen alle Änderungen gespeichert werden, ohne das Dialogfeld Verwaltung von Benutzern und Gruppen zu schließen, klicken Sie alternativ auf Optionen für Experten › Änderungen jetzt schreiben.

24.7 Ändern der Methode zur Benutzerauthentifizierung

Wenn Ihr Computer an ein Netzwerk angeschlossen ist, können Sie die Authentifizierungsmethode ändern. Folgende Optionen sind verfügbar:

NIS

Die Benutzer werden zentral auf einem NIS-Server für alle Systeme im Netzwerk verwaltet. Weitere Informationen finden Sie im Book “Security and Hardening Guide”, Chapter 3 “Using NIS”.

SSSD

Der System Security Services Daemon (SSSD) kann Benutzerdaten lokal im Cache speichern und den Benutzern den Zugriff auf diese Daten ermöglichen, selbst wenn der eigentliche Verzeichnisdienst (vorübergehend) nicht erreichbar ist. Weitere Informationen finden Sie im Book “Security and Hardening Guide”, Chapter 4 “Setting up authentication clients using YaST”, Section 4.2 “SSSD”.

Samba

Die SMB-Authentifizierung wird häufig in heterogenen Linux- und Windows-Netzwerken verwendet. Weitere Informationen finden Sie im Book “Storage Administration Guide”, Chapter 20 “Samba” .

Gehen Sie wie folgt vor, um die Authentifizierungsmethode zu ändern:

  1. Öffnen Sie in YaST das Dialogfeld Verwaltung von Benutzern und Gruppen.

  2. Klicken Sie auf den Karteireiter Einstellungen für Authentifizierung, um eine Übersicht über die verfügbaren Authentifizierungsmethoden und die aktuellen Einstellungen anzuzeigen.

  3. Wenn Sie die Authentifizierungsmethode ändern möchten, klicken Sie auf Konfigurieren und wählen Sie die Authentifizierungsmethode aus, die Sie bearbeiten möchten. Damit werden die YaST-Module zur Client-Konfiguration aufgerufen. Informationen zur Konfiguration des entsprechenden Client finden Sie in folgenden Abschnitten:

    NIS: Book “Security and Hardening Guide”, Chapter 3 “Using NIS”, Section 3.2 “Configuring NIS clients”

    LDAP: Book “Security and Hardening Guide”, Chapter 4 “Setting up authentication clients using YaST”, Section 4.1 “Configuring an authentication client with YaST”

    Samba: Book “Storage Administration Guide”, Chapter 20 “Samba”, Section 20.5.1 “Configuring a Samba client with YaST”

    SSSD: Book “Security and Hardening Guide”, Chapter 4 “Setting up authentication clients using YaST”, Section 4.2 “SSSD”

  4. Kehren Sie nach der Übernahme der Konfiguration zum Überblick unter Verwaltung von Benutzern und Gruppen zurück.

  5. Klicken Sie auf OK, um das Verwaltungsdialogfeld zu schließen.

24.8 Standard-Systembenutzer

SUSE Linux Enterprise Server legt standardmäßig Benutzernamen an, die nicht gelöscht werden können. Diese Benutzer sind in der Regel in der Linux Standard Base definiert. Die folgende Liste zeigt die gängigen Benutzernamen und ihren Zweck:

Standardmäßig installierte gängige Benutzernamen
bin, daemon

Legacy-Benutzer zur Kompatibilität mit älteren Anwendungen. Neue Anwendungen sollten diesen Benutzernamen nicht mehr verwenden.

gdm

Verwendung im GNOME Display Manager (GDM) zur Bereitstellung grafischer Anmeldungen und zur Verwaltung von lokalen Displays und Ferndisplays.

lp

Verwendung durch den Printer-Daemon für das Common Unix Printing System (CUPS).

mail

Reservierter Benutzer für Mailerprogramme wie sendmail oder postfix.

man

Verwendung durch man für den Zugriff auf man-Seiten.

messagebus

Für den Zugriff auf den D-Bus (Desktop-Bus), einen Software-Bus für die prozessübergreifende Kommunikation. Der Daemon lautet dbus-daemon.

nobody

Benutzer, der keine Dateien besitzt und keinen Gruppen mit Berechtigungen angehört. Wird mittlerweile nur noch bedingt eingesetzt, da Linux Standard Base ein separates Benutzerkonto für die einzelnen Daemons empfiehlt.

nscd

Verwendung durch den Name Service Caching Daemon. Dieser Daemon fungiert als Lookup-Dienst und steigert die NIS- und LDAP-Leistung. Der Daemon lautet nscd.

polkitd

Verwendung durch das PolicyKit Authorization Framework, mit dem Autorisierungsanforderungen für Prozesse ohne Berechtigungen definiert und verarbeitet werden. Der Daemon lautet polkitd.

postfix

Verwendung durch den Postfix-Mailer.

pulse

Verwendung durch den Pulseaudio-Soundserver.

root

Verwendung durch den Systemadministrator. Bietet alle entsprechenden Berechtigungen.

rpc

Verwendung durch den Befehl rpcbind, einem RPC-Port-Mapper.

rtkit

Verwendung durch das Paket rtkit als D-Bus-Systemdienst für den Echtzeit-Planungsmodus.

salt

Benutzer für die parallele Fernausführung durch Salt. Der Daemon lautet salt-master.

scard

Benutzer für die Kommunikation mit Smartcards und Lesegeräten. Der Daemon lautet pcscd.

srvGeoClue

Verwendung durch den GeoClue D-Bus-Dienst zur Bereitstellung von Standortinformationen.

sshd

Verwendung durch den Secure Shell-Daemon (SSH) für die sichere und verschlüsselte Kommunikation über ein unsicheres Netzwerk.

statd

Verwendung durch das Network Status Monitor-Protokoll (NSM), das im Daemon rpc.statd implementiert ist und zur Überwachung auf Reboot-Benachrichtigungen dient.

systemd-coredump

Verwendung durch den Befehl /usr/lib/systemd/systemd-coredump zum Abrufen, Speichern und Verarbeiten von Systemspeicherauszügen.

systemd-timesync

Verwendung durch den Befehl /usr/lib/systemd/systemd-timesyncd zur Synchronisierung der lokalen Systemuhr mit einem entfernten Network Time Protocol (NTP)-Server.

25 Ändern der Sprach- und Ländereinstellungen mit YaST

Für das Arbeiten in verschiedenen Ländern oder in einer mehrsprachigen Umgebung, muss Ihr Rechner entsprechend eingerichtet sein. SUSE® Linux Enterprise Server kann verschiedene Locales parallel verarbeiten. Eine Locale bezeichnet eine Reihe von Parametern, die die Sprache und die Ländereinstellungen, die in der Benutzeroberfläche angezeigt werden, definiert.

Die Hauptsystemsprache wurde während der Installation ausgewählt und die Tastatur- und Zeitzoneneinstellungen wurden angepasst. Sie können auf Ihrem System jedoch zusätzliche Sprachen installieren und festlegen, welche der installierten Sprachen als Standard dienen soll.

Verwenden Sie für diese Aufgaben das YaST-Sprachmodul wie unter Abschnitt 25.1, „Ändern der Systemsprache“ beschrieben. Installieren Sie sekundäre Sprachen, um optionale Sprachumgebungen nutzen zu können, wenn Anwendungen oder Desktops in anderen Sprachen als der Primärsprache gestartet werden sollen.

Darüber hinaus ermöglicht Ihnen das YaST-Zeitzonenmodul die entsprechende Anpassung Ihrer Länder- und Zeitzoneneinstellungen. Sie können damit auch Ihre Systemuhr mit einem Zeitserver synchronisieren. Detaillierte Informationen finden Sie in Abschnitt 25.2, „Ändern der Länder- und Zeiteinstellungen“.

25.1 Ändern der Systemsprache

Abhängig davon, wie Sie Ihren Desktop nutzen und ob Sie das ganze System oder nur die Desktop-Umgebung in eine andere Sprache umschalten möchten, stehen mehrere Möglichkeiten zur Auswahl:

Globales Ändern der Systemsprache

Gehen Sie vor wie unter Abschnitt 25.1.1, „Bearbeiten von Systemsprachen mit YaST“ und Abschnitt 25.1.2, „Wechseln der Standard-Systemsprache“ beschrieben, um zusätzliche lokalisierte Pakete mit YaST zu installieren und die Standardsprache festzulegen. Die Änderungen treten nach dem nächsten Anmelden in Kraft. Um sicherzustellen, dass das ganze System die Änderung übernommen hat, starten Sie das System neu oder beenden Sie alle laufenden Dienste, Anwendungen und Programme und starten Sie sie wieder neu.

Ändern der Sprache nur für den Desktop

Vorausgesetzt die gewünschten Sprachpakete wurden wie unten beschrieben mit YaST für Ihre Desktop-Umgebung installiert, können Sie die Sprache Ihres Desktops über das Desktop-Kontrollzentrum ändern. Nach dem Neustart des X-Servers übernimmt Ihr gesamter Desktop die neue Sprachauswahl. Anwendungen, die nicht zu Ihrem Desktop-Rahmen gehören, werden von dieser Änderung nicht beeinflusst und können immer noch in der Sprache angezeigt werden, die in YaST festgelegt war.

Temporärer Sprachwechsel für nur eine Anwendung

Sie können auch eine einzelne Anwendung in einer anderen Sprache (die bereits mit YaST installiert wurde) ausführen. Starten Sie die Anwendung zu diesem Zweck von der Kommandozeile aus, indem Sie den Sprachcode wie unter Abschnitt 25.1.3, „Sprachwechsel für Standard X- und GNOME-Anwendungen“ beschrieben angeben.

25.1.1 Bearbeiten von Systemsprachen mit YaST

YaST kennt zwei verschiedene Sprachkategorien:

Primärsprache

Die in YaST festgelegter primäre Sprache gilt für das gesamte System, einschließlich YaST und der Desktop-Umgebung. Diese Sprache wird immer benutzt, wenn sie verfügbar ist, es sei denn, Sie legen manuell eine andere Sprache fest.

Sekundäre Sprachen

Installieren Sie sekundäre Sprachen, um Ihr System mehrsprachig zu machen. Als sekundäre Sprachen installierte Sprachen können in bestimmten Situationen manuell ausgewählt werden. Verwenden Sie beispielsweise eine sekundäre Sprache, um eine Anwendung in einer bestimmten Sprache zu starten und Texte in dieser Sprache zu verarbeiten.

Legen Sie vor der Installation weiterer Sprachen fest, welche dieser Sprachen als Standard-Systemsprache (primäre Sprache) fungieren soll.

Starten Sie YaST, um auf das YaST-Sprachmodul zuzugreifen, und klicken Sie auf System › Sprache. Starten Sie alternativ das Dialogfeld Sprachen direkt, indem Sie sudo yast2 language & von einer Kommandozeile aus ausführen.

Image
Vorgehen 25.1: Installieren von zusätzlichen Sprachen

Wenn Sie weitere Sprachen installieren, können Sie mit YaST auch verschiedene Locale-Einstellungen für den root-Benutzer festlegen; Informationen hierzu finden Sie im Schritt 4. Mit der Option Locale-Einstellungen für den Benutzer root wird festgelegt, wie die Locale-Variablen (LC_*) in der Datei /etc/sysconfig/language für root festgelegt werden. Diese Elemente können Sie auf dieselbe Locale wie bei normalen Benutzern einstellen. Alternativ können Sie angeben, dass eine Änderung der Sprache keine Auswirkungen haben soll, oder lediglich die Variable RC_LC_CTYPE auf dieselben Werte wie für normale Benutzer einstellen. Die Variable RC_LC_CTYPE bestimmt die Lokalisierung für sprachspezifische Funktionsaufrufe.

  1. Wählen Sie zum Hinzufügen von Sprachen im YaST-Modul Sekundäre Sprachen, die installiert werden sollen.

  2. Um eine Sprache als Standardsprache einzurichten, müssen Sie sie als Primäre Sprache festlegen.

  3. Passen Sie außerdem die Tastatur an die neue primäre Sprache an und stellen Sie eventuell eine andere Zeitzone ein.

    Tipp
    Tipp: Erweiterte Einstellungen

    Wählen Sie in YaST für erweiterte Tastatur- oder Zeitzoneneinstellungen die Optionen Hardware › Tastaturbelegung oder System › Datum und Uhrzeit, um die entsprechenden Dialogfelder zu öffnen. Weitere Informationen finden Sie in Abschnitt 20.1, „Einrichten der Systemtastaturbelegung“ und Abschnitt 25.2, „Ändern der Länder- und Zeiteinstellungen“.

  4. Klicken Sie auf Details, um die für den root-Benutzer spezifischen Spracheinstellungen zu ändern.

    1. Legen Sie für Locale-Einstellungen für den Benutzer root die gewünschten Werte fest. Weitere Informationen erhalten Sie durch Klicken auf Hilfe.

    2. Entscheiden Sie, ob Sie für root UTF-8 als Kodierung verwenden möchten.

  5. Wenn Ihre Locale nicht in der verfügbaren Liste der primären Sprachen enthalten war, versuchen Sie, diese unter Detaillierte Locale-Einstellung anzugeben. Möglicherweise stehen jedoch nicht immer vollständige Lokalisierungen zur Verfügung.

  6. Bestätigen Sie Ihre Änderungen in den Dialogfeldern mit OK. Wenn Sie sekundäre Sprachen ausgewählt haben, installiert YaST die lokalisierten Softwarepakete für die zusätzlichen Sprachen.

Das System ist nun mehrsprachig. Um jedoch eine Anwendung in einer Sprache starten zu können, die nicht als primäre Sprache festgelegt wurde, müssen Sie die gewünschte Sprache explizit wie unter Abschnitt 25.1.3, „Sprachwechsel für Standard X- und GNOME-Anwendungen“ beschrieben festlegen.

25.1.2 Wechseln der Standard-Systemsprache

So ändern Sie die Standardsprache für ein System global:

  1. Starten Sie das YaST-Sprachmodul.

  2. Wählen Sie die gewünschte neue Systemsprache als Primäre Sprache aus.

    Wichtig
    Wichtig: Löschen früherer Systemsprachen

    Wenn Sie zu einer anderen primären Sprache wechseln, wird das lokalisierte Softwarepaket für die frühere primäre Sprache aus dem System entfernt. Wenn die Standard-Systemsprache gewechselt, die frühere primäre Sprache jedoch als zusätzliche Sprache beibehalten werden soll, fügen Sie diese als Sekundäre Sprache hinzu, indem Sie das entsprechende Kontrollkästchen aktivieren.

  3. Passen Sie die Tastatur- und Zeitzonenoptionen wunschgemäß an.

  4. Bestätigen Sie die Änderungen mit OK.

  5. Starten Sie nach der Anwendung der Änderungen in YaST alle aktuellen X-Sitzungen neu (zum Beispiel durch Abmelden und erneutes Anmelden), damit Ihre neuen Spracheinstellungen in YaST und die Desktop-Anwendungen übernommen werden.

25.1.3 Sprachwechsel für Standard X- und GNOME-Anwendungen

Nach der Installation der entsprechenden Sprache mit YaST können Sie eine einzelne Anwendung in einer anderen Sprache ausführen.

Starten Sie die Anwendung von der Kommandozeile aus, indem Sie folgendes Kommando verwenden:

LANG=LANGUAGE application

Um beispielsweise f-spot auf Deutsch auszuführen, führen Sie das Kommando LANG=de_DE f-spot aus. Verwenden Sie für andere Sprachen den entsprechenden Sprachcode. Mit dem Kommando locale -av können Sie eine Liste aller verfügbaren Sprachcodes abrufen.

25.2 Ändern der Länder- und Zeiteinstellungen

Passen Sie mithilfe des YaST-Moduls für Datum und Uhrzeit das Systemdatum sowie die Uhrzeit- und Zeitzoneninformationen an die Region an, in der Sie arbeiten. Starten Sie YaST, um auf das YaST-Modul zuzugreifen, und klicken Sie auf System › Datum und Uhrzeit. Starten Sie alternativ das Dialogfeld Uhr und Zeitzone direkt, indem Sie sudo yast2 timezone & von einer Kommandozeile aus ausführen.

Image

Wählen Sie zunächst eine allgemeine Region, beispielsweise Europa. Wählen Sie dann das für Sie passende Land aus, beispielsweise Deutschland.

Passen Sie je nachdem, welche Betriebssysteme auf Ihrem Arbeitsplatzrechner ausgeführt werden, die Einstellungen der Rechneruhr entsprechend an.

  • Wenn auf Ihrem Rechner ein anderes Betriebssystem ausgeführt wird, beispielsweise Microsoft Windows*, wird von Ihrem System höchstwahrscheinlich die Lokale Zeit und nicht UTC verwendet. Deaktivieren Sie in diesem Fall Hardware-Uhr auf UTC festgelegt.

  • Wenn auf Ihrem Rechner nur Linux ausgeführt wird, stellen Sie die Rechneruhr auf UTC (Universal Time Coordinated) ein. Hiermit wird die Umstellung von der Standardzeit auf die Sommerzeit automatisch durchgeführt.

Wichtig
Wichtig: Einstellen der Rechneruhr auf UTC

Die Umschaltung von der Standardzeit auf die Sommerzeit (und umgekehrt) erfolgt nur dann automatisch, wenn die Rechneruhr (CMOS-Uhr) auf UTC eingestellt ist. Dies gilt auch dann, wenn Sie die automatische Zeitsynchronisierung mit NTP nutzen, weil die automatische Synchronisierung nur dann vorgenommen wird, wenn die Zeitdifferenz zwischen der Rechneruhr und der Systemuhr weniger als 15 Minuten beträgt.

Eine falsche Systemzeit kann zu schwerwiegenden Problemen führen (z. B. verpasste Datensicherungen, verloren gegangene Emails, Fehler beim Einhängen in Ferndateisysteme). Daher wird dringend empfohlen, die Rechneruhr in jedem Fall auf UTC einzustellen.

Sie können das Datum und die Uhrzeit manuell ändern oder Ihren Computer mit einem NTP-Server synchronisieren lassen, entweder permanent oder nur zur Festlegung Ihrer Hardware-Uhr.

Vorgehen 25.2: Manuelles Anpassen von Datum und Uhrzeit
  1. Klicken Sie im YaST-Zeitzonenmodul auf Andere Einstellungen, um Datum und Uhrzeit festzulegen.

  2. Wählen Sie Manuell aus und geben Sie das Datum und die Uhrzeit ein.

  3. Bestätigen Sie Ihre Änderungen.

Vorgehen 25.3: Festlegen von Datum und Uhrzeit über NTP-Server
  1. Klicken Sie auf Andere Einstellungen, um das aktuelle Datum und die Uhrzeit festzulegen.

  2. Wählen Sie Mit NTP-Server synchronisieren aus.

  3. Geben Sie die Adresse eines NTP-Servers ein, falls sie nicht bereits eingetragen ist.

    Image
  4. Klicken Sie auf Jetzt synchronisieren, um die Uhrzeit Ihres Systems korrekt festzulegen.

  5. Wenn Sie NTP permanent verwenden möchten, aktivieren Sie NTP-Konfiguration speichern.

  6. Mit der Schaltfläche Konfigurieren können Sie die erweiterte NTP-Konfiguration öffnen. Weitere Informationen finden Sie im Book “Verwaltungshandbuch”, Chapter 30 “Zeitsynchronisierung mit NTP”, Section 30.1 “Konfigurieren eines NTP-Clients mit YaST”.

  7. Bestätigen Sie Ihre Änderungen.

A Image-Erstellung und Anlegen von Produkten

Zur besseren Anpassung des Betriebssystems an Ihre Bereitstellung können Sie mit KIWI benutzerdefinierte Medien zur Verwendung als Appliance oder Live-System erstellen. KIWI kann wahlweise auf einem lokalen Computer oder online in SUSE Studio Express (OBS) ausgeführt werden.

Mit KIWI können Sie Live-CDs und Live-DVDs erstellen, außerdem Flash-Laufwerke für Hardware-Plattformen, die in Linux unterstützt werden, sowie virtuelle Festplatten für Virtualisierungs- und Cloud-Systeme (z. B. Xen, KVM, VMware, EC2 und viele mehr). Über die mit KIWI erstellten Images können Sie auch in einer PXE-Umgebung aus dem Netzwerk booten.

Dieses Handbuch geht nicht näher auf KIWI ein, da hierzu separate Dokumentation zur Verfügung steht:

  • Weitere Informationen finden Sie in der KIWI-Dokumentation unter https://doc.suse.com/kiwi/ (auch im Paket kiwi-doc).

  • Mit SUSE Studio Express unter Open Build Service erstellen Sie Betriebssystem-Images online. Dieses Tool unterstützt die Erstellung von virtuellen Appliances und von Live-Systemen auf der Grundlage von openSUSE oder SUSE Linux Enterprise. Weitere Informationen und die zugehörige Dokumentation finden Sie im https://studioexpress.opensuse.org/.