Accéder au contenu
documentation.suse.com / Guide de déploiement
SUSE Linux Enterprise Server 15 SP2

Guide de déploiement

Ce guide explique comment installer un ou plusieurs systèmes et exploiter les fonctionnalités inhérentes au produit pour une infrastructure de déploiement. Vous avez le choix entre différentes approches : installation locale à partir d'un support d'installation physique, personnalisation des images d'installation standard, serveur d'installation réseau, déploiement en masse à l'aide d'un processus d'installation automatisé très personnalisé commandé à distance et configuration système initiale.

Date de publication : 11 décembre 2023

Copyright © 2006– 2023 SUSE LLC et contributeurs. Tous droits réservés.

Il est autorisé de copier, distribuer et/ou modifier ce document conformément aux conditions de la licence de documentation libre GNU version 1.2 ou (à votre discrétion) 1.3, avec la section permanente qu'est cette mention de copyright et la licence. Une copie de la version de licence 1.2 est incluse dans la section intitulée « Licence de documentation libre GNU ».

Pour les marques commerciales SUSE, consultez le site Web https://www.suse.com/company/legal/. Toutes les autres marques de fabricants tiers sont la propriété de leur détenteur respectif. Les symboles de marque commerciale (®, ™, etc.) indiquent des marques commerciales de SUSE et de ses filiales. Des astérisques (*) désignent des marques commerciales de fabricants tiers.

Toutes les informations de cet ouvrage ont été regroupées avec le plus grand soin. Cela ne garantit cependant pas sa complète exactitude. Ni SUSE LLC, ni les sociétés affiliées, ni les auteurs, ni les traducteurs ne peuvent être tenus responsables des erreurs possibles ou des conséquences qu'elles peuvent entraîner.

À propos de ce guide

Il existe plusieurs façons d'installer SUSE Linux Enterprise Server. Il est impossible d'évoquer toutes les combinaisons de démarrage, du serveur d'installation, d'installations automatisées ou de déploiement d'images. Ce manuel doit vous aider à choisir la méthode la plus appropriée pour déployer votre installation.

Partie I, « Préparation de l'installation »

Les instructions de déploiement standard diffèrent selon l'architecture utilisée. Pour connaître les différences et les conditions relatives à l'architecture, reportez-vous à cette section.

Partie II, « Procédure d'installation »

La plupart des tâches requises au cours des installations sont décrites ici. Cela inclut la configuration manuelle de votre ordinateur et l'installation de logiciels supplémentaires, ainsi que le clonage d'images de disque et l'exécution de l'installation à distance.

Partie III, « Personnalisation des images d'installation »

Si vous devez ou souhaitez modifier les images d'installation SUSE® Linux Enterprise standard (pour les environnements virtuels, pour créer des images de démarrage minimales ou pour personnaliser des modules, des extensions et des dépôts), vous trouverez la procédure à suivre dans cette partie.

Partie IV, « Configuration d'un serveur d'installation »

SUSE® Linux Enterprise Server peut être installé de différentes manières. Outre l'installation classique à partir d'un support, vous avez le choix entre plusieurs approches réseau. Cette section décrit la procédure de configuration d'un serveur d'installation et la préparation du démarrage du système cible pour l'installation.

Partie V, « Configuration initiale du système »

Apprenez à configurer votre système après l'installation. Cette section traite des tâches courantes telles que la configuration des composants matériels, l'installation ou la suppression de logiciels, la gestion des utilisateurs ou la modification des paramètres avec YaST.

1 Documentation disponible

Note
Note : documentation en ligne et dernières mises à jour

La documentation relative à nos produits est disponible à la page https://documentation.suse.com/, où vous pouvez également rechercher les dernières mises à jour et parcourir ou télécharger la documentation dans différents formats. Les dernières mises à jour de la documentation sont généralement disponibles dans la version anglaise de la documentation.

La documentation suivante est disponible pour ce produit :

Article “Démarrage rapide de l'installation

Ce guide de démarrage rapide vous assiste étape par étape lors de l'installation de SUSE® Linux Enterprise Server 15 SP2.

Book “Guide de déploiement

Ce guide explique comment installer un ou plusieurs systèmes et exploiter les fonctionnalités inhérentes au produit pour une infrastructure de déploiement. Vous avez le choix entre différentes approches : installation locale à partir d'un support d'installation physique, personnalisation des images d'installation standard, serveur d'installation réseau, déploiement en masse à l'aide d'un processus d'installation automatisé très personnalisé commandé à distance et configuration système initiale.

Book “Administration Guide”

Présente les tâches d'administration système telles que la maintenance, la surveillance et la personnalisation d'un système initialement installé.

Book “Virtualization Guide”

Décrit la technologie de virtualisation dans les grandes lignes et présente libvirt, l'interface unifiée de virtualisation, ainsi que des informations détaillées sur des hyperviseurs spécifiques.

Book “Storage Administration Guide”

Fournit des informations à propos de la gestion des périphériques de stockage sous SUSE Linux Enterprise Server.

Book “AutoYaST Guide”

AutoYaST est un système pour le déploiement de masse sans surveillance des systèmes SUSE Linux Enterprise Server (SLES) utilisant un profil AutoYaST contenant les données d'installation et de configuration. Ce manuel vous guide pendant les étapes de base de l'installation automatique : préparation, installation et configuration.

Book “Security and Hardening Guide”

Présente les concepts de base de la sécurité système, couvrant les aspects de la sécurité locale et réseau. Explique comment utiliser les logiciels de sécurité inhérents au produit, tels que AppArmor ou le système d'audit qui collecte, de manière fiable, des informations sur tout événement ayant trait à la sécurité.

Book “System Analysis and Tuning Guide”

Guide d'administrateur pour la détection, la résolution des problèmes et l'optimisation du système. Indique comment inspecter et optimiser votre système à l'aide d'outils de surveillance et comment gérer efficacement les ressources. Contient également un aperçu des problèmes courants et de leurs solutions, de l'aide supplémentaire et des ressources de documentation.

Book “Repository Mirroring Tool Guide”

Guide de l'administrateur pour l'outil de gestion des abonnements, un système proxy pour SUSE Customer Center avec des cibles de dépôt et d'enregistrement. Découvrez comment installer et configurer un serveur SMT local, mettre en miroir et gérer les dépôts, gérer les machines clientes et configurer des clients pour utiliser SMT.

Book “GNOME User Guide”

Présente le bureau GNOME de SUSE Linux Enterprise Server. Ce manuel vous guide tout au long de l'utilisation et de la configuration du bureau, et vous aide à réaliser des tâches essentielles. Il s'adresse essentiellement aux utilisateurs finaux qui souhaitent utiliser efficacement GNOME comme bureau par défaut.

Les notes de version de ce produit sont disponibles à l'adresse https://www.suse.com/releasenotes/.

2 Commentaires

Nous vous invitons à nous faire part de vos commentaires et à contribuer à cette documentation ! Pour ce faire, plusieurs possibilités s'offrent à vous :

Requêtes de service et support

Pour connaître les services et les options de support disponibles pour votre produit, visitez le site https://www.suse.com/support/.

Pour ouvrir une requête de service, vous devez disposer d'un abonnement à SUSE Customer Center. Accédez à https://scc.suse.com/support/requests, connectez-vous, puis cliquez sur Créer un(e) nouveau(elle).

Signalement d'erreurs

Signalez les problèmes liés à la documentation à l'adresse https://bugzilla.suse.com/. Pour simplifier ce processus, vous pouvez utiliser les liens Report Documentation Bug (Signaler une erreur dans la documentation) en regard des titres dans la version HTML de ce document. Ces liens présélectionnent le produit et la catégorie appropriés dans Bugzilla et ajoutent un lien vers la section actuelle. Vous pouvez directement commencer à signaler le bogue. Un compte Bugzilla est nécessaire.

Contributions

Pour contribuer à cette documentation, utilisez les liens Edit Source (Modifier la source), en regard des titres dans la version HTML de ce document. Ils vous permettent d'accéder au code source sur GitHub, où vous pouvez ouvrir une demande d'ajout (Pull request). Un compte GitHub est requis.

Pour plus d'informations sur l'environnement de documentation utilisé pour cette documentation, reportez-vous au fichier lisezmoi de l'espace de stockage.

Messagerie

Vous pouvez également signaler des erreurs et envoyer vos commentaires concernant la documentation à l'adresse <>. Veillez à inclure le titre du document, la version du produit et la date de publication de la documentation. Mentionnez le numéro et le titre de la section concernée (ou incluez l'URL), et indiquez une brève description du problème.

3 Conventions relatives à la documentation

Les conventions typographiques et mentions suivantes sont utilisées dans cette documentation :

  • /etc/passwd : noms de répertoires et de fichiers

  • MARQUE_RÉSERVATION : l'élément MARQUE_RÉSERVATION doit être remplacé par la valeur réelle

  • PATH : variable d'environnement PATH

  • ls, --help : commandes, options et paramètres

  • user : utilisateurs ou groupes

  • nom_paquetage : nom d'un paquetage

  • Alt, AltF1 : touche ou combinaison de touches sur lesquelles appuyer ; les touches apparaissent en majuscules comme sur un clavier

  • Fichier, Fichier › Enregistrer sous : options de menu, boutons

  • AMD/Intel Ce paragraphe concerne uniquement l'architecture AMD64/Intel 64. Les flèches marquent le début et la fin du bloc de texte.

    IBM Z, POWER Ce paragraphe ne s'applique qu'aux architectures IBM Z et POWER. Les flèches marquent le début et la fin du bloc de texte.

  • Pingouins qui dansent (chapitre Pingouins, ↑Autre manuel) : référence au chapitre d'un autre manuel.

  • Commandes à exécuter avec les privilèges root. Souvent, vous pouvez également leur ajouter en préfixe la commande sudo pour les exécuter sans privilèges.

    root # command
    tux > sudo command
  • Commandes pouvant être exécutées par des utilisateurs non privilégiés.

    tux > command
  • Avis

    Avertissement
    Avertissement : note d'avertissement

    Information essentielle dont vous devez prendre connaissance avant de continuer. Met en garde contre des problèmes de sécurité ou des risques de perte de données, de détérioration matérielle ou de blessure physique.

    Important
    Important : note importante

    Information importante dont vous devez prendre connaissance avant de continuer.

    Note
    Note : note de remarque

    Information supplémentaire, par exemple sur les différences dans les versions des logiciels.

    Astuce
    Astuce : note indiquant une astuce

    Information utile, telle qu'un conseil ou un renseignement pratique.

4 Cycle de vie et support du produit

Les produits SUSE bénéficient d'un support allant jusqu'à 13 ans. Pour vérifier les dates du cycle de vie de votre produit, consultez la page https://www.suse.com/lifecycle/.

Pour SUSE Linux Enterprise, les cycles de vie et les cycles de version qui s'appliquent sont les suivants :

  • SUSE Linux Enterprise Server présente un cycle de vie de 13 ans, soit 10 ans de support général et 3 ans de support étendu.

  • SUSE Linux Enterprise Desktop présente un cycle de vie de 10 ans, avec 7 ans de support général et 3 ans de support étendu.

  • Des versions majeures sont publiées tous les 4 ans. Des service packs sont disponibles tous les 12 à 14 mois.

  • SUSE prend en charge les Service Packs SUSE Linux Enterprise précédents pendant une période de 6 mois après la sortie d'un nouveau Service Pack.

Pour certains produits, un support LTSS (Long Term Service Pack Support) est disponible. Pour plus d'informations sur nos options et notre politique de support, consultez les adresses https://www.suse.com/support/policy.html et https://www.suse.com/support/programs/long-term-service-pack-support.html.

Les modules ont un cycle de vie ainsi qu'une stratégie et un calendrier de mise à jour différents de ceux de leurs produits de base. Les modules contiennent des paquetages logiciels et sont des parties totalement prises en charge par SUSE Linux Enterprise Server (SLES). Pour plus d'informations, reportez-vous à l'Article “Modules and Extensions Quick Start” (Démarrage rapide des modules et extensions).

4.1 Déclaration de support pour SUSE Linux Enterprise Server (SLES)

Pour bénéficier d'un support, vous devez disposer d'un abonnement adéquat auprès de SUSE. Pour connaître les offres de support spécifiques auxquelles vous pouvez accéder, rendez-vous sur la page https://www.suse.com/support/ et sélectionnez votre produit.

Les niveaux de support sont définis comme suit :

N1

Identification du problème : support technique conçu pour fournir des informations de compatibilité, un support pour l'utilisation, une maintenance continue, la collecte d'informations et le dépannage de base à l'aide de la documentation disponible.

N2

Isolement du problème : support technique conçu pour analyser des données, reproduire des problèmes clients, isoler la zone problématique et fournir une solution aux problèmes qui ne sont pas résolus au niveau 1 ou préparer le niveau 3.

N3

Résolution des problèmes : support technique conçu pour résoudre les problèmes en impliquant des ingénieurs afin de corriger des défauts produit identifiés par le support de niveau 2.

Pour les clients et partenaires sous contrat, SUSE Linux Enterprise Server est fourni avec un support de niveau 3 pour tous les paquetages, excepté les suivants :

  • Avant-premières technologiques

  • Son, graphiques, polices et illustrations

  • Paquetages nécessitant un contrat de client supplémentaire

  • Certains paquetages fournis avec le module Workstation Extension (Extension de poste de travail), qui bénéficient uniquement d'un support de niveau 2

  • Paquetages dont le nom se termine par -devel (contenant les fichiers d'en-tête et les ressources développeurs similaires), qui bénéficient d'un support uniquement conjointement à leur paquetage principal.

SUSE offre un support uniquement pour l'utilisation de paquetages d'origine, autrement dit les paquetages qui ne sont pas modifiés ni recompilés.

4.2 Avant-premières technologiques

Les avant-premières technologiques sont des paquetages, des piles ou des fonctions fournis par SUSE pour donner un aperçu des innovations à venir. Ces avant-premières sont fournies pour vous permettre de tester de nouvelles technologies au sein de votre environnement. Tous vos commentaires sont les bienvenus ! Si vous testez une avant-première technologique, veuillez contacter votre représentant SUSE et l'informer de votre expérience et de vos cas d'utilisation. Vos remarques sont utiles pour un développement futur.

Toutefois, les avant-premières technologiques présentent les limites suivantes :

  • Les avant-premières technologiques sont toujours en cours de développement. Ainsi, elles peuvent être incomplètes ou instables, ou non adaptées à une utilisation en production.

  • Les avant-premières technologiques ne bénéficient pas du support technique.

  • Les avant-premières technologiques peuvent être disponibles uniquement pour des architectures matérielles spécifiques.

  • Les détails et fonctionnalités des avant-premières technologiques sont susceptibles d'être modifiés. Il en résulte que la mise à niveau vers des versions ultérieures d'une avant-première technologique peut être impossible et nécessiter une nouvelle installation.

  • Les avant-premières technologiques peuvent être abandonnées à tout moment, par exemple, si SUSE découvre qu'une avant-première ne répond pas aux besoins des clients ou du marché, ou ne satisfait pas aux normes des entreprises. SUSE ne s'engage pas à fournir à l'avenir une version prise en charge de ces technologies.

Pour obtenir un aperçu des avant-premières technologiques fournies avec votre produit, reportez-vous aux notes de version à l'adresse https://www.suse.com/releasenotes/.

Partie I Préparation de l'installation

  • 1 Planification pour SUSE Linux Enterprise Server
  • Ce chapitre décrit certaines considérations de base avant l'installation de SUSE Linux Enterprise Server (SLES).

  • 2 Installation sur AMD64 et Intel 64
  • Ce chapitre décrit les étapes nécessaires pour préparer l'installation de SUSE Linux Enterprise Server sur des ordinateurs AMD64 et Intel 64. Cette section présente les étapes nécessaires pour préparer les différentes méthodes d'installation. La liste des configurations matérielles requises donne un aperçu des systèmes pris en charge par SUSE Linux Enterprise Server. Vous trouverez ici des informations sur les méthodes d'installation possibles et sur plusieurs problèmes connus. Vous apprendrez également comment contrôler l'installation, fournir des supports d'installation et démarrer par les méthodes habituelles.

  • 3 Installation sur Arm AArch64
  • Ce chapitre décrit les étapes nécessaires pour préparer l'installation de SUSE Linux Enterprise Server sur des ordinateurs Arm Aarch64. Cette section présente les étapes nécessaires pour préparer les différentes méthodes d'installation. La liste des configurations matérielles requises donne un aperçu des systèmes pris en charge par SUSE Linux Enterprise Server. Vous trouverez ici des informations sur les méthodes d'installation possibles et sur plusieurs problèmes connus fréquents. Vous apprendrez également comment contrôler l'installation, fournir des supports d'installation et démarrer par les méthodes habituelles.

  • 4 Installation sur IBM POWER
  • Ce chapitre décrit la procédure d'installation de SUSE Linux Enterprise Server sur les systèmes IBM POWER.

  • 5 Installation sur IBM Z et LinuxONE
  • Ce chapitre décrit la procédure pour préparer l'installation de SUSE® Linux Enterprise Server sur les systèmes IBM Z. Il fournit toutes les informations nécessaires pour préparer l'installation du côté LPAR et z/VM.

  • 6 Installation sur du matériel non pris en charge au moment de la publication
  • Avec certains matériels plus récents, le support d'installation de SUSE Linux Enterprise Server ne peut pas démarrer. Cela peut être le cas lorsque le matériel n'existait pas au moment de la publication de SUSE Linux Enterprise Server. Pour ce type de situation, SUSE offre des images ISO de mise à jour de kernel (kISO). Ce chapitre décrit comment utiliser la mise à jour du kernel pour installer SUSE Linux Enterprise Server sur le matériel actuel.

1 Planification pour SUSE Linux Enterprise Server

Ce chapitre décrit certaines considérations de base avant l'installation de SUSE Linux Enterprise Server (SLES).

1.1 Considérations relatives au déploiement d'un serveur SUSE Linux Enterprise Server

La mise en oeuvre d'un système d'exploitation est une opération qui doit être préparée avec soin, qu'elle se produise dans un environnement informatique existant ou créé de toutes pièces. Au début de la phase de planification, vous devez tenter de définir les objectifs du projet et les fonctions requises. Cette étape doit être répétée pour chaque projet. Vous devrez chaque fois répondre aux questions suivantes :

  • Combien d'installations va-t-il falloir effectuer ? Les méthodes de déploiement les mieux adaptées varient en fonction de cette réponse.

  • Le système sera-t-il exécuté en tant qu'hôte physique ou en tant que machine virtuelle ?

  • Le système se situera-t-il dans un environnement hostile ? Pour obtenir une vue d'ensemble des conséquences possibles, reportez-vous au Book “Security and Hardening Guide”, Chapter 1 “Security and Confidentiality” (Guide de sécurité, Chapitre 1 « Sécurité et confidentialité »).

  • Comment allez-vous obtenir les mises à jour régulières ? Tous les correctifs sont fournis en ligne pour les utilisateurs enregistrés. Pour l'enregistrement et les correctifs, reportez-vous à la base de données de l'assistance technique (http://download.suse.com/).

  • Avez-vous besoin d'aide pour votre installation locale ? SUSE propose des formations, une assistance technique et des services de conseil pour tout ce qui a trait à SUSE Linux Enterprise Server. Pour plus d'informations, reportez-vous au site https://www.suse.com/products/server/.

  • Avez-vous besoin de produits tiers ? Vérifiez que le produit requis est également pris en charge par la plate-forme choisie. SUSE peut vous aider à prendre en charge des logiciels sur d'autres plates-formes, au besoin.

1.2 Déploiement de SUSE Linux Enterprise Server

Pour garantir le parfait fonctionnement de votre système, essayez d'utiliser systématiquement un matériel certifié. Le processus de certification du matériel est continuel. La base de données des matériels certifiés est régulièrement mise à jour. Vous trouverez le formulaire de recherche des matériels certifiés à la page https://www.suse.com/yessearch/Search.jsp.

En fonction du nombre d'installations souhaitées, il peut être avantageux de recourir à des serveurs d'installation, voire de complètement automatiser les installations. Avec les technologies de virtualisation Xen ou KVM, il est conseillé d'envisager le recours aux systèmes de fichiers racines réseau ou aux solutions de stockage réseau (iSCSI, par exemple).

SUSE Linux Enterprise Server vous propose tout un éventail de services. Pour obtenir la vue d'ensemble des informations documentées dans le présent ouvrage, reportez-vous au Book “Administration Guide”, Preface “About This Guide” (Guide d'administration, Préface « À propos de ce guide »). La plupart des configurations requises peuvent être réalisées avec YaST, l'utilitaire de configuration de SUSE. En outre, de nombreuses configurations manuelles sont décrites dans les sections correspondantes.

En plus de l'installation logicielle de base, il est conseillé d'étudier la possibilité de former les utilisateurs finals des systèmes, ainsi que le personnel de votre service d'assistance.

Note
Note : terminologie

Dans les sections suivantes, le système destiné à héberger votre nouvelle installation SUSE Linux Enterprise Server est désigné sous les termes de système cible ou cible d'installation. Le terme dépôt (anciennement appelé « source d'installation ») désigne toutes les sources de données d'installation. Il s'agit notamment des supports physiques, tels que les lecteurs de CD, DVD ou clé USB à mémoire flash, et des serveurs réseau qui transfèrent les données d'installation sur votre réseau.

1.3 Exécution de SUSE Linux Enterprise Server

Le système d'exploitation de SUSE Linux Enterprise Server est stable et éprouvé. Malheureusement, cela n'empêche pas les pannes matérielles ou autres, qui risquent de bloquer le système ou de faire perdre des données. Pour toute tâche informatique sérieuse présentant des risques de perte de données, il est vivement recommandé de procéder à une sauvegarde régulière.

Pour une sécurité optimale, notamment en ce qui concerne les données, vous devez régulièrement effectuer des mises à jour de toutes les machines utilisées. Si vous avez un serveur d'importance stratégique, vous devez exécuter une seconde machine identique (pré-production) qui permet de tester toutes les modifications. De plus, vous aurez également la possibilité de changer de machine en cas de panne matérielle.

1.4 Enregistrement de SUSE Linux Enterprise Server

Pour obtenir un support technique et les mises à jour des produits, vous devez enregistrer et activer vos produits SUSE auprès du SUSE Customer Center. Nous vous recommandons de vous enregistrer pendant l'installation, car cela vous permettra d'installer le système avec les mises à jour et les correctifs les plus récents. Toutefois, si vous êtes hors ligne ou que vous souhaitez ignorer l'étape d'enregistrement, vous pouvez vous enregistrer à tout moment ultérieurement sur le système installé.

Si votre entreprise ne fournit pas de serveur d'enregistrement local, l'inscription de SUSE Linux Enterprise nécessite un compte SUSE Customer Center. Si vous n'en disposez pas encore, rendez-vous sur la page d'accueil du SUSE Customer Center (https://scc.suse.com/) pour en créer un.

Pendant l'installation, il vous sera demandé d'entrer votre code d'enregistrement. Pour plus de détails, reportez-vous à la Section 8.7, « Enregistrement ».

Si vous déployez vos instances automatiquement à l'aide d'AutoYaST, vous pouvez enregistrer le système pendant l'installation en fournissant les informations correspondantes dans le fichier de contrôle AutoYaST. Pour plus de détails, reportez-vous au Book “AutoYaST Guide”, Chapter 4 “Configuration and Installation Options”, Section 4.3 “System Registration and Extension Selection” (Guide AutoYaST, Chapitre 4 « Options de configuration et d'installation », Section 4.3 « Enregistrement du système et sélection d'extensions).

Pour l'enregistrement d'un système déjà installé, reportez-vous à la Section 19.2, « Enregistrement d'un système installé ».

1.5 Modifications apportées à l'installation à partir de la version 15 de SUSE Linux Enterprise Server

À partir de SUSE Linux Enterprise Server 15, tous les produits SUSE Linux Enterprise sur chaque architecture prise en charge sont installés à l'aide d'un programme d'installation unifié à partir d'un ensemble unique de supports d'installation.

1.5.1 Programme d'installation unifié pour les produits SUSE Linux Enterprise

À partir de SUSE Linux Enterprise Server 15 SP1, celui-ci inclut les produits de base suivants.

Nom du produitPlates-formes prises en charge
SUSE Linux Enterprise ServerAMD64/Intel 64 ; AArch64 ; POWER ; IBM Z
SUSE Linux Enterprise High Performance ComputingAMD64/Intel 64 ; AArch64
SUSE Linux Enterprise Real TimeAMD64/Intel 64
SUSE Linux Enterprise Server for SAP ApplicationsAMD64/Intel 64 ; POWER
SUSE Linux Enterprise Desktop AMD64/Intel 64
Serveur SUSE ManagerAMD64/Intel 64 ; POWER ; IBM Z
Proxy SUSE ManagerAMD64/Intel 64
SUSE Manager for Retail Branch ServerAMD64/Intel 64
SUSE Enterprise StorageAMD64/Intel 64 ; Arm ; Intel 64

1.5.2 Installation avec accès Internet

Si vous effectuez l'installation sur un ordinateur ou une machine virtuelle qui a accès à Internet et que vous souhaitez installer l'un des produits répertoriés ci-dessus, il vous suffit de télécharger l'image SLE-15-SP2-Online-ARCH-GM-media1.iso pour l'architecture désirée.

Note
Note : installation de SUSE Manager

Pour installer des produits SUSE Manager, la machine cible doit avoir accès direct au SUSE Customer Center ou à un serveur RMT.

1.5.3 Installation hors ligne

Excepté pour SUSE Manager, vous n'avez pas besoin d'accéder à Internet, au SUSE Customer Center ni à un serveur RMT, pour installer les autres produits listés.

Pour une installation hors ligne, téléchargez en plus l'image SLE-15-SP2-Full-ARCH-GM-media1.iso de l'architecture souhaitée.

Il existe un second support de paquetages, mais il ne contient que du code source et n'est pas requis pour l'installation.

Astuce
Astuce : taille du support complet

La taille du support d'installation complet SLE-15-SP2-Online-ARCH-GM-media1.iso dépasse la capacité d'un DVD double couche. Par conséquent, vous ne pouvez le démarrer qu'à partir d'une clé USB à mémoire flash.

2 Installation sur AMD64 et Intel 64

Ce chapitre décrit les étapes nécessaires pour préparer l'installation de SUSE Linux Enterprise Server sur des ordinateurs AMD64 et Intel 64. Cette section présente les étapes nécessaires pour préparer les différentes méthodes d'installation. La liste des configurations matérielles requises donne un aperçu des systèmes pris en charge par SUSE Linux Enterprise Server. Vous trouverez ici des informations sur les méthodes d'installation possibles et sur plusieurs problèmes connus. Vous apprendrez également comment contrôler l'installation, fournir des supports d'installation et démarrer par les méthodes habituelles.

2.1 Configuration matérielle requise

Le système d'exploitation SUSE® Linux Enterprise Server peut être déployé sur une vaste gamme d'équipements matériels. Il est impossible de répertorier toutes les combinaisons de supports SUSE Linux Enterprise Server matériels. Cependant, vous trouverez ci-dessous des informations sur la configuration minimale requise pour vous aider lors de la phase de planification.

Pour garantir le bon fonctionnement d'une configuration d'ordinateur donnée, recherchez les plates-formes certifiées par SUSE. Pour consulter la liste, consultez le site https://www.suse.com/yessearch/.

Les architectures Intel 64 et AMD64 permettent une migration simple des logiciels x86 vers leur version 64 bits. Tout comme l'architecture x86, elles représentent une alternative rentable.

UC

Toutes les unités centrales disponibles sur le marché à ce jour sont prises en charge.

Nombre maximum d'unités centrales

Le nombre maximal d'UC prises en charge de par la conception du logiciel est de 8 192 pour Intel 64 et AMD64. Si vous avez l'intention d'utiliser un système de cette capacité, vérifiez sur notre page Web (https://www.suse.com/yessearch/) que les périphériques sont conformes à la certification système du matériel.

Configuration requise pour la mémoire

Un minimum de 1024 Mo de mémoire est requis pour une installation minimale. Sur les machines dotées de plus de deux processeurs, ajoutez 512 Mo par UC. Pour les installations à distance via HTTP ou FTP, ajoutez 150 Mo de plus. Notez que ces valeurs ne sont valables que pour l'installation du système d'exploitation. La quantité de mémoire réelle en production dépend de la charge de travail système.

Configuration requise pour le disque dur

La configuration requise pour le disque dépend en grande partie de l'installation sélectionnée et de votre utilisation de la machine. En règle générale, pour que le système fonctionne correctement, vous devez avoir plus d'espace disque que n'en nécessite le logiciel d'installation. La configuration minimale des différents éléments est la suivante :

Étendue de l'installation

Configuration minimale requise pour le disque dur

Mode texte

1,5 Go

Minimum

2,5 Go

Bureau GNOME

3 Go

Tous les modèles

4 Go

Minimum recommandé (aucun instantané Btrfs) : 10 Go

Minimum requis (avec des instantanés Btrfs) : 16 Go

Minimum recommandé (avec des instantanés Btrfs) : 32 Go

Si votre partition racine est inférieure à 10 Go, le programme d'installation ne fera pas de proposition de partitionnement automatisé et vous devrez créer manuellement des partitions. Par conséquent, la taille minimale recommandée pour la partition racine est de 10 Go. Si vous souhaitez activer les instantanés Btrfs sur le volume racine pour activer les restaurations système (voir Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper” [Guide d'administration, Chapitre 7 « Récupération système et gestion des instantanés avec Snapper »]), la taille minimale de la partition racine est de 16 Go.

Méthodes de démarrage

L'ordinateur peut être démarré depuis un CD ou un réseau. Un serveur de démarrage spécifique est requis pour un démarrage sur le réseau. Il peut également être configuré avec SUSE Linux Enterprise Server.

2.2 Considérations relatives à l'installation

Cette section aborde plusieurs facteurs à prendre en compte avant d'installer SUSE Linux Enterprise Server sur un matériel AMD64 et Intel 64.

2.2.1 Installation sur du matériel ou une machine virtuelle

SUSE Linux Enterprise Server est normalement installé en tant que système d'exploitation indépendant. Grâce à la virtualisation, il est également possible d'exécuter plusieurs instances de SUSE Linux Enterprise Server sur le même matériel. Toutefois, l'installation du serveur hôte de machine virtuelle s'effectue comme une installation classique en y ajoutant des paquetages supplémentaires. L'installation des invités virtuels est décrite dans le Book “Virtualization Guide”, Chapter 8 “Guest Installation” (Guide de virtualisation, Chapitre 9 « Installation d'invité »).

2.2.2 Cible d'installation

La plupart des installations sont effectuées sur un disque dur local. Par conséquent, il est nécessaire que les contrôleurs du disque dur soient accessibles au système d'installation. Si un contrôleur spécifique (comme un contrôleur RAID) requiert un module de kernel supplémentaire, fournissez un disque de mise à jour du module de kernel au système d'installation.

Tous les types de périphériques de bloc peuvent servir de cibles d'installation, à condition qu'ils offrent un espace disque et une vitesse suffisants pour exécuter un système d'exploitation. Il peut s'agir de périphériques de bloc réseau comme iSCSI ou SAN. Il est également possible d'effectuer des installations sur des systèmes de fichiers réseau offrant des autorisations Unix standard. Cependant, il peut être difficile de démarrer ces systèmes de fichiers, qui doivent être pris en charge par initramfs avant que le système ne démarre. Ce type d'installation peut être utile lorsque vous devez démarrer le même système à des endroits différents ou que vous prévoyez d'utiliser des fonctionnalités de virtualisation telles que la migration de domaine.

2.3 Contrôle de l'installation

Vous pouvez contrôler l'installation de différentes manières. Démarrez le programme d'installation avec l'une des options répertoriées dans la Section 2.4, « Démarrage du système d'installation ». Pour activer les différentes méthodes de contrôle, reportez-vous à la Section 7.3.4, « Spécification de l'accès à distance ». Pour plus d'informations sur l'utilisation de chaque méthode de contrôle à distance, reportez-vous au Chapitre 11, Installation à distance.

Vue d'ensemble des différentes méthodes :

Locale avec moniteur et clavier

Cette méthode est la plus fréquemment utilisée pour installer SUSE Linux Enterprise Server. Cela nécessite également le moins d'effort de préparation, mais plus d'interactions directes.

À distance via SSH

Vous pouvez contrôler l'installation via SSH en mode texte ou utiliser la fonction X-forwarding pour une installation en mode graphique. Pour plus d'informations, reportez-vous à la Section 11.4, « Contrôle de l'installation via SSH ».

À distance par console série

Pour cette méthode d'installation, vous avez besoin d'un deuxième ordinateur, connecté par un câble modem nul à l'ordinateur sur lequel vous installez SUSE Linux Enterprise Server. L'installation se poursuit alors en mode texte. Pour plus d'informations, reportez-vous à la Section 11.5, « Surveillance de l'installation avec une console série ».

À distance via VNC

Utilisez cette méthode si vous souhaitez une installation graphique sans accès direct à la machine cible. Pour plus d'informations, reportez-vous à la Section 11.3, « Contrôle de l'installation via VNC ».

Automatique via AutoYaST

Si vous devez installer SUSE Linux Enterprise Server sur plusieurs ordinateurs présentant une configuration matérielle similaire, il est recommandé d'effectuer les installations avec AutoYaST. Dans ce cas, installez une instance de SUSE Linux Enterprise Server, puis utilisez-la pour créer les fichiers de configuration AutoYaST nécessaires. Pour plus d'informations, reportez-vous à la Book “AutoYaST Guide”.

2.4 Démarrage du système d'installation

Cette section fournit un aperçu des étapes requises pour effectuer une installation complète de SUSE® Linux Enterprise Server.

À la différence des précédents produits SLE, vous pouvez installer toute la gamme de produits SLE 15 SP2 à l'aide du programme d'installation unifié. Pour plus d'informations sur les modifications apportées depuis SUSE Linux Enterprise 15 et sur les supports à télécharger pour l'installation, reportez-vous à la Section 1.5, « Modifications apportées à l'installation à partir de la version 15 de SUSE Linux Enterprise Server ».

Pour une description complète de la procédure d'installation et de configuration du système avec YaST, reportez-vous à la Partie II, « Procédure d'installation ».

Important
Important : mises à jour de support matériel

Si vous utilisez du matériel très récent, il peut s'avérer nécessaire de démarrer l'installation avec un kernel plus récent à partir d'un image ISO de mise à jour du kernel. Pour plus d'informations, reportez-vous au Chapitre 6, Installation sur du matériel non pris en charge au moment de la publication.

  1. Préparez le support d'installation.

    Clé USB à mémoire flash

    Il s'agit de la méthode la plus simple pour lancer l'installation. Pour créer un disque flash de démarrage, vous devez copier une image DVD sur le périphérique à l'aide de la commande dd. Le disque flash ne doit pas être monté, car toutes les données du périphérique seront effacées.

    root # dd if=PATH_TO_ISO_IMAGE of=USB_STORAGE_DEVICE bs=4M
    Démarrage réseau

    Si le microprogramme de l'ordinateur cible le permet, vous pouvez démarrer l'ordinateur à partir du réseau et procéder à l'installation à partir d'un serveur. Cette méthode de démarrage nécessite qu'un serveur de démarrage fournisse les images de démarrage requises sur le réseau. Le protocole exact dépend de votre matériel. Plusieurs services, tels que TFTP et DHCP ou le démarrage PXE, sont généralement nécessaires. Pour plus de détails, consultez le Chapitre 17, Préparation de l'environnement de démarrage réseau.

    Il est possible d'effectuer l'installation via plusieurs protocoles réseau courants, comme NFS, HTTP, FTP ou SMB. Pour plus d'informations sur l'exécution d'une telle installation, reportez-vous au Chapitre 11, Installation à distance.

  2. Configurez le microprogramme du système cible pour démarrer le support que vous avez choisi. Reportez-vous à la documentation de votre fournisseur de matériel sur la manière de configurer l'ordre de démarrage approprié.

  3. Définissez les paramètres de démarrage requis pour votre méthode d'installation. Une vue d'ensemble des différentes méthodes est disponible à la Section 2.3, « Contrôle de l'installation ». La liste des paramètres de démarrage est disponible dans le Chapitre 7, Paramètres de démarrage.

  4. Effectuez l'installation en suivant la procédure décrite au Chapitre 8, Procédure d'installation. Le système doit redémarrer à l'issue de l'installation.

  5. (Facultatif) Modifiez l'ordre de démarrage du système afin de démarrer directement à partir du support sur lequel SUSE Linux Enterprise Server (SLES) a été installé. Si le système démarre à partir du support d'installation, le premier paramètre de démarrage aura pour rôle de démarrer le système installé.

  6. Effectuez la configuration initiale du système, comme décrit dans la Partie V, « Configuration initiale du système ».

2.5 Gestion des problèmes de démarrage et d'installation

Avant la livraison, SUSE® Linux Enterprise Server est soumis à un programme de test approfondi. Malgré cela, des problèmes peuvent survenir lors du démarrage ou de l'installation.

2.5.1 Problèmes liés au démarrage

Des problèmes de démarrage peuvent empêcher le lancement du programme d'installation de YaST sur votre système. Il peut aussi arriver que votre système ne démarre pas une fois l'installation terminée.

Le système installé démarre, mais pas le support

Modifiez le microprogramme ou le BIOS de l'ordinateur pour corriger la séquence de démarrage. Pour ce faire, reportez-vous au manuel du matériel.

L'ordinateur se bloque

Modifiez la console de votre ordinateur pour rendre les sorties du kernel visibles. Assurez-vous de vérifier les dernières sorties. Pour ce faire, appuyez sur la touche CtrlAltF10. Si vous ne parvenez pas à résoudre le problème, consultez le service de support de SUSE Linux Enterprise Server. Pour consigner tous les messages système au démarrage, utilisez une connexion série, comme décrit dans la Section 2.3, « Contrôle de l'installation ».

Disquette de démarrage

La disquette de démarrage est une solution provisoire utile si vous rencontrez des difficultés lors de la configuration d'autres options ou si vous souhaitez reporter la décision concernant le mécanisme de démarrage final. Pour plus d'informations sur la création des disquettes de démarrage, reportez-vous au Book “Administration Guide”, Chapter 14 “The Boot Loader GRUB 2” grub2-mkrescue (Guide d'administration, Chapitre 14 « Chargeur de démarrage GRUB 2 », grub2-mkrescue).

Avertissement de virus après l'installation

Des variantes BIOS vérifient la structure du secteur de démarrage (MBR) et affichent de manière erronée un avertissement de virus après l'installation de GRUB 2. Pour résoudre ce problème, entrez dans le BIOS et recherchez les paramètres ajustables correspondants. Par exemple, désactivez la protection anti-virus. Vous pourrez réactiver cette option ultérieurement. Cependant, cela n'est pas nécessaire si Linux est le seul système d'exploitation utilisé.

2.5.2 Problèmes liés à l'installation

Si un problème inattendu survient pendant l'installation, des informations sont nécessaires pour en déterminer la cause. Suivez les instructions ci-après pour résoudre le problème :

  • Vérifiez les sorties sur les différentes consoles. Vous pouvez passer d'une console à l'autre en employant la combinaison de touches CtrlAltFn. Par exemple, pour obtenir un shell dans lequel éxécuter différentes commandes, appuyez sur CtrlAltF2.

  • Essayez de lancer l'installation avec les « Paramètres sécurisés  » (appuyez sur la touche F5 dans l'écran d'installation et sélectionnez Paramètres sécurisés). Si l'installation fonctionne normalement, il existe une incompatibilité qui entraîne l'échec d'ACPI ou d'APIC. Dans certains cas, une mise à jour du BIOS ou du microprogramme résout ce problème.

  • Saisissez la commande dmesg -T pour vérifier les messages système sur une console sur le système d'installation.

2.5.3 Redirection de la source de démarrage vers le support d'installation

Pour simplifier le processus d'installation et éviter des installations accidentelles, votre système est paramétré par défaut pour un démarrage à partir du premier disque dur sur le support d'installation de SUSE Linux Enterprise Server. À ce stade, un chargeur de démarrage installé prend généralement le contrôle du système. Cela signifie que le support de démarrage peut rester dans le lecteur lors de l'installation. Pour démarrer l'installation, choisissez une option d'installation dans le menu de démarrage du support.

3 Installation sur Arm AArch64

Ce chapitre décrit les étapes nécessaires pour préparer l'installation de SUSE Linux Enterprise Server sur des ordinateurs Arm Aarch64. Cette section présente les étapes nécessaires pour préparer les différentes méthodes d'installation. La liste des configurations matérielles requises donne un aperçu des systèmes pris en charge par SUSE Linux Enterprise Server. Vous trouverez ici des informations sur les méthodes d'installation possibles et sur plusieurs problèmes connus fréquents. Vous apprendrez également comment contrôler l'installation, fournir des supports d'installation et démarrer par les méthodes habituelles.

3.1 Configuration matérielle requise

Le système d'exploitation SUSE® Linux Enterprise Server peut être déployé sur une vaste gamme d'équipements matériels. Il est impossible de répertorier toutes les combinaisons de supports SUSE Linux Enterprise Server matériels. Cependant, vous trouverez ci-dessous des informations sur la configuration minimale requise pour vous aider lors de la phase de planification.

Pour garantir le bon fonctionnement d'une configuration d'ordinateur donnée, recherchez les plates-formes certifiées par SUSE. Pour consulter la liste, consultez le site https://www.suse.com/yessearch/.

UC

La configuration minimale requise est une unité centrale qui prend en charge l'architecture de jeu d'instructions (Instruction Set Architecture, ISA) Armv8-A, par exemple Arm Cortex-A53 ou Cortex-A57. Consultez la page https://www.arm.com/products/processors/cortex-a/ pour obtenir la liste des processeurs Armv8-A disponibles.

Les UC ayant une architecture de jeu d'instructions Armv8-R (en temps réel) et Armv8-M (microcontrôleur) ne sont actuellement pas prises en charge.

Nombre maximum d'unités centrales

Le nombre maximum d'unités centrales prises en charge par la conception logicielle est de 256. Si vous avez l'intention d'utiliser un système de cette capacité, vérifiez sur notre page Web (https://www.suse.com/yessearch/) que les périphériques sont conformes à la certification système du matériel.

Configuration requise pour la mémoire

Un minimum de 1024 Mo de mémoire est requis pour une installation minimale. Sur les machines dotées de plus de deux processeurs, ajoutez 512 Mo par UC. Pour les installations à distance via HTTP ou FTP, ajoutez 150 Mo de plus. Notez que ces valeurs ne sont valables que pour l'installation du système d'exploitation. La quantité de mémoire réelle en production dépend de la charge de travail système.

Configuration requise pour le disque dur

La configuration requise pour le disque dépend en grande partie de l'installation sélectionnée et de votre utilisation de la machine. En règle générale, pour que le système fonctionne correctement, vous devez avoir plus d'espace disque que n'en nécessite le logiciel d'installation. La configuration minimale des différents éléments est la suivante :

Étendue de l'installation

Configuration minimale requise pour le disque dur

Mode texte

1,5 Go

Minimum

2,5 Go

Bureau GNOME

3 Go

Tous les modèles

4 Go

Minimum recommandé (aucun instantané Btrfs) : 10 Go

Minimum requis (avec des instantanés Btrfs) : 16 Go

Minimum recommandé (avec des instantanés Btrfs) : 32 Go

Si votre partition racine est inférieure à 10 Go, le programme d'installation ne fera pas de proposition de partitionnement automatisé et vous devrez créer manuellement des partitions. Par conséquent, la taille minimale recommandée pour la partition racine est de 10 Go. Si vous souhaitez activer les instantanés Btrfs sur le volume racine pour activer les restaurations système (voir Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper” [Guide d'administration, Chapitre 7 « Récupération système et gestion des instantanés avec Snapper »]), la taille minimale de la partition racine est de 16 Go.

Méthodes de démarrage

L'ordinateur peut être démarré depuis un CD ou un réseau. Un serveur de démarrage spécifique est requis pour un démarrage sur le réseau. Il peut également être configuré avec SUSE Linux Enterprise Server.

3.2 Considérations relatives à l'installation

Cette section aborde plusieurs facteurs à prendre en compte avant d'installer SUSE Linux Enterprise Server sur du matériel Arm AArch64.

3.2.1 Installation sur du matériel ou une machine virtuelle

SUSE Linux Enterprise Server est normalement installé en tant que système d'exploitation indépendant. Grâce à la virtualisation, il est également possible d'exécuter plusieurs instances de SUSE Linux Enterprise Server sur le même matériel. Toutefois, l'installation du serveur hôte de machine virtuelle s'effectue comme une installation classique en y ajoutant des paquetages supplémentaires. L'installation des invités virtuels est décrite dans le Book “Virtualization Guide”, Chapter 8 “Guest Installation” (Guide de virtualisation, Chapitre 9 « Installation d'invité »).

3.2.2 Cible d'installation

La plupart des installations sont effectuées sur un disque dur local. Par conséquent, il est nécessaire que les contrôleurs du disque dur soient accessibles au système d'installation. Si un contrôleur spécifique (comme un contrôleur RAID) requiert un module de kernel supplémentaire, fournissez un disque de mise à jour du module de kernel au système d'installation.

Tous les types de périphériques de bloc peuvent servir de cibles d'installation, à condition qu'ils offrent un espace disque et une vitesse suffisants pour exécuter un système d'exploitation. Il peut s'agir de périphériques de bloc réseau comme iSCSI ou SAN. Il est également possible d'effectuer des installations sur des systèmes de fichiers réseau offrant des autorisations Unix standard. Cependant, il peut être difficile de démarrer ces systèmes de fichiers, qui doivent être pris en charge par initramfs avant que le système ne démarre. Ce type d'installation peut être utile lorsque vous devez démarrer le même système à des endroits différents ou que vous prévoyez d'utiliser des fonctionnalités de virtualisation telles que la migration de domaine.

3.3 Contrôle de l'installation

Vous pouvez contrôler l'installation de différentes manières. Démarrez le programme d'installation avec l'une des options répertoriées dans la Section 2.4, « Démarrage du système d'installation ». Pour activer les différentes méthodes de contrôle, reportez-vous à la Section 7.3.4, « Spécification de l'accès à distance ». Pour plus d'informations sur l'utilisation de chaque méthode de contrôle à distance, reportez-vous au Chapitre 11, Installation à distance.

Vue d'ensemble des différentes méthodes :

Locale avec moniteur et clavier

Cette méthode est la plus fréquemment utilisée pour installer SUSE Linux Enterprise Server. Cela nécessite également le moins d'effort de préparation, mais plus d'interactions directes.

À distance via SSH

Vous pouvez contrôler l'installation via SSH en mode texte ou utiliser la fonction X-forwarding pour une installation en mode graphique. Pour plus d'informations, reportez-vous à la Section 11.4, « Contrôle de l'installation via SSH ».

À distance par console série

Pour cette méthode d'installation, vous avez besoin d'un deuxième ordinateur, connecté par un câble modem nul à l'ordinateur sur lequel vous installez SUSE Linux Enterprise Server. L'installation se poursuit alors en mode texte. Pour plus d'informations, reportez-vous à la Section 11.5, « Surveillance de l'installation avec une console série ».

À distance via VNC

Utilisez cette méthode si vous souhaitez une installation graphique sans accès direct à la machine cible. Pour plus d'informations, reportez-vous à la Section 11.3, « Contrôle de l'installation via VNC ».

Automatique via AutoYaST

Si vous devez installer SUSE Linux Enterprise Server sur plusieurs ordinateurs présentant une configuration matérielle similaire, il est recommandé d'effectuer les installations avec AutoYaST. Dans ce cas, installez une instance de SUSE Linux Enterprise Server, puis utilisez-la pour créer les fichiers de configuration AutoYaST nécessaires. Pour plus d'informations, reportez-vous au Book “AutoYaST Guide” (Guide d'AutoYaST).

3.4 Démarrage du système d'installation

Cette section fournit un aperçu des étapes requises pour effectuer une installation complète de SUSE® Linux Enterprise Server.

À la différence des précédents produits SLE, vous pouvez installer toute la gamme de produits SLE 15 SP2 à l'aide du programme d'installation unifié. Pour plus d'informations sur les modifications apportées depuis SUSE Linux Enterprise 15 et sur les supports à télécharger pour l'installation, reportez-vous à la Section 1.5, « Modifications apportées à l'installation à partir de la version 15 de SUSE Linux Enterprise Server ».

Pour une description complète de la procédure d'installation et de configuration du système avec YaST, reportez-vous à la Partie II, « Procédure d'installation ».

Important
Important : mises à jour de support matériel

Si vous utilisez du matériel très récent, il peut s'avérer nécessaire de démarrer l'installation avec un kernel plus récent à partir d'un image ISO de mise à jour du kernel. Pour plus d'informations, reportez-vous au Chapitre 6, Installation sur du matériel non pris en charge au moment de la publication.

  1. Préparez le support d'installation.

    Clé USB à mémoire flash

    Il s'agit de la méthode la plus simple pour lancer l'installation. Pour créer un disque flash de démarrage, vous devez copier une image DVD sur le périphérique à l'aide de la commande dd. Le disque flash ne doit pas être monté, car toutes les données du périphérique seront effacées.

    root # dd if=PATH_TO_ISO_IMAGE of=USB_STORAGE_DEVICE bs=4M
    DVD 

    Des supports DVD sont disponibles auprès de SUSE, mais vous pouvez également créer les vôtres. Cette méthode est utile si vous devez provisionner plusieurs machines simultanément. Elle nécessite un lecteur de DVD intégré ou amovible. Très simple pour la plupart des utilisateurs d'ordinateurs, elle requiert néanmoins un grand nombre d'interactions pour chaque processus d'installation. Si vous n'avez pas reçu de DVD, récupérez l'image ISO sur la page d'accueil de SUSE et gravez-la sur un DVD vierge accessible en écriture.

    Démarrage réseau

    Si le microprogramme de l'ordinateur cible le permet, vous pouvez démarrer l'ordinateur à partir du réseau et procéder à l'installation à partir d'un serveur. Cette méthode de démarrage nécessite qu'un serveur de démarrage fournisse les images de démarrage requises sur le réseau. Le protocole exact dépend de votre matériel. Plusieurs services, tels que TFTP et DHCP ou le démarrage PXE, sont généralement nécessaires. Pour plus de détails, consultez le Chapitre 17, Préparation de l'environnement de démarrage réseau.

    Il est possible d'effectuer l'installation via plusieurs protocoles réseau courants, comme NFS, HTTP, FTP ou SMB. Pour plus d'informations sur l'exécution d'une telle installation, reportez-vous au Chapitre 11, Installation à distance.

  2. Configurez le microprogramme du système cible pour démarrer le support que vous avez choisi. Reportez-vous à la documentation de votre fournisseur de matériel sur la manière de configurer l'ordre de démarrage approprié.

  3. Définissez les paramètres de démarrage requis pour votre méthode d'installation. Une vue d'ensemble des différentes méthodes est disponible à la Section 3.3, « Contrôle de l'installation ». La liste des paramètres de démarrage est disponible dans le Chapitre 7, Paramètres de démarrage.

  4. Effectuez l'installation en suivant la procédure décrite au Chapitre 8, Procédure d'installation. Le système doit redémarrer à l'issue de l'installation.

  5. (Facultatif) Modifiez l'ordre de démarrage du système afin de démarrer directement à partir du support sur lequel SUSE Linux Enterprise Server (SLES) a été installé. Si le système démarre à partir du support d'installation, le premier paramètre de démarrage aura pour rôle de démarrer le système installé.

  6. Effectuez la configuration initiale du système, comme décrit dans la Partie V, « Configuration initiale du système ».

3.5 Gestion des problèmes de démarrage et d'installation

Bien que SUSE® Linux Enterprise Server soit soumis à un programme de tests complet, des problèmes peuvent parfois se produire lors du démarrage ou de l'installation.

3.5.1 Problèmes liés au démarrage

Des problèmes de démarrage peuvent empêcher le lancement du programme d'installation de YaST sur votre système. Un autre symptôme est l'échec du démarrage une fois l'installation terminée.

Le système installé démarre, mais pas le support

Modifiez le microprogramme de l'ordinateur pour corriger la séquence de démarrage. Pour ce faire, reportez-vous au manuel du matériel.

L'ordinateur se bloque

Modifiez la console de votre ordinateur pour rendre les sorties du kernel visibles. Assurez-vous de vérifier les dernières lignes de sortie. Pour ce faire, appuyez sur la touche CtrlAltF10. Si vous ne parvenez pas à résoudre le problème, consultez le service de support de SUSE Linux Enterprise Server. Pour consigner tous les messages système au démarrage, utilisez une connexion série, comme décrit dans la Section 2.3, « Contrôle de l'installation ».

Disquette de démarrage

La disquette de démarrage est une solution intermédiaire utile pour les problèmes de démarrage. Si vous rencontrez des difficultés lors de la configuration d'autres options ou si vous souhaitez reporter la décision concernant le mécanisme d'amorçage final, utilisez la disquette de démarrage. Pour plus d'informations sur la création des disquettes de démarrage, reportez-vous au Book “Administration Guide”, Chapter 14 “The Boot Loader GRUB 2” grub2-mkrescue (Guide d'administration, Chapitre 14 « Chargeur de démarrage GRUB 2 », grub2-mkrescue).

3.5.2 Problèmes liés à l'installation

Si un problème inattendu survient pendant l'installation, des informations sont nécessaires pour en déterminer la cause. Suivez les instructions ci-après pour résoudre le problème :

  • Vérifiez les sorties sur les différentes consoles. Vous pouvez passer d'une console à l'autre en employant la combinaison de touches CtrlAltFn. Par exemple, pour obtenir un shell dans lequel éxécuter différentes commandes, appuyez sur CtrlAltF2.

  • Essayez de lancer l'installation avec les « Paramètres sécurisés  » (appuyez sur la touche F5 dans l'écran d'installation et sélectionnez Paramètres sécurisés). Si l'installation fonctionne normalement, il existe une incompatibilité qui entraîne l'échec d'ACPI ou d'APIC. Dans certains cas, une mise à jour du microprogramme résout ce problème.

  • Saisissez la commande dmesg -T pour vérifier les messages système sur une console sur le système d'installation.

3.5.3 Redirection de la source de démarrage vers le DVD de démarrage

Pour simplifier le processus d'installation et éviter des installations accidentelles, votre système est paramétré par défaut pour un démarrage à partir du premier disque dur sur le DVD d'installation de SUSE Linux Enterprise Server. À ce stade, un chargeur de démarrage installé prend généralement le contrôle du système. Cela signifie que le DVD de démarrage peut rester dans le lecteur lors d'une installation. Pour démarrer l'installation, choisissez une option d'installation dans le menu de démarrage du support.

3.6 Raspberry Pi

SUSE® Linux Enterprise Server est la première distribution Linux d'entreprise à prendre en charge l'ordinateur monocarte Raspberry Pi* bon marché. SUSE Linux Enterprise Server 15 SP2 prend en charge les modèles suivants :

  • Raspberry Pi 3 Model A+

  • Raspberry Pi 3 Model B

  • Raspberry Pi 3 Model B+

  • Raspberry Pi 4 Model B

  • Raspberry Pi Compute Module 3

  • Raspberry Pi Compute Module 3+

L'ordinateur Raspberry Pi se distingue des serveurs plus conventionnels de plusieurs manières. Tout d'abord, il n'est pas fourni avec un chargeur de démarrage capable de charger des systèmes d'exploitation. SUSE Linux Enterprise Server fournit donc un logiciel de chargeur de démarrage supplémentaire pour combler cette lacune.

3.6.1 Processus de démarrage

Le processeur principal du SoC (System-on-Chip) du Raspberry Pi est une unité de traitement graphique (GPU) VideoCore de Broadcom, et non pas une unité centrale (CPU) d'Arm. C'est la GPU qui commence à initialiser le matériel à partir d'un chargeur de démarrage de première étape dans la mémoire morte (Read-Only Memory, ROM) de démarrage sur la puce. Seules les options de configuration peuvent influencer la mémoire morte de démarrage (voir Section 3.6.1.2, « Mémoire OTP »).

Le matériel Raspberry Pi 3 ne comprend aucun microprogramme intégré. À la place, son microprogramme de chargeur de démarrage de deuxième étape bootcode.bin est chargé à partir du support de démarrage à chaque fois que la machine est allumée. Il charge à son tour le chargeur de démarrage de troisième étape start.elf.

Le matériel Raspberry Pi 4 comporte une petite mémoire EEPROM (Electrically Erasable Programmable Read-Only Memory, mémoire morte programmable pouvant être effacée par un courant électrique) pour le chargeur de démarrage de deuxième étape. À part cela, il démarre de la même manière que le Raspberry Pi 3, en chargeant le chargeur de démarrage de troisième étape start4.elf à partir du support de démarrage.

Avertissement
Avertissement : mise à jour de la mémoire EEPROM sur le Raspberry Pi 4

Vous pouvez effectuer une mise à jour du chargeur de démarrage de deuxième étape en démarrant à partir d'une carte microSD spécialement préparée.

Veillez à n'insérer que des supports de démarrage de confiance et vérifiez qu'ils ne contiennent aucun fichier recovery.bin non souhaité.

Si un fichier armstub8.bin est présent, il sera chargé en tant que chargeur de démarrage de quatrième étape au niveau d'exception 3 (EL3) Aarch64. Dans le cas contraire, le système utilisera un stub intégré minimal.

Note
Note : considérations relatives à la sécurité EL3

Le code chargé pour EL3 (souvent appelé BL31) réside en mémoire. Linux peut tenter des hyperappels vers EL3 tout au long de son exécution.

Vérifiez que vos supports de démarrage ne contiennent aucun fichier armstub8.bin involontairement présent. SUSE Linux Enterprise Server 15 SP2 n'en inclut pas.

Notez que le SoC du Raspberry Pi ne fournit pas de mémoire sécurisée TrustZone. Le système d'exploitation de l'unité centrale et tout logiciel de la GPU peuvent accéder à sa mémoire vive (RAM). Ce système ne convient donc pas aux applications EL0 cryptographiques. SUSE Linux Enterprise Server ne propose pas d'environnement d'exécution de confiance (Trusted Execution Environment, TEE) EL1 pour cette raison.

SUSE Linux Enterprise Server pour le Raspberry Pi est configuré de manière à charger un chargeur de démarrage de cinquième étape nommé Das U-Boot.

3.6.1.1 Fichier config.txt

Un système Raspberry Pi ne comporte pas de mémoire non volatile pour stocker les informations de configuration. Par conséquent, il n'existe pas de paramètres conventionnels à ajuster pour l'ordre des périphériques de démarrage, la date et l'heure, etc.

À la place, le chargeur de démarrage lit un fichier de configuration config.txt à partir du support de démarrage. Le fichier config.txt fourni par SUSE ne doit pas être modifié. Il permet à l'utilisateur de fournir éventuellement un fichier extraconfig.txt, qui peut remplacer n'importe quel paramètre du fichier config.txt, si nécessaire. Cela permet à SUSE Linux Enterprise Server de mettre à jour le fichier config.txt lorsque cela est nécessaire, sans écraser les paramètres de l'utilisateur.

3.6.1.2 Mémoire OTP

De plus, le SoC offre une très petite quantité de mémoire programmable une seule fois (One-Time Programmable, OTP). Celle-ci permet de configurer certains paramètres, par exemple si la mémoire morte de démarrage doit tenter de se lancer à partir de périphériques USB ou via Ethernet.

Cette mémoire OTP est décrite sur le site Web de Raspberry Pi Foundation : https://www.raspberrypi.org/documentation/hardware/raspberrypi/otpbits.mdd

Avertissement
Avertissement : mémoire programmable une seule fois

Les paramètres de configuration inscrits dans la mémoire OTP ne peuvent pas être modifiés.

Le cas d'utilisation le plus courant de la mémoire OTP consiste à activer le démarrage USB sur le Raspberry Pi 3 Model B ou Compute Module 3.

3.6.1.2.1 Activation du mode de démarrage USB pour le Raspberry Pi 3 Model B

Pour activer le démarrage de manière permanente à partir des périphériques de stockage de masse USB connectés sur le Raspberry Pi 3 Model B et à partir de son Ethernet USB intégré, préparez une carte microSD comme décrit à la Section 3.6.3, « Déploiement d'une image d'applicatif ». Avant de démonter ou d'éjecter la carte et de démarrer à partir de celle-ci, ajoutez à sa partition FAT un fichier texte extraconfig.txt (Section 3.6.1.1, « Fichier config.txt ») avec le paramètre suivant :

program_usb_boot_mode=1

Vous pouvez ensuite continuer à démarrer à partir de la carte microSD modifiée comme d'habitude. Une fois que vous obtenez une sortie des chargeurs de démarrage U-Boot ou GRUB, ou du kernel Linux, vous pouvez couper l'alimentation électrique et retirer la carte microSD. Votre périphérique doit maintenant être en mesure de démarrer à partir d'un support USB (Section 3.6.4, « Installation à partir d'un support USB »).

Notez qu'une fois que le mode de démarrage USB a été activé pour le Raspberry Pi 3 Model B, le mode de démarrage USB ne peut plus être désactivé (Section 3.6.1.2, « Mémoire OTP »).

Pour plus d'informations, reportez-vous au site Web de Raspberry Pi Foundation : https://www.raspberrypi.org/documentation/hardware/raspberrypi/bootmodes/msd.md

Pour le Raspberry Pi Compute Module 3, la configuration requise est identique, mais le déploiement de l'image modifiée est un peu plus compliqué.

3.6.2 Absence d'horloge en temps réel

Le Raspberry Pi n'a pas d'horloge en temps réel (Real-Time Clock, RTC) avec batterie de secours.

Note
Note : synchronisation horaire

L'absence d'horloge en temps réel signifie que les périphériques Raspberry Pi doivent être configurés pour récupérer l'heure à partir d'un serveur réseau par le biais du protocole NTP (Network Time Protocol).

Toutefois, les cartes de base des Raspberry Pi Compute Module peuvent comporter une horloge en temps réel.

Il est également possible de se connecter à une horloge en temps réel via le connecteur GPIO, à l'aide d'une carte d'extension HAT (Hardware Attached on Top) ou autre.

Dans les deux cas, vérifiez si le jeu de puces RTC correspondant est pris en charge par SUSE Linux Enterprise Server. L'horloge en temps réel connectée devra être décrite auprès du système d'exploitation par l'intermédiaire d'une surcouche d'arborescence matérielle (Device Tree Overlay, voir Section 3.6.1.1, « Fichier config.txt »). Par exemple, la carte de base MyPi pourrait utiliser :

dtparam=i2c1=on
dtoverlay=i2c-rtc,ds1307

3.6.3 Déploiement d'une image d'applicatif

La méthode la plus courante pour déployer un système d'exploitation sur du matériel Raspberry Pi consiste à copier une image de système préinstallé sur un support de démarrage, généralement une carte microSD. Il s'agit de la méthode la plus simple.

SUSE propose une image de démarrage préconfigurée de SUSE Linux Enterprise Server pour le matériel Raspberry Pi. Elle est fournie avec le système de fichiers Btrfs, avec l'option de compression activée afin d'améliorer les performances et de réduire l'usage des supports microSD.

Il est recommandé d'utiliser une carte microSD présentant une taille d'au moins 8 Go. Des cartes plus rapides amélioreront les performances du système. Au premier démarrage, le système d'exploitation développe automatiquement le système de fichiers pour remplir la carte. Cela signifie que le premier démarrage sera considérablement plus lent que les démarrages ultérieurs.

Le processus d'écriture de l'image de carte sur un support microSD est décrit dans le manuel Raspberry Pi Quick Start (Démarrage rapide de Raspberry Pi).

3.6.4 Installation à partir d'un support USB

Certains modèles de Raspberry Pi permettent un démarrage à partir de périphériques de stockage de masse USB. Cela permet de déployer SUSE Linux Enterprise Server sur un Raspberry Pi de la même manière que sur des plates-formes de serveur.

Vous pouvez effectuer l'installation à partir d'un support USB amovible, tel qu'une carte mémoire memory stick, vers une carte microSD insérée dans le connecteur interne de la machine. Vous pouvez également effectuer cette opération à partir d'un support USB amovible vers un autre support USB, tel qu'une disque dur connecté via un port USB.

Note
Note : limites de la bande passante USB

Notez que le contrôleur Ethernet sur le Raspberry Pi 3 est connecté au bus USB 2.0 intégré au périphérique.

Par conséquent, un système d'exploitation qui s'exécute à partir d'un disque branché par l'intermédiaire d'un port USB doit partager le volume total de la bande passante de 480 Mbit/s du contrôleur USB 2.0. Cela limite les performances et peut affecter significativement le fonctionnement du réseau.

Cette limite ne s'applique pas au Raspberry Pi 4.

Les modèles plus récents de Raspberry Pi 3 avec BCM2837 B0 Silicon (puce argentée plutôt que noire), notamment Raspberry Pi 3 Model B+ et Compute Module 3+, permettent par défaut le démarrage à partir de périphériques de stockage connectés à partir d'un support USB.

Sur des modèles plus anciens, tels que Raspberry Pi 3 Model B ou Compute Module 3, le démarrage en mode USB peut être activé en effectuant un démarrage à partir d'une carte microSD spécialement préparée. Reportez-vous à la Section 3.6.1.2, « Mémoire OTP » pour plus d'informations.

3.6.5 Installation à partir du réseau

Étant donné que le matériel est dépourvu de tout microprogramme intégré (Section 3.6.1, « Processus de démarrage »), démarrer le Raspberry Pi à partir du réseau à l'aide d'un environnement PXE est plus complexe que pour des ordinateurs plus conventionnels.

Le processus de configuration d'un serveur de démarrage PXE pour x86 et Arm est décrit dans le document sur les meilleures pratiques SUSE How to Set Up a Multi-PXE Installation Server (Procédure de configuration d'un serveur d'installation multi-PXE).

Raspberry Pi Foundation publie des informations sur la procédure de démarrage d'un Raspberry Pi à l'aide de PXE à partir d'un autre Raspberry Pi : https://www.raspberrypi.org/documentation/hardware/raspberrypi/bootmodes/net_tutorial.md

3.6.6 Complément d'informations

Pour plus d'informations, consultez les ressources suivantes :

SUSE Linux Enterprise Server 15 SP2 Release Notes (Notes de versions de SUSE Linux Enterprise Server 15 SP2)

Pour plus d'informations sur la compatibilité du matériel, ainsi que sur les options et les fonctionnalités prises en charge lors de l'exécution sur le matériel Raspberry Pi, consultez la section Boot and Driver Enablement for Raspberry Pi (Démarrage et activation des pilotes pour le Raspberry Pi) du manuel SUSE Linux Enterprise Server Release Notes (Notes de version de SUSE Linux Enterprise Server) :

https://www.suse.com/releasenotes/aarch64/SUSE-SLES/15-SP2/#aarch64-rpi

Manuel Raspberry Pi Quick Start (Démarrage rapide du Raspberry Pi)

https://documentation.suse.com/sles/15-SP2/html/SLES-rpi-quick/art-rpiquick.html

Liste de compatibilité du matériel openSUSE : Raspberry Pi 3

Le projet openSUSE comporte également des informations sur l'installation et la configuration du matériel Raspberry Pi. Une bonne partie de ces informations s'appliquent également à SUSE Linux Enterprise.

Consultez la page https://en.opensuse.org/HCL:Raspberry_Pi3.

Das U-Boot

Vous trouverez plus d'informations sur le chargeur de démarrage Das U-Boot sur la page GitHub du projet à l'adresse https://github.com/u-boot/u-boot.

4 Installation sur IBM POWER

Ce chapitre décrit la procédure d'installation de SUSE Linux Enterprise Server sur les systèmes IBM POWER.

4.1 Configuration matérielle requise

Pour exécuter SUSE Linux Enterprise Server (SLES) sous POWER, votre matériel doit répondre à la configuration minimale indiquée ci-dessous.

Serveurs pris en charge

Vérifiez la base de données des matériels certifiés SUSE pour vous assurer que votre configuration matérielle est prise en charge. La base de données est disponible à l'adresse https://www.suse.com/yessearch/Search.jsp. SUSE Linux Enterprise Server peut prendre en charge d'autres systèmes IBM POWER non répertoriés. Pour obtenir les informations les plus récentes, consultez le Centre d'informations IBM pour Linux à l'adresse https://www.ibm.com/support/knowledgecenter/linuxonibm/liaam/liaamdistros.htm.

Configuration requise pour la mémoire

Un minimum de 1 024 Mo de mémoire vive est requis pour une installation minimale. Pour les installations à distance via HTTP ou FTP, ajoutez 150 Mo de plus. Notez que ces valeurs ne sont valables que pour l'installation du système d'exploitation. La quantité réelle de mémoire vive dépend du workload du système.

Configuration requise pour le disque dur

La configuration requise pour le disque dépend du type d'installation sélectionné et du scénario d'utilisation. Normalement, pour fonctionner correctement, un système requiert plus d'espace que l'installation proprement dite. Les configurations minimales requises sont les suivantes.

Étendue de l'installation

Configuration minimale requise pour le disque dur

Mode texte

1,5 Go

Minimum

2,5 Go

Bureau GNOME

3 Go

Tous les modèles

4 Go

Minimum recommandé (aucun instantané Btrfs) : 10 Go

Minimum requis (avec des instantanés Btrfs) : 16 Go

Minimum recommandé (avec des instantanés Btrfs) : 32 Go

Si la partition root est inférieure à 10 Go, le programme d'installation n'offre pas de proposition de partitionnement. Dans ce cas, vous devez créer des partitions manuellement. Pour éviter ce problème, nous vous recommandons de réserver 10 Go pour la partition racine. Augmentez la taille minimale à 16 Go si vous envisagez d'activer les instantanés Btrfs sur le volume racine (voir Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper” [Guide d'administration, Chapitre 7 « Récupération système et gestion des instantanés avec Snapper »]).

Avant d'installer SUSE Linux Enterprise Server, assurez-vous que le serveur dispose de la dernière version du microprogramme. Pour obtenir le microprogramme le plus récent, visitez le site FixCentral d'IBM (http://www.ibm.com/support/fixcentral/). Sélectionnez votre système dans la liste Groupe de produits. Des logiciels supplémentaires sont disponibles à partir du dépôt d'outils IBM PowerLinux. Pour plus d'informations sur l'utilisation du dépôt d'outils IBM PowerLinux, consultez l'adresse https://ibm.biz/Bdxn3N.

4.2 Installation de SUSE Linux Enterprise Server for POWER

La procédure suivante explique comment configurer un environnement d'installation. Vous pouvez l'ignorer si vous disposez déjà d'un environnement d'installation prêt pour utilisation.

Procédure 4.1 : Préparation d'un environnement d'installation
  1. Lancez une session SSH sur votre console HMC et exécutez la commande vtmenu.

  2. Sélectionnez le serveur POWER souhaité et la partition LPAR. S'il existe déjà une session de console série pour la partition LPAR choisie, vous devez d'abord la fermer à l'aide de la commande suivante :

    rmvterm -m SERVER -p LPAR
  3. Redémarrez la partition LPAR en créant une session SSH sur la console HMC et en exécutant la commande suivante :

    chsysstate -r lpar -m SERVER -o shutdown -n LPAR --immed --restart

    Notez que cette commande provoque un redémarrage forcé de la partition LPAR. Pour effectuer un redémarrage doux et permettre l'arrêt correct des tâches en cours d'exécution, omettez le drapeau --immed dans la commande ci-dessus.

  4. À l'invite, appuyez sur 1 dans la console série pour ouvrir le menu SMS.

    Choix de l'option SMS Menu (Menu SMS)
  5. Sélectionnez Setup Remote IPL (Initial Program Load) (Configurer un IPL [Initial Program Load] distant) en appuyant sur 2 et sur Entrée.

    Choix de l'option Setup Remote IPL (Configurer un IPL distant)
  6. Sélectionnez l'adaptateur réseau pour accéder à votre serveur TFTP.

  7. Sélectionnez la version IP à utiliser (par exemple, IPv4).

  8. Sélectionnez le protocole utilisé pour accéder au serveur TFTP (par exemple, 1 pour BOOTP).

  9. Sélectionnez IP Parameters (Paramètres IP) en appuyant sur 1 et sur Entrée.

  10. Configurez les paramètres réseau requis de la partition LPAR, y compris l'adresse IP, la passerelle réseau et le masque de réseau. Dans le champ Server IP Address (Adresse IP du serveur), indiquez l'adresse IP de votre serveur TFTP.

    Configuration des paramètres réseau
  11. Utilisez la touche Échap pour revenir au premier écran. Sélectionnez les entrées suivantes dans l'ordre indiqué :

    • Select Boot Options (Sélectionner les options de démarrage)

    • Select Install/Boot Device (Sélectionner le périphérique d'installation/de démarrage)

    • Network (Réseau)

    • BOOTP

  12. Sélectionnez l'adaptateur réseau spécifié précédemment, puis choisissez :

    • Normal Mode Boot (Démarrage en mode normal)

    • Yes (Oui)

  13. Au démarrage du processus, un menu GRUB contenant une liste d'images disponibles sur le serveur TFTP doit apparaître.

    Menu GRUB

4.3 Installation de SUSE Linux Enterprise Server

En règle générale, l'installation SUSE Linux Enterprise Server sous POWER est semblable à une procédure d'installation classique.

Procédure 4.2 : Installation SUSE Linux Enterprise Server
  1. Lors des deux premières étapes, vous êtes invité à sélectionner la langue et le clavier souhaités, ainsi qu'à lire et à accepter l'accord de licence du produit.

  2. Choisissez ensuite la méthode d'enregistrement de produit souhaitée et effectuez l'enregistrement. Si vous enregistrez le système à l'aide du SUSE Customer Center, vous êtes invité à activer les dépôts de mises à jour. Appuyez sur Yes (Oui).

    Enregistrement du produit
  3. Sélectionnez un ou plusieurs modules ou extensions à l'aide des touches fléchées, puis appuyez sur Space. En fonction des extensions et des modules sélectionnés, il se peut que vous soyez invité à importer des clés GnuPG pour les dépôts associés.

    Sélection de modules et extensions
  4. Installez les produits complémentaires souhaités. Si vous choisissez d'installer un module complémentaire, vous devez spécifier sa source d'installation.

    Installation de produits complémentaires
  5. Spécifiez un modèle de partition pour votre installation. Pour accepter la proposition par défaut, appuyez sur Next (Suivant) ou sur AltN.

    Spécification d'un modèle de partition
  6. Choisissez le rôle système adapté à votre scénario spécifique.

    Choix d'un rôle système
  7. L'écran suivant permet de spécifier le fuseau horaire approprié et de créer un utilisateur. Si vous choisissez de ne pas créer d'utilisateur, vous êtes invité à indiquer un mot de passe root.

  8. Dans l'écran du résumé de l'installation, vérifiez que le service SSH est activé et ouvrez un port SSH. Pour ce faire, appuyez sur Change (Modifier), accédez à l'écran Basic Firewall and SSH Configuration (Configuration SSH et de pare-feu de base) et activez les options appropriées. Appuyez sur OK.

    Configuration des paramètres SSH
  9. Confirmez la configuration de l'installation et appuyez sur Install (Installer) pour lancer le processus d'installation.

4.4 Informations complémentaires

Pour plus d'informations sur IBM PowerLinux, consultez les sources SUSE et IBM :

  • La base de connaissances du support SUSE à l'adresse https://www.suse.com/support/kb/ aide les clients à résoudre leurs problèmes. Effectuez des recherches dans la base de connaissances sur SUSE Linux Enterprise Server à l'aide de termes pertinents.

  • Recherchez les alertes de sécurité à l'adresse suivante : https://www.suse.com/support/security/. SUSE tient également à jour deux listes de diffusion relatives à la sécurité :

    • suse-security : discussion d'ordre général sur des sujets relevant de la sécurité pour Linux et SUSE. Toutes les alertes de sécurité pour SUSE Linux Enterprise Server sont envoyées à cette liste.

    • suse-security-announce : la liste de diffusion de SUSE signale exclusivement les alertes de sécurité.

  • En cas d'erreurs matérielles, recherchez les éventuels codes sur le Panneau de configuration. Vous pouvez consulter les codes dans le centre d'informations IBM Power Systems Hardware Information Center à l'adresse https://ibm.biz/Bdxn3T.

  • Pour des conseils de dépannage, reportez-vous à la rubrique IBM PowerLinux FAQ dans le centre d'informations à l'adresse https://ibm.biz/Bdxn35.

  • Pour faire partie de la liste de diffusion linuxppc-dev, enregistrez-vous à l'aide des formulaires disponibles à l'adresse http://lists.ozlabs.org/listinfo/linuxppc-dev/.

5 Installation sur IBM Z et LinuxONE

Ce chapitre décrit la procédure pour préparer l'installation de SUSE® Linux Enterprise Server sur les systèmes IBM Z. Il fournit toutes les informations nécessaires pour préparer l'installation du côté LPAR et z/VM.

5.1 Configuration système requise

Cette section fournit des informations de base sur la configuration système requise, le niveau MicroCode et le logiciel. Elle traite également des différents types d'installation et de la manière d'exécuter un IPL pour la première installation. Pour obtenir des informations techniques détaillées concernant IBM Z sur SUSE Linux Enterprise Server, consultez le site https://www.ibm.com/developerworks/linux/linux390/documentation_suse.html.

5.1.1 Matériel

SUSE Linux Enterprise Server s'exécute sur les plates-formes suivantes :

  • IBM zEnterprise EC12 (zEC12) (2827)

  • IBM zEnterprise BC12 (zBC12) (2828)

  • IBM z13 (2964)

  • IBM z13s (2965)

  • IBM LinuxONE Emperor (2964)

  • IBM LinuxONE Rockhopper (2965)

  • IBM z14 (3906)

  • IBM z14 ZR1 (3907)

  • IBM z Systems z15 (8561)

  • IBM LinuxONE Emperor II (3906)

  • IBM LinuxONE Rockhopper II (3907)

  • IBM LinuxONE Rockhopper III (8561)

5.1.1.1 Prérequis système liés à la mémoire

Des méthodes d'installation différentes ont des prérequis système liés à la mémoire différents lors de l'installation. Il est recommandé de disposer d'au moins 1 Go de mémoire pour l'installation en mode texte sous z/VM, LPAR et KVM. L'installation en mode graphique requiert au moins 1,5 Go de mémoire.

Note
Note : prérequis système liés à la mémoire pour des sources d'installation à distance

Un minimum de 512 Mo de mémoire est requis en cas d'installation à partir de sources d'installation NFS, FTP et SMB, ou lors de l'utilisation de VNC. Tenez compte du fait que les exigences de mémoire dépendent également du nombre de périphériques visibles par l'invité z/VM ou l'image LPAR. Une installation avec de nombreux périphériques accessibles peut nécessiter plus de mémoire (même si ces périphériques ne sont pas utilisés pour l'installation).

5.1.1.2 Espace disque requis

La configuration du disque dur requise dépend fortement de l'installation. Pour que le système fonctionne correctement, vous devez normalement disposer de plus d'espace que ce que le logiciel d'installation nécessite. Les configurations minimales requises pour les types d'installation disponibles sont les suivantes :

Type d'installation

Configuration minimale requise pour le disque dur

Mode texte

1,5 Go

Minimum

2,5 Go

Bureau GNOME

3 Go

Tous les modèles

4 Go

Minimum recommandé (aucun instantané Btrfs) : 10 Go

Minimum requis (avec des instantanés Btrfs) : 16 Go

Minimum recommandé (avec des instantanés Btrfs) : 32 Go

5.1.1.3 Connexion réseau

Une connexion réseau est requise pour communiquer avec votre système SUSE Linux Enterprise Server. Il peut s'agir d'une ou de plusieurs des connexions ou des cartes réseau suivantes :

  • OSA Express Ethernet (y compris Fast et Gigabit Ethernet)

  • HiperSockets ou Guest LAN

  • 10 GBE, VSWITCH

  • RoCE (RDMA over Converged Ethernet)

Les interfaces suivantes sont toujours incluses, mais ne sont plus prises en charge :

  • CTC (ou CTC virtuel)

  • ESCON

  • Interface réseau IP pour IUCV

Pour les installations sous KVM, assurez-vous que les conditions suivantes sont réunies pour permettre à l'invité de machine virtuelle d'accéder en toute transparence au réseau :

  • L'interface réseau virtuelle est connectée à une interface réseau hôte.

  • L'interface réseau hôte est connectée à un réseau que le serveur virtuel rejoindra.

  • Si l'hôte est configuré pour disposer d'une connexion réseau redondante en regroupant deux ports réseau OSA indépendants dans une interface réseau liée, l'identificateur de l'interface réseau liée estbond0, S'il existe plusieurs interfaces liées, il s'agit de bond1, bond2, etc.

  • Une configuration de connexion réseau non redondante requiert l'identificateur de l'interface réseau unique. Celui-ci se présente sous la forme enccw0.0.NNNN, où NNNN est le numéro de périphérique de l'interface réseau souhaitée.

5.1.2 Niveau MicroCode, APAR et correctifs

Vous trouverez la documentation relative aux restrictions et exigences de cette version de SUSE Linux Enterprise Server sur IBM developerWorks à l'adresse https://www.ibm.com/developerworks/linux/linux390/documentation_suse.html. Nous vous recommandons d'utiliser le niveau de service le plus élevé disponible. Contactez le support IBM pour connaître la configuration minimale requise.

Les versions suivantes de z/VM sont prises en charge :

  • z/VM 6.4

  • z/VM 7.1

Étant donné qu'il peut être nécessaire d'activer les APAR VM avant d'installer les nouveaux niveaux MicroCode, clarifiez l'ordre d'installation avec le support IBM.

5.1.3 Logiciel

Si vous installez SUSE Linux Enterprise Server via un protocole NFS ou FTP non-Linux, vous risquez de rencontrer des problèmes avec les logiciels serveur NFS ou FTP. Le serveur FTP standard Windows* peut générer des erreurs, c'est pourquoi nous vous recommandons d'effectuer l'installation via SMB sur ces machines.

Pour vous connecter au système d'installation de SUSE Linux Enterprise Server, utilisez l'une des méthodes suivantes (l'utilisation de SSH or VNC est recommandée) :

SSH avec émulation de terminal (compatible xterm)

SSH est un outil Unix standard qui est présent sur la plupart des systèmes Unix ou Linux. Sous Windows, vous pouvez utiliser le client SSH Putty disponible à l'adresse http://www.chiark.greenend.org.uk/~sgtatham/putty/.

Client VNC

Pour Linux, le client VNC vncviewer est inclus dans SUSE Linux Enterprise Server en tant que partie du paquetage tightvnc. Pour Windows, TightVNC est également disponible. Vous pouvez le télécharger sur le site http://www.tightvnc.com/.

Serveur X

Vous trouverez une mise en oeuvre du serveur X adaptée sur tous les postes de travail Linux ou Unix. Il existe de nombreux environnements commerciaux de systèmes X Window pour Windows et Mac OS*. Certains peuvent être téléchargés sous la forme de versions d'essai gratuites. Vous pouvez obtenir une version d'essai du serveur Mocha X Server de MochaSoft sur le site http://www.mochasoft.dk/freeware/x11.htm.

Astuce
Astuce : informations complémentaires

Avant d'installer SUSE Linux Enterprise Server sur IBM Z, consultez le fichier lisezmoi situé dans le répertoire racine du premier support d'installation de SUSE Linux Enterprise Server.

5.2 Informations générales

Cette section fournit des informations de base sur la configuration système requise, le niveau MicroCode et le logiciel. Elle traite également des différents types d'installation et de la manière d'exécuter un IPL pour la première installation. Pour obtenir des informations techniques détaillées concernant IBM Z sur SUSE Linux Enterprise Server, consultez le site https://www.ibm.com/developerworks/linux/linux390/documentation_suse.html.

5.2.1 Configuration système requise

Cette section fournit une liste du matériel pour IBM Z pris en charge par SUSE Linux Enterprise Server. Elle traite ensuite du niveau MicroCode (MCL) utilisé sur votre système IBM Z pour l'installation. Vous trouverez des informations sur les autres logiciels à installer et à utiliser pour l'installation à la fin de cette section.

5.2.1.1 Matériel

SUSE Linux Enterprise Server s'exécute sur les plates-formes suivantes :

  • IBM zEnterprise System z196 (2817)

  • IBM zEnterprise System z114 (2818)

  • IBM zEnterprise EC12 (zEC12) (2827)

  • IBM zEnterprise BC12 (zBC12) (2828)

  • IBM z Systems z13 (2964)

  • IBM z Systems z13s (2965)

  • IBM z Systems z14 (3906)

  • IBM z Systems z14 ZR1 (3907)

  • IBM z Systems z15 (8561)

  • IBM LinuxONE Emperor (2964)

  • IBM LinuxONE Rockhopper (2965)

  • IBM LinuxONE Emperor II (3906)

  • IBM LinuxONE Rockhopper II (3907)

  • IBM LinuxONE Emperor III (8561)

5.2.1.1.1 Prérequis système liés à la mémoire

Des méthodes d'installation différentes ont des prérequis système liés à la mémoire différents lors de l'installation. Une fois l'installation terminée, l'administrateur système peut réduire la mémoire pour obtenir la taille souhaitée. Il est recommandé de disposer d'au moins 1 Go de mémoire pour l'installation en mode texte sous z/VM, LPAR et KVM. L'installation en mode graphique requiert au moins 1,5 Go de mémoire.

Note
Note : prérequis système liés à la mémoire pour des sources d'installation à distance

Un minimum de 512 Mo de mémoire est requis en cas d'installation à partir de sources d'installation NFS, FTP et SMB, ou lors de l'utilisation de VNC. Souvenez-vous que le nombre de périphériques visibles par un invité z/VM ou une image LPAR affecte la configuration de mémoire requise. Une installation avec de nombreux périphériques accessibles peut nécessiter plus de mémoire (même si ces périphériques ne sont pas utilisés pour l'installation).

5.2.1.1.2 Espace disque requis

La configuration du disque dur requise dépend fortement de l'installation. En règle générale, pour que le système fonctionne correctement, vous devez avoir plus d'espace disque que n'en nécessite le logiciel d'installation. La configuration minimale des différents éléments est la suivante :

800 Mo

Installation minimale

1,4 Go

Installation minimale + système de base

2,6 Go

Installation par défaut

3,6 Go+

Recommandée (avec bureau graphique, paquetages de développement et Java).

5.2.1.1.3 Connexion réseau

Une connexion réseau est requise pour communiquer avec votre système SUSE Linux Enterprise Server. Il peut s'agir d'une ou de plusieurs des connexions ou des cartes réseau suivantes :

  • OSA Express Ethernet (y compris Fast et Gigabit Ethernet)

  • HiperSockets ou Guest LAN

  • 10 GBE, VSWITCH

  • RoCE (RDMA over Converged Ethernet)

Les interfaces suivantes sont toujours incluses, mais ne sont plus prises en charge :

  • CTC (ou CTC virtuel)

  • ESCON

  • Interface réseau IP pour IUCV

Pour les installations sous KVM, assurez-vous que les conditions suivantes sont réunies pour permettre à l'invité de machine virtuelle d'accéder en toute transparence au réseau :

  • L'interface réseau virtuelle est connectée à une interface réseau hôte.

  • L'interface réseau hôte est connectée à un réseau que le serveur virtuel rejoindra.

  • Si l'hôte est configuré pour disposer d'une connexion réseau redondante en regroupant deux ports réseau OSA indépendants dans une interface réseau liée, l'identificateur de l'interface réseau liée estbond0. S'il existe plusieurs interfaces liées, il s'agit de bond1, bond2, etc.

  • Une configuration de connexion réseau non redondante requiert l'identificateur de l'interface réseau unique. Celui-ci se présente sous la forme enccw0.0.NNNN, où NNNN est le numéro de périphérique de l'interface réseau souhaitée.

5.2.1.2 Niveau MicroCode, APAR et correctifs

Vous trouverez la documentation relative aux restrictions et exigences de cette version de SUSE Linux Enterprise Server sur IBM developerWorks à l'adresse http://www.ibm.com/developerworks/linux/linux390/documentation_suse.html. Il est recommandé de toujours utiliser le niveau de service le plus élevé. Contactez l'assistance technique IBM pour connaître la configuration minimale requise.

5.2.1.2.1 z/VM
  • z/VM 6.3. Il est vivement recommandé d'installer APAR VM65419 (ou version ultérieure) afin d'améliorer la sortie de qclib.

  • z/VM 6.4

  • z/VM 7.1

Négociez l'ordre d'installation avec votre support IBM, car il peut être nécessaire d'activer les APAR VM avant d'installer les nouveaux niveaux MicroCode.

5.2.1.3 Logiciel

Si vous installez SUSE Linux Enterprise Server via un protocole NFS ou FTP non-Linux, vous risquez de rencontrer des problèmes avec les logiciels serveur NFS ou FTP. Le serveur FTP standard de Windows* peut générer des erreurs. L'installation via SMB sur ces machines est donc généralement recommandée.

Pour vous connecter au système d'installation de SUSE Linux Enterprise Server, utilisez l'une des méthodes suivantes (l'utilisation de SSH or VNC est recommandée) :

SSH avec émulation de terminal (compatible xterm)

SSH est un outil Unix standard qui est présent sur la plupart des systèmes Unix ou Linux. Sous Windows, vous pouvez utiliser le client SSH Putty disponible à l'adresse http://www.chiark.greenend.org.uk/~sgtatham/putty/.

Client VNC

Pour Linux, le client VNC vncviewer est inclus dans SUSE Linux Enterprise Server en tant que partie du paquetage tightvnc. Pour Windows, TightVNC est également disponible. Vous pouvez le télécharger sur le site http://www.tightvnc.com/.

Serveur X

Vous trouverez une mise en oeuvre du serveur X adaptée sur tous les postes de travail Linux ou Unix. Il existe de nombreux environnements commerciaux de systèmes X Window pour Windows et Mac OS*. Certains peuvent être téléchargés sous la forme de versions d'essai gratuites. Vous pouvez obtenir une version d'essai du serveur Mocha X Server de MochaSoft sur le site http://www.mochasoft.dk/freeware/x11.htm.

Astuce
Astuce : informations complémentaires

Avant d'installer SUSE Linux Enterprise Server sur IBM Z, consultez le fichier lisezmoi situé dans le répertoire racine du premier support d'installation de SUSE Linux Enterprise Server. Ce fichier complète cette documentation.

5.2.2 Types d'installation

Cette section est une vue d'ensemble des différents types d'installation possibles avec SUSE Linux Enterprise Server (SLES) for IBM Z. SUSE Linux Enterprise Server peut être installé sur une partition LPAR, en tant qu'invité au sein de z/VM ou en tant qu'invité au sein de KVM.

Selon le mode d'installation (LPAR ou z/VM), il existe plusieurs manières de démarrer le processus d'installation et d'exécuter un IPL sur le système installé.

5.2.2.1 LPAR

Si vous installez SUSE Linux Enterprise Server for IBM Z sur une partition logique (LPAR), assignez de la mémoire et des processeurs à l'instance. L'installation dans une partition logique est recommandée si les machines de production sont très chargées. L'exécution en mode LPAR permet également de bénéficier de normes de sécurité plus strictes. La mise en réseau entre les partitions logiques est possible sur des interfaces externes ou Hipersockets. Si vous prévoyez d'utiliser votre installation à des fins de virtualisation avec KVM, une installation dans une partition logique est vivement conseillée.

5.2.2.2 z/VM

L'exécution de SUSE Linux Enterprise Server for IBM Z dans z/VM implique que SUSE Linux Enterprise Server est un système invité au sein de z/VM. Un avantage de ce mode est que vous contrôlez totalement SUSE Linux Enterprise Server à partir de z/VM. Cela s'avère très utile pour le développement du kernel ou le débogage basé sur le kernel. Il est également très facile d'ajouter ou de supprimer du matériel vers et depuis les invités Linux. La création d'invités SUSE Linux Enterprise Server supplémentaires est une opération particulièrement simple. Vous pouvez, en outre, exécuter des centaines d'instances Linux simultanément.

5.2.2.3 Invité KVM

Afin d'installer SUSE Linux Enterprise Server for IBM Z en tant qu'invité KVM, une instance de serveur hôte KVM doit être installée sur la partition logique. Pour plus de détails sur l'installation de l'invité, reportez-vous à la Procédure 5.3, « Présentation d'une installation invité KVM ».

5.2.3 Options IPL

Cette section fournit les informations nécessaires pour exécuter un IPL pour la première installation. Selon le type d'installation, différentes options doivent être utilisées. Les options Lecteur VM, Charger depuis un CD-ROM ou un serveur et Chargement depuis un DVD associé à SCSI sont traitées dans cette section. L'installation des paquetages logiciels, via le réseau, ne requiert pas de support IPL.

5.2.3.1 Lecteur VM

Pour exécuter un IPL depuis un lecteur VM, transférez tout d'abord les fichiers nécessaires vers le lecteur. Pour une meilleure administration, il est recommandé de créer un utilisateur linuxmnt qui détient un minidisque avec les fichiers et les scripts requis pour IPL. Les invités Linux peuvent ensuite accéder à ce minidisque en lecture seule. Pour plus de détails, reportez-vous à la Section 5.3.4.2.1, « Exécution d'un IPL à partir du lecteur z/VM ».

5.2.3.2 Chargement à partir d'un support amovible ou un serveur

Pour exécuter un IPL dans une partition LPAR, chargez directement l'image du kernel à partir du lecteur de CD/DVD-ROM de la console HMC ou de l'ordinateur SE, ou à partir de tout système distant accessible via FTP. Vous pouvez exécuter cette fonction depuis HMC. Le processus d'installation requiert un fichier avec une assignation de l'emplacement des données d'installation sur le système de fichiers et les emplacements de la mémoire où les données doivent être copiées.

Pour SUSE Linux Enterprise Server, il existe deux fichiers de ce type. Ils se trouvent tous les deux dans le répertoire racine du premier support d'installation :

  • Suse.ins qui nécessitera, pour pouvoir être utilisé, de configurer l'accès réseau dans Linuxrc avant de commencer l'installation.

  • susehmc.ins qui permet d'effectuer l'installation sans le moindre accès au réseau.

Dans le volet de navigation gauche de HMC, développez Systems Management › Systèmes (Gestion des systèmes) et sélectionnez le macroordinateur que vous voulez utiliser. Choisissez la partition logique (LPAR) dans laquelle vous souhaitez démarrer SUSE Linux Enterprise Server dans la table de partitions logiques et sélectionnez ensuite Chargement depuis un support amovible ou un serveur.

Sélectionnez maintenant Hardware Management Console CD-ROM/DVD (CD-ROM/DVD de la console de gestion du matériel) ou FTP Source (Source FTP). Si vous avez choisi la seconde option, fournissez l'adresse ou le nom du serveur, ainsi que vos informations d'identification. Si le fichier .ins approprié ne se trouve pas dans le répertoire racine du serveur, indiquez le chemin d'accès à ce fichier. Accédez au menu Select the software to load (Sélectionner le logiciel à charger) et sélectionnez l'entrée .ins appropriée. Cliquez sur OK pour démarrer l'installation.

5.2.3.3 Chargement depuis un DVD associé à SCSI

Pour exécuter un IPL à partir d'un DVD SCSI, vous devez avoir accès à un adaptateur FCP connecté à un lecteur de DVD. Vous devez récupérer les valeurs pour WWPN et LUN sur l'unité SCSI. Pour plus de détails, reportez-vous à la Section 5.3.4.1.2, « Exécution d'un IPL à partir d'un DVD SCSI associé FCP ».

5.2.3.4 Chargement depuis le réseau à l'aide de zPXE

Pour effectuer un chargement IPL à partir du réseau avec zPXE, un serveur Cobbler fournissant le kernel, le disque RAM et un fichier parmfile est nécessaire. Il est initié en exécutant le script ZPXE EXEC. Reportez-vous à la Section 5.3.1.3, « Utilisation d'un serveur Cobbler pour zPXE » pour plus d'informations. zPXE est uniquement disponible sur z/VM.

5.3 Préparation de l'installation

Ce chapitre explique les procédures pour rendre les données accessibles pour l'installation, installer SUSE Linux Enterprise Server selon différentes méthodes, et préparer et utiliser l'IPL du système d'installation de SUSE Linux Enterprise Server. Il fournit également des informations sur la configuration et l'installation réseau.

5.3.1 Mise à disposition des données d'installation

Cette section fournit des informations détaillées pour rendre accessibles les données d'installation de SUSE Linux Enterprise Server for IBM Z. Selon l'ordinateur que vous utilisez et l'environnement système, choisissez une installation NFS ou FTP. Si vous exécutez des postes de travail Microsoft Windows dans votre environnement, vous pouvez utiliser le réseau Windows (y compris le protocole SMB) pour installer SUSE Linux Enterprise Server sur votre système IBM Z.

Astuce
Astuce : exécution d'un IPL à partir d'un DVD

Il est possible d'exécuter un IPL depuis un DVD et d'utiliser celui-ci comme support d'installation. Cela peut s'avérer très pratique si vous êtes confronté à des restrictions concernant la configuration d'un serveur d'installation fournissant un support d'installation sur votre réseau. Vous devez disposer d'un lecteur de DVD SCSI associé à un protocole FCP.

Note
Note : aucune installation à partir du disque dur

Il est impossible de procéder à une installation depuis le disque dur en plaçant le contenu du DVD sur une partition sur un DASD.

5.3.1.1 Utilisation d'un poste de travail Linux ou d'un DVD SUSE Linux Enterprise Server

Vous pouvez utiliser un poste de travail Linux de votre environnement informatique pour fournir les données d'installation au processus d'installation IBM Z via NFS ou FTP. Si le poste de travail Linux exécute SUSE Linux Enterprise Server, vous pouvez configurer un serveur d'installation (NFS ou FTP) à l'aide du module YaST Installation Server (Serveur d'installation), comme décrit à la Section 16.1, « Configuration d'un serveur d'installation à l'aide de YaST ».

Important
Important : exportation de périphériques installés avec NFS

Exporter la racine du système de fichiers (/) n'exporte pas automatiquement les périphériques montés, comme un DVD. Par conséquent, vous devez nommer explicitement le point de montage dans /etc/exports :

/media/dvd  *(ro)

Une fois ce fichier modifié, redémarrez le serveur NFS en exécutant la commande sudo systemctl restart nfsserver.

La configuration d'un serveur FTP sur un système Linux implique d'installer et de configurer un logiciel serveur, tel que vsftpd. Si vous utilisez SUSE Linux Enterprise Server, reportez-vous au Book “Administration Guide”, Chapter 38 “Setting Up an FTP Server with YaST” (Guide d'administration, Chapitre 39 « Configuration d'un serveur FTP avec YaST ») pour obtenir des instructions d'installation. Le téléchargement des données d'installation via une connexion anonyme n'est pas pris en charge. Par conséquent, vous devez configurer le serveur FTP pour assurer l'authentification utilisateur.

5.3.1.1.1 SUSE Linux Enterprise Server sur DVD

Le premier support d'installation de SUSE Linux Enterprise Server for IBM Z contient une image Linux de démarrage pour les postes de travail Intel et une image pour IBM Z.

Pour les postes de travail Intel, démarrez à partir de ce support. À l'invite, choisissez la langue de réponse et la disposition de clavier souhaitées, et sélectionnez l'option Start rescue system (Démarrer le système de secours). Pour cette opération, 64 Mo minimum de mémoire vive sont requis. Aucun espace disque n'est requis, car tout le système de secours réside dans la mémoire vive du poste de travail. Cette approche nécessite la configuration manuelle de la mise en réseau du poste de travail.

Pour IBM Z, exécutez l'IPL de votre invité LPAR/VM depuis ce support, comme décrit à la Section 5.3.4.1.2, « Exécution d'un IPL à partir d'un DVD SCSI associé FCP ». Après avoir entré les paramètres de votre réseau, le système d'installation considère le support comme la source des données d'installation. Dans la mesure où IBM Z ne peut pas être associé directement à un terminal compatible X11, choisissez entre une installation VNC ou SSH. SSH fournit également une installation graphique par le tunnelage de la connexion x via SSH grâce à ssh -X.

5.3.1.2 Utilisation d'un poste travail Microsoft Windows

Vous pouvez utiliser un poste de travail Microsoft Windows sur votre réseau pour mettre à disposition le support d'installation. Le moyen le plus simple pour ce faire consiste à utiliser le protocole SMB. Assurez-vous de cocher la case SMB over TCP/IP (SMB sur TCP/IP) pour activer l'encapsulation de paquetages SMB dans les paquetages TCP/IP. Pour plus d'informations, reportez-vous à l'aide en ligne de Windows ou à la documentation Windows traitant de la mise en réseau.

5.3.1.2.1 Utilisation de SMB

Pour mettre à disposition le support d'installation avec le protocole SMB, insérez la clé USB à mémoire flash contenant le fichier SLE-15-SP2-Online-ARCH-GM-media1.iso dans le port USB du poste de travail Windows. Créez ensuite un partage utilisant la lettre de l'unité de clé USB à mémoire flash et rendez-le accessible à tous les utilisateurs sur le réseau.

Dans YaST, le chemin d'installation peut se présenter comme suit :

smb://DOMAIN;USER:PW@SERVERNAME/SHAREPATH

Où les marques de réservation ont la signification suivante :

DOMAIN

Domaine de répertoire actif ou groupe de travail facultatif.

USER , PW

Nom d'utilisateur et mot de passe facultatifs d'un utilisateur habilité à accéder à ce serveur et à son partage.

SERVERNAME

Nom du serveur qui héberge le ou les partages.

SHAREPATH

Chemin d'accès aux partages.

5.3.1.2.2 Avec un serveur NFS

Reportez-vous à la documentation fournie avec le produit tiers qui active les services du serveur NFS pour votre poste de travail Windows. La clé USB à mémoire flash contenant le support SLE-15-SP2-Online-ARCH-GM-media1.iso doit se trouver dans le chemin NFS disponible.

5.3.1.2.3 Utilisation de FTP

Reportez-vous à la documentation fournie avec le produit tiers qui active les services du serveur FTP sur votre poste de travail Windows. La clé USB à mémoire flash contenant le support SLE-15-SP2-Online-ARCH-GM-media1.iso doit se trouver dans le chemin FTP disponible.

Le serveur FTP fourni avec certaines versions de Microsoft Windows implémente uniquement un sous-ensemble des commandes FTP et n'est pas adapté pour fournir les données d'installation. Dans ce cas, utilisez un serveur FTP tiers qui offre les fonctionnalités requises.

5.3.1.2.4 Utilisation d'un lecteur de DVD SCSI associé à FCP

Après avoir exécuté un IPL depuis le DVD SCSI, comme décrit à la Section 5.3.4.1.2, « Exécution d'un IPL à partir d'un DVD SCSI associé FCP », le système d'installation utilise le DVD comme support d'installation. Dans ce cas, vous n'avez pas besoin des supports d'installation sur un serveur FTP, NFS ou SMB. Cependant, vous avez besoin des données de configuration réseau de votre instance SUSE Linux Enterprise Server, car vous devez configurer le réseau au cours de l'installation afin d'effectuer une installation graphique via VNC ou X.

5.3.1.3 Utilisation d'un serveur Cobbler pour zPXE

Pour effectuer un chargement IPL à partir du réseau, un serveur Cobbler est nécessaire afin de fournir le kernel, le fichier initrd et les données d'installation. La préparation du serveur Cobbler implique les étapes suivantes :

5.3.1.3.1 Importation des données d'installation

L'importation du support exige que la source d'installation soit disponible sur le serveur Cobbler, à partir d'une clé USB à mémoire flash ou d'une source réseau. Exécutez la commande suivante pour importer les données :

tux > sudo cobbler import --path=PATH1 --name=IDENTIFIER2 --arch=s390x

1

Point de montage des données d'installation.

2

Chaîne identifiant le produit importé ; « sles15_s390x », par exemple. Cette chaîne est utilisée comme nom du sous-répertoire dans lequel sont copiées les données d'installation. Sur un serveur Cobbler qui s'exécute sous SUSE Linux Enterprise, il s'agit de /srv/www/cobbler/ks_mirror/IDENTIFIER. Ce chemin peut être différent si le serveur Cobbler s'exécute sous un autre système d'exploitation.

5.3.1.3.2 Ajout d'une distribution

L'ajout d'une distribution permet à Cobbler de fournir le kernel et le fichier initrd requis pour un chargement IPL via zPXE. Exécutez la commande suivante sur le serveur Cobbler afin d'ajouter SUSE Linux Enterprise Server for IBM Z :

tux > sudo cobbler distro add --arch=s390 --breed=suse --name="IDENTIFIER"1 \
  --os-version=sles152 \
  --initrd=/srv/www/cobbler/ks_mirror/IDENTIFIER/boot/s390x/initrd3 \
  --kernel=/srv/www/cobbler/ks_mirror/IDENTIFIER/boot/s390x/linux4 \
  --kopts="install=http://cobbler.example.com/cobbler/ks_mirror/IDENTIFIER"5

1

Identificateur unique pour la distribution, par exemple « SLES 15 SP2 IBM Z ».

2

Identificateur du système d'exploitation. Utilisez sles15.

3

Chemin d'accès au fichier initrd. La première partie du chemin d'accès (/srv/www/cobbler/ks_mirror/IDENTIFIER/) dépend de l'emplacement des données importées et du nom du sous-répertoire choisi lors de l'importation des données d'installation.

4

Chemin d'accès au kernel. La première partie du chemin d'accès (/srv/www/cobbler/ks_mirror/IDENTIFIER/) dépend de l'emplacement des données importées et du nom du sous-répertoire choisi lors de l'importation des données d'installation.

5

URL vers le répertoire d'installation sur le serveur Cobbler.

5.3.1.3.3 Réglage du profil

L'ajout d'une distribution (voir Section 5.3.1.3.2, « Ajout d'une distribution ») génère automatiquement un profil avec l'élément IDENTIFIER correspondant. Utilisez la commande suivante pour effectuer quelques adaptations nécessaires :

tux > sudo cobbler distro edit \
--name=IDENTIFIER1 --os-version=sles102 --ksmeta=""3
--kopts="install=http://cobbler.example.com/cobbler/ks_mirror/IDENTIFIER"4

1

Identificateur du profil. Utilisez la chaîne spécifiée lors de l'ajout de la distribution.

2

Version du système d'exploitation. Distribution à laquelle le profil doit être appliqué. Utilisez la chaîne spécifiée avec --name=IDENTIFIER dans l'étape d'importation.

3

Option nécessaire pour la création des modèles des fichiers kickstart. Étant donné qu'elle n'est pas utilisée pour SUSE, laissez cette option vide.

4

Liste des paramètres kernel séparés par des espaces. Elle doit inclure au moins le paramètre install.

5.3.1.3.4 Ajout de systèmes

La dernière étape consiste à ajouter des systèmes au serveur Cobbler. Cette étape doit être effectuée pour chaque invité IBM Z qui doit démarrer via zPXE. Les invités sont identifiés au moyen de leur ID utilisateur z/VM (l'exemple suivant utilise l'ID « linux01 »). Notez que l'ID doit être en minuscules. Pour ajouter un système, exécutez la commande suivante :

tux > sudo cobbler system add --name=linux01 --hostname=linux01.example.com \
--profile=IDENTIFIER --interface=qdio \
--ip-address=192.168.2.103 --subnet=192.168.2.255 --netmask=255.255.255.0 \
--name-servers=192.168.1.116 --name-servers-search=example.com \
--gateway=192.168.2.1 --kopts="KERNEL_OPTIONS"

L'option --kopts vous permet de spécifier les paramètres de kernel et d'installation que vous indiquez normalement dans le fichier parmfile. Spécifiez les paramètres selon le format suivant : PARAMETER1=VALUE1 PARAMETER2=VALUE2. Le programme d'installation vous invite à saisir les paramètres manquants. Pour bénéficier d'une installation entièrement automatisée, vous devez indiquer tous les paramètres de mise en réseau et des DASD, et fournir un fichier AutoYaST. Vous trouverez, ci-après, un exemple d'invité équipé d'une interface OSA utilisant les mêmes paramètres réseau que ci-dessus.

--kopts=" \
AutoYaST=http://192.168.0.5/autoinst.xml \
Hostname=linux01.example.com \
Domain=example.com \
HostIP=192.168.2.103 \
Gateway=192.168.2.1 \
Nameserver=192.168.1.116 \
Searchdns=example.com \
InstNetDev=osa; \
Netmask=255.255.255.0 \
Broadcast=192.168.2.255 \
OsaInterface=qdio \
Layer2=0 \
PortNo=0 \
ReadChannel=0.0.0700 \
WriteChannel=0.0.0701 \
DataChannel=0.0.0702 \
DASD=600"

5.3.1.4 Installation à partir d'une clé USB à mémoire flash de la console HMC

L'installation de SUSE Linux Enterprise Server sur des serveurs IBM Z requiert généralement une source d'installation réseau. Si cette condition ne peut pas être remplie, SUSE Linux Enterprise Server vous permet d'utiliser la clé USB à mémoire flash de la console de gestion du matériel (HMC) en tant que source pour l'installation sur une partition LPAR.

Pour effectuer l'installation à partir de la clé USB à mémoire flash de la console HMC, procédez comme suit :

  • Ajoutez install=hmc:/ aux options de kernel ou du fichier parmfile (voir Section 5.4, « Fichier parmfile : automatisation de la configuration du système »).

  • En mode d'installation manuel à l'aide de linuxrc, sélectionnez Start Installation (Démarrer l'installation), puis sélectionnez Installation et ensuite Hardware Management Console (Console de gestion du matériel). Le support d'installation doit être dans la console HMC.

Important
Important : configuration du réseau

Avant de commencer l'installation, spécifiez une configuration réseau dans linuxrc. Vous ne pouvez pas effectuer cette opération à l'aide des paramètres de démarrage ; il est fort probable que vous ayez besoin d'un accès réseau. Dans linuxrc, accédez à Start Installation (Démarrer l'installation), puis sélectionnez Network Setup (Configuration du réseau).

Important
Important : le système Linux doit d'abord démarrer

Avant d'accorder l'accès au contenu sur la clé USB à mémoire flash de la console HMC, attendez que le système Linux ait démarré. L'exécution d'un IPL peut interrompre la connexion entre la console HMC et la partition LPAR. Si la première tentative d'utilisation de la méthode décrite échoue, vous pouvez accorder l'accès et réessayer l'option HMC.

Note
Note : dépôt d'installation

La clé USB à mémoire flash n'est pas conservée en tant que dépôt d'installation, étant donné que l'installation est une procédure unique. Si vous avez besoin d'un dépôt d'installation, enregistrez et utilisez le dépôt en ligne.

5.3.2 Types d'installation

Cette section décrit la procédure d'installation de SUSE Linux Enterprise Server pour chaque mode d'installation. Une fois que vous avez effectué les étapes de préparation décrites dans les chapitres précédents, suivez la présentation du mode d'installation souhaité.

Comme le décrit la Section 5.3.1, « Mise à disposition des données d'installation », il existe trois modes différents d'installation pour Linux sur IBM Z : LPAR, z/VM et invité KVM.

Procédure 5.1 : Présentation d'une installation LPAR
  1. Préparez les périphériques requis pour l'installation. Reportez-vous à la Section 5.3.3.1, « Préparation de l'IPL d'une installation LPAR ».

  2. Exécutez un IPL sur le système d'installation. Reportez-vous à la Section 5.3.4.1, « Exécution d'un IPL sur une installation LPAR ».

  3. Configurez le réseau. Reportez-vous à la Section 5.3.5, « Configuration réseau ».

  4. Connectez-vous au système d'installation de SUSE Linux Enterprise Server. Reportez-vous à la Section 5.3.6, « Connexion au système d'installation de SUSE Linux Enterprise Server ».

  5. Lancez l'installation avec YaST et exécutez un IPL sur le système installé. Reportez-vous au Chapitre 8, Procédure d'installation.

Procédure 5.2 : Présentation de l'installation z/VM
  1. Préparez les périphériques requis pour l'installation. Reportez-vous à la Section 5.3.3.2.1, « Ajout d'un invité Linux à l'aide de DirMaint ».

  2. Exécutez un IPL sur le système d'installation. Reportez-vous à la Section 5.3.4.2, « Exécution d'un IPL sur une installation z/VM ».

  3. Configurez le réseau. Reportez-vous à la Section 5.3.5, « Configuration réseau ».

  4. Connectez-vous au système d'installation de SUSE Linux Enterprise Server. Reportez-vous à la Section 5.3.6, « Connexion au système d'installation de SUSE Linux Enterprise Server ».

  5. Lancez l'installation avec YaST et exécutez un IPL sur le système installé. Reportez-vous au Chapitre 8, Procédure d'installation.

Procédure 5.3 : Présentation d'une installation invité KVM
  1. Créez une image de disque virtuel et écrivez un fichier XML de domaine. Reportez-vous à la Section 5.3.3.3, « Préparation de l'IPL d'une installation invité KVM ».

  2. Préparez la cible d'installation et exécutez un IPL sur l'invité de machine virtuelle. Reportez-vous à la Section 5.3.4.3, « Exécution d'un IPL sur une installation invité KVM ».

  3. Section 5.3.5.3, « Configuration du réseau et sélection de la source d'installation ».

  4. Connectez-vous au système d'installation de SUSE Linux Enterprise Server. Reportez-vous à la Section 5.3.6, « Connexion au système d'installation de SUSE Linux Enterprise Server ».

  5. Lancez l'installation avec YaST et exécutez un IPL sur le système installé. Reportez-vous au Chapitre 8, Procédure d'installation.

5.3.3 Préparation de l'IPL du système d'installation de SUSE Linux Enterprise Server

5.3.3.1 Préparation de l'IPL d'une installation LPAR

Configurez votre système IBM Z pour qu'il démarre en mode ESA/S390 ou Linux seul avec un profil d'activation approprié et IOCDS. Pour plus d'informations, reportez-vous à la documentation IBM. Poursuivez comme décrit à la Section 5.3.4.1, « Exécution d'un IPL sur une installation LPAR ».

5.3.3.2 Préparation de l'IPL d'une installation z/VM

5.3.3.2.1 Ajout d'un invité Linux à l'aide de DirMaint

Pour commencer, connectez et formatez un ou plusieurs DASD sur le système que l'invité Linux doit utiliser dans z/VM. Créez ensuite un nouvel utilisateur dans z/VM. Cet exemple illustre le répertoire pour un utilisateur LINUX1 avec le mot de passe LINPWD, une mémoire de 1 Go (pouvant atteindre 2 Go), plusieurs minidisques (MDISK), deux unités centrales et un périphérique OSA QDIO.

Astuce
Astuce : affectation de mémoire aux invités z/VM

Lorsque vous assignez de la mémoire à un invité z/VM, assurez-vous que la taille de la mémoire est adaptée aux besoins de votre type d'installation préférée. Reportez-vous à la Section 5.2.1.1.1, « Prérequis système liés à la mémoire ». Pour définir la taille de la mémoire sur 1 Go, utilisez la commande CP DEFINE STORAGE 1G. À la fin de l'installation, réinitialisez la taille de la mémoire vers la valeur souhaitée.

Exemple 5.1 : Configuration d'un répertoire z/VM
USER LINUX1 LINPWD 1024M 2048M G
*____________________________________________
* LINUX1
*____________________________________________
* This VM Linux guest has two CPUs defined.

CPU 01 CPUID 111111
CPU 02 CPUID 111222
IPL CMS PARM AUTOCR
IUCV ANY
IUCV ALLOW
MACH ESA 10
OPTION MAINTCCW RMCHINFO
SHARE RELATIVE 2000
CONSOLE 01C0 3270 A
SPOOL 000C 2540 READER *
SPOOL 000D 2540 PUNCH A
SPOOL 000E 3203 A
* OSA QDIO DEVICE DEFINITIONS
DEDICATE 9A0 9A0
DEDICATE 9A1 9A1
DEDICATE 9A2 9A2
*
LINK MAINT 0190 0190 RR
LINK MAINT 019E 019E RR
LINK MAINT 019D 019D RR
* MINIDISK DEFINITIONS
MDISK 201 3390 0001 0050 DASD40 MR ONE4ME TWO4ME THR4ME
MDISK 150 3390 0052 0200 DASD40 MR ONE4ME TWO4ME THR4ME
MDISK 151 3390 0253 2800 DASD40 MR ONE4ME TWO4ME THR4ME

Cet exemple utilise un minidisque 201 comme disque d'un invité. Le minidisque 150 avec 200 cylindres est le périphérique de commutation Linux. Le disque 151 avec 2 800 cylindres contient l'installation Linux.

En tant qu'utilisateur MAINT, ajoutez l'invité au répertoire utilisateur avec la commande DIRM FOR LINUX1 ADD. Saisissez le nom de l'invité (LINUX1) et appuyez sur la touche F5. Configurez l'environnement de l'utilisateur avec :

DIRM DIRECT
DIRM USER WITHPASS

La dernière commande renvoie un numéro de fichier du lecteur. Ce numéro est requis pour exécuter la commande suivante :

RECEIVE <number> USER DIRECT A (REPL)

Vous pouvez désormais vous connecter sur Invité en tant qu'utilisateur Linux1.

Si l'option dirmaint n'est pas disponible, reportez-vous à la documentation IBM relative à la configuration de cet utilisateur.

Reportez-vous à la Section 5.3.4.2, « Exécution d'un IPL sur une installation z/VM ».

5.3.3.3 Préparation de l'IPL d'une installation invité KVM

Une installation d'invité KVM nécessite un fichier XML de domaine qui spécifie la machine virtuelle et au moins une image de disque virtuel pour l'installation.

5.3.3.3.1 Création d'une image de disque virtuel

Par défaut, libvirt recherche des images de disque dans le dossier /var/lib/libvirt/images/ sur le serveur hôte de machine virtuelle. Bien que les images puissent aussi être stockées n'importe où ailleurs sur le système de fichiers, il est recommandé de les enregistrer toutes à un emplacement unique pour faciliter leur maintenance. Pour créer une image, connectez-vous au serveur hôte KVM et exécutez la commande suivante :

qemu-img create -f qcow2 /var/lib/libvirt/images/s12lin_qcow2.img 10G

Celle-ci crée une image qcow2 avec une taille de 10 Go dans le dossier /var/lib/libvirt/images/. Pour plus d'informations, reportez-vous au Book “Virtualization Guide”, Chapter 31 “Guest Installation”, Section 31.2 “Managing Disk Images with qemu-img (Guide de virtualisation, Chapitre 29 « Installation d'invité », Section 29.2 « Gestion des images de disque avec qemu-img ».

5.3.3.3.2 Écriture d'un fichier XML de domaine

Un fichier XML de domaine est utilisé pour définir l'invité de machine virtuelle. Pour créer le fichier XML de domaine, ouvrez un fichier vide s15-1.xml dans un éditeur et créez un fichier comme dans l'exemple suivant.

Exemple 5.2 : Exemple de fichier XML de domaine

L'exemple suivant crée un invité de machine virtuelle avec un seul processeur, 1 Go de RAM et l'image de disque virtuel créée à la section précédente (Section 5.3.3.3.1, « Création d'une image de disque virtuel »). Il part du principe que le serveur virtuel est attaché à l'interface réseau hôte bond0. Modifiez l'élément de périphériques source pour qu'il corresponde à votre configuration réseau.

<domain type="kvm">
 <name>s15-1</name>
 <description>Guest-System SUSE SLES15</description>
 <memory>1048576</memory>
 <vcpu>1</vcpu>
 <os>
  <type arch="s390x" machine="s390-ccw-virtio">hvm</type>
  <!-- Boot kernel - remove 3 lines after successfull installation -->
  <kernel>/var/lib/libvirt/images/s15-kernel.boot</kernel>
  <initrd>/var/lib/libvirt/images/s15-initrd.boot</initrd>
  <cmdline>linuxrcstderr=/dev/console</cmdline>
 </os>
 <iothreads>1</iothreads>
 <on_poweroff>destroy</on_poweroff>
 <on_reboot>restart</on_reboot>
 <on_crash>preserve</on_crash>
 <devices>
  <emulator>/usr/bin/qemu-system-s390x</emulator>
  <disk type="file" device="disk">
   <driver name="qemu" type="qcow2" cache="none" iothread="1" io="native"/>
   <source file="/var/lib/libvirt/images/s15lin_qcow2.img"/>
   <target dev="vda" bus="virtio"/>
  </disk>
  <interface type="direct">
   <source dev="bond0" mode="bridge"/>
   <model type="virtio"/>
  </interface>
  <console type="pty">
   <target type="sclp"/>
  </console>
 </devices>
</domain>

5.3.4 Exécution d'un IPL sur le système d'installation de SUSE Linux Enterprise Server

5.3.4.1 Exécution d'un IPL sur une installation LPAR

Il existe différentes façons d'exécuter un IPL sur SUSE Linux Enterprise Server au sein d'une partition LPAR. La méthode recommandée est d'utiliser la fonction Load from CD-ROM or server (Charger depuis un CD-ROM ou un serveur) de SE ou HMC.

5.3.4.1.1 Exécution d'un IPL à partir d'un DVD-ROM

Cochez le LPAR à installer, puis sélectionnez Load from CD-ROM or server (Charger depuis un CD-ROM ou un serveur). Ne remplissez pas le champ relatif à l'emplacement du fichier ou saisissez le chemin du répertoire racine du premier DVD-ROM, puis sélectionnez Continue (Continuer). Conservez la sélection par défaut dans la liste d'options affichée. Operating system messages (Messages du système d'exploitation) doit afficher les messages de démarrage du kernel.

5.3.4.1.2 Exécution d'un IPL à partir d'un DVD SCSI associé FCP

Vous pouvez utiliser la procédure LOAD en sélectionnant SCSI comme Type de chargement pour exécuter un IPL à partir de SCSI. Entrez le WWPN (Worldwide port name, Identifiant unique de port) et le LUN (Logical unit number, Identifiant d'unité logique) fournis par votre pont ou stockage SCSI (16 chiffres ; ne pas oublier les 0 à droite). Le sélecteur du programme de démarrage doit être réglé sur 2. Utilisez votre adaptateur FCP comme Adresse de chargement et exécutez un IPL.

5.3.4.2 Exécution d'un IPL sur une installation z/VM

Cette section décrit l'exécution d'un IPL sur le système d'installation afin d'installer SUSE Linux Enterprise Server for IBM Z sur un système z/VM.

5.3.4.2.1 Exécution d'un IPL à partir du lecteur z/VM

Vous avez besoin d'une bonne connexion TCP/IP et d'un programme client FTP dans votre invité z/VM récemment défini pour transférer le système d'installation via FTP. La configuration de TCP/IP pour z/VM ne sera pas abordée dans ce manuel. À ce propos, reportez-vous à la documentation IBM appropriée.

Connectez-vous en tant qu'invité Linux z/VM pour exécuter un IPL. Rendez le contenu du répertoire /boot/s390x du programme d'installation unifié (support 1) disponible via FTP sur votre réseau. Récupérez les fichiers linux, initrd, parmfile et sles.exec à partir de ce répertoire. Transférez les fichiers avec une taille de blocs fixe de 80 caractères. Spécifiez la taille en exécutant la commande FTP locsite fix 80. Il est important de copier les fichiers linux (kernel Linux) et initrd (image d'installation) comme fichiers binaires. Pour ce faire, utilisez le mode de transfert binary. Les fichiers parmfile et sles.exec doivent être transférés en mode ASCII.

L'exemple suivant illustre les étapes requises. Ce scénario particulier part du principe que les fichiers requis sont accessibles sur un serveur FTP à l'adresse IP 192.168.0.3, avec l'ID de connexion lininst.

Exemple 5.3 : Transfert de fichiers binaires via le serveur FTP
FTP 192.168.0.3
VM TCP/IP FTP Level 530
Connecting to 192.168.0.3, port 21
220 ftpserver FTP server (Version wu-2.4.2-academ[BETA-18](1)
Thu Feb 11 16:09:02 GMT 2010) ready.
USER
lininst
331 Password required for lininst
PASS
******
230 User lininst logged in.
Command:
binary
200 Type set to I
Command:
locsite fix 80
Command:
get /media/dvd1/boot/s390x/linux sles15.linux
200 PORT Command successful
150 Opening BINARY mode data connection for /media/dvd1/boot/s390x/linux
(10664192 bytes)
226 Transfer complete.
10664192 bytes transferred in 13.91 seconds.
Transfer rate 766.70 Kbytes/sec.
Command:
get /media/dvd1/boot/s390x/initrd sles12.initrd
200 PORT Command successful
150 Opening BINARY mode data connection for /media/dvd1/boot/s390x/initrd
(21403276 bytes)
226 Transfer complete.
21403276 bytes transferred in 27.916 seconds.
Transfer rate 766.70 Kbytes/sec.
Command:
ascii
200 Type set to A
Command:
get /media/dvd1/boot/s390x/parmfile sles12.parmfile
150 Opening ASCII mode data connection for /media/dvd1/boot/s390x/parmfile
(5 bytes)
226 Transfer complete.
5 bytes transferred in 0.092 seconds.
Transfer rate 0.05 Kbytes/sec.
Command:
get /media/dvd1/boot/s390x/sles.exec sles.exec
150 Opening ASCII mode data connection for /media/dvd1/boot/s390x/sles.exec
(891 bytes)
226 Transfer complete.
891 bytes transferred in 0.097 seconds.
Transfer rate 0.89 Kbytes/sec.
Command:
quit

Utilisez le fichier sles.exec de script REXX que vous avez téléchargé pour exécuter un IPL sur le système d'installation Linux. Ce script charge le kernel, le fichier parmfile et le disque virtuel initial dans le lecteur pour exécuter un IPL.

Exemple 5.4 : SLES12 EXEC
/* REXX LOAD EXEC FOR SUSE LINUX S/390 VM GUESTS       */
/* LOADS SUSE LINUX S/390 FILES INTO READER            */
SAY ''
SAY 'LOADING SLES12 FILES INTO READER...'
'CP CLOSE RDR'
'PURGE RDR ALL'
'SPOOL PUNCH * RDR'
'PUNCH SLES12 LINUX A (NOH'
'PUNCH SLES12 PARMFILE A (NOH'
'PUNCH SLES12 INITRD A (NOH'
'IPL 00C'

Ce script permet d'exécuter un IPL sur le système d'installation de SUSE Linux Enterprise Server avec la commande sles12. Le kernel Linux démarre alors et génère ses messages de démarrage.

Pour continuer l'installation, passez à la Section 5.3.5, « Configuration réseau ».

5.3.4.2.2 Exécution d'un IPL à partir d'un DVD SCSI associé FCP

Pour exécuter un IPL dans z/VM, préparez le processus IPL de SCSI en utilisant le paramètre SET LOADDEV :

SET LOADDEV PORTNAME 200400E8 00D74E00 LUN 00020000 00000000 BOOT 2

Une fois le paramètre LOADDEV configuré avec les valeurs appropriées, exécutez un IPL sur votre adaptateur FCP, par exemple :

IPL FC00

Pour continuer l'installation, passez à la Section 5.3.5, « Configuration réseau ».

5.3.4.2.3 IPL à partir d'un serveur Cobbler avec zPXE

Pour exécuter un IPL à partir d'un serveur Cobbler avec zPXE, vous devez transférer le script zpxe.rexx via FTP du serveur Cobbler vers votre invité z/VM. Pour ce faire, l'invité z/VM a besoin d'une connexion TCP/IP opérationnelle et d'un programme client FTP.

Connectez-vous en tant qu'invité z/VM Linux pour effectuer un chargement IPL et transférer le script avec une taille fixe de 80 caractères en mode ASCII (voir Exemple 5.3, « Transfert de fichiers binaires via le serveur FTP », par exemple). Le script zpxe.rexx est disponible dans /boot/s390x/zpxe.rexx sur le DVD du programme d'installation unifié ou dans /usr/share/doc/packages/s390-tools/zpxe.rexx sur un serveur Cobbler SLE.

zpxe.rexx est censé remplacer le fichier PROFILE EXEC de votre invité. Effectuez une copie de sauvegarde du fichier PROFILE EXEC et renommez ZPXE REXX en PROFILE EXEC. Vous pouvez également appeler ZPXE REXX à partir du fichier PROFILE EXEC existant en lui ajoutant la ligne « ZPXE REXX ».

La dernière étape consiste à créer un fichier de configuration ZPXE CONF qui indique à ZPXE REXX le serveur Cobbler à contacter et le disque à charger par IPL. Exécutez xedit zpxe conf a et créez ZPXE CONF avec le contenu suivant (remplacez les données d'exemple en conséquence) :

HOST cobbler.example.com
IPLDISK 600

Cela permet de connecter le serveur Cobbler la prochaine fois que vous vous connectez à l'invité z/VM. Si une installation est programmée sur le serveur Cobbler, elle est exécutée. Pour programmer l'installation, exécutez la commande suivante sur le serveur Cobbler :

tux > sudo cobbler system edit --name ID1 --netboot-enabled 12 --profile PROFILENAME3

1

ID utilisateur z/VM.

2

Activez le chargement IPL à partir du réseau.

3

Nom du profil existant, voir Section 5.3.1.3.3, « Réglage du profil ».

5.3.4.3 Exécution d'un IPL sur une installation invité KVM

Pour démarrer l'installation de l'invité, vous devez tout d'abord démarrer l'invité de machine virtuelle défini à la Section 5.3.3.3.1, « Création d'une image de disque virtuel ». Avant de commencer, assurez-vous que le kernel et le fichier initrd sont disponibles pour l'IPL.

5.3.4.3.1 Préparation de la source d'installation

Le kernel et l'image initrd du système d'installation doivent être copiés sur le serveur hôte de machine virtuelle pour que l'exécution d'un IPL ait lieu sur l'invité de machine virtuelle sur le système d'installation.

  1. Connectez-vous à l'hôte KVM et assurez-vous que vous pouvez vous connecter à l'hôte distant ou au périphérique qui fournit la source d'installation.

  2. Copiez les deux fichiers suivants de la source d'installation vers l'emplacement /var/lib/libvirt/images/. Si les données sont fournies à partir d'un hôte distant, utilisez ftp, sftp ou scp pour transférer les fichiers :

    /boot/s390x/initrd
    /boot/s390x/cd.ikr
  3. Renommez les fichiers sur l'hôte KVM :

    tux > sudo cd /var/lib/libvirt/images/
    tux > sudo mv initrd s15-initrd.boot
    tux > sudo mv cd.ikr s15-kernel.boot
5.3.4.3.2 Exécution d'un IPL sur l'invité de machine virtuelle

Pour exécuter un IPL sur l'invité de machine virtuelle, connectez-vous à l'hôte KVM et exécutez la commande suivante :

tux > virsh  create s15-1.xml --console

Le processus d'installation démarre lorsque l'invité de machine virtuelle est opérationnel et en cours d'exécution. Les message suivants doivent apparaître :

Domain s15-1 started
Connected to domain s15-1
Escape character is ^]
Initializing cgroup subsys cpuset
Initializing cgroup subsys cpu
Initializing
cgroup subsys cpuacct
.
.
Please make sure your installation medium is available.
Retry?
0) <-- Back <--
1) Yes
2) No

Répondez 2) No (Non) et choisissez Installation à l'étape suivante. Procédez comme décrit à la Section 5.3.5.3, « Configuration du réseau et sélection de la source d'installation ».

5.3.5 Configuration réseau

Patientez jusqu'à ce que le kernel ait terminé ses routines de démarrage. Si vous effectuez l'installation en mode basique ou dans une partition LPAR, ouvrez le menu Operating System Messages (Messages du système d'exploitation) sur la console HMC ou SE.

Tout d'abord, choisissez Start Installation (Démarrer l'installation) dans le menu principal linuxrc. Sélectionnez ensuite Start Installation or Update (Démarrer l'installation ou mettre à jour) pour lancer le processus d'installation. Sélectionnez Network (Réseau) comme support d'installation, puis choisissez le type de protocole réseau qui sera utilisé pour l'installation. La Section 5.3.1, « Mise à disposition des données d'installation » décrit comment mettre à disposition les données d'installation pour différents types de connexions réseau. Actuellement, FTP, HTTP, NFS et SMB/CIFS (partage de fichiers Windows) sont pris en charge.

Dans la liste des périphériques disponibles, choisissez un périphérique réseau OSA ou HiperSockets pour recevoir les données d'installation. Bien que la liste puisse contenir des périphériques CTC, ESCON ou IUCV, ces derniers ne sont plus pris en charge sous SUSE Linux Enterprise Server.

5.3.5.1 Configuration d'une interface HiperSockets

Sélectionnez un périphérique HiperSockets dans la liste des périphériques réseau. Saisissez ensuite les valeurs des canaux de lecture, d'écriture et de données :

Exemple 5.5 : Types de connexion réseau pris en charge et paramètres des pilotes
Choose the network device.

 1) IBM parallel CTC Adapter (0.0.0600)
 2) IBM parallel CTC Adapter (0.0.0601)
 3) IBM parallel CTC Adapter (0.0.0602)
 4) IBM Hipersocket (0.0.0800)
 5) IBM Hipersocket (0.0.0801)
 6) IBM Hipersocket (0.0.0802)
 7) IBM OSA Express Network card (0.0.0700)
 8) IBM OSA Express Network card (0.0.0701)
 9) IBM OSA Express Network card (0.0.0702)
10) IBM OSA Express Network card (0.0.f400)
11) IBM OSA Express Network card (0.0.f401)
12) IBM OSA Express Network card (0.0.f402)
13) IBM IUCV

> 4

Device address for read channel. (Enter '+++' to abort).
[0.0.0800]> 0.0.0800

Device address for write channel. (Enter '+++' to abort).
[0.0.0801]> 0.0.0801

Device address for data channel. (Enter '+++' to abort).
[0.0.0802]> 0.0.0802

5.3.5.2 Configuration d'un périphérique OSA Express

Sélectionnez un périphérique OSA Express dans la liste des périphériques réseau, puis indiquez un numéro de port. Saisissez les valeurs des canaux de lecture, d'écriture et de données. Choisissez si vous souhaitez activer la prise en charge de la couche OSI de niveau 2.

Le numéro de port est requis pour les nouveaux périphériques réseau OSA Express 3 à 2 ports. Si vous n'utilisez pas de périphérique OSA Express 3, veuillez saisir 0. Les cartes OSA Express peuvent aussi s'exécuter dans le mode de « prise en charge de la couche OSI de niveau 2 » ou utiliser un mode commun plus ancien « couche de niveau 3 ». Le mode de la carte affecte tous les systèmes qui partagent le périphérique, y compris les systèmes sur d'autres LPAR. Si vous avez un doute, indiquez 2 pour assurer une compatibilité avec le mode par défaut utilisé par les autres systèmes d'exploitation, comme z/VM et z/OS. Consultez votre administrateur de matériel pour obtenir plus d'informations sur ces options.

Exemple 5.6 : Paramètres du pilote de périphérique réseau
Choose the network device.

 1) IBM parallel CTC Adapter (0.0.0600)
 2) IBM parallel CTC Adapter (0.0.0601)
 3) IBM parallel CTC Adapter (0.0.0602)
 4) IBM Hipersocket (0.0.0800)
 5) IBM Hipersocket (0.0.0801)
 6) IBM Hipersocket (0.0.0802)
 7) IBM OSA Express Network card (0.0.0700)
 8) IBM OSA Express Network card (0.0.0701)
 9) IBM OSA Express Network card (0.0.0702)
10) IBM OSA Express Network card (0.0.f400)
11) IBM OSA Express Network card (0.0.f401)
12) IBM OSA Express Network card (0.0.f402)
13) IBM IUCV

> 7

Enter the relative port number. (Enter '+++' to abort).
> 0

Device address for read channel. (Enter '+++' to abort).
[0.0.0700]> 0.0.0700

Device address for write channel. (Enter '+++' to abort).
[0.0.0701]> 0.0.0701

Device address for data channel. (Enter '+++' to abort).
[0.0.0702]> 0.0.0702

Enable OSI Layer 2 support?

0) <-- Back <--
1) Yes
2) No

> 1

MAC address. (Enter '+++' to abort).
> +++

5.3.5.3 Configuration du réseau et sélection de la source d'installation

Après avoir saisi tous les paramètres de périphérique réseau, le pilote approprié est installé et les messages de kernel correspondants sont affichés.

Ensuite, vous devez spécifier si vous souhaitez utiliser ou non la configuration automatique DHCP pour configurer les paramètres de l'interface réseau. Étant donné que DHCP fonctionne uniquement sur quelques périphériques et qu'il requiert des paramètres de configuration matérielle spécifiques, choisissez NO (Non). De cette façon, vous êtes invité à indiquer les paramètres réseau suivants :

  • L'adresse IP du système à installer

  • Le masque de réseau correspondant (s'il n'a pas été spécifié avec l'adresse IP).

  • L'adresse IP d'une passerelle pour accéder au serveur

  • La liste des domaines de recherche couverts par le serveur DNS

  • L'adresse IP du serveur de noms de domaine

Exemple 5.7 : Paramètres réseau
Automatic configuration via DHCP?

0) <-- Back <--
1) Yes
2) No

> 2

Enter your IP address with network prefix.

You can enter more than one, separated by space, if necessary.
Leave empty for autoconfig.

Examples: 192.168.5.77/24 2001:db8:75:fff::3/64. (Enter '+++' to abort).
> 192.168.0.20/24

Enter your name server IP address.

You can enter more than one, separated by space, if necessary.
Leave empty if you don't need one.

Examples: 192.168.5.77 2001:db8:75:fff::3. (Enter '+++' to abort).
> 192.168.0.1

Enter your search domains, separated by a space:. (Enter '+++' to abort).
> example.com

Enter the IP address of your name server. Leave empty if you do not need one. (En
ter '+++' to abort).
> 192.168.0.1

Pour terminer, fournissez les informations requises concernant le serveur d'installation, telles que l'adresse IP, le répertoire contenant les données d'installation et les information d'identification de connexion. Le système d'installation se charge une fois les informations requises spécifiées.

5.3.6 Connexion au système d'installation de SUSE Linux Enterprise Server

Après avoir chargé le système d'installation, linuxrc vous invite à choisir le type d'affichage à utiliser pour contrôler la procédure d'installation. Les options disponibles sont les suivantes : X11 (système X Window), VNC (protocole Virtual Network Computing), SSH (mode texte ou installation X11 via un shell sécurisé) ou la ASCII Console (Console ASCII). Les options recommandées sont VNC ou SSH.

Si vous sélectionnez l'option ASCII Console (Console ASCII), YaST démarre en mode texte et vous pouvez effectuer l'installation directement sur votre terminal. Pour plus d'informations sur l'utilisation de YaST en mode texte, reportez-vous au Book “Administration Guide”, Chapter 4 “YaST in Text Mode” (Guide d'administration, Chapitre 4 « YaST en mode texte »). L'utilisation de la console ASCII ne s'avère utile qu'en cas d'installation dans une partition logique.

Note
Note : émulation de terminal pour la console ASCII

Pour permettre le fonctionnement avec YaST en mode texte, il est nécessaire de procéder à l'exécution sur un terminal avec une émulation Linux/VT220 (également appelée console ASCII).

5.3.6.1 Lancement de l'installation pour VNC

Pour contrôler à distance une installation via VNC, procédez comme suit :

  1. La sélection de l'option VNC lance le serveur VNC. Une brève note dans la console indique l'adresse IP et le numéro d'affichage de la connexion à vncviewer.

  2. Saisissez l'adresse IP et le numéro d'affichage du système d'installation de SUSE Linux Enterprise Server lorsque vous y êtes invité.

  3. À l'invite, saisissez l'adresse IP et le numéro d'affichage du système d'installation de SUSE Linux Enterprise Server.

    http://<IP address of installation system>:5801/
  4. Une fois la connexion établie, installez SUSE Linux Enterprise Server avec YaST.

5.3.6.2 Lancement de l'installation pour le système X Window

Important
Important : mécanisme d'authentification X

L'installation directe avec le système X Window repose sur un mécanisme d'authentification basé sur des noms d'hôte. Ce mécanisme est désactivé dans les versions actuelles de SUSE Linux Enterprise Server. Nous vous recommandons d'effectuer l'installation à l'aide de SSH ou de VNC.

Pour contrôler à distance une installation par le biais de la redirection X, procédez comme suit :

  1. Assurez-vous que le serveur X permet au client (le système installé) de se connecter. Définissez la variable DISPLAYMANAGER_XSERVER_TCP_PORT_6000_OPEN="yes" dans le fichier /etc/sysconfig/displaymanager. Redémarrez le serveur X et permettez la connexion du client au serveur à l'aide de xhost ADRESSE_IP_CLIENT.

  2. À l'invite du système d'installation, saisissez l'adresse IP de la machine exécutant le serveur X.

  3. Patientez jusqu'à ce que YaST s'ouvre, puis démarrez l'installation.

5.3.6.3 Lancement de l'installation pour SSH

Pour se connecter à un système d'installation avec le nom earth via SSH, utilisez la commande ssh -X earth. Si votre poste de travail s'exécute sous Microsoft Windows, utilisez l'outil Putty disponible à l'adresse http://www.chiark.greenend.org.uk/~sgtatham/putty/. Définissez l'option Enable X11 forwarding (Activer le transfert X11) dans Putty sous Connexion › SSH › X11.

Si vous utilisez un autre système d'exploitation, exécutez ssh -X earth pour vous connecter à un système d'installation avec le nom Earth. Le transfert X via SSH est pris en charge, pour autant que vous disposiez d'un serveur X local. Dans le cas contraire, YaST fournit une interface texte via ncurses.

À l'invite, entrez le nom de l'utilisateur root et connectez-vous à l'aide de votre mot de passe. Saisissez la commande yast.ssh pour démarrer YaST. YaST vous guide ensuite tout au long du processus d'installation.

Effectuez l'installation comme décrit dans le Chapitre 8, Procédure d'installation.

5.3.7 Procédure de démarrage de SUSE Linux Enterprise Server sur IBM Z

Sous SLES 10 et 11, le processus de démarrage était géré par le chargeur de démarrage zipl. Pour activer le démarrage à partir des partitions Btrfs et la prise en charge des restaurations système avec Snapper, le démarrage de SUSE Linux Enterprise Server sur IBM Z a été modifié.

GRUB 2 remplace zipl sur SUSE Linux Enterprise Server for IBM Z. GRUB 2 sur l'architecture AMD64/Intel 64 comprend des pilotes de périphérique au niveau du microprogramme pour accéder au système de fichiers. Le macroordinateur ne contient pas de microprogramme et l'ajout de ccw à GRUB 2 représenterait une tâche considérable, mais nécessiterait aussi la réimplémentation de zipl dans GRUB 2. Par conséquent, SUSE Linux Enterprise Server utilise une approche en deux étapes :

Première étape :

Une partition distincte contenant le kernel et un fichier initrd est montée dans le répertoire /boot/zipl. Ce kernel et le fichier initrd sont chargés via la commande zipl et utilisent la configuration mentionnée dans le fichier /boot/zipl/config.

Cette configuration ajoute le mot clé initgrub à la ligne de commande du kernel. Une fois que le kernel et le fichier initrd sont chargés, le fichier initrd active les périphériques requis pour monter le système de fichiers racine (voir le fichier /boot/zipl/active_devices.txt). Ensuite, un programme d'espace utilisateur GRUB 2 est lancé afin de lire le fichier /boot/grub2/grub.cfg.

Deuxième étape :

Le kernel et le fichier initrd dans le fichier /boot/grub2/grub.cfg sont démarrés à l'aide de la commande kexec. Les périphériques répertoriés dans /boot/zipl/active_devices.txt qui sont nécessaires pour démarrer le système sur le disque sont alors activés. Les autres périphériques de cette liste seront autorisés, mais ignorés si non requis. Le système de fichiers racine est monté et la procédure de démarrage se poursuit comme sur les autres architectures.

Pour plus de détails sur le processus de démarrage, reportez-vous au Book “Administration Guide”, Chapter 12 “Introduction to the Boot Process” (Guide d'administration, Chapitre 12 « Introduction au processus de démarrage »).

5.4 Fichier parmfile : automatisation de la configuration du système

Vous pouvez en partie automatiser le processus d'installation en spécifiant les paramètres essentiels dans le fichier parmfile. Le fichier parmfile contient toutes les données requises pour la configuration réseau et la configuration DASD. Il peut en outre être utilisé pour configurer la méthode de connexion au système d'installation de SUSE Linux Enterprise Server et l'instance de YaST exécutée à cet endroit. Cela réduit l'intervention de l'utilisateur à l'installation YaST réelle.

Les paramètres listés à la Section 5.4.1, « Paramètres généraux » peuvent être transmis à la routine d'installation en tant que valeurs par défaut pour l'installation. Notez que les adresses IP, les noms de serveurs et les valeurs numériques sont donnés à titre d'exemples. Remplacez-les par les valeurs réelles de votre scénario d'installation.

Le nombre de lignes dans le fichier parmfile est limité à 10. Vous pouvez cependant spécifier plusieurs paramètres sur une ligne. Les noms de ces paramètres ne tiennent pas compte des majuscules et des minuscules. Les paramètres doivent être séparés par des espaces. Vous pouvez spécifier les paramètres dans n'importe quel ordre. Conservez toujours la chaîne PARAMETER=value sur la même ligne. Aucune ligne ne peut comporter plus de 80 caractères. Par exemple :

Hostname=s390zvm01.suse.de HostIP=10.11.134.65
Astuce
Astuce : utilisation du protocole IPv6 au cours de l'installation

Par défaut, vous ne pouvez assigner à votre machine que des adresses réseau Ipv4. Pour activer IPv6 au cours de l'installation, spécifiez l'un des paramètres suivants lors de l'invite de démarrage : ipv6=1 (accepter IPv4 et IPv6) ou ipv6only=1 (n'accepter qu'IPv6).

Certains paramètres figurant ci-dessous sont requis. S'ils sont manquants, le processus automatique vous invite à les spécifier.

5.4.1 Paramètres généraux

AutoYaST=<URL> Manual=0

Le paramètre AutoYaST indique l'emplacement du fichier de contrôle autoinst.xml pour l'installation automatique. Le paramètre Manuel contrôle si les autres paramètres sont uniquement des valeurs par défaut qui doivent être approuvées par l'utilisateur. Définissez ce paramètre sur 0 si toutes les valeurs doivent être acceptées et si vous voulez qu'aucune question ne soit poser. Si vous définissez le paramètre AutoYaST, le système configure par défaut le paramètre Manual sur 0.

Info=<URL>

Indique l'emplacement d'un fichier avec des options supplémentaires. Cela permet d'ignorer la limite de 10 lignes (et de 80 caractères par ligne sous z/VM) dans le fichier parmfile. Des informations supplémentaires sur le fichier Info sont disponibles dans le Book “AutoYaST Guide”, Chapter 6 “The Auto-Installation Process”, Section 6.3.3 “Combining the linuxrc info File with the AutoYaST Control File” (Guide d'AutoYaST, Chapitre 6 « Processus d'installation automatique », Section 6.3.3 « Combinaison du fichier linuxrc info avec le fichier de contrôle AutoYaST »). Puisque le fichier Info n'est accessible que par le réseau sur IBM z, vous ne pouvez pas l'utiliser pour spécifier les options requises pour la configuration du réseau (c'est-à-dire les options décrites dans la Section 5.4.2, « Configuration de l'interface réseau »). D'autres options spécifiques à linuxrc, telles que celles relatives au débogage, doivent être spécifiées dans le fichier parmfile lui-même.

Upgrade=<0|1>

Pour mettre à niveau SUSE Linux Enterprise, spécifiez Upgrade=1. Un fichier parmfile personnalisé est requis pour la mise à niveau d'une installation existante de SUSE Linux Enterprise. En l'absence de ce paramètre, l'installation ne fournit aucune option de mise à niveau.

5.4.2 Configuration de l'interface réseau

Important
Important : configuration de l'interface réseau

Les paramètres décrits dans cette section s'appliquent uniquement à l'interface réseau utilisée lors de l'installation. Configurez des interfaces réseau supplémentaires sur le système installé en suivant les instructions du Book “Administration Guide”, Chapter 19 “Basic Networking”, Section 19.5 “Configuring a Network Connection Manually”.

Hostname=zsystems.example.com

Entrez le nom d'hôte complet.

Domain=exemple.com

Chemin de recherche du domaine pour DNS. Cela vous permet d'utiliser des noms d'hôtes plus courts à la place des noms d'hôtes complets.

HostIP=192.168.1.2/24

Saisissez l'adresse IP de l'interface à configurer.

Gateway=192.168.1.3

Spécifiez la passerelle à utiliser.

Nameserver=192.168.1.4

Spécifiez le serveur DNS responsable.

InstNetDev=osa

Saisissez le type d'interface à configurer. Les valeurs possibles sont osa, hsi, ctc, escon et iucv (CTC, ESCON et IUCV ne sont officiellement plus pris en charge).

Pour les interfaces de type ctc, escon et iucv (les interfaces CTC, ESCON et IUCV n'étant plus officiellement prises en charge), saisissez l'adresse IP du pair :

Pointopoint=192.168.55.20
OsaInterface=<lcs|qdio>

Pour les périphériques réseau osa, spécifiez l'interface hôte (qdio ou lcs).

Layer2=<0|1>

Pour les périphériques Ethernet QDIO osa et les périphériques hsi, indiquez si vous souhaitez activer (1) ou désactiver (0) la prise en charge de la couche OSI niveau 2.

OSAHWAddr=02:00:65:00:01:09

Pour les périphériques Ethernet QDIO osa prenant en charge la couche 2, spécifiez l'adresse MAC manuellement ou indiquez OSAHWADDR= (avec un espace à droite) comme valeur système par défaut.

PortNo=<0|1>

Pour les périphériques réseau osa, spécifiez le numéro de port, à condition que le périphérique prenne en charge cette fonction). La valeur par défaut est 0.

Chaque interface requiert des options de configuration spécifiques :

  • Interfaces ctc et escon (les interfaces CTC et ESCON n'étant plus officiellement prises en charge) :

    ReadChannel=0.0.0600
    WriteChannel=0.0.0601

    ReadChannel indique le canal de lecture à utiliser. WriteChannel correspond au canal d'écriture.

  • Pour l'interface ctc (qui n'est plus officiellement prise en charge), indiquez le protocole à utiliser pour cette interface :

    CTCProtocol=<0/1/2>

    Les entrées correctes sont les suivantes :

    0

    Mode compatibilité, également pour les pairs non Linux autres que OS/390 et z/OS (mode par défaut)

    1

    Mode étendu

    2

    Mode compatibilité avec OS/390 et z/OS

  • Type de périphérique réseau osa avec interface lcs :

    ReadChannel=0.0.0124

    ReadChannel représente le numéro de canal utilisé dans cette configuration. Pour dériver un deuxième numéro de port à partir de ce numéro, ajoutez un numéro à ReadChannel. Portnumber est utilisé pour spécifier le port associé.

  • Interface iucv :

    IUCVPeer=PEER

    Entrez le nom de la machine du pair.

  • Type de périphérique réseau osa avec interface qdio pour OSA-Express Gigabit Ethernet :

    ReadChannel=0.0.0700
    WriteChannel=0.0.0701
    DataChannel=0.0.0702

    Pour ReadChannel, saisissez le numéro du canal de lecture. Pour WriteChannel, saisissez le numéro du canal d'écriture. DataChannel spécifie le canal de données. Assurez-vous que le canal de lecture présente un numéro de périphérique égal.

  • Interface hsi pour HiperSockets et LAN invités VM :

    ReadChannel=0.0.0800
    WriteChannel=0.0.0801
    DataChannel=0.0.0802

    Pour ReadChannel, saisissez le numéro du canal de lecture approprié. Pour WriteChannel et DataChannel, saisissez les numéros des canaux d'écriture et de données.

5.4.3 Spécification de la source d'installation et de l'interface YaST

Install=nfs://server/directory/DVD1/

Indiquez l'emplacement de la source d'installation à utiliser. Les protocoles pris en charge sont nfs, smb (Samba/CIFS), ftp, tftp http et https.

Si une URL ftp, tftp ou smb est fournie, spécifiez le nom d'utilisateur et le mot de passe. Ignorez les informations d'identification pour les connexions de type anonyme ou invité.

Install=ftp://USER:PASSWORD@SERVER/DIRECTORY/DVD1/
Install=tftp://USER:PASSWORD@SERVER/DIRECTORY/DVD1/

Si vous souhaitez effectuer l'installation via une connexion chiffrée, utilisez une URL https. Si le certificat ne peut pas être vérifié, utilisez l'option de démarrage sslcerts=0 pour désactiver la vérification du certificat.

Dans le cas d'une installation Samba ou CIFS, vous pouvez également spécifier le domaine :

Install=smb://WORKDOMAIN;USER:PASSWORD@SERVER/DIRECTORY/DVD1/
ssh=1 vnc=1 Display_IP=192.168.42.42

La méthode d'installation dépend du paramètre que vous spécifiez. ssh active l'installation SSH, vnc démarre un serveur VNC sur la machine d'installation et Display_IP entraîne une tentative de connexion du système d'installation à un serveur X à l'adresse spécifiée. Un seul de ces paramètres doit être défini.

Important
Important : mécanisme d'authentification X

L'installation directe avec le système X Window repose sur un mécanisme d'authentification basé sur des noms d'hôte. Ce mécanisme est désactivé dans les versions actuelles de SUSE Linux Enterprise Server. Il est préférable d'effectuer une installation à l'aide de SSH ou de VNC.

Pour permettre une connexion entre YaST et le serveur X distant, exécutez xhost<Adresse_IP> avec l'adresse de la machine d'installation sur la machine distante.

Pour VNC, indiquez un mot de passe composé de 6 à 8 caractères pour l'installation :

VNCPassword=<a password>

Pour SSH, indiquez un mot de passe composé de 6 à 8 caractères pour l'installation :

ssh.password=<a password>

5.4.4 Exemple de fichiers parmfile

La capacité maximale d'un fichier parmfile est de 860 caractères. En règle générale, ce type de fichier doit contenir, au maximum, 10 lignes de 79 caractères. Lors de la lecture d'un fichier parmfile, toutes les lignes sont concaténées sans ajouter d'espaces. Par conséquent, le dernier caractère (79) de chaque ligne doit être un Space.

Pour recevoir les messages d'erreur potentiels sur la console, utilisez

linuxrclog=/dev/console
Exemple 5.8 : Fichier parmfile pour une installation à partir de NFS avec VNC et AutoYaST
ramdisk_size=131072 root=/dev/ram1 ro init=/linuxrc TERM=dumb
instnetdev=osa osainterface=qdio layer2=1 osahwaddr=
pointopoint=192.168.0.1 hostip=192.168.0.2
nameserver=192.168.0.3
install=nfs://192.168.0.4/SLES/SLES-12-Server/s390x/DVD1
autoyast=http://192.168.0.5/autoinst.xml
linuxrclog=/dev/console vnc=1 VNCPassword=testing
Exemple 5.9 : Fichier parmfile pour une installation avec NFS, SSH et HSI et AutoYaST avec NFS
ramdisk_size=131072 root=/dev/ram1 ro init=/linuxrc TERM=dumb
AutoYast=nfs://192.168.1.1/autoinst/s390.xml
Hostname=zsystems.example.com HostIP=192.168.1.2
Gateway=192.168.1.3 Nameserver=192.168.1.4
InstNetDev=hsi layer2=0
Netmask=255.255.255.128 Broadcast=192.168.1.255
readchannel=0.0.702c writechannel=0.0.702d datachannel=0.0.702e
install=nfs://192.168.1.5/SLES-12-Server/s390x/DVD1/
ssh=1 ssh.password=testing linuxrclog=/dev/console
Exemple 5.10 : Fichier parmfile pour une installation sur réseau VLAN
ro ramdisk_size=50000 MANUAL=0 PORTNO=1 ReadChannel=0.0.b140
WriteChannel=0.0.b141 DataChannel=0.0.b142
cio_ignore=all,!condev,!0.0.b140-0.0.b142,!0.0.e92c,!0.0.5000,!0.0.5040
HostIP= Gateway= Hostname=zsystems.example.com nameserver=192.168.0.1
Install=ftp://user:password@10.0.0.1/s390x/SLES15.0/INST/ usevnc=1
vncpassword=12345 InstNetDev=osa Layer2=1 OSAInterface=qdio ssl_certs=0
osahwaddr= domain=example.com self_update=0
vlanid==eth0.201=192.168.0.2/16,192.168.0.1

5.5 Utilisation de l'émulateur de terminal vt220

Des niveaux MicroCode récents permettent d'utiliser un émulateur de terminal (terminal ASCII) vt220 intégré en plus du terminal de mode ligne standard. Le terminal vt220 est connecté à /dev/ttysclp0. Le terminal de mode ligne est connecté à /dev/ttysclp_line0. Dans le cas des installations LPAR, l'émulateur de terminal vt220 est activé par défaut.

Pour démarrer la console ASCII sur HMC, connectez-vous à HMC, puis sélectionnez Gestion des systèmes › Systèmes › ID_IMAGE. Sélectionnez la case d'option correspondant à LPAR, puis cliquez sur Récupération › Integrated ASCII Console (Console ASCII intégrée).

Pour rediriger les messages du kernel au moment du démarrage de la console du système vers le terminal vt220, ajoutez les entrées suivantes à la ligne parameters dans /etc/zipl.conf :

console=ttysclp0 console=ttysclp_line0

La ligne parameters générée ressemble à l'exemple suivant :

parameters = "root=/dev/dasda2 TERM=dumb console=ttysclp0 console=ttysclp_line0"

Enregistrez les modifications dans le fichier /etc/zipl.conf, exécutez la commande zipl et redémarrez le système.

5.6 Informations complémentaires sur IBM Z

Vous trouverez de la documentation technique supplémentaire sur IBM Z dans les publications IBM Redbooks (https://www.redbooks.ibm.com/Redbooks.nsf/domains/zsystems) ou IBM developerWorks (https://www.ibm.com/developerworks/linux/linux390/). De la documentation spécifique à SUSE Linux Enterprise Server est disponible sur le site https://www.ibm.com/developerworks/linux/linux390/documentation_suse.html.

5.6.1 Documents généraux concernant Linux sur IBM Z

Vous trouverez des informations générales au sujet de Linux sur IBM Z dans les documents suivants :

  • Linux on IBM eServer zSeries and S/390: ISP and ASP Solutions (Linux sur les systèmes IBM eServer zSeries et S/390 : Solutions FAI et FAH) (SG24-6299)

Ces documents ne reflètent peut-être pas l'état courant de Linux, mais les principes du déploiement Linux décrits à cet endroit restent justes.

5.6.2 Problèmes techniques liés à Linux sous IBM Z

Pour des informations techniques sur le kernel Linux et ses domaines d'application, reportez-vous aux documents suivants. Pour obtenir les versions les plus récentes des documents, visitez le site http://www.ibm.com/developerworks/linux/linux390/index.html.

  • Linux on System z Device Drivers, Features, and Commands (Linux pour pilotes de périphériques System z, fonctionnalités et commandes)

  • Complément à l'interface d'application binaire zSeries ELF

  • Linux on System z Device Drivers, Using the Dump Tools (Linux pour pilotes de périphériques System z, utilisation des outils de vidage)

  • IBM zEnterprise 196 Technical Guide (Guide technique d'IBM zEnterprise 196)

  • IBM zEnterprise EC12 Technical Guide (Guide technique d'IBM zEnterprise EC12)

  • IBM z13 Technical Guide (Guide technique d'IBM z13)

  • IBM z14 Technical Guide (Guide technique d'IBM z14)

  • IBM z15 Technical Guide (Guide technique d'IBM z15)

Un livre rouge sur le développement des applications Linux est disponible à l'adresse suivante : http://www.redbooks.ibm.com

  • Linux on IBM eServer zSeries and S/390: Application Development (Linux sur les systèmes IBM eServer zSeries et S/390 : Développement des Applications) (SG24-6807)

5.6.3 Configurations avancées pour Linux sous IBM Z

Reportez-vous aux documents et ressources en ligne ci-dessous pour obtenir des scénarios IBM Z plus complexes :

  • Linux on IBM eServer zSeries and S/390: Large Scale Deployment (Linux sur les systèmes IBM eServer zSeries et S/390 : Déploiement à grande échelle) (SG24-6824)

  • Linux on IBM eServer zSeries and S/390: Performance Measuring and Tuning (Linux sur les systèmes IBM eServer zSeries et S/390 : Mesure et Ajustement des Performances) (SG24-6926)

  • Linux with zSeries and ESS: Essentials (Linux avec zSeries et ESS : Les bases essentielles) (SG24-7025)

  • IBM TotalStorage Enterprise Storage Server Implementing ESS Copy Services with IBM eServer zSeries (IBM TotalStorage Enterprise Storage Server avec ESS Copy Services sur IBM eServer zSeries) (SG24-5680)

  • Linux on IBM zSeries and S/390: High Availability for z/VM and Linux (Linux sur les systèmes IBM zSeries et S/390 : Haute disponibilité pour z/VM et Linux) (REDP-0220)

  • Gestion et planification des segments enregistrés

    http://publibz.boulder.ibm.com/epubs/pdf/hcsg4a00.pdf

  • Linux on System z documentation for « Development stream » (Linux avec une documentation sur les systèmes System z pour le « Flux de développement »)

    http://www.ibm.com/developerworks/linux/linux390/development_documentation.html

6 Installation sur du matériel non pris en charge au moment de la publication

Avec certains matériels plus récents, le support d'installation de SUSE Linux Enterprise Server ne peut pas démarrer. Cela peut être le cas lorsque le matériel n'existait pas au moment de la publication de SUSE Linux Enterprise Server. Pour ce type de situation, SUSE offre des images ISO de mise à jour de kernel (kISO). Ce chapitre décrit comment utiliser la mise à jour du kernel pour installer SUSE Linux Enterprise Server sur le matériel actuel.

6.1 Téléchargement de la mise à jour du kernel

Des images ISO de mise à jour du kernel sont disponibles sur la page d'accueil SolidDriver SUSE. Utilisez le site https://drivers.suse.com pour rechercher des images ISO de démarrage pour votre version de système d'exploitation et votre fournisseur.

Vous pouvez télécharger l'image ISO complète ou uniquement les fichiers initrd et linux. L'image ISO doit généralement être copiée sur un clé USB à mémoire flash ou gravée sur un DVD. Les fichiers initrd et linux peuvent être utilisés pour un démarrage PXE. Pour plus d'informations sur le démarrage via PXE, reportez-vous au Chapitre 17, Préparation de l'environnement de démarrage réseau.

6.2 Mise à jour du kernel de démarrage

Pour utiliser la mise à jour du kernel, démarrez à partir de la clé USB à mémoire flash ou via PXE. Lorsque les fichiers linux et initrd sont chargés, vous êtes invité à insérer le support d'installation.

Vous pouvez utiliser les paramètres de démarrage décrits dans le Chapitre 7, Paramètres de démarrage. Cela permet d'utiliser d'autres sources d'installation que la clé USB à mémoire flash.

Partie II Procédure d'installation

  • 7 Paramètres de démarrage
  • SUSE Linux Enterprise Server (SLES) permet de définir plusieurs paramètres au cours du démarrage, par exemple en choisissant la source des données d'installation ou en définissant la configuration réseau.

  • 8 Procédure d'installation
  • Ce chapitre décrit la procédure de copie des données de SUSE Linux Enterprise Server vers l'appareil cible. Certains paramètres de configuration de base du système nouvellement installé sont définis pendant la procédure. Vous serez guidé dans une interface utilisateur graphique tout au long de l'installation. La procédure décrite ci-dessous s'applique également aux procédures d'installation à distance décrites dans le Chapitre 11, Installation à distance. L'installation en mode texte passe par les mêmes étapes, seule son apparence est différente. Pour plus d'informations sur l'exécution des installations automatisées non interactives, consultez le document Book “AutoYaST Guide” (Guide d'AutoYaST).

  • 9 Enregistrement de SUSE Linux Enterprise et gestion des modules/extensions
  • Pour obtenir un support technique et les mises à jour des produits, vous devez enregistrer et activer SUSE Linux Enterprise Server auprès du SUSE Customer Center. Il est recommandé de vous enregistrer pendant l'installation, car cela vous permettra d'installer le système avec les mises à jour et les correctifs les plus récents. Toutefois, si vous êtes hors ligne ou que vous souhaitez ignorer l'étape d'enregistrement, vous pouvez vous enregistrer à tout moment ultérieurement sur le système installé.

    Les modules et les extensions ajoutent des fonctions à votre système et vous permettent de le personnaliser selon de vos besoins. Ces composants doivent également être enregistrés et peuvent être gérés à l'aide de YaST ou des outils de ligne de commande. Pour plus d'informations, reportez-vous également à l'Article “Modules and Extensions Quick Start” (Démarrage rapide des modules et extensions).

  • 10 Partitionnement en mode expert
  • Les configurations système élaborées nécessitent de configurer les disques d'une certaine manière. Toutes les tâches de partitionnement courantes peuvent être effectuées lors de l'installation. Pour obtenir une dénomination persistante avec les périphériques de bloc, utilisez les périphériques situé…

  • 11 Installation à distance
  • L'installation de SUSE® Linux Enterprise Server peut être entièrement effectuée sur le réseau. Ce chapitre décrit comment fournir l'environnement requis pour démarrer, installer et contrôler l'installation par l'intermédiaire du réseau.

  • 12 Dépannage
  • Cette section met en évidence certains problèmes typiques que vous pouvez rencontrer pendant l'installation et elle propose des solutions possibles ou des solutions de contournement.

7 Paramètres de démarrage

SUSE Linux Enterprise Server (SLES) permet de définir plusieurs paramètres au cours du démarrage, par exemple en choisissant la source des données d'installation ou en définissant la configuration réseau.

L'utilisation de l'ensemble approprié de paramètres de démarrage simplifie la procédure d'installation. De nombreux paramètres peuvent également être configurés ultérieurement à l'aide des routines linuxrc, mais l'utilisation des paramètres de démarrage s'avère plus simple. Dans certaines configurations automatisées, les paramètres de démarrage peuvent être fournis par initrd ou un fichier info.

La méthode de démarrage du système utilisée pour l'installation dépend de l'architecture ; elle diffère, par exemple, selon qu'il s'agit d'un PC (AMD64/Intel 64) ou d'un macroordinateur. Si vous installez SUSE Linux Enterprise Server en tant qu'invité de machine virtuelle sur un hyperviseur Xen ou KVM, suivez les instructions relatives à l'architecture AMD64/Intel 64.

Note
Note : options et paramètres de démarrage

Les termes Paramètres de démarrage et Options de démarrage sont souvent utilisés de façon interchangeable. Dans cette documentation, nous utilisons principalement le terme Paramètres de démarrage.

7.1 Utilisation des paramètres de démarrage par défaut

Les paramètres de démarrage sont décrits en détail dans le Chapitre 8, Procédure d'installation. Généralement, en sélectionnant l'option Installation, le processus de démarrage de l'installation s'amorce.

En cas de problème, utilisez l'option Installation - ACPI désactivé ou Installation - Paramètres sécurisés. Pour plus d'informations sur le dépannage du processus d'installation, reportez-vous au Chapitre 12, Dépannage.

La barre de menus située au bas de l'écran propose certaines fonctionnalités avancées indispensables dans certaines configurations. À l'aide des touches de fonction (F1 ... F12), vous pouvez indiquer des options supplémentaires à transmettre aux routines d'installation ; vous n'avez, pour cela, pas besoin de connaître la syntaxe précise de ces paramètres (voir le Chapitre 7, Paramètres de démarrage). La Section 7.2.1, « Écran de démarrage sur les ordinateurs équipés d'un BIOS traditionnel » fournit une description détaillée des touches de fonction disponibles.

7.2 PC (AMD64/Intel 64/Arm AArch64)

Cette section décrit la modification des paramètres de démarrage pour AMD64, Intel 64 et Arm AArch64.

7.2.1 Écran de démarrage sur les ordinateurs équipés d'un BIOS traditionnel

L'écran de démarrage propose plusieurs options pour la procédure d'installation. L'option Démarrer depuis le disque dur démarre le système installé. Elle est sélectionnée par défaut, car le CD est souvent laissé dans le lecteur. Sélectionnez l'une des autres options à l'aide des touches de direction et appuyez sur Entrée pour la démarrer. Les options possibles sont :

Installation

Mode d'installation normal. Toutes les fonctions matérielles modernes sont activées. Si l'installation échoue, reportez-vous à F5 Kernel pour savoir quels paramètres de démarrage peuvent désactiver les fonctions susceptibles de poser problème.

Mise à niveau

Effectuez une mise à niveau du système. Pour plus d'informations, reportez-vous au Book “Guide de mise à niveau”, Chapter 1 “Voies et méthodes de mise à niveau”.

Plus › Système de secours

Lance un système Linux de base sans interface graphique. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 43 “Common problems and their solutions”, Section 43.5.2 “Using the Rescue System” (Guide d'administration, Chapitre 44 « Problèmes courants et leur solution », Section 44.5.2 « Utilisation du système de secours »).

Plus › Démarrer le système Linux

Démarrez un système Linux qui est déjà installé. Il vous sera demandé de préciser à partir de quelle partition démarrer le système.

Plus › Vérifier le support d'installation

Cette option n'est disponible que si vous effectuez une installation depuis un support créé à partir des images ISO téléchargées. Dans ce cas, il est recommandé de vérifier l'intégrité du support d'installation. Cette option démarre le système d'installation avant de vérifier automatiquement le support. Si le contrôle s'exécute avec succès, la routine d'installation normale démarre. Si un support corrompu est détecté, la routine d'installation s'interrompt. Remplacez le support endommagé et redémarrez le processus d'installation.

Plus › Test de mémoire

Teste la RAM de votre système via des répétitions de cycles de lecture et d'écriture. Le test se termine par un redémarrage. Pour plus d'informations, reportez-vous à la Section 12.4, « Échec de démarrage ».

Écran de démarrage sur les ordinateurs équipés d'un BIOS traditionnel
Figure 7.1 : Écran de démarrage sur les ordinateurs équipés d'un BIOS traditionnel

Utilisez les touches de fonction affichées en bas de l'écran pour modifier la langue, la résolution de l'écran, la source d'installation ou pour ajouter un pilote supplémentaire acheté chez votre fournisseur de matériel :

F1 Aide

Permet d'obtenir une aide contextuelle sur l'élément actif de l'écran de démarrage. Utilisez les touches de direction pour naviguer, Entrée pour suivre un lien et Esc pour quitter l'écran d'aide.

F2 Langue

Sélectionnez la langue d'affichage et la disposition du clavier correspondante pour l'installation. La langue par défaut est l'anglais (américain).

F3 Mode vidéo

Permet de sélectionner divers modes d'affichage graphique pour l'installation. Par défaut, la résolution vidéo est définie automatiquement à l'aide de KMS (« Kernel Mode Setting »). Si ce paramètre ne fonctionne pas sur votre système, sélectionnez No KMS (Sans KMS) et indiquez éventuellement vga=ask sur la ligne de commande de démarrage pour être invité à indiquer la résolution vidéo. Sélectionnez le mode texte si l'installation graphique pose problème.

F4 Source

L'installation est normalement effectuée à partir du support d'installation inséré. Sélectionnez à cet endroit d'autres sources, telles que les serveurs FTP ou NFS. Si l'installation est déployée sur un réseau doté d'un serveur SLP, cette option permet de sélectionner une source d'installation disponible sur le serveur. Pour plus d'informations sur la configuration d'un serveur d'installation avec SLP, reportez-vous au Chapitre 16, Configuration d'une source d'installation réseau.

F5 Kernel

Si vous rencontrez des problèmes avec l'installation classique, ce menu vous propose de désactiver des fonctions susceptibles de poser problème. Si votre matériel ne prend pas en charge l'interface ACPI (interface avancée de configuration et de gestion de l'énergie), sélectionnez Pas d'ACPI pour effectuer une installation sans prise en charge de l'interface ACPI. Pas d'APIC local désactive la prise en charge de l'APIC (contrôleur programmable d'interruptions avancé) qui peut causer des problèmes avec certaines installations matérielles. Paramètres sécurisés démarre le système en désactivant le mode DMA (pour les lecteurs de CD/DVD-ROM), ainsi que les fonctions de gestion de l'énergie.

En cas de doute, essayez dans un premier temps les options suivantes : Installation - ACPI désactivé ou Installation - Paramètres sécurisés. Les utilisateurs expérimentés peuvent également utiliser la ligne de commande (Options de démarrage) pour entrer ou modifier les paramètres du kernel.

F6 Pilote

Appuyez sur cette touche pour indiquer au système que vous disposez d'une mise à jour de pilote facultative pour SUSE Linux Enterprise Server. Si Fichier ou URL est sélectionné, le chargement des pilotes a lieu avant le début de l'installation. Si vous sélectionnez Oui, vous êtes invité à insérer le disque de mise à jour au cours du processus d'installation.

Astuce
Astuce : obtention de disques de mise à jour de pilote

Les mises à jour des pilotes pour SUSE Linux Enterprise sont disponibles à l'adresse suivante : http://drivers.suse.com/. Ces pilotes ont été créés via le programme SolidDriver SUSE.

7.2.2 Écran de démarrage sur les machines équipées de l'interface EUFI

UEFI (Unified Extensible Firmware Interface) est une nouvelle norme qui remplace le BIOS traditionnel et en étend les fonctionnalités. Les implémentations les plus récentes de l'interface UEFI contiennent l'extension « Secure Boot » (Démarrage sécurisé) qui empêche le démarrage de code malveillant en autorisant uniquement l'exécution de chargeurs de démarrage signés. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 13 “UEFI (Unified Extensible Firmware Interface)” (Guide d'administration, Chapitre 13 « UEFI [Unified Extensible Firmware Interface]).

Le gestionnaire de démarrage GRUB 2, utilisé pour l'amorçage des machines équipées d'un BIOS traditionnel, ne prend pas en charge l'interface UEFI. Il est donc remplacé par GRUB 2 pour EFI. Si la fonction Démarrage sécurisé est activée, YaST sélectionne automatiquement GRUB 2 pour EFI pour l'installation. Du point de vue de l'administrateur et de l'utilisateur, les deux implémentations du gestionnaire de démarrage se comportent de la même manière et sont désignées sous le nom GRUB 2 dans la suite du document.

Astuce
Astuce : utilisation de pilotes supplémentaires avec Secure Boot

Lors de l'installation avec Secure Boot activé, vous ne pouvez pas charger les pilotes qui ne sont pas livrés avec SUSE Linux Enterprise Server. Cela est également vrai pour les pilotes fournis via SolidDriver, car leur clé de signature n'est pas approuvée par défaut.

Pour charger les pilotes non fournis avec SUSE Linux Enterprise Server, effectuez une des opérations suivantes :

  • Avant l'installation, ajoutez les clés nécessaires à la base de données des microprogrammes via les outils de gestion des systèmes/microprogrammes.

  • Utilisez une image ISO de démarrage qui enregistrera les clés requises dans la liste MOK lors du premier démarrage.

Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 13 “UEFI (Unified Extensible Firmware Interface)”, Section 13.1 “Secure Boot” (Guide d'administration, Chapitre 13 « UEFI [Unified Extensible Firmware Interface] », Section 13.1 « Démarrage sécurisé »).

L'écran de démarrage propose plusieurs options pour la procédure d'installation. Utilisez les touches de direction pour modifier l'option sélectionnée et appuyez sur Entrée pour la démarrer. Les options possibles sont :

Installation

Mode d'installation normal. Toutes les fonctions matérielles modernes sont activées. Si l'installation échoue, reportez-vous à F5 Kernel pour savoir quels paramètres de démarrage peuvent désactiver les fonctions susceptibles de poser problème.

Mise à niveau

Effectuez une mise à niveau du système. Pour plus d'informations, reportez-vous au Book “Guide de mise à niveau”, Chapter 1 “Voies et méthodes de mise à niveau”.

Plus › Système de secours

Lance un système Linux de base sans interface graphique. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 43 “Common problems and their solutions”, Section 43.5.2 “Using the Rescue System” (Guide d'administration, Chapitre 44 « Problèmes courant et leur solution », Section 44.5.2 « Utilisation du système de secours »).

Plus › Démarrer le système Linux

Démarrez un système Linux qui est déjà installé. Il vous sera demandé de préciser à partir de quelle partition démarrer le système.

Plus › Vérifier le support d'installation

Cette option n'est disponible que si vous effectuez une installation depuis un support créé à partir des images ISO téléchargées. Dans ce cas, il est recommandé de vérifier l'intégrité du support d'installation. Cette option démarre le système d'installation avant de vérifier automatiquement le support. Si le contrôle s'exécute avec succès, la routine d'installation normale démarre. Si un support corrompu est détecté, la routine d'installation s'interrompt.

Écran de démarrage sur les machines équipées de l'interface EUFI
Figure 7.2 : Écran de démarrage sur les machines équipées de l'interface EUFI

GRUB 2 pour EFI sur SUSE Linux Enterprise Server ne prend pas en charge l'invite de démarrage, ni les touches de fonction pour ajouter des paramètres de démarrage. Par défaut, l'installation est lancée en anglais des États-Unis et avec le support de démarrage comme source d'installation. Une recherche DHCP est effectuée pour configurer le réseau. Pour modifier ces valeurs par défaut ou ajouter des paramètres de démarrage, vous devez modifier l'entrée de démarrage correspondante. Mettez-la en surbrillance à l'aide des touches de direction et appuyez ensuite sur E. Pour obtenir des conseils de modification, consultez l'aide affichée à l'écran (pour l'instant, seul le clavier anglais est disponible). L'entrée Installation se présente comme suit :

setparams 'Installation'

   set gfxpayload=keep
   echo 'Loading kernel ...'
   linuxefi /boot/x86_64/loader/linux splash=silent
   echo 'Loading initial ramdisk ...'
   initrdefi /boot/x86_64/loader/initrd

Ajoutez des paramètres à la fin de la ligne commençant par linuxefi, en les séparant par un espace. Pour démarrer l'entrée modifiée, appuyez sur F10. Si vous accédez à l'ordinateur avec une console série, appuyez sur Esc0. La liste complète des paramètres est disponible à l'adresse http://en.opensuse.org/Linuxrc.

7.3 Liste des paramètres de démarrage importants

Cette section contient une sélection des paramètres de démarrage importants.

7.3.1 Paramètres de démarrage généraux

autoyast=URL

Le paramètre autoyast indique l'emplacement du fichier de contrôle autoinst.xml pour l'installation automatique.

manual=<0|1>

Le paramètre manual contrôle si les autres paramètres sont uniquement des valeurs par défaut qui doivent être approuvées par l'utilisateur. Définissez ce paramètre sur 0 si toutes les valeurs doivent être acceptées et si vous voulez qu'aucune question ne soit poser. Le fait de définir le paramètre autoyast entraîne la définition du paramètre manual sur 0.

Info=URL

Indique l'emplacement d'un fichier à partir duquel il est possible de lire plus d'options.

IBM Z Cela permet d'ignorer la limite de 10 lignes (et de 80 caractères par ligne sous z/VM) dans le fichier parmfile. Des informations supplémentaires sur le fichier Info sont disponibles dans le Book “AutoYaST Guide”, Chapter 6 “The Auto-Installation Process”, Section 6.3.3 “Combining the linuxrc info File with the AutoYaST Control File” (Guide d'AutoYaST, Chapitre 6 « Processus d'installation automatique », Section 6.3.3 « Combinaison du fichier linuxrc info avec le fichier de contrôle AutoYaST »). Puisque le fichier Info n'est accessible que par le réseau sur IBM Z, vous ne pouvez pas l'utiliser pour spécifier les options requises pour la configuration du réseau, c'est-à-dire les options décrites dans la Section 7.3.2, « Configuration de l'interface réseau »). Par ailleurs, les options spécifiques à linuxrc, comme l'option de débogage, doivent être spécifiées dans le fichier parmfile pour être prises en compte.

upgrade=<0|1>

Pour mettre à niveau SUSE Linux Enterprise Server, spécifiez Upgrade=1.

IBM Z Un fichier parmfile personnalisé est requis pour la mise à niveau d'une installation existante de SUSE Linux Enterprise. En l'absence de ce paramètre, l'installation ne fournit aucune option de mise à niveau.

dud=URL

Chargez les mises à jour de pilote à partir de URL.

Définissez dud=ftp://ftp.example.com/PATH_TO_DRIVER (CHEMIN_PILOTE) ou dud=http://www.example.com/PATH_TO_DRIVER (CHEMIN_PILOTE) pour charger les pilotes à partir d'une URL. Avec dud=1, vous devrez indiquer l'URL au cours du démarrage.

language=LANGUE

Définit la langue d'installation. Les valeurs prises en charge sont, entre autres, cs_CZ, de_DE, es_ES, fr_FR, ja_JP, pt_BR, pt_PT, ru_RU, zh_CN et zh_TW.

acpi=off

Désactivez la prise en charge ACPI.

noapic

Aucune APIC logique.

nomodeset

Désactivez KMS.

textmode=1

Démarre le programme d'installation en mode texte.

console=SERIAL_DEVICE[,MODE]

SERIAL_DEVICE (PÉRIPHÉRIQUE_SÉRIE) peut être un périphérique réel parallèle ou série (par exemple ttyS0) ou un terminal virtuel (par exemple tty1). MODE est le débit en bauds, la parité et le bit d'arrêt (par exemple 9600n8). La valeur par défaut de ce paramètre est définie par le microprogramme de la carte mère. Si vous ne voyez aucune sortie sur votre écran, essayez de définir console=tty1. Il est possible de définir plusieurs périphériques.

7.3.2 Configuration de l'interface réseau

Important
Important : configuration de l'interface réseau

Les paramètres évoqués dans cette section s'appliquent uniquement à l'interface réseau utilisée lors de l'installation. Configurez des interfaces réseau supplémentaires sur le système installé en suivant les instructions du Book “Administration Guide”, Chapter 19 “Basic Networking”, Section 19.5 “Configuring a Network Connection Manually” (Guide d'administration, Chapitre 19 « Mise en réseau de base », Section 19.5 « Configuration manuelle d'une connexion réseau »).

Le réseau est configuré uniquement s'il est requis lors de l'installation. Pour forcer la configuration du réseau, utilisez le paramètre netsetup.

netsetup=VALUE

netsetup=dhcp force une configuration via DHCP. Définissez netsetup=-dhcp lors de la configuration du réseau avec les paramètres de démarrage hostip, gateway et nameserver. Avec l'option netsetup=hostip,netmask,gateway,nameserver, le programme d'installation vous demande des paramètres réseau au cours du démarrage.

ifcfg=INTERFACE[.VLAN]=SETTINGS

INTERFACE peut être * pour correspondre à toutes les interfaces ou, par exemple, eth* pour correspondre à toutes les interfaces qui commencent par eth. Il est également possible d'utiliser des adresses MAC en tant que valeurs.

Éventuellement, un réseau VLAN peut être défini derrière le nom d'interface, séparé par un point.

Si SETTINGS est dhcp, toutes les interfaces correspondantes sont configurées avec DHCP. Il est possible de définir des paramètres statiques. Avec des paramètres statiques, seule la première interface correspondante est configurée. La syntaxe de la configuration statique est la suivante :

ifcfg=*="IPS_NETMASK,GATEWAYS,NAMESERVERS,DOMAINS"

Chaque valeur séparée par des virgules peut à son tour contenir une liste de valeurs séparées par des espaces. IPS_NETMASK (MASQUE_RÉSEAU_IPS) se trouve dans la notation CIDR, par exemple 10.0.0.1/24. Les guillemets ne sont nécessaires qu'en cas d'utilisation d'une liste de valeurs séparées par des espaces. Exemple avec deux serveurs de noms :

ifcfg=*="10.0.0.10/24,10.0.0.1,10.0.0.1 10.0.0.2,example.com"
Astuce
Astuce : autres paramètres réseau

Le paramètre de démarrage ifcfg est très puissant et vous permet de définir la plupart des paramètres réseau. En plus des paramètres mentionnés ci-dessus, vous pouvez définir des valeurs pour toutes les options de configuration (séparées par des virgules) à partir de /etc/sysconfig/network/ifcfg.template et /etc/sysconfig/network/config. L'exemple suivant définit une taille MTU personnalisée sur une interface qui autrement, serait configurée via DHCP :

ifcfg=eth0=dhcp,MTU=1500
hostname=hôte.exemple.com

Entrez le nom d'hôte complet.

domain=exemple.com

Chemin de recherche du domaine pour DNS. Cela vous permet d'utiliser des noms d'hôtes plus courts à la place des noms d'hôtes complets.

hostip=192.168.1.2[/24]

Saisissez l'adresse IP de l'interface à configurer. L'adresse IP peut contenir le masque de sous-réseau, par exemple hostip=192.168.1.2/24. Ce paramètre est évalué uniquement lorsque le réseau est requis lors de l'installation.

gateway=192.168.1.3

Spécifiez la passerelle à utiliser. Ce paramètre est évalué uniquement lorsque le réseau est requis lors de l'installation.

nameserver=192.168.1.4

Spécifiez le serveur DNS responsable. Ce paramètre est évalué uniquement lorsque le réseau est requis lors de l'installation.

domain=exemple.com

Chemin de recherche du domaine. Ce paramètre est évalué uniquement lorsque le réseau est requis lors de l'installation.

7.3.3 Spécification de la source d'installation

Si vous n'utilisez pas de lecteur DVD ou de clé USB à mémoire flash pour l'installation, spécifiez une autre source d'installation.

install=SOURCE

Indiquez l'emplacement de la source d'installation à utiliser. Les protocoles possibles sont cd, hd, slp, nfs, smb (Samba/CIFS), ftp, tftp http et https. Tous les types de sources ne sont pas disponibles sur l'ensemble des plates-formes. Par exemple, IBM Z ne prend pas en charge cd ni hd.

L'option par défaut est cd.

Si une URL ftp, tftp ou smb est indiquée, spécifiez le nom d'utilisateur et le mot de passe avec l'URL. Ces paramètres sont facultatifs, et lorsqu'ils ne sont pas spécifiés, une connexion anonyme ou de type invité est supposée. Exemple :

install=ftp://USER:PASSWORD@SERVER/DIRECTORY/DVD1/

Pour effectuer l'installation via une connexion chiffrée, utilisez une URL https. Si le certificat ne peut pas être vérifié, utilisez le paramètre de démarrage sslcerts=0 pour désactiver la vérification du certificat.

Dans le cas d'une installation Samba ou CIFS, vous pouvez également spécifier le domaine à utiliser :

install=smb://WORKDOMAIN;USER:PASSWORD@SERVER/DIRECTORY/DVD1/

Pour utiliser cd, hd ou slp, définissez-les comme dans l'exemple suivant :

install=cd:/
install=hd:/?device=sda/PATH_TO_ISO
install=slp:/

7.3.4 Spécification de l'accès à distance

Une seule méthode de contrôle à distance doit être spécifiée à la fois. Les différentes méthodes sont : SSH, VNC et serveur X distant. Pour plus d'informations sur la façon d'utiliser les paramètres répertoriés dans cette section, reportez-vous au Chapitre 11, Installation à distance.

display_ip=IP_ADDRESS

Avec Display_IP (ADRESSE_IP_AFFICHAGE), le système d'installation tente de se connecter à un serveur X à l'adresse indiquée.

Important
Important : mécanisme d'authentification X

L'installation directe avec le système X Window repose sur un mécanisme d'authentification primitif basé sur des noms d'hôte. Ce mécanisme est désactivé dans les versions actuelles de SUSE Linux Enterprise Server. Il est préférable de procéder à une installation avec SSH ou VNC.

vnc=1

Active un serveur VNC lors de l'installation.

vncpassword=PASSWORD

Définit le mot de passe du serveur VNC.

ssh=1

SSH permet l'installation SSH.

ssh.password=PASSWORD

Spécifie un mot de passe SSH pour l'utilisateur root pendant l'installation.

7.4 Configurations avancées

Pour configurer l'accès à un serveur RMT local ou supportconfig pour l'installation, vous pouvez spécifier des paramètres de démarrage pour configurer ces services lors de l'installation. Cela est valable si la prise en charge IPv6 est requise en cours d'installation.

7.4.1 Spécification de données pour l'accès à un serveur RMT

Par défaut, les mises à jour de SUSE Linux Enterprise Server sont fournies par le SUSE Customer Center. Si votre réseau est doté d'un serveur RMT qui fournit une source de mise à jour locale, vous devez fournir l'URL de ce serveur au client. Le client et le serveur communiquent exclusivement via un protocole HTTPS. Ainsi, vous devez également saisir le chemin du certificat de serveur s'il n'a pas été généré par une autorité de certification.

Note
Note : installation non interactive uniquement

Vous ne devez renseigner des paramètres pour l'accès au serveur RMT que pour les installations non interactives. Pendant une installation interactive, les données peuvent être fournies pendant l'installation (consultez la Section 8.7, « Enregistrement » pour plus de détails).

regurl

URL du serveur RMT : Cette URL présente un format fixe https://FQN/center/regsvc/. FQN doit être un nom d'hôte complet du serveur RMT. Exemple :

regurl=https://smt.example.com/center/regsvc/

Assurez-vous d'entrer des valeurs correctes. Si regurl n'a pas été saisi correctement, il sera impossible d'enregistrer la source de mise à jour.

regcert

Emplacement du certificat du serveur RMT. Spécifiez l'un des emplacements suivants :

URL

Emplacement distant (HTTP, HTTPS ou FTP) à partir duquel il est possible de télécharger le certificat. Si regcert n'est pas précisé, il sera défini par défaut sur http://FQN/smt.crt, FQN étant le nom du serveur RMT. Exemple :

regcert=http://rmt.example.com/smt-ca.crt
Chemin local

Chemin complet du certificat sur la machine locale. Exemple :

regcert=/data/inst/smt/smt-ca.cert
Interactif

Utilisez ask pour ouvrir un menu contextuel vous permettant d'indiquer le chemin du certificat, lors de l'installation. N'utilisez pas cette option avec AutoYaST. Par exemple :

regcert=ask
Désactiver l'installation du certificat

Utilisez done si le certificat doit être installé par un produit complémentaire ou si vous utilisez un certificat délivré par une autorité de certification officielle. Par exemple :

regcert=done

7.4.2 Configuration d'un serveur de données alternatif pour supportconfig

Par défaut, les données rassemblées par supportconfig (reportez-vous au Book “Administration Guide”, Chapter 42 “Gathering System Information for Support” [Guide d'administration, Chapitre 43 « Collecte d'informations système pour le support »] pour plus d'informations) sont envoyées au SUSE Customer Center. Il est également possible de configurer un serveur local pour qu'il collecte ces données. Si un tel serveur est disponible sur votre réseau, vous devez définir l'URL du serveur sur le client. Cette information doit être saisie à l'invite de démarrage.

supporturl URL du serveur. L'URL a le format http://FQN/Path/, où FQN est le nom d'hôte complet du serveur et Path correspond à l'emplacement sur le serveur. Par exemple :

supporturl=http://support.example.com/supportconfig/data/

7.4.3 Utilisation du protocole IPv6 pendant l'installation

Par défaut, vous ne pouvez assigner à votre machine que des adresses réseau IPv4. Pour activer le protocole IPv6 au cours de l'installation, entrez l'un des paramètres suivants à l'invite de démarrage :

Pour accepter IPv4 et IPv6
ipv6=1
Pour accepter uniquement IPv6
ipv6only=1

7.4.4 Utilisation d'un proxy pendant l'installation

Dans les réseaux appliquant l'utilisation d'un serveur proxy pour accéder à des sites Web à distance, l'enregistrement au cours de l'installation n'est possible que lors de la configuration d'un serveur proxy.

Pour utiliser un proxy au cours de l'installation, appuyez sur F4 dans l'écran de démarrage, puis définissez les paramètres obligatoires dans la boîte de dialogue du proxy HTTP. De même, vous pouvez fournir le paramètre du kernel proxy à l'invite de démarrage :

proxy=http://USER:PASSWORD@proxy.example.com:PORT

Il n'est pas obligatoire de fournir un nom d'UTILISATEUR ni un MOT_DE_PASSE. Si le serveur autorise les accès anonymes, les données suivantes suffisent : http://exemple.proxy.com:PORT.

7.4.5 Activation de la prise en charge de SELinux

L'activation de SELinux lors du lancement de l'installation permet de le configurer une fois l'installation terminée sans nécessiter de redémarrage. Utilisez les paramètres suivants :

security=selinux selinux=1

7.4.6 Activation de la mise à jour automatique du programme d'installation

Lors de l'installation et de la mise à niveau, YaST peut se mettre à jour lui-même, comme décrit à la Section 8.2, « Mise à jour automatique du programme d'installation », pour résoudre des bogues potentiels détectés après la publication. Le paramètre self_update peut être utilisé pour modifier le comportement de cette fonctionnalité.

Pour activer la mise à jour automatique du programme d'installation, définissez le paramètre sur 1 :

self_update=1

Pour utiliser un dépôt défini par l'utilisateur, spécifiez une URL :

self_update=https://updates.example.com/

7.4.7 Mise à l'échelle de l'interface utilisateur pour une résolution élevée

Si votre écran utilise une résolution très élevée, utilisez le paramètre de démarrage QT_AUTO_SCREEN_SCALE_FACTOR. Ce paramètre met à l'échelle les éléments de police et d'interface utilisateur en fonction de la résolution de l'écran.

QT_AUTO_SCREEN_SCALE_FACTOR=1

7.4.8 Utilisation des atténuations d'UC

Le paramètre de démarrage mitigations permet de contrôler les options d'atténuation pour les attaques par canal auxiliaire sur les UC affectées. Les valeurs qu'il peut prendre sont les suivantes :

auto Active toutes les atténuations requises pour votre modèle d'UC, mais ne protège pas contre les attaques de threads inter-UC. Ce paramètre peut influencer les performances dans une certaine mesure, selon le workload.

nosmt Fournit l'ensemble complet d'atténuations de sécurité disponibles. Active toutes les atténuations requises pour votre modèle d'UC. En outre, il désactive le multithreading simultané (Simultaneous Multithreading, SMT) afin d'éviter les attaques par canal auxiliaire entre plusieurs threads d'UC. Ce paramètre peut avoir un impact plus important sur les performances, en fonction du workload.

off Désactive toutes les atténuations. Selon le modèle d'UC, des attaques par canal auxiliaire sont possibles. Ce paramètre n'a aucun impact sur les performances.

Chaque valeur est associée à un ensemble de paramètres spécifiques, en fonction de l'architecture d'UC, de la version du kernel et des vulnérabilités qui doivent être atténuées. Pour plus de détails, reportez-vous à la documentation du kernel.

7.5 IBM Z

Pour les plates-formes IBM Z, le système démarre (via un IPL, « Initial Program Load », autrement dit un chargement du programme initial), comme décrit à la Section 5.3.4, « Exécution d'un IPL sur le système d'installation de SUSE Linux Enterprise Server ». SUSE Linux Enterprise Server n'affiche aucun écran de démarrage sur ces systèmes. Au cours de l'installation, chargez le kernel, initrd et parmfile manuellement. YaST démarre et affiche son écran d'installation dès qu'une connexion est établie avec le système d'installation via VNC, X ou SSH. Puisqu'il n'y a aucun écran de démarrage, les paramètres du kernel ou ceux de démarrage ne peuvent pas être saisis à l'écran, ils doivent donc être spécifiés dans un fichier parmfile (reportez-vous à la Section 5.4, « Fichier parmfile : automatisation de la configuration du système »).

InstNetDev=osa

Saisissez le type d'interface à configurer. Les valeurs possibles sont osa, hsi, ctc, escon et iucv (CTC, ESCON et IUCV ne sont officiellement plus pris en charge).

Pour les interfaces de type hsi et osa, spécifiez un maque réseau approprié et une adresse de diffusion facultative :

Netmask=255.255.255.0
Broadcast=192.168.255.255

Pour les interfaces de type ctc, escon et iucv (les interfaces CTC, ESCON et IUCV n'étant plus officiellement prises en charge), saisissez l'adresse IP du pair :

Pointopoint=192.168.55.20
OsaInterface=<lcs|qdio>

Pour les périphériques réseau osa, spécifiez l'interface hôte (qdio ou lcs).

Layer2=<0|1>

Pour les périphériques Ethernet QDIO osa et les périphériques hsi, indiquez si vous souhaitez activer (1) ou désactiver (0) la prise en charge de la couche OSI niveau 2.

OSAHWAddr=02:00:65:00:01:09

Pour les périphériques Ethernet QDIO osa de couche 2, indiquez une adresse MAC manuellement ou indiquez OSAHWADDR= (avec un espace à la fin) pour le système par défaut.

PortNo=<0|1>

Pour les périphériques réseau osa, spécifiez le numéro de port, à condition que le périphérique prenne en charge cette fonction). La valeur par défaut est 0.

Chaque interface requiert des options de configuration spécifiques :

  • Interfaces ctc et escon (les interfaces CTC et ESCON n'étant plus officiellement prises en charge) :

    ReadChannel=0.0.0600
    WriteChannel=0.0.0601

    ReadChannel indique le canal de lecture à utiliser. WriteChannel correspond au canal d'écriture.

  • Pour l'interface ctc (qui n'est plus officiellement prise en charge), indiquez le protocole à utiliser pour cette interface :

    CTCProtocol=<0/1/2>

    Les entrées correctes sont les suivantes :

    0

    Mode compatibilité, également pour les pairs non Linux autres que OS/390 et z/OS (mode par défaut)

    1

    Mode étendu

    2

    Mode compatibilité avec OS/390 et z/OS

  • Type de périphérique réseau osa avec interface lcs :

    ReadChannel=0.0.0124

    ReadChannel représente le numéro de canal utilisé dans cette configuration. Pour dériver un deuxième numéro de port à partir de ce numéro, ajoutez un numéro à ReadChannel. Portnumber est utilisé pour spécifier le port associé.

  • Interface iucv :

    IUCVPeer=PEER

    Entrez le nom de la machine du pair.

  • Type de périphérique réseau osa avec interface qdio pour OSA-Express Gigabit Ethernet :

    ReadChannel=0.0.0700
    WriteChannel=0.0.0701
    DataChannel=0.0.0702

    Pour ReadChannel, saisissez le numéro du canal de lecture. Pour WriteChannel, saisissez le numéro du canal d'écriture. DataChannel spécifie le canal de données. Assurez-vous que le canal de lecture porte un numéro de périphérique égal.

  • Interface hsi pour HiperSockets et LAN invités VM :

    ReadChannel=0.0.0800
    WriteChannel=0.0.0801
    DataChannel=0.0.0802

    Pour ReadChannel, saisissez le numéro du canal de lecture approprié. Pour WriteChannel et DataChannel, saisissez les numéros des canaux d'écriture et de données.

7.6 Pour plus d'informations

Vous trouverez plus d'informations sur les paramètres de démarrage dans le wiki openSUSE à l'adresse https://en.opensuse.org/SDB:Linuxrc#Parameter_Reference.

8 Procédure d'installation

Ce chapitre décrit la procédure de copie des données de SUSE Linux Enterprise Server vers l'appareil cible. Certains paramètres de configuration de base du système nouvellement installé sont définis pendant la procédure. Vous serez guidé dans une interface utilisateur graphique tout au long de l'installation. La procédure décrite ci-dessous s'applique également aux procédures d'installation à distance décrites dans le Chapitre 11, Installation à distance. L'installation en mode texte passe par les mêmes étapes, seule son apparence est différente. Pour plus d'informations sur l'exécution des installations automatisées non interactives, consultez le document Book “AutoYaST Guide” (Guide d'AutoYaST).

Avant d'exécuter le programme d'installation, lisez la Partie I, « Préparation de l'installation ». Selon l'architecture de votre système, elle décrit les étapes nécessaires au démarrage de l'installation.

Si vous utilisez SUSE Linux Enterprise Server pour la première fois, il est préférable d'accepter la plupart des paramètres que YaST propose par défaut. Néanmoins, vous pouvez ajuster les paramètres en suivant les étapes décrites ici afin d'optimiser votre système en fonction de vos préférences. Pour accéder à l'aide de chaque étape d'installation, cliquez sur Aide.

Astuce
Astuce : installation sans souris

Si le programme d'installation ne détecte pas correctement votre souris, utilisez la touche →| (Tabulation) pour naviguer, les touches de direction pour le défilement et la touche Entrée pour confirmer une sélection. Le libellé de certains boutons ou champs de sélection comporte une lettre soulignée (mnémonique). Utilisez AltLettre en question pour sélectionner directement un bouton ou un élément au lieu d'y accéder à l'aide de la touche →|.

8.1 Présentation

Cette section fournit une vue d'ensemble de toutes les étapes d'installation. Chaque étape contient un lien vers une description plus détaillée.

  1. Avant le lancement de l'installation, le programme d'installation peut se mettre à jour lui-même. Pour plus de détails, reportez-vous à la Section 8.2, « Mise à jour automatique du programme d'installation ».

  2. L'installation commence par choisir la langue et le produit. Pour plus de détails, reportez-vous à la Section 8.3, «  Sélection de la langue, du clavier et des produits  ».

  3. Accepter le contrat de licence. Pour plus de détails, reportez-vous à la Section 8.4, « Contrat de licence ».

  4. Les machines IBM Z doivent activer les disques. Pour plus de détails, reportez-vous à la Section 8.5, « IBM Z : activation du disque ».

  5. Configurez le réseau. Cela est nécessaire uniquement lorsque vous devez accéder au réseau lors de l'installation et que la configuration réseau automatique via DHCP a échoué. Si la configuration réseau automatique a réussi, cette étape est ignorée. Pour plus de détails, reportez-vous à la Section 8.6, « Paramètres réseau ».

  6. Avec une connexion réseau opérationnelle, vous pouvez enregistrer la machine auprès du SUSE Customer Center ou d'un serveur RMT. Pour plus de détails, reportez-vous à la Section 8.7, « Enregistrement ».

  7. Sélectionnez les modules que vous voulez activer pour la machine. Cela a une incidence sur la disponibilité des rôles système à l'étape suivante et sur les paquetages ultérieurement. Pour plus de détails, reportez-vous à la Section 8.8, « Sélection d'extensions et de modules ».

  8. Vous pouvez ajouter manuellement des dépôts. Pour plus de détails, reportez-vous à la Section 8.9, « Produit complémentaire ».

  9. Sélectionnez un rôle pour votre système. Cela définit entre autres la liste par défaut des paquetages à installer et suggère de partitionner les disques durs. Pour plus de détails, reportez-vous à la Section 8.10, « Rôle système ».

  10. Partitionnez les disques durs de votre système. Pour plus de détails, reportez-vous à la Section 8.11, « Partitionnement ».

  11. Choisissez un fuseau horaire. Pour plus de détails, reportez-vous à la Section 8.12, « Horloge et fuseau horaire ».

  12. Création d'un utilisateur. Pour plus de détails, reportez-vous à la Section 8.13, « Création d'un utilisateur ».

  13. Le cas échéant, définissez un mot de passe différent pour l'administrateur système root. Pour plus de détails, reportez-vous à la Section 8.14, « Authentification de l'administrateur système « root » ».

  14. Pour conclure, le programme d'installation propose une vue d'ensemble de tous les paramètres. Si nécessaire, vous pouvez les modifier. Pour plus de détails, reportez-vous à la Section 8.15, « Paramètres d'installation ».

  15. Le programme d'installation copie toutes les données requises et vous informe sur la progression. Pour plus de détails, reportez-vous à la Section 8.16, « Réalisation de l'installation ».

8.2 Mise à jour automatique du programme d'installation

Au cours du processus d'installation et de mise à niveau, YaST peut se mettre à jour lui-même pour résoudre des bogues au niveau du programme d'installation qui ont été découverts après la publication. Par défaut, cette fonctionnalité est activée. Pour la désactiver, définissez le paramètre de démarrage self_update sur 0. Pour plus d'informations, reportez-vous à la Section 7.4.6, « Activation de la mise à jour automatique du programme d'installation ».

Important
Important : mise à jour trimestrielle des supports - mise à jour automatique désactivée

La mise à jour automatique du programme d'installation n'est disponible que si vous utilisez les images GM des fichiers ISO du programme d'installation unifié et des paquetages. Si vous effectuez l'installation à partir des fichiers ISO publiés sous forme de mise à jour trimestrielle (qui peuvent être identifiés par la chaîne QU dans le nom), le programme d'installation ne peut pas se mettre à jour, car cette fonction a été désactivée dans les supports mis à jour.

Important
Important : mise en réseau au cours de la mise à jour automatique

Pour télécharger les mises à jour du programme d'installation, YaST a besoin d'un accès réseau. Par défaut, il tente d'utiliser le protocole DHCP sur toutes les interfaces réseau. Si le réseau comporte un serveur DHCP, cela fonctionne automatiquement.

Si vous avez besoin d'une configuration d'adresse IP statique, vous pouvez utiliser l'argument de démarrage ifcfg. Pour plus de détails, consultez la documentation de linuxrc à l'adresse https://en.opensuse.org/Linuxrc.

Astuce
Astuce : sélection de la langue

La mise à jour automatique du programme d'installation est exécutée avant l'étape de sélection de la langue. Cela signifie que les messages qui apparaissent au cours de ce processus concernant la progression de l'opération et les erreurs sont en anglais par défaut.

Pour utiliser une autre langue dans cette partie du programme d'installation, utilisez le paramètre de démarrage language s'il est disponible pour votre architecture, par exemple, language=fr_FR. Sur les machines équipées d'un BIOS traditionnel, appuyez sur F2 dans le menu de démarrage et sélectionnez la langue dans la liste.

Bien que cette fonctionnalité ait été conçue pour s'exécuter sans intervention de l'utilisateur, il est utile de savoir comment elle fonctionne. Si cela ne vous intéresse pas, vous pouvez passer directement à la Section 8.3, «  Sélection de la langue, du clavier et des produits  » et ignorer le reste de cette section.

8.2.1 Processus de mise à jour automatique

Le processus peut être décomposé en deux parties différentes :

  1. Détermination de l'emplacement du dépôt de mise à jour.

  2. Téléchargement et application des mises à jour au système d'installation.

8.2.1.1 Détermination de l'emplacement du dépôt de mise à jour

Les mises à jour automatiques du programme d'installation sont distribuées sous la forme de paquetages RPM réguliers par le biais d'un dépôt dédié, de sorte que la première étape consiste à trouver l'URL du dépôt.

Important
Important : uniquement le dépôt de mise à jour automatique du programme d'installation

Quelles que soient les options suivantes que vous utilisez, seule l'URL du dépôt de mise à jour automatique du programme d'installation est attendue, par exemple :

self_update=https://www.example.com/my_installer_updates/

Ne fournissez pas l'URL d'un autre dépôt, par exemple celle du dépôt de mise à jour du logiciel.

YaST essaie les sources d'informations suivantes :

  1. Le paramètre de démarrage self_update. (Pour plus de détails, reportez-vous à la Section 7.4.6, « Activation de la mise à jour automatique du programme d'installation ».) Si vous spécifiez une URL, elle prévaudra sur toute autre méthode.

  2. L'élément de profil /general/self_update_url si vous utilisez AutoYaST.

  3. Un serveur d'enregistrement. YaST interroge le serveur d'enregistrement de l'URL. Le serveur à utiliser est déterminé dans l'ordre suivant :

    1. Évaluation du paramètre de démarrage regurl (Section 7.4.1, « Spécification de données pour l'accès à un serveur RMT »).

    2. Évaluation de l'élément de profil /suse_register/reg_server si vous utilisez AutoYaST.

    3. Recherche SLP. Si un serveur SLP est détecté, YaST vous demande s'il doit être utilisé, car aucune authentification n'est appliquée et tout utilisateur du réseau local peut annoncer un serveur d'enregistrement.

    4. Interrogation du SUSE Customer Center.

  4. Si aucune des précédentes tentatives n'a fonctionné, le système utilise l'URL de secours (définie sur le support d'installation).

8.2.1.2 Téléchargement et application des mises à jour

Lorsque le dépôt de mise à jour est déterminé, YaST vérifie si une mise à jour est disponible. Si c'est le cas, toutes les mises à jour sont téléchargées et appliquées au système d'installation.

Enfin, YaST redémarre pour charger la nouvelle version et l'écran de bienvenue s'affiche. Si aucune mise à jour n'est disponible, l'installation continuera sans redémarrer YaST.

Note
Note : intégrité de la mise à jour

Les signatures des mises à jour sont vérifiées afin de garantir l'identité de l'auteur et l'intégrité. Si une signature est manquante ou non valide, le système vous demande si vous souhaitez appliquer la mise à jour.

8.2.1.3 Dépôt complémentaire temporaire de mise à jour automatique

Certains paquetages distribués dans le dépôt de mise à jour automatique fournissent des données supplémentaires pour le programme d'installation, comme les valeurs par défaut de l'installation, les définitions de rôles système et autres éléments similaires. Si le programme d'installation détecte ce type de paquetage dans le dépôt de mise à jour automatique, il crée un dépôt local temporaire dans lequel les paquetages sont copiés. Ils sont utilisés au cours du processus d'installation, mais, à la fin de l'installation, le dépôt local temporaire est supprimé. Les paquetages ne sont pas installés sur le système cible.

Ce dépôt supplémentaire n'est pas affiché dans la liste des produits complémentaires, mais lors de l'installation, il peut encore être visible en tant que dépôt SelfUpdate0 dans la gestion des paquetages.

8.2.2 Dépôts de mise à jour automatique personnalisés

YaST peut utiliser un dépôt défini par l'utilisateur au lieu du dépôt officiel. Pour ce faire, une URL doit être spécifiée par le biais du paramètre de démarrage self_update. Tenez toutefois compte des points suivants :

  • Seuls les dépôts HTTP/HTTPS et FTP sont pris en charge.

  • Seuls les dépôts RPM-MD sont pris en charge (requis par RMT).

  • Les paquetages ne sont pas installés selon le processus habituel : ils sont uniquement décompressés et aucun script n'est exécuté.

  • Aucune vérification de dépendance n'est effectuée. Les paquetages sont installés dans l'ordre alphabétique.

  • Les fichiers des paquetages remplacent les fichiers du support d'installation d'origine. Cela signifie que les paquetages de mise à jour ne contiennent pas tous les fichiers, mais uniquement ceux qui ont changé. Les fichiers inchangés sont omis de manière à économiser de la mémoire et de la bande passante.

Note
Note : un seul dépôt

Actuellement, il n'est pas possible d'utiliser plusieurs dépôts comme sources pour les mises à jour automatiques du programme d'installation.

8.3 Sélection de la langue, du clavier et des produits

Sélection de la langue, du clavier et des produits
Figure 8.1 : Sélection de la langue, du clavier et des produits

Les paramètres Langue et Disposition du clavier sont initialisés en fonction de la langue choisie sur l'écran de démarrage. Si vous n'avez pas modifié la valeur par défaut, ce sera l'anglais (États-Unis). Modifiez les paramètres ici, si nécessaire.

La modification de la langue a pour conséquence la présélection de la disposition du clavier correspondante. Vous pouvez remplacer cette disposition de clavier en en sélectionnant une autre dans le menu déroulant. Testez la disposition du clavier dans la zone de texte Keyboard Test (Test du clavier). La langue choisie détermine également le fuseau horaire à utiliser pour l'horloge système. Ce paramètre pourra être modifié ultérieurement sur le système installé, comme décrit au Chapitre 23, Modification des paramètres de langue et de pays avec YaST.

Avec le programme d'installation unifié, vous pouvez installer tous les produits de base de SUSE Linux Enterprise :

Sélectionnez un produit à installer. Vous devez disposer d'un code d'enregistrement pour le produit concerné. Ce document suppose que vous avez choisi SUSE Linux Enterprise Server (SLES). Cliquez ensuite sur Suivant.

8.4 Contrat de licence

Contrat de licence
Figure 8.2 : Contrat de licence

Lisez le contrat de licence. Celui-ci s'affiche dans la langue sélectionnée sur l'écran de démarrage. Des traductions sont disponibles via la zone déroulante License Language (Langue de la licence). Si vous acceptez les termes contractuels, cochez J'accepte les conditions de la licence, puis cliquez sur Suivant pour poursuivre l'installation. Si vous n'acceptez pas le contrat de licence, vous ne pourrez pas installer SUSE Linux Enterprise Server ; cliquez sur Interrompre pour mettre fin à l'installation.

8.5 IBM Z : activation du disque

Lors de l'installation sur les plates-formes IBM Z, la boîte de dialogue de sélection de la langue est suivie d'une boîte de dialogue permettant de configurer les disques durs connectés.

Activation du disque
Figure 8.3 : Activation du disque

Sélectionnez DASD, Disques SCSI Fibre Channel connectés (zFCP) ou iSCSI pour l'installation de SUSE Linux Enterprise Server. Les boutons de configuration DASD et zFCP ne sont disponibles que si les périphériques correspondants sont connectés. Pour plus d'informations sur la configuration de disques iSCSI, reportez-vous au Book “Storage Administration Guide”, Chapter 15 “Mass Storage over IP Networks: iSCSI”, Section 15.3 “Configuring iSCSI Initiator” (Guide d'administration du stockage, Chapitre 14 « Stockage de masse sur les réseaux IP : iSCSI », Section 14.3 « Configuration de l'initiateur iSCSI »).

Vous pouvez également modifier la Configuration réseau dans cet écran en ouvrant la boîte de dialogue Paramètres réseau. Sélectionnez une interface réseau dans la liste et cliquez ensuite sur Modifier pour en modifier les paramètres. Utilisez les onglets pour configurer les paramètres DNS et de routage. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 19 “Basic Networking”, Section 19.4 “Configuring a Network Connection with YaST” (Guide d'administration, Chapitre 19 « Mise en réseau de base », Section 19.4 « Configuration d'une connexion réseau avec YaST »).

8.5.1 Configuration des disques DASD

Ignorez cette étape si vous n'effectuez pas l'installation sur du matériel IBM Z.

Gestion des disques DASD
Figure 8.4 : Gestion des disques DASD

Après avoir sélectionné Configurer les disques DASD, une vue d'ensemble liste tous les DASD disponibles. Pour obtenir une image claire des périphériques disponibles, utilisez la zone de texte située au-dessus de la liste pour spécifier la plage des canaux à afficher. Pour filtrer la liste selon cette plage, sélectionnez Filtre.

Spécifiez les DASD à utiliser pour l'installation en sélectionnant les entrées correspondantes dans la liste. Cliquez sur Sélectionner tout pour sélectionner tous les disques DASD affichés. Activez les disques DASD sélectionnés et mettez-les à disposition en vue de l'installation en cliquant sur Procéder à l'action › Activer. Pour formater les disques DASD, sélectionnez Procéder à l'action › Formater. Vous pouvez également utiliser le partitionneur de YaST ultérieurement, comme décrit à la Section 10.1, « Utilisation de l'outil Partitionnement en mode expert ».

8.5.2 Configuration des disques zFCP

Pour utiliser des disques zFCP dans le cadre de l'installation de SUSE Linux Enterprise Server, sélectionnez Configurer des disques zFCP dans la boîte de dialogue de sélection. Cette option ouvre une boîte de dialogue répertoriant les disques ZFCP disponibles sur le système. Dans cette boîte de dialogue, sélectionnez Ajouter pour ouvrir une autre boîte de dialogue dans laquelle entrer les paramètres zFCP.

Pour mettre à disposition un disque zFCP pour l'installation de SUSE Linux Enterprise Server, choisissez un Numéro de canal disponible dans la liste déroulante. Obtenir des WWPN (identifiant unique du port) et Obtenir des LUN (identifiant d'unité logique) génèrent des listes avec les WWPN et FCP-LUN disponibles parmi lesquels choisir. L'analyse automatique des LUN fonctionne uniquement lorsque NPIV est activé.

Une fois que vous avez terminé, quittez la boîte de dialogue zFCP en cliquant sur Suivant et la boîte de dialogue de configuration générale de disque dur en cliquant sur Terminer pour passer au reste de la configuration.

8.6 Paramètres réseau

Après avoir démarré dans l'installation, la routine d'installation est configurée. Au cours de cette opération, une tentative de configuration d'au moins une interface réseau avec DHCP est effectuée. Si cette tentative a échoué, la boîte de dialogue Paramètres réseau s'ouvre alors :

Paramètres réseau
Figure 8.5 : Paramètres réseau

Sélectionnez une interface réseau dans la liste et cliquez ensuite sur Modifier pour en modifier les paramètres. Utilisez les onglets pour configurer les paramètres DNS et de routage. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 19 “Basic Networking”, Section 19.4 “Configuring a Network Connection with YaST” (Guide d'administration, Chapitre 19 « Mise en réseau de base », Section 19.4 « Configuration d'une connexion réseau avec YaST »). Sur IBM Z, cette boîte de dialogue ne s'ouvre pas automatiquement. Vous pouvez l'ouvrir au cours de l'étape Activation du disque.

Si le protocole DHCP a été configuré correctement au cours de l'étape d'installation, vous pouvez également accéder à cette boîte de dialogue en cliquant sur Configuration réseau à l'étape Enregistrement auprès du SUSE Customer Center et à l'étape Paramètres d'installation. Cela vous permet de modifier les paramètres fournis automatiquement.

Note
Note : configuration du réseau avec les paramètres de démarrage

Si au moins une interface réseau a été configurée via les paramètres de démarrage (voir la Section 7.3.2, « Configuration de l'interface réseau »), la configuration automatique DHCP est désactivée et la configuration de paramètre de démarrage est importée et utilisée.

Astuce
Astuce : accès au stockage réseau ou au système RAID local

Pour accéder à un SAN ou un système RAID local lors de l'installation, vous pouvez utiliser le client de ligne de commande libstorage :

  1. Basculez vers une console à l'aide de la combinaison de touches CtrlAltF2.

  2. Installez l'extension libstoragemgmt en exécutant extend libstoragemgmt.

  3. Vous avez à présent accès à la commande lsmcli. Pour plus d'informations, exécutez lsmcli --help.

  4. Pour retourner dans le programme d'installation, appuyez sur AltF7.

Sont pris en charge tous les fournisseurs SAN compatibles SMI-S, ainsi que Netapp Ontap et LSI MegaRAID.

8.7 Enregistrement

Pour obtenir un support technique et les mises à jour des produits, vous devez enregistrer et activer SUSE Linux Enterprise Server auprès du SUSE Customer Center ou d'un serveur d'enregistrement local. En enregistrant votre produit au cours de cette étape, vous disposez d'un accès immédiat au dépôt des mises à jour. Cela vous permet d'installer le système avec les mises à jour et les correctifs les plus récents.

Lors de l'enregistrement, les dépôts et les dépendances des modules et extensions que vous installez à l'étape suivante sont chargés à partir du serveur d'enregistrement.

À partir de cette boîte de dialogue, vous pouvez basculer vers le module YaST Paramètres réseau en cliquant sur Configuration réseau. Pour plus de détails, reportez-vous au Book “Administration Guide”, Chapter 19 “Basic Networking”, Section 19.4 “Configuring a Network Connection with YaST” (Guide d'administration, Chapitre 19 « Mise en réseau de base », Section 19.4 « Configuration d'une connexion réseau avec YaST »).

Si vous êtes hors ligne ou si vous souhaitez ignorer l'enregistrement, activez Ignorer l'enregistrement. Reportez-vous à la Section 8.7.3, « Installation sans enregistrement » pour plus d'informations.

8.7.1 Enregistrement manuel

Pour effectuer un enregistrement auprès du SUSE Customer Center, entrez l'adresse électronique associée à votre compte SCC et le code d'enregistrement pour SUSE Linux Enterprise Server.

Si votre entreprise fournit un serveur d'enregistrement local, vous pouvez également l'utiliser pour effectuer l'enregistrement. Activez Register System via local SMT Server (Enregistrer le système via le serveur SMT local), puis choisissez une URL dans la zone de liste déroulante ou saisissez une adresse. Cliquez ensuite sur Suivant.

Pour vous enregistrer auprès du SUSE Customer Center, entrez votre Code d'enregistrement pour SUSE Linux Enterprise Server. Si votre organisation fournit un serveur d'enregistrement local, vous pouvez aussi effectuer l'enregistrement auprès de celui-ci. Activez l'option Enregistrer le système via un serveur RMT local et choisissez une URL dans la zone de liste déroulante ou entrez une adresse.

Démarrez le processus d'enregistrement avec Suivant.

Enregistrement sur le SUSE Customer Center
Figure 8.6 : Enregistrement auprès du SUSE Customer Center
Astuce
Astuce : installation de correctifs produit lors de l'installation du système d'exploitation

Lorsque SUSE Linux Enterprise Server a bien été enregistré, vous devez indiquer si vous souhaitez installer les dernières mises à jour disponibles en ligne au cours de l'installation. Si vous sélectionnez Oui, le système sera installé avec les paquetages les plus récents sans avoir à appliquer les mises à jour une fois l'opération effectuée. L'activation de cette option est recommandée.

Si le système a bien été enregistré pendant l'installation, YaST désactive les dépôts du support d'installation local (tel qu'un CD/DVD ou des disques Flash) une fois l'installation terminée. Cela évite des problèmes si la source d'installation n'est plus disponible et vous permet de toujours obtenir les mises à jour les plus récentes à partir des dépôts en ligne.

8.7.2 Chargement des codes d'enregistrement à partir du périphérique de stockage USB

Pour faciliter l'enregistrement, vous pouvez également stocker les codes d'enregistrement sur un périphérique de stockage USB, tel qu'un disque Flash. YaST préremplit automatiquement la zone de texte correspondante. Cela est particulièrement utile lors du test de l'installation ou si vous devez enregistrer un grand nombre de systèmes ou extensions.

Créez un fichier nommé regcodes.txt ou regcodes.xml sur le disque USB. Si les deux fichiers sont présents, le fichier XML est prioritaire.

Dans ce fichier, identifiez le produit avec le nom renvoyé par la commande rypper search --type product et assignez-lui un code d'enregistrement comme suit :

Exemple 8.1 : regcodes.txt
SLES    cc36aae1
SLED    309105d4

sle-we  5eedd26a
sle-live-patching 8c541494
Exemple 8.2 : regcodes.xml
<?xml version="1.0"?>
<profile xmlns="http://www.suse.com/1.0/yast2ns"
 xmlns:config="http://www.suse.com/1.0/configns">
  <suse_register>
    <addons config:type="list">
      <addon>
<name>SLES</name>
<reg_code>cc36aae1</reg_code>
      </addon>
      <addon>
<name>SLED</name>
<reg_code>309105d4</reg_code>
      </addon>
      <addon>
<name>sle-we</name>
<reg_code>5eedd26a</reg_code>
      </addon>
      <addon>
<name>sle-live-patching</name>
<reg_code>8c541494</reg_code>
      </addon>
    </addons>
  </suse_register>
</profile>

Notez que SLES et SLED ne sont pas des extensions, mais les répertorier en tant que produits complémentaires permet de combiner plusieurs codes d'enregistrement de produit de base dans un fichier unique. Pour plus de détails, reportez-vous au Book “AutoYaST Guide”, Chapter 4 “Configuration and Installation Options”, Section 4.3.1 “Extensions” (Guide AutoYaST, Chapitre 4 « Options de configuration et d'installation », Section 4.3.1 « Extensions ».

Note
Note : limites

Pour l'instant, les disques Flash sont analysés uniquement lors d'une installation ou d'une mise à niveau, pas lors de l'enregistrement d'un système en cours d'exécution.

8.7.3 Installation sans enregistrement

Si vous êtes hors ligne ou si vous souhaitez ignorer l'enregistrement, sélectionnez Ignorer l'enregistrement. Acceptez l'avertissement en cliquant sur OK, puis appuyez sur Suivant.

Important
Important : enregistrement ignoré

Votre système et les extensions doivent être enregistrés pour récupérer les mises à jour et bénéficier du support. L'enregistrement ne peut être ignoré que lors d'une installation à partir de l'image SLE-15-SP2-Full-ARCH-GM-media1.iso.

Installation sans enregistrement
Figure 8.7 : Installation sans enregistrement
Note
Note : enregistrement de SUSE Linux Enterprise Server

Votre système et les extensions doivent être enregistrés pour récupérer les mises à jour et bénéficier du support. Si vous n'effectuez pas d'enregistrement lors de l'installation, vous pouvez le faire à tout moment ultérieurement à partir du système en cours d'exécution. Pour ce faire, exécutez YaST › Enregistrement de produit.

Astuce
Astuce : copie de l'image du support d'installation sur un disque flash amovible

Utilisez la commande suivante pour copier le contenu de l'image d'installation sur un disque flash amovible.

tux > sudo dd if=IMAGE of=FLASH_DISK bs=4M && sync

IMAGE doit être remplacé par le chemin du fichier image SLE-15-SP2-Online-ARCH-GM-media1.iso ou SLE-15-SP2-Full-ARCH-GM-media1.iso. FLASH_DISK doit être remplacé par le périphérique flash. Pour identifier le périphérique, insérez-le et exécutez la commande suivante :

root # grep -Ff <(hwinfo --disk --short) <(hwinfo --usb --short)
     disk:
     /dev/sdc             General USB Flash Disk

Assurez-vous que la taille du périphérique est suffisante pour l'image souhaitée. Vous pouvez vérifier la taille du périphérique à l'aide de la commande suivante :

root # fdisk -l /dev/sdc | grep -e "^/dev"
     /dev/sdc1  *     2048 31490047 31488000  15G 83 Linux

Dans cet exemple, la capacité du périphérique est de 15 Go. La commande à utiliser pour le fichier SLE-15-SP2-Full-ARCH-GM-media1.iso serait la suivante :

dd if=SLE-15-SP2-Full-ARCH-GM-media1.iso of=/dev/sdc1 bs=4M && sync

Le périphérique ne doit pas être monté lors de l'exécution de la commande dd. Notez que toutes les données de la partition seront effacées !

8.8 Sélection d'extensions et de modules

Dans cette boîte de dialogue, le programme d'installation répertorie les modules et extensions qui sont disponibles pour SUSE Linux Enterprise Server. Les modules sont des composants qui vous permettent de façonner le produit selon vos besoins. Ils sont gratuits. Les extensions ajoutent des fonctionnalités à votre produit. Elles sont proposées sous forme d'abonnements et nécessitent une clé d'enregistrement payante.

La disponibilité de certains modules ou extensions dépend du produit que vous avez sélectionné lors de la première étape de cette installation. Pour une description des modules et de leur cycle de vie, sélectionnez un module afin d'afficher le texte d'accompagnement. Des informations plus détaillées sont disponibles dans les Notes de version.

La sélection des modules a une incidence indirecte sur l'étendue de l'installation, car elle définit les sources de logiciels (dépôts) qui sont disponibles pour l'installation et sur le système en cours d'exécution.

Sélection d'extensions et de modules
Figure 8.8 : Sélection d'extensions et de modules

Les modules et extensions suivants sont disponibles pour SUSE Linux Enterprise Server :

Module Basesystem (Système de base)

Ce module ajoute un système de base dans le programme d'installation unifié. Il est nécessaire à l'ensemble des autres modules et extensions. L'étendue d'une installation qui contient uniquement le système de base est comparable au modèle d'installation Système minimal des versions antérieures de SUSE Linux Enterprise Server. Ce module est sélectionné pour l'installation par défaut et ne doit pas être désélectionné.

Dépendances : aucune

Module Containers (Conteneurs)

Contient le support et les outils des conteneurs.

Dépendances : Basesystem

Module Desktop Applications (Applications de bureau)

Ajoute une interface graphique et des applications de bureau essentielles au système.

Dépendances : Basesystem

Module Development Tools (Outils de développement)

Contient les compilateurs (y compris gcc) et les bibliothèques requises pour la compilation et le débogage d'applications. Remplace l'ancien SDK (Software Development Kit).

Dépendances : Basesystem, Desktop Applications

Module Legacy

Contient les paquetages qui étaient disponibles dans les versions précédentes de SUSE Linux Enterprise Server, mais qui sont devenus obsolètes dans SLES 15 SP2. Ce module est recommandé lors de la migration à partir d'une précédente version du produit.

Dépendances : Basesystem, Server Applications

Module Public Cloud (Cloud public)

Contient tous les outils nécessaires à la création d'images pour le déploiement de SUSE Linux Enterprise Server dans des environnements cloud, tels qu'Amazon Web Services (AWS), Microsoft Azure, Google Compute Platform ou le cloud OpenStack de SUSE.

Dépendances : Basesystem, Server Applications

Module Python 2

SUSE Linux Enterprise 15 SP2 utilise Python version 3. Ce module contient l'exécution et les modules de Python 2.

Dépendances : Basesystem

Module Server Applications (Applications serveur)

Ajoute des fonctionnalités de serveur en fournissant des services réseau tels qu'un serveur DHCP, un serveur de noms ou un serveur Web. Ce module est sélectionné pour l'installation par défaut. Il est déconseillé de le désélectionner.

Dépendances : Basesystem

Module SUSE Cloud Application Platform Tools

Ajoute des outils permettant d'interagir avec le produit SUSE Cloud Application Platform.

Dépendances : Basesystem

SUSE Enterprise Storage

Ajoute la prise en charge du stockage distribué avec Ceph à SUSE Linux Enterprise Server. Nécessite une clé de licence distincte.

Dépendances : Basesystem, Server Applications

SUSE Linux Enterprise High Availability Extension 

Ajoute la prise en charge de la mise en grappe pour les configurations stratégiques à SUSE Linux Enterprise Server. Cette extension nécessite une clé de licence distincte.

Dépendances : Basesystem, Server Applications

SUSE Linux Enterprise Live Patching

Ajoute la prise en charge de l'application de correctifs stratégiques sans nécessiter l'arrêt du système. Cette extension nécessite une clé de licence distincte.

Dépendances : Basesystem, Server Applications

Extension SUSE Linux Enterprise Workstation

Étend la fonctionnalité de SUSE Linux Enterprise Server avec des paquetages de SUSE Linux Enterprise Desktop, telles que des applications de bureau supplémentaires (suite bureautique, client de messagerie électronique, éditeur graphique, etc.) et des bibliothèques. Elle permet de combiner les deux produits pour créer un poste de travail aux fonctionnalités complètes. Cette extension nécessite une clé de licence distincte.

Dépendances : Basesystem, Desktop Applications

SUSE Package Hub

Donne accès aux paquetages pour SUSE Linux Enterprise Server gérés par la communauté openSUSE. Ces paquetages sont distribués sans support L3 et n'interfèrent pas avec la prise en charge de SUSE Linux Enterprise Server. Pour plus d'informations, reportez-vous au site Web https://packagehub.suse.com/.

Dépendances : Basesystem

Module de serveur transactionnel

Ajoute la prise en charge des mises à jour transactionnelles. Celles-ci sont appliquées au système en une seule transaction ou pas du tout. Cela se produit sans influencer le système en cours d'exécution. Si une mise à jour échoue ou si la mise à jour réussie est considérée comme incompatible ou incorrecte, vous pouvez la supprimer pour rétablir immédiatement l'état de fonctionnement précédent du système.

Dépendances : Basesystem

Module Web and Scripting

Contient des paquetages destinés à un serveur Web en cours d'exécution.

Dépendances : Basesystem, Server Applications

Certains modules dépendent de l'installation d'autres modules. Par conséquent, lorsque vous sélectionnez un module, d'autres modules peuvent être sélectionnés automatiquement pour satisfaire les dépendances.

Selon le produit, le serveur d'enregistrement peut marquer des modules et extensions comme étant recommandés. Les extensions et modules recommandés sont présélectionnés pour installation et enregistrement. Pour éviter l'installation de ces recommandations, désélectionnez-les manuellement.

Sélectionnez les modules et l'extension que vous souhaitez installer et cliquez ensuite sur Suivant. Si vous avez choisi une ou plusieurs extensions, vous devrez saisir leur code d'enregistrement respectif. En fonction de votre choix, il peut également être nécessaire d'accepter des contrats de licence supplémentaires.

8.9 Produit complémentaire

La boîte de dialogue Produit complémentaire vous permet d'ajouter des sources de logiciel supplémentaires (également appelées « dépôts ») à SUSE Linux Enterprise Server, qui ne sont pas fournies par le SUSE Customer Center. Ces produits complémentaires peuvent être un produit tiers, un pilote ou un logiciel supplémentaire pour votre système.

Produit complémentaire
Figure 8.9 : Produit complémentaire

À partir de cette boîte de dialogue, vous pouvez basculer vers le module YaST Paramètres réseau en cliquant sur Configuration réseau. Pour plus de détails, reportez-vous au Book “Administration Guide”, Chapter 19 “Basic Networking”, Section 19.4 “Configuring a Network Connection with YaST” (Guide d'administration, Chapitre 19 « Mise en réseau de base », Section 19.4 « Configuration d'une connexion réseau avec YaST »).

Astuce
Astuce : ajout de pilotes au cours de l'installation

Vous pouvez également ajouter des dépôts de mises à jour de pilote au moyen de la boîte de dialogue Produit complémentaire. Les mises à jour des pilotes pour SUSE Linux Enterprise sont disponibles à l'adresse suivante : http://drivers.suse.com/. Ces pilotes ont été créés via le programme SolidDriver SUSE.

Si vous ne souhaitez pas installer de produits complémentaires, cliquez sur Suivant. Dans le cas contraire, cochez la case Je souhaite installer un autre produit complémentaire. Sélectionnez le type de support parmi les options proposées : CD, DVD, Disque dur, Stockage de masse USB, Répertoire local ou Image ISO locale. Si l'accès au réseau a été configuré, vous avez également le choix parmi des sources distantes supplémentaires, telles que HTTP, SLP, FTP, etc. Une autre solution consiste à indiquer directement une URL. Cochez Télécharger les fichiers de description du dépôt pour télécharger directement les fichiers décrivant le dépôt. Si cette option n'est pas activée, les fichiers seront téléchargés après le lancement de l'installation. Continuez en cliquant sur Suivant et insérez un CD ou DVD si nécessaire.

Selon le contenu du produit complémentaire, vous devrez peut-être accepter des contrats de licence supplémentaires.

8.10 Rôle système

SUSE Linux Enterprise Server prend en charge une vaste gamme de fonctionnalités. Pour simplifier l'installation, le programme d'installation propose des cas d'utilisation prédéfinis qui ajustent le système à installer afin qu'il soit adapté au scénario choisi.

Rôle système
Figure 8.10 : Rôle système

Choisissez le Rôle système qui répond le mieux à vos besoins. La disponibilité des rôles système dépend de votre sélection de modules et d'extensions. La boîte de dialogue est donc ignorée dans les conditions suivantes :

  • Si selon les modules activés, aucun rôle n'est adapté au produit de base concerné. Dans ce cas, l'installation se poursuit avec les paramètres par défaut de ce produit.

  • Si selon les modules activés, un seul rôle est adapté au produit de base concerné. Dans ce cas, l'installation se poursuit avec les paramètres de ce rôle spécifique.

Avec la sélection par défaut, les rôles système disponibles sont les suivants :

Mode texte

Cette option installe un SLES de base sans environnement de bureau, mais avec un large éventail d'outils de ligne de commande.

Dépendances : Basesystem

Minimal

Sélectionnez ce rôle si vous voulez une très petite installation avec uniquement les outils de ligne de commande de base.

Dépendances : Aucune

Hôte de virtualisation KVM

Sélectionnez ce scénario lors d'une installation sur une machine qui doit servir d'hôte KVM pouvant exécuter d'autres machines virtuelles. /var/lib/libvirt va être placé sur une partition distincte, tandis que le pare-feu et Kdump vont être désactivés.

Dépendances : Basesystem, Server Applications

Hôte de virtualisation XEN

Sélectionnez ce scénario lors d'une installation sur une machine qui doit servir d'hôte Xen pouvant exécuter d'autres machines virtuelles. /var/lib/libvirt va être placé sur une partition distincte, tandis que le pare-feu et Kdump vont être désactivés.

Dépendances : Basesystem, Server Applications

8.11 Partitionnement

8.11.1 Informations importantes

Avertissement
Avertissement : veuillez lire cette section attentivement.

Lisez cette section attentivement avant de passer à la Section 8.11.2, « Partitionnement proposé ».

Partitionnement personnalisé sur des machines UEFI

Une machine UEFI nécessite une partition système EFI qui doit être montée sur /boot/efi. Cette partition doit être formatée avec le système de fichiers FAT32.

Si votre système comporte déjà une partition système EFI (issue d'une installation antérieure de Windows, par exemple), vous pouvez l'utiliser en la montant sur /boot/efi sans la formater.

Si aucune partition de système EFI n'est présente sur votre machine UEFI, veillez à la créer. La partition système EFI doit être une partition physique ou un RAID 1. Les autres niveaux RAID, LVM et autres technologies ne sont pas pris en charge. Elle doit être formatée avec le système de fichiers FAT32.

Partitionnement personnalisé et Snapper

Si la partition racine est supérieure à 16 Go, SUSE Linux Enterprise Server active par défaut les instantanés système de fichier.

SUSE Linux Enterprise Server utilise Snapper avec Btrfs pour cette fonction. Btrfs doit être configuré avec les instantanés activés pour la partition racine.

Si la capacité du disque est inférieure à 16 Go, toutes les fonctionnalités Snapper et les instantanés automatiques sont désactivés afin d'empêcher la partition système / de manquer d'espace.

La possibilité de créer des instantanés système autorisant les restaurations nécessite le montage de répertoires système importants sur une même partition, par exemple /usr et /var. Seuls les répertoires qui sont exclus des instantanés peuvent se trouver sur des partitions distinctes, par exemple /usr/local, /var/log et /tmp.

Si les instantanés sont activés, le programme d'installation crée automatiquement des instantanés uniques au cours de l'installation et immédiatement après celle-ci.

Pour plus de détails, reportez-vous au Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper” (Guide d'administration, Chapitre 7 « Récupération système et gestion des instantanés avec Snapper »).

Important
Important : instantanés Btrfs et taille de la partition racine

Les instantanés occupent de l'espace sur leur partition. En règle générale, plus l'instantané est ancien ou plus l'ensemble de modifications qu'il couvre est volumineux, plus sa taille est élevée. En outre, plus vous conservez d'instantanés, plus vous avez besoin d'espace disque.

Pour éviter que la partition racine ne soit saturée par les données d'instantanés, vous devez veiller à ce qu'elle soit suffisamment grande. Si vous effectuez régulièrement des mises à jour ou d'autres installations, prévoyez au moins 30 Go pour la partition racine. Si vous envisagez de garder les instantanés activés pour une mise à niveau système ou une migration de Service Pack (pour permettre un retour à l'état initial), vous devez prévoir 40 Go au minimum.

Volumes de données Btrfs

L'utilisation de Btrfs pour les volumes de données est prise en charge sur SUSE Linux Enterprise Server 15 SP2. Pour les applications qui nécessitent Btrfs en tant que volume de données, envisagez de créer un système de fichiers distinct avec des groupes de quotas désactivés. Il s'agit déjà du comportement par défaut pour les systèmes de fichiers autres que racine.

Btrfs sur une partition racine chiffrée

La configuration par défaut du partitionnement suggère le format Btrfs pour la partition racine. Pour chiffrer la partition racine, veillez à utiliser le type de table de partitions GPT au lieu du type MSDOS. Dans le cas contraire, le chargeur d'amorçage GRUB2 risque de ne pas disposer de suffisamment d'espace pour celui nécessaire à la deuxième étape.

IBM Z : utilisation de minidisques dans z/VM

Si SUSE Linux Enterprise Server est installé dans z/VM sur des minidisques qui résident sur le même disque physique, le chemin d'accès aux minidisques (/dev/disk/by-id/) n'est pas unique; mais correspond à l'ID du disque physique. Si deux minidisques ou plus sont sur le même disque physique, ils auront tous le même ID.

Pour éviter les problèmes relatifs au montage des minidisques, montez-les toujours par chemin ou par UUID.

IBM Z : système de fichiers racine LVM

Si vous configurez le système avec un système de fichiers racine sur LVM ou une matrice logicielle RAID, vous devez placer /boot sur une partition non-LVM ou non-RAID distincte pour que le système puisse démarrer. La taille recommandée est de 500 Mo pour ce type de partition ; le système de fichiers recommandé est Ext4.

IBM POWER : installation sur des systèmes dotés de plusieurs disques Fibre Channel

Si vous disposez de plusieurs disques, le schéma de partitionnement proposé lors de l'installation place les partitions PReP et BOOT sur des disques différents. S'il s'agit de disques Fibre Channel, le chargeur de démarrage GRUB ne parvient pas à trouver la partition BOOT et le système ne peut pas se lancer.

Lorsque vous êtes invité à sélectionner le schéma de partition au cours de l'installation, choisissez Installation guidée et vérifiez qu'un seul disque est sélectionné pour l'installation. Vous pouvez également exécuter Partitionnement en mode expert et configurer manuellement un schéma de partitionnement disposant de PRep et de BOOT sur un seul disque.

Volumes RAID logiciels pris en charge

L'installation sur des volumes RAID logiciels existants est prise en charge pour les volumes DDF (Disk Data Format) et IMSM (Intel Matrix Storage Manager), au même titre que le démarrage à partir de ces volumes. IMSM est également connu sous les noms suivants :

Points de montage des périphériques FCoE et iSCSI

Les périphériques FCoE et iSCSI apparaissent de manière asynchrone lors du processus de démarrage. Tandis que initrd garantit la configuration adéquate de ces périphériques pour le système de fichiers racine, il n'existe aucune garantie de ce type pour d'autres systèmes de fichiers ou points de montage tels que /usr. Par conséquent, les points de montage de système comme /usr ou /var ne sont pas pris en charge. Pour utiliser ces appareils, assurez-vous que la synchronisation est correcte entre les services et appareils respectifs.

8.11.2 Partitionnement proposé

Définissez une configuration de partition pour SUSE Linux Enterprise Server au cours de cette étape.

Partitionnement proposé
Figure 8.11 : Partitionnement proposé

Selon le rôle système, le programme d'installation crée une proposition pour l'un des disques disponibles. Toutes les propositions contiennent une partition racine mise en forme avec Btrfs (avec les instantanés activés) et une partition d'échange. Le bureau GNOME et les propositions en mode texte créent une partition d'accueil distincte sur les disques de plus de 20 Go. Les rôles système des hôtes de virtualisation créent une partition distincte pour /var/lib/libvirt, le répertoire qui héberge les fichiers image par défaut. Si une ou plusieurs partitions d'échange ont été détectées sur les disques durs disponibles, elles sont utilisées (au lieu d'en proposer une nouvelle). Plusieurs options vous sont proposées :

Suivant

Pour accepter la proposition sans y apporter de modifications, cliquez sur Suivant afin de poursuivre le workflow d'installation.

Installation guidée

Pour ajuster la proposition, choisissez Installation guidée. Tout d'abord, choisissez les disques durs et les partitions à utiliser. Dans l'écran Schéma de partitionnement, vous pouvez activer la Gestion des volumes logiques (LVM) ainsi que le chiffrement de disque. Spécifiez ensuite les options du système de fichiers. Vous pouvez ajuster le système de fichiers pour la partition racine et créer des partitions personnelles et d'échange distinctes. Si vous envisagez de mettre en veille votre machine, veillez à créer une partition d'échange distincte et cochez Agrandir jusqu'à la taille de la RAM pour la mise en veille. Si le format du système de fichiers racine est Btrfs, vous pouvez également activer ou désactiver les instantanés Btrfs ici.

Partitionneur en mode expert

Pour créer une configuration de partition personnalisée, cliquez sur Partitionneur en mode expert. Sélectionnez l'option Démarrer avec la proposition actuelle pour démarrer avec la disposition de disque suggérée ou l'option Démarrer avec les partitions existantes pour ignorer la disposition suggérée et démarrer avec la disposition existante sur le disque. Vous pouvez à présent Ajouter, Modifier, Redimensionner ou Supprimer des partitions.

Cet outil vous permet également de configurer des volumes logiques (LVM), de configurer l'assignation de volumes RAID logiciels et de périphériques (DM), de coder des partitions, de monter des partages NFS et de gérer des volumes tmpfs. Pour affiner les paramètres, tels que la gestion des instantanés et des sous-volumes pour chaque partition Btrfs, sélectionnez Btrfs. Pour en savoir plus sur le partitionnement personnalisé et sur la configuration des fonctionnalités avancées, reportez-vous à la Section 10.1, « Utilisation de l'outil Partitionnement en mode expert ».

Avertissement
Avertissement : unités d'espace disque

Notez qu'à des fins de partitionnement, l'espace disque est mesuré en unités binaires plutôt qu'en unités décimales. Par exemple, si vous spécifiez la taille de 1 Go, 1 Gio ou 1 G, cela correspond à 1 Gio (gibioctet), et non à 1 Go (gigaoctet).

Binaire

1 Gio = 1 073 741 824 octets.

Décimal

1 Go = 1 000 000 000 octets.

Différence

1 Gio ≈ 1,07 Go.

8.12 Horloge et fuseau horaire

Dans cette boîte de dialogue, sélectionnez votre région et votre fuseau horaire. Ces deux paramètres sont prédéfinis en fonction de la langue d'installation.

Horloge et fuseau horaire
Figure 8.12 : Horloge et fuseau horaire

Pour les modifier, utilisez la carte ou les listes déroulantes Région et Fuseau horaire. Si vous choisissez d'utiliser la carte, placez le curseur de la souris près de votre pays et cliquez pour faire un zoom. Choisissez maintenant votre pays ou région en cliquant dessus. Cliquez avec le bouton droit pour faire un zoom arrière.

Pour configurer l'horloge, choisissez si l'Horloge matérielle [est] définie sur UTC ou non. Si un autre système d'exploitation est exécuté sur votre machine, par exemple Microsoft Windows, il est probable que votre système utilise plutôt l'heure locale. Si Linux est exécuté sur votre machine, définissez l'horloge matérielle sur UTC et demandez que le changement entre heure standard et heure d'été se fasse automatiquement.

Important
Important : réglage de l'horloge matérielle sur UTC

Le passage de l'heure standard à l'heure d'été (et inversement) ne peut être effectué automatiquement que si l'horloge matérielle (horloge CMOS) est réglée sur UTC. Cela s'applique également si vous utilisez la synchronisation horaire automatique avec NTP. En effet, la synchronisation automatique n'est effectuée que si la différence d'heure entre l'horloge matérielle et l'horloge système est inférieure à 15 minutes.

Comme une heure système erronée peut engendrer des problèmes sérieux (sauvegardes manquées, messages perdus, erreurs de montage sur les systèmes de fichiers distants, etc.), il est fortement recommandé de toujours régler l'horloge matérielle sur UTC.

POWER, AMD/Intel Si un réseau est déjà configuré, vous pouvez configurer la synchronisation horaire à l'aide d'un serveur NTP. Cliquez sur Autres paramètres pour modifier les paramètres NTP ou pour régler l'heure Manuellement. Pour plus d'informations sur la configuration du service NTP, reportez-vous au Book “Administration Guide”, Chapter 30 “Time Synchronization with NTP” (Guide d'administration, Chapitre 31 « Synchronisation horaire avec NTP »). Lorsque vous avez terminé, cliquez sur Accepter pour continuer l'installation.

POWER, AMD/Intel Dans le cadre d'une exécution dans laquelle NTP n'est pas configuré, pensez à définir le paramètre SYSTOHC=no (variable sysconfig) afin d'éviter d'enregistrer une heure non synchronisée dans l'horloge matérielle.

Note
Note : impossible de modifier l'heure sur IBM Z

Puisque le système d'exploitation n'est pas autorisé à modifier directement la date et l'heure, l'option Autres paramètres n'est pas disponible sur IBM Z.

8.13 Création d'un utilisateur

Vous pouvez créer un utilisateur local au cours de cette étape.

Création d'un utilisateur
Figure 8.13 : Création d'un utilisateur

Après avoir saisi le prénom et le nom, vous pouvez soit accepter la proposition, soit spécifier un nouveau Nom d'utilisateur à utiliser pour la connexion. N'utilisez que des lettres minuscules (a-z), des chiffres (0-9) et les caractères . (point), - (tiret) et _ (caractère de soulignement). Les caractères spéciaux, trémas et caractères accentués ne sont pas autorisés.

Pour finir, entrez un mot de passe pour l'utilisateur. Saisissez-le une seconde fois pour confirmer (et vous assurer que vous n'avez pas commis d'erreur de frappe). Afin d'assurer une sécurité optimale, le mot de passe doit contenir au moins six caractères et être composé de lettres majuscules et minuscules, de chiffres et de caractères spéciaux (ASCII 7 bits). Les umlauts et les caractères accentués ne sont pas autorisés. Les mots de passe que vous saisissez sont vérifiés afin de s'assurer qu'ils apportent une sécurité suffisante. Si vous choisissez un mot de passe facile à deviner, comme un mot du dictionnaire ou un nom, un avertissement s'affiche. Pour une question de sécurité, il est fortement conseillé d'utiliser des mots de passe compliqués.

Important
Important : nom d'utilisateur et mot de passe

Mémorisez votre nom d'utilisateur et votre mot de passe, car tous deux vous seront demandés chaque fois que vous vous connecterez au système.

Si vous installez SUSE Linux Enterprise Server sur une machine avec une ou plusieurs installations Linux existantes, YaST vous permet d'importer des données utilisateur telles que des noms d'utilisateur et des mots de passe. Sélectionnez Importer les données utilisateur à partir d'une installation précédente, puis Sélectionner des utilisateurs pour l'importation.

Si vous ne souhaitez pas configurer d'utilisateurs locaux (lors de la configuration d'un client sur un réseau pourvu d'une authentification centralisée des utilisateurs, par exemple), ignorez cette étape en sélectionnant Suivant et en acceptant l'avertissement. L'authentification des utilisateurs réseau pourra être configurée ultérieurement sur le système installé ; pour plus d'informations à ce sujet, reportez-vous au Chapitre 22, Gestion des utilisateurs avec YaST.

Vous disposez de deux possibilités supplémentaires :

Utiliser ce mot de passe pour l'administrateur système

Si cette option est sélectionnée, le mot de passe saisi pour l'utilisateur est également utilisé pour l'administrateur système root. Cette option convient pour les machines ou postes de travail autonomes situés dans un réseau domestique administré par un seul utilisateur. Si cette option n'est pas sélectionnée, vous êtes invité à saisir un mot de passe administrateur au cours de l'étape suivante de la procédure d'installation (voir la Section 8.14, « Authentification de l'administrateur système « root » »).

Connexion automatique

Cette option connecte automatiquement l'utilisateur actuel au système lors du démarrage. Cela est surtout utile si l'ordinateur ne sert qu'à un seul utilisateur. Pour que la connexion automatique fonctionne, cette option doit être activée de façon explicite.

Avertissement
Avertissement : connexion automatique

Lorsque la connexion automatique est activée, le système accède directement à votre bureau, sans qu'aucune authentification ne soit requise. Si vous stockez des données sensibles sur votre système, n'activez pas cette option si l'ordinateur est également accessible par d'autres personnes.

Dans un environnement où les utilisateurs sont gérés de manière centralisée (par exemple, par NIS ou LDAP), vous devez ignorer la création d'utilisateurs locaux. Sélectionnez Ignorer la création de l'utilisateur dans ce cas.

8.14 Authentification de l'administrateur système « root »

Si vous n'avez pas sélectionné l'option Utiliser ce mot de passe pour l'administrateur du système au cours de l'étape précédente, vous êtes invité à saisir un mot de passe pour l'administrateur système root ou à fournir une clé publique SSH. Dans le cas contraire, cette étape de configuration est ignorée.

Authentification de l'administrateur système root
Figure 8.14 : Authentification de l'administrateur système root

root est le nom du superutilisateur ou de l'administrateur du système. Contrairement aux utilisateurs ordinaires, root a des droits illimités pour la modification de la configuration du système, l'installation des programmes et la configuration du nouveau matériel. Si des utilisateurs oublient leur mot de passe ou rencontrent d'autres difficultés avec leur système, root peut les aider. Le compte root ne doit être utilisé que pour l'administration du système, la maintenance et les réparations. Se connecter en tant que root pour les tâches quotidiennes présente certains risques. Une seule erreur peut, en effet, provoquer la perte irrémédiable de fichiers système.

À des fins de vérification, le mot de passe root doit être saisi deux fois. N'oubliez pas le mot de passe root. Une fois défini, ce mot de passe ne peut pas être récupéré.

Astuce
Astuce : mots de passe et disposition du clavier

Il est conseillé de n'utiliser que les caractères disponibles sur un clavier anglais. En cas d'erreur système ou s'il s'avère nécessaire de démarrer le système en mode de secours, il se peut qu'un clavier localisé ne soit pas disponible.

Le mot de passe root pourra être modifié à tout moment sur le système installé. Pour ce faire, exécutez YaST, puis sélectionnez Sécurité et Utilisateurs › Gestion des groupes et des utilisateurs.

Important
Important : utilisateur root

L'utilisateur root possède toutes les permissions requises pour apporter des modifications au système. Le mot de passe root est requis pour effectuer ce type d'opérations. Aucune tâche administrative n'est possible sans ce mot de passe.

Dans certains cas, il est préférable d'accéder au système à distance via SSH à l'aide d'une clé publique. Cet écran permet de sélectionner une clé publique à partir d'un support.

La procédure suivante décrit comment ajouter une clé publique SSH à partir d'une clé USB. Elle est identique à partir d'un CD/DVD-ROM ou à partir d'une partition existante. Procédez de la façon suivante :

Procédure 8.1 : ajout d'une clé publique SSH pour l'utilisateur root
  1. Insérez dans votre ordinateur le périphérique de stockage USB contenant la clé SSH publique. La clé publique SSH porte l'extension de fichier .pub.

  2. Cliquez sur Rafraîchir. Vous devez voir le périphérique dans le sélecteur de la liste sous Import Public Key (Importer une clé publique).

  3. Cliquez sur Parcourir et sélectionnez la clé publique SSH.

  4. Cliquez ensuite sur Suivant.

  5. Dans le résumé Paramètres d'installation, veillez à vérifier le port SSH sous Pare-feu et SSH. Cliquez sur ouvrir afin que le message Le port SSH sera ouvert s'affiche.

Une fois l'installation terminée, vous pouvez vous connecter via SSH à l'aide de la clé publique SSH fournie.

8.15 Paramètres d'installation

Lors de la dernière étape avant l'installation, vous pouvez modifier les paramètres proposés par le programme d'installation. Pour modifier les propositions, cliquez sur le titre approprié. Après avoir modifié un paramètre, vous revenez systématiquement à la fenêtre Paramètres d'installation, laquelle est mise à jour en conséquence.

Si vous avez ajouté une clé SSH à votre utilisateur root comme mentionné à la Procédure 8.1, veillez à ouvrir le port SSH dans les paramètres Pare-feu et SSH.

Paramètres d'installation
Figure 8.15 : Paramètres d'installation

8.15.1 Logiciel

SUSE Linux Enterprise Server comporte plusieurs modèles de logiciels correspondant à divers types d'applications. Le choix des modèles et des ensembles disponibles dépend de votre sélection de modules et d'extensions.

Cliquez sur Logiciel pour afficher l'écran Tâches système et sélection de logiciels dans lequel vous pouvez modifier la sélection du modèle suivant vos besoins. Sélectionnez un modèle dans la liste. La description correspondante s'affiche alors dans la partie droite de la fenêtre.

Chaque modèle contient plusieurs paquetages logiciels nécessaires pour des fonctions spécifiques (serveur Web et LAMP ou serveur d'impression, par exemple). Pour une sélection plus détaillée des paquetages logiciels à installer, sélectionnez Détails afin de basculer vers le gestionnaire de logiciels de YaST.

Tâches système et sélection de logiciels
Figure 8.16 : Tâches système et sélection de logiciels

Vous pouvez également installer des paquetages logiciels supplémentaires ou en supprimer de votre système quand vous le souhaitez grâce au gestionnaire de logiciels de YaST. Pour plus d'informations, reportez-vous au Chapitre 19, Installation et suppression de logiciels.

Si vous choisissez d'installer GNOME, SUSE Linux Enterprise Server est installé avec le serveur d'affichage X.org. Vous pouvez également installer le gestionnaire de fenêtres léger IceWM à la place de GNOME. Sélectionnez Détails dans l'écran Tâches système et sélection de logiciels et recherchez icewm.

Astuce
Astuce : IBM Z : prise en charge de la cryptographie matérielle

La pile de cryptographie matérielle n'est pas installée par défaut. Pour l'installer, sélectionnez System z HW crypto support (System z : prise en charge du codage matériel) dans l'écran Tâches système et sélection de logiciels.

Astuce
Astuce : ajout de langues secondaires

La langue sélectionnée lors de la première étape de l'installation est utilisée comme langue principale (par défaut) pour le système. Vous pouvez ajouter des langues secondaires à partir de la boîte de dialogue Logiciel en sélectionnant Détails › Afficher › Langues.

8.15.2 Démarrage

Le programme d'installation propose une configuration de démarrage pour votre système. Les autres systèmes d'exploitation de votre ordinateur, comme Microsoft Windows ou d'autres installations Linux, sont détectés et ajoutés automatiquement au chargeur de démarrage. Cependant, SUSE Linux Enterprise Server démarre par défaut. Vous pouvez normalement adopter les réglages proposés sans modification. Si une configuration personnalisée est nécessaire, modifiez les paramètres proposés suivant vos besoins. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 14 “The Boot Loader GRUB 2”, Section 14.3 “Configuring the Boot Loader with YaST” (Guide administration, Chapitre 14 « Chargeur de démarrage GRUB 2 », Section 14.3 « Configuration du chargeur de démarrage avec YaST »).

Important
Important : RAID 1 logiciel

Le démarrage d'une configuration dans laquelle /boot réside sur un périphérique RAID 1 logiciel est pris en charge, mais nécessite d'installer le chargeur d'amorçage dans le MBR (Emplacement du chargeur d'amorçage › Amorcer à partir du secteur d'amorçage principal). Le répertoire /boot n'est pas pris en charge sur des périphériques RAID logiciels dont le niveau n'est pas RAID 1. Reportez-vous également au Book “Storage Administration Guide”, Chapter 8 “Configuring Software RAID for the Root Partition” (Guide d'administration du stockage de masse, Chapitre 8 « Configuration du RAID logiciel avec la partition racine »).

8.15.3 Sécurité

Les atténuations d'UC font référence aux paramètres de la ligne de commande de démarrage du kernel pour les atténuations logicielles déployées afin d'empêcher les attaques d'UC par canal auxiliaire. Cliquez sur l'entrée sélectionnée pour choisir une autre option. Pour plus de détails, reportez-vous au Book “Administration Guide”, Chapter 14 “The Boot Loader GRUB 2” CPU Mitigations (Guide d'administration, Chapitre 14 « Chargeur de démarrage GRUB 2 » - Atténuations d'UC).

Par défaut, firewalld est activé sur toutes les interfaces réseau configurées. Pour désactiver complètement le pare-feu sur cet ordinateur, cliquez sur Désactiver (déconseillé).

Note
Note : paramètres de pare-feu

Si le pare-feu est activé, toutes les interfaces sont configurées de manière à figurer dans la « Zone externe » (où tous les ports sont fermés par défaut), ce qui garantit un maximum de sécurité. Le seul port que vous pouvez ouvrir au cours de l'installation est le port 22 (SSH), afin d'autoriser l'accès distant. Tous les autres services qui nécessitent un accès réseau (tels que FTP, Samba, Serveur Web, etc.) ne fonctionneront qu'une fois les paramètres du pare-feu correctement configurés. Reportez-vous au Book “Security and Hardening Guide”, Chapter 23 “Masquerading and Firewalls” (Guide de sécurité, Chapitre 17 « Masquage et pare-feu ») pour plus d'informations.

Pour activer l'accès distant via Secure Shell (SSH), assurez-vous que l'option Service SSH est activée et que le Port SSH est ouvert.

Astuce
Astuce : clés d'hôte SSH existantes

Si vous installez SUSE Linux Enterprise Server sur un ordinateur comportant des installations Linux existantes, la procédure d'installation importe une clé d'hôte SSH. Par défaut, elle choisit la clé d'hôte avec l'heure d'accès la plus récente. Voir également Section 8.15.8, « Importation des clés d'hôte SSH et de la configuration ».

Si vous effectuez une administration à distance via VNC, vous pouvez également déterminer si la machine doit être accessible via VNC après l'installation. Notez que lors de l'activation de VNC, vous devez également définir Default systemd Target (Cible systemd par défaut) sur graphique.

8.15.4 Configuration réseau

Cette catégorie contient les paramètres réseau actuels (configurés automatiquement après le démarrage de l'installation, voir Section 8.6) ou configurés manuellement à partir de la boîte de dialogue Enregistrement ou Produits complémentaires au cours des étapes respectives du processus d'installation. Si vous souhaitez vérifier ou ajuster les paramètres réseau à ce stade (avant de procéder à l'installation), cliquez sur Configuration réseau. Vous accédez ainsi au module YaST Paramètres réseau. Pour plus de détails, reportez-vous au Book “Administration Guide”, Chapter 19 “Basic Networking”, Section 19.4 “Configuring a Network Connection with YaST” (Guide d'administration, Chapitre 19 « Mise en réseau de base », Section 19.4 « Configuration d'une connexion réseau avec YaST »).

8.15.5 Kdump

Kdump vous permet d'enregistrer un dump du kernel et analyser ce qui s'est passé (en cas de problème). Utilisez cette boîte de dialogue pour activer et configurer Kdump. Pour plus d'informations, reportez-vous au Book “System Analysis and Tuning Guide”, Chapter 18 “Kexec and Kdump” (Guide d'analyse et de réglage du système, Chapitre 17 « Kexec et Kdump »).

8.15.6 IBM Z : placement des périphériques sur liste noire

Pour économiser de la mémoire, tous les canaux des périphériques qui ne sont pas utilisés sont, par défaut, repris sur une liste noire (chaque canal qui n'est pas placé dans une liste noire occupe environ 50 Ko de mémoire). Pour configurer du matériel supplémentaire sur le système installé à l'aide des canaux placés en liste noire, exécutez le module YaST approprié afin d'activer d'abord les canaux correspondants.

Pour désactiver le placement des canaux en liste noire, cliquez sur Désactiver.

8.15.7 Cible systemd par défaut

SUSE Linux Enterprise Server peut démarrer dans deux cibles différentes (connues précédemment sous le nom de « runlevels »). La cible graphique lance un gestionnaire d'affichage, tandis que la cible multi-utilisateur démarre l'interface de ligne de commande.

La cible par défaut est graphique. Si vous n'avez pas installé les modèles X Window System, vous devez définir la cible sur multi-utilisateur. Si le système doit être accessible via VNC, vous devez choisir l'option graphique.

8.15.8 Importation des clés d'hôte SSH et de la configuration

Si une installation existante de Linux a été détectée sur votre ordinateur, YaST importe la clé d'hôte SSH la plus récente dans /etc/ssh par défaut, éventuellement avec d'autres fichiers inclus dans le répertoire. Cela permet de réutiliser l'identité SSH de l'installation existante, afin d'éviter l'avertissement REMOTE HOST IDENTIFICATION HAS CHANGED (L'IDENTIFICATION DE L'HÔTE DISTANT A ÉTÉ MODIFIÉE) lors de la première connexion. Notez que cet élément ne figure pas dans le résumé de l'installation si YaST n'a pas découvert d'autres installations. Les options proposées sont les suivantes :

I would like to import SSH keys from a previous install: (J'aimerais importer les clés SSH à partir d'une précédente installation :)

Sélectionnez cette option pour importer la clé d'hôte SSH et éventuellement la configuration d'un système installé. Vous pouvez sélectionner l'installation à partir de laquelle effectuer l'importation dans la liste d'option ci-dessous.

Import SSH Configuration (Importer la configuration SSH)

Activez cette option pour copier d'autres fichiers contenus dans /etc/ssh vers le système installé, en plus des clés d'hôte.

8.15.9 Système

Cet écran répertorie toutes les informations matérielles que le programme d'installation a pu obtenir au sujet de votre ordinateur. La détection du matériel est lancée lors de l'ouverture initiale. Selon votre système, cela peut prendre quelques minutes. Pour plus d'informations sur un élément donné, sélectionnez cet élément dans la liste et cliquez sur Détails. Cliquez sur Save to File (Enregistrer dans un fichier) pour enregistrer une liste détaillée sur un système de fichiers local ou sur un périphérique amovible.

Les utilisateurs expérimentés peuvent également modifier la Configuration d'ID PCI et les paramètres du kernel en sélectionnant Paramètres du kernel. Un écran contenant deux onglets est alors affiché.

Configuration des ID PCI

Chaque pilote de kernel contient une liste d'ID de tous les périphériques qu'il prend en charge. Si un nouveau périphérique ne se trouve dans aucune base de données du pilote, le périphérique est considéré comme non pris en charge, même s'il peut être utilisé par un pilote existant. Vous pouvez ajouter des ID PCI ici. Cette opération est toutefois réservée aux utilisateurs expérimentés.

Pour ajouter un ID, cliquez sur Ajouter, puis indiquez si les données doivent être saisies Manuellement ou sélectionnées dans une liste. Entrez les données requises. SysFS Dir est le nom du répertoire provenant de /sys/bus/pci/drivers ; s'il est vide, driver est utilisé. Les entrées existantes peuvent être gérées à l'aide des options Modifier et Supprimer.

Paramètres du kernel

Vous pouvez modifier le Planificateur d'E/S global à cet endroit. Si l'option Non configuré est sélectionnée, le paramètre par défaut de l'architecture correspondante est utilisé. Vous pourrez également modifier ce paramètre ultérieurement à partir du système installé. Pour plus d'informations sur le réglage des E/S, reportez-vous au Book “System Analysis and Tuning Guide”, Chapter 13 “Tuning I/O Performance” (Guide d'analyse et de réglage du système, Chapitre 12 « Réglage des performances E/S »).

Vous pouvez également activer l'option Enable SysRq Keys (Activer les clés SysRq) ici. Ces clés vous permettent également d'émettre des commandes de base (telles qu'un redémarrage du système ou une écriture de dumps de kernel) en cas de crash système. Il est conseillé d'activer ces clés dans le cadre du développement de kernel. Reportez-vous au chapitre https://www.kernel.org/doc/html/latest/admin-guide/sysrq.html pour obtenir des informations détaillées.

8.16 Réalisation de l'installation

Après avoir configuré tous les paramètres d'installation, cliquez sur Installer dans la fenêtre Paramètres d'installation pour commencer l'installation. Des logiciels peuvent nécessiter une confirmation de licence. Si votre sélection de logiciels en inclut, les boîtes de dialogue de confirmation de licence s'affichent. Cliquez sur Accepter pour installer le paquetage logiciel. Si vous n'acceptez pas les conditions d'utilisation de la licence, cliquez sur Je refuse et le paquetage logiciel ne sera pas installé. Dans la boîte de dialogue suivante, confirmez l'installation en cliquant de nouveau sur Installer.

L'installation dure généralement entre 15 et 30 minutes, selon les performances de votre système et les logiciels sélectionnés. Après avoir préparé le disque dur, enregistré et restauré les paramètres utilisateurs, l'installation logicielle commence. Sélectionnez Détails pour basculer vers le journal d'installation ou Notes de version pour lire des informations importantes et à jour qui n'étaient pas disponibles au moment de l'impression des manuels.

Une fois l'installation du logiciel terminée, le système redémarre dans la nouvelle installation, où vous pouvez vous connecter. Pour personnaliser la configuration du système ou installer des paquetages supplémentaires, démarrez YaST.

8.16.1 IBM Z : initialisation IPL du système installé

YaST redémarre généralement sur le système installé sur la plate-forme IBM Z. Il existe toutefois des exceptions : les installations dans lesquelles le chargeur de démarrage est situé sur un périphérique FCP, dans des environnements avec LPAR sur une machine dont la version est antérieure à z196 ou dont la version de z/VM est antérieure à la version 5.4. Dans ces cas-là, le chargeur de démarrage est écrit sur une partition distincte, montée en tant que /boot/zipl/.

Si un redémarrage automatique n'est pas possible, YaST ouvre une boîte de dialogue contenant des informations sur le périphérique à partir duquel un IPL doit être effectué. Acceptez l'option d'arrêt et effectuez un IPL après cet arrêt. La procédure varie selon le type d'installation :

Installation LPAR

Dans la console HMC d'IBM Z, sélectionnez Charger, Effacer, puis entrez l'adresse de chargement (l'adresse du périphérique contenant le répertoire /boot/zipl avec le chargeur de démarrage). Si vous utilisez un disque zFCP comme périphérique de démarrage, sélectionnez Load from SCSI (Charger depuis SCSI) et indiquez l'adresse de chargement de votre adaptateur FCP, du WWPN et du LUN du périphérique de démarrage. À présent, démarrez le processus de chargement.

Installation z/VM

Connectez-vous à la machine virtuelle invitée (voir Exemple 5.1, « Configuration d'un répertoire z/VM » pour la configuration) en tant que LINUX1 et effectuez la procédure IPL sur le système installé :

IPL 151 CLEAR

151 est un exemple d'adresse du périphérique de démarrage DASD. Remplacez cette valeur par la véritable adresse.

Si vous utilisez un disque ZFCP comme périphérique de démarrage, indiquez le WWPN et le LUN zFCP du périphérique en question avant d'initialiser l'IPL. La longueur du paramètre est limitée à huit caractères. Les numéros plus longs doivent être séparés par des espaces :

SET LOADDEV PORT 50050763 00C590A9 LUN 50010000 00000000

Enfin, initialisez l'IPL :

IPL FC00

FC00 est un exemple d'adresse de l'adaptateur zFCP. Remplacez cette valeur par l'adresse correcte.

Installation invité KVM

Une fois l'installation terminée, la machine virtuelle s'arrête. À ce stade, connectez-vous à l'hôte KVM, modifiez le fichier de description de la machine virtuelle, puis redémarrez-la pour exécuter un IPL sur le système installé :

  1. Connectez-vous à l'hôte KVM.

  2. Modifiez le fichier XML de domaine en exécutant la commande

    tux > sudo virsh edit s12-1

    et supprimez les lignes suivantes :

      <!-- Boot kernel - remove 3 lines after successfull installation -->
      <kernel>/var/lib/libvirt/images/s12-kernel.boot</kernel>
      <initrd>/var/lib/libvirt/images/s12-initrd.boot</initrd>
      <cmdline>linuxrcstderr=/dev/console</cmdline>
  3. Redémarrez l'invité de machine virtuelle pour exécuter un IPL sur le système installé :

    tux > sudo virsh start s12-1 --console
Note
Note : le paramètre cio_ignore est désactivé pour les installations KVM

Le paramètre de kernel cio_ignore empêche le kernel de rechercher tous les périphériques matériels disponibles. Toutefois, pour les invités KVM, l'hyperviseur veille déjà à fournir un accès uniquement aux périphériques adéquats. Par conséquent, cio_ignoreest désactivé par défaut lors de l'installation d'un invité KVM (en revanche, pour les installations z/VM et LPAR, il est activé par défaut).

8.16.2 IBM Z : connexion au système installé

Après avoir exécuté un IPL sur le système, établissez une connexion via VNC, SSH ou X pour vous y connecter. Il est conseillé d'utiliser VNC ou SSH. Pour personnaliser la configuration du système ou installer des paquetages supplémentaires, démarrez YaST.

8.16.2.1 Utilisation de VNC pour se connecter

Un message du terminal 3270 vous demande de vous connecter au système Linux en utilisant un client VNC. Toutefois, ce message passe facilement inaperçu, car il est mélangé à des messages de kernel et le processus de terminal peut se terminer avant que vous n'ayez reçu le message. Si rien ne se produit pendant cinq minutes, tentez d'initialiser une connexion au système Linux en utilisant une visionneuse VNC.

Si vous vous connectez en utilisant un navigateur compatible JavaScript, entrez l'URL complète, constituée de l'adresse IP du système installé et du numéro de port, de la façon suivante :

http://IP_OF_INSTALLED_SYSTEM:5801/

8.16.2.2 Utilisation de SSH pour se connecter

Un message du terminal 3270 vous demande de vous connecter au système Linux en utilisant un client SSH. Toutefois, ce message passe facilement inaperçu, car il est mélangé à des messages de kernel et le processus de terminal peut se terminer avant que vous n'ayez pu en avoir connaissance.

Une fois le message affiché, utilisez SSH pour vous connecter au système Linux en tant que root. Si la connexion est refusée ou si elle a expiré, attendez l'expiration du timeout de connexion, puis réessayez (ce délai dépend des paramètres du serveur).

8.16.2.3 Utilisation de X pour se connecter

Lors de l'initialisation IPL du système installé, assurez-vous que le serveur X utilisé pour la première phase de l'installation est prêt et toujours disponible avant de démarrer depuis le DASD. YaST s'ouvre sur ce serveur X pour terminer l'installation. Des complications peuvent survenir si le système est démarré mais qu'il ne peut pas se connecter au serveur X dans les délais.

9 Enregistrement de SUSE Linux Enterprise et gestion des modules/extensions

Pour obtenir un support technique et les mises à jour des produits, vous devez enregistrer et activer SUSE Linux Enterprise Server auprès du SUSE Customer Center. Il est recommandé de vous enregistrer pendant l'installation, car cela vous permettra d'installer le système avec les mises à jour et les correctifs les plus récents. Toutefois, si vous êtes hors ligne ou que vous souhaitez ignorer l'étape d'enregistrement, vous pouvez vous enregistrer à tout moment ultérieurement sur le système installé.

Les modules et les extensions ajoutent des fonctions à votre système et vous permettent de le personnaliser selon de vos besoins. Ces composants doivent également être enregistrés et peuvent être gérés à l'aide de YaST ou des outils de ligne de commande. Pour plus d'informations, reportez-vous également à l'Article “Modules and Extensions Quick Start” (Démarrage rapide des modules et extensions).

Note
Note : compte SUSE

L'enregistrement auprès du SUSE Customer Center requiert un compte SUSE. Si vous ne disposez pas encore de compte SUSE, rendez-vous sur la page d'accueil du SUSE Customer Center (https://scc.suse.com/) pour en créer un.

Astuce
Astuce : annulation de l'enregistrement d'un système

Pour annuler complètement l'enregistrement d'un système, y compris tous les modules et extensions, utilisez l'outil de ligne de commande SUSEConnect. L'annulation de l'enregistrement d'un système supprime son entrée sur le serveur d'enregistrement et supprime également tous les dépôts des modules, des extensions et du produit lui-même.

tux > sudo SUSEConnect -d

9.1 Enregistrement au cours de l'installation

Le moyen le plus simple et recommandé de s'enregistrer consiste à le faire lors de l'installation. Cela vous permettra non seulement d'installer le dernier niveau de correctif de SUSE Linux Enterprise Server, mais vous donne également accès à tous les modules et extensions sans avoir à fournir un support d'installation supplémentaire. Cela s'applique également à tous les modules ou à l'extension que vous installez. Pour plus de détails sur le processus d'enregistrement, reportez-vous à la Section 8.7, « Enregistrement ».

Si le système a été enregistré avec succès lors de l'installation, YaST ajoute des dépôts en ligne fournis par le SUSE Customer Center. Cela évite des problèmes si les sources d'installation locales ne sont plus disponibles et vous permet de toujours obtenir les mises à jour les plus récentes à partir des dépôts en ligne.

9.2 Enregistrement au cours du déploiement automatisé

Si vous déployez vos instances automatiquement à l'aide d'AutoYaST, vous pouvez enregistrer le système pendant l'installation en fournissant les informations correspondantes dans le fichier de contrôle AutoYaST. Reportez-vous au Book “AutoYaST Guide”, Chapter 4 “Configuration and Installation Options”, Section 4.3 “System Registration and Extension Selection” (Guide d'AutoYaST, Chapitre 4 « Options de configuration et d'installation », Section 4.3 « Enregistrement du système et sélection des extensions ») pour obtenir des informations détaillées.

9.3 Enregistrement à partir du système installé

Si vous avez ignoré l'enregistrement lors de l'installation ou si vous souhaitez réenregistrer votre système, vous pouvez le faire à tout moment à l'aide du module YaST Enregistrement de produit ou de l'outil de ligne de commande SUSEConnect.

9.3.1 Enregistrement avec YaST

Pour enregistrer le système, démarrez YaST › Logiciels › Enregistrement du produit. Tout d'abord, enregistrez SUSE Linux Enterprise Server, puis choisissez les modules et extensions que vous souhaitez rendre disponibles.

Important
Important : modules et extensions

Si vous avez installé le système à partir du support SLE-15-SP2-Full-ARCH-GM-media1.iso en ignorant l'enregistrement, assurez-vous d'enregistrer tous les modules et l'extension que vous avez choisis lors de l'installation. Vous recevrez uniquement les mises à jour de sécurité et les correctifs pour les modules et extensions qui ont été enregistrés.

Procédure 9.1 : enregistrement du produit avec YaST
  1. Démarrez YaST › Logiciels › Enregistrement du produit.

    Image
  2. Indiquez l'Adresse électronique associée au compte SUSE que vous ou votre entreprise utilisez pour gérer les abonnements. Entrez également le code d'enregistrement que vous avez reçu avec votre exemplaire de SUSE Linux Enterprise Server.

  3. Par défaut, le système est enregistré auprès du SUSE Customer Center. Passez à l'étape suivante pour procéder à l'enregistrement.

    Si votre entreprise propose des serveurs d'enregistrement locaux, vous pouvez en choisir un dans la liste des serveurs détectés automatiquement ou fournir l'URL dans l'option Enregistrer le système via serveur SMT local.

  4. Sélectionnez Suivant pour lancer la procédure d'enregistrement. SUSE Linux Enterprise Server est enregistré auprès du serveur sélectionné et les dépôts associés sont ajoutés à votre système. La boîte de dialogue Sélection des modules et extensions s'ouvre.

    Image
  5. Sélectionnez tous les modules et extensions que vous souhaitez rendre disponibles sur le système. Vous devez choisir au moins les modules présélectionnés (Module Basesystem et Module Server Applications). Assurez-vous également de choisir les modules ou extensions supplémentaires que vous avez ajoutés lors de l'installation. Notez que toutes les extensions nécessitent des codes d'enregistrement supplémentaires qui peuvent être payants. Cliquez ensuite sur Suivant.

  6. En fonction de votre sélection, vous devrez peut-être accepter maintenant un ou plusieurs contrats de licence. Tous les composants sont enregistrés auprès du serveur sélectionné et les dépôts associés sont ajoutés au système.

  7. Le programme d'installation de paquetage YaST s'ouvre pour installer les paquetages de version pour chaque module et, en fonction de votre sélection de modules et d'extensions, des paquetages supplémentaires. Il est vivement recommandé de ne pas désélectionner un des paquetages présélectionnés. Vous pouvez toutefois ajouter des paquetages supplémentaires.

    Image

    Sélectionnez Accepter et Terminer pour conclure le processus d'enregistrement.

9.3.2 Enregistrement avec SUSEConnect

L'enregistrement du système, ainsi que des modules et extensions, est également possible à partir de la ligne de commande à l'aide de SUSEConnect. Pour plus d'informations qui dépassent le cadre de cette section, reportez-vous à la documentation en ligne à l'aide de man 8 SUSEConnect.

Procédure 9.2 : enregistrement du produit avec SUSEConnect
  1. Pour enregistrer SUSE Linux Enterprise Server auprès du SUSE Customer Center, exécutez SUSEConnect comme suit :

    tux > sudo SUSEConnect -r REGISTRATION_CODE -e EMAIL_ADDRESS

    Pour effectuer l'enregistrement sur un serveur d'enregistrement local, fournissez également l'URL du serveur :

    tux > sudo SUSEConnect -r REGISTRATION_CODE -e EMAIL_ADDRESS \
    --url "https://suse_register.example.com/"

    Remplacez REGISTRATION_CODE (CODE_ENREGISTREMENT) par le code d'enregistrement que vous avez reçu avec votre exemplaire de SUSE Linux Enterprise Server. Remplacez EMAIL_ADDRESS (ADRESSE_ÉLECTRONIQUE) par l'adresse électronique associée au compte SUSE que vous ou votre entreprise utilisez pour gérer les abonnements.

    Ce processus enregistre le Module Basesystem ainsi que le Module Server Applications , et ajoute les dépôts associés à votre système.

  2. SUSE Linux Enterprise Server est désormais enregistré (y compris les deux dépôts par défaut). Si vous voulez enregistrer des modules ou des extensions supplémentaires, procédez comme décrit à la Section 9.4, « Gestion des modules et extensions dans un système en cours d'exécution ».

9.4 Gestion des modules et extensions dans un système en cours d'exécution

Une fois un système installé et enregistré, l'ajout et la suppression de modules et d'extensions sont toujours possibles. Vous pouvez utiliser YaST ou SUSEConnect pour cette tâche. Pour plus d'informations, reportez-vous également à l'Article “Modules and Extensions Quick Start” (Démarrage rapide des modules et extensions).

9.4.1 Ajout de modules et d'extensions à l'aide de YaST

  1. Démarrez YaST › Logiciels › Ajouter des modules ou des extensions système.

    Image
  2. Pour ajouter des modules ou extensions, sélectionnez tous les composants que vous souhaitez installer. Notez que toutes les extensions nécessitent des codes d'enregistrement supplémentaires qui peuvent être payants.

  3. Tous les composants supplémentaires sont enregistrés auprès du serveur d'enregistrement et les dépôts associés sont ajoutés au système.

  4. Le programme d'installation de paquetage YaST s'ouvre pour installer les paquetages de version pour chaque module et, en fonction de votre sélection de modules et d'extensions, des paquetages supplémentaires. Il est vivement recommandé de ne pas désélectionner un des paquetages présélectionnés. Vous pouvez toutefois ajouter des paquetages supplémentaires.

    Choisissez Accepter et Terminer pour conclure le processus.

Astuce
Astuce : dépendances des modules

Tout comme les paquetages logiciels qui peuvent dépendre d'autres paquetages pour fonctionner, un module peut avoir des dépendances envers d'autres modules. Si tel est le cas, les modules dont il dépend sont automatiquement sélectionnés pour l'installation.

9.4.2 Suppression de modules et d'extensions à l'aide de YaST

  1. Démarrez YaST › Logiciels › Produits complémentaires.

    Image
  2. Choisissez le module ou l'extension à supprimer, puis cliquez sur Supprimer. Confirmez le message d'avertissement indiquant que tous les paquetages du composant sélectionné seront supprimés.

  3. Le gestionnaire de logiciels YaST s'ouvre et répertorie tous les paquetages installés à partir de l'extension ou du module supprimé. Cliquez sur Accepter pour les supprimer tous. Il est fortement recommandé de le faire, car vous ne recevrez plus de mises à jour pour les paquetages de modules ou d'extensions supprimées. Dans le cas où vous conservez les paquetages, veillez à supprimer au moins le paquetage *-release pour chaque module ou extension supprimée.

    Cliquez ensuite sur Accepter, puis sur OK.

Avertissement
Avertissement : suppression de modules

Notez que vous ne devez jamais supprimer Basesystem Module. Il est également déconseillé de supprimer Server Applications Module.

Avertissement
Avertissement : aucune mise à jour des paquetages de modules ou d'extensions supprimées

Si vous choisissez de conserver les paquetages de modules ou d'extensions supprimées, vous ne recevrez plus de mises à jour pour ces paquetages. Comme cela inclut les correctifs de sécurité, la conservation de ces paquetages peut introduire un risque de sécurité sur votre système.

9.4.3 Ajout ou suppression de modules et d'extensions avec SUSEConnect

  1. Exécutez SUSEConnect -list-extensions pour obtenir une présentation des extensions disponibles :

    tux > sudo SUSEConnect -list-extensions
    AVAILABLE EXTENSIONS AND MODULES
    
      Basesystem Module 15 SP2 x86_64 (Installed)
      Deactivate with: SUSEConnect -d -p sle-module-basesystem/15.2/x86_64
    
        Containers Module 15 SP2 x86_64
        Activate with: SUSEConnect -p sle-module-containers/15.2/x86_64
    
        Desktop Applications Module 15 SP2 x86_64
        Activate with: SUSEConnect -p sle-module-desktop-applications/15.2/x86_64
    
          Development Tools Module 15 SP2 x86_64
          Activate with: SUSEConnect -p sle-module-development-tools/15.2/x86_64
    
          SUSE Linux Enterprise Workstation Extension 15 SP2 x86_64
          Activate with: SUSEConnect -p sle-we/15.2/x86_64 -r ADDITIONAL REGCODE
    
        SUSE Cloud Application Platform Tools Module 15 SP2 x86_64
        Activate with: SUSEConnect -p sle-module-cap-tools/15.2/x86_64
    
        SUSE Linux Enterprise Live Patching 15 SP2 x86_64
        Activate with:
          SUSEConnect -p sle-module-live-patching/15.2/x86_64 -r ADDITIONAL REGCODE
    
        SUSE Package Hub 15 SP2 x86_64
        Activate with: SUSEConnect -p PackageHub/15.2/x86_64
    
        Server Applications Module 15 SP2 x86_64 (Installed)
        Deactivate with: SUSEConnect -d -p sle-module-server-applications/15.2/x86_64
    
          Legacy Module 15 SP2 x86_64
          Activate with: SUSEConnect -p sle-module-legacy/15.2/x86_64
    
          Public Cloud Module 15 SP2 x86_64
          Activate with: SUSEConnect -p sle-module-public-cloud/15.2/x86_64
    
          SUSE Enterprise Storage 6 x86_64
          Activate with: SUSEConnect -p ses/6/x86_64 -r ADDITIONAL REGCODE
    
          SUSE Linux Enterprise High Availability Extension 15 SP2 x86_64
          Activate with: SUSEConnect -p sle-ha/15.2/x86_64 -r ADDITIONAL REGCODE
    
          Web and Scripting Module 15 SP2 x86_64
          Activate with: SUSEConnect -p sle-module-web-scripting/15.2/x86_64
    
    MORE INFORMATION
    
    You can find more information about available modules here:
    https://www.suse.com/products/server/features/modules.html
  2. Exécutez les commandes de la liste pour activer/désactiver un module ou une extension afin d'ajouter ou de supprimer un composant. Notez que l'ajout d'une extension nécessite des codes d'enregistrement supplémentaires qui peuvent être payants.

Avertissement
Avertissement : suppression de modules

Notez que vous ne devez jamais supprimer Basesystem Module. Il est également déconseillé de supprimer Server Applications Module.

Important
Important : aucune installation/suppression automatisée de paquetages

Lorsque vous utilisez SUSEConnect pour ajouter ou supprimer des modules et des extensions, l'enregistrement de ces composants est annulé et les dépôts ou services respectifs sont supprimés du système. Aucune installation ou suppression de paquetage ne sera effectuée. Si vous souhaitez que cela soit effectué automatiquement, utilisez YaST pour ajouter ou supprimer des modules et des extensions.

Lorsque vous ajoutez un module ou une extension, cela signifie qu'aucune installation automatique des paquetages ou des modèles par défaut n'est effectuée. Vous devez le faire manuellement avec Zypper sur la ligne de commande ou en exécutant YaST › Gestion des logiciels.

Lorsque vous supprimez un module ou une extension, cela signifie qu'aucun nettoyage automatique ne sera effectué. Tous les paquetages appartenant au module ou à l'extension restent installés sur le système, mais ne sont plus associés à un dépôt et ne reçoivent donc plus de mises à jour. Pour supprimer ces paquetages dits « orphelins », utilisez Zypper sur la ligne de commande. zypper packages --orphaned répertorie ces paquetages et zypper remove supprime un ou plusieurs paquetages. Vous pouvez également utiliser YaST › Gestion des logiciels pour répertorier et supprimer des paquetages orphelins.

Avertissement
Avertissement : aucune mise à jour des paquetages de modules ou d'extensions supprimées

Si vous choisissez de conserver les paquetages de modules ou d'extensions supprimées, vous ne recevrez plus de mises à jour pour ces paquetages. Comme cela inclut les correctifs de sécurité, la conservation de ces paquetages peut introduire un risque de sécurité sur votre système.

10 Partitionnement en mode expert

Les configurations système élaborées nécessitent de configurer les disques d'une certaine manière. Toutes les tâches de partitionnement courantes peuvent être effectuées lors de l'installation. Pour obtenir une dénomination persistante avec les périphériques de bloc, utilisez les périphériques situés sous/dev/disk/by-id ou /dev/disk/by-uuid. Conçu pour être bien plus flexible que le partitionnement physique utilisé dans les configurations standard, le modèle LVM (Logical Volume Management - Gestion des volumes logiques) est un modèle de partition de disque. La fonction d'instantané permet de sauvegarder les données en toute simplicité. Le réseau RAID (Redundant Array of Independent Disks - Réseau redondant de disques indépendants) offre une intégrité, des performances et une tolérance aux pannes accrues des données. SUSE Linux Enterprise Server (SLES) prend également en charge l'option Multipath I/O (voir le Book “Storage Administration Guide”, Chapter 18 “Managing Multipath I/O for Devices” [Guide d'administration du stockage, Chapitre 17 « Gestion de l'option Multipath I/O pour les périphériques »] pour plus de détails). Il est également possible d'utiliser iSCSI comme disque en réseau (pour plus d'informations sur iSCSI, voir le Book “Storage Administration Guide”, Chapter 15 “Mass Storage over IP Networks: iSCSI” [Guide d'administration du stockage, Chapitre 14 « Stockage de masse sur les réseaux IP : iSCSI »]).

Avertissement
Avertissement : unités d'espace disque

Notez qu'à des fins de partitionnement, l'espace disque est mesuré en unités binaires plutôt qu'en unités décimales. Par exemple, si vous spécifiez la taille de 1 Go, 1 Gio ou 1 G, cela correspond à 1 Gio (gibioctet), et non à 1 Go (gigaoctet).

Binaire

1 Gio = 1 073 741 824 octets.

Décimal

1 Go = 1 000 000 000 octets.

Différence

1 Gio ≈ 1,07 Go.

10.1 Utilisation de l'outil Partitionnement en mode expert

L'outil Partitionnement en mode expert, illustré à la Figure 10.1, « Outil de partitionnement de YaST », permet de modifier manuellement le partitionnement d'un ou de plusieurs disques durs. Vous pouvez ajouter, supprimer, redimensionner et modifier les partitions ou accéder à la configuration logicielle RAID et LVM.

Avertissement
Avertissement : repartitionnement du système en cours d'exécution

S'il est possible de repartitionner un système en cours d'exécution, le risque de commettre une erreur qui engendrerait une perte de données est très important. Évitez de repartitionner un système installé et si vous devez vraiment le faire, sauvegardez par avance toutes vos données.

Outil de partitionnement de YaST
Figure 10.1 : Outil de partitionnement de YaST
Astuce
Astuce : IBM Z : noms des périphériques

IBM Z reconnaît uniquement les disques durs DASD et SCSI. Les disques durs IDE ne sont pas pris en charge. Pour cette raison, ces périphériques apparaissent dans la table de partition au format de fichier dasda ou sda pour le premier périphérique reconnu.

Toutes les partitions existantes ou proposées de tous les disques durs connectés sont affichées dans la liste de l'Espace de stockage disponible de la boîte de dialogue Partitionnement en mode expert de YaST. Les disques durs complets sont répertoriés sous forme de périphériques sans numéros, tels que /dev/sda (ou /dev/dasda). Les partitions sont répertoriées comme des parties de ces périphériques, par exemple /dev/sda1 (ou /dev/dasda1, respectivement). La taille, le type, l'état de codage, le système de fichiers et le point de montage des disques durs et de leurs partitions sont également affichés. Le point de montage indique l'emplacement où la partition apparaît dans l'arborescence du système de fichiers Linux.

La vue système sur la gauche propose plusieurs vues fonctionnelles. Utilisez ces vues pour collecter des informations sur les configurations de stockage existantes, pour configurer des fonctions (comme RAID, Gestion des volumes, Fichiers de codage) ou pour afficher des systèmes de fichiers avec des fonctionnalités supplémentaires comme BTRFS, NFS ou TMPFS.

Si vous ouvrez cette boîte de dialogue au cours de l'installation, l'espace disque libre est également répertorié et automatiquement sélectionné. Pour fournir plus d'espace disque à SUSE Linux Enterprise Server, libérez l'espace requis en partant du bas vers le haut dans la liste des partitions.

10.1.1 Tables de partitions

SUSE Linux Enterprise Server permet d'utiliser et de créer différentes tables de partitions. Dans certains cas, la table de partitions est appelée étiquette de disque. La table de partitions est importante pour le processus de démarrage de votre ordinateur. Pour démarrer votre machine à partir d'une partition dans une table de partitions qui vient d'être créée, assurez-vous que le format de table est pris en charge par le microprogramme.

Pour changer de table de partitions, cliquez sur le nom du disque approprié dans la Vue système, puis sélectionnez Expert › Créer une nouvelle table de partitions.

10.1.1.1 Secteur d'amorçage principal

Le secteur d'amorçage principal (MBR, Master Boot Record) est la table de partitions héritée utilisée sur des PC IBM. Elle est parfois appelée table de partitions MS-DOS. MBR prend uniquement en charge quatre partitions principales. Si le disque comporte déjà une table MBR, SUSE Linux Enterprise Server permet de créer des partitions supplémentaires qui peuvent être utilisées comme cible d'installation.

La limite de quatre partitions peut être évitée en créant une partition étendue. La partition étendue elle-même est une partition principale et peut contenir plusieurs partitions logiques.

Le microprogramme UEFI prend généralement en charge le démarrage à partir d'une table MBR en mode hérité.

10.1.1.2 Table de partitions GPT

Les ordinateurs UEFI utilisent une table de partitions de GUID (GPT, GUID Partition Table) par défaut. SUSE Linux Enterprise Server créera une table de partitions GPT sur un disque si aucune autre table de partitions n'existe.

L'ancien microprogramme BIOS ne prend pas en charge le démarrage à partir de partitions GPT.

Vous avez besoin d'une table de partitions GPT pour utiliser l'une des fonctions suivantes :

  • Plus de quatre partitions principales

  • Démarrage sécurisé UEFI

  • Utilisation de disques supérieurs à 2 To

Note
Note : partitions créées avec Parted 3.1 ou version antérieure mal étiquetées

Les partitions GPT créées avec Parted 3.1 ou version antérieure utilisaient le type de partition de données de base de Microsoft plutôt que le GUID GPT propre à Linux plus récent. Les versions plus récentes de Parted définiront l'indicateur erroné msftdata sur ces partitions. En outre, divers outils de disque étiquetteront la partition en tant que partition de données Windows ou similaire.

Pour supprimer l'indicateur, exécutez :

root # parted DEVICE set PARTITION_NUMBER msftdata off

10.1.1.3 Tables de partitions sur IBM Z

Sur les plates-formes IBM Z, SUSE Linux Enterprise Server prend en charge tant les disques durs SCSI que les périphériques de stockage à accès direct (DASD). Si les disques SCSI peuvent être partitionnés comme indiqué ci-dessus, les DASD ne peuvent pas avoir plus de trois entrées de partition dans leurs tables de partitions.

10.1.2 Partitions

L'outil de partitionnement YaST peut créer et formater des partitions avec plusieurs systèmes de fichiers. Le système de fichiers par défaut utilisé par SUSE Linux Enterprise Server est Btrfs. Pour plus de détails, reportez-vous à la Section 10.1.2.2, « Partitionnement Btrfs ».

D'autres systèmes de fichiers couramment utilisés sont disponibles : Ext2, Ext3, Ext4, FAT, XFS, Swap et UDF.

10.1.2.1 Création d'une partition

Pour créer une partition, sélectionnez Disques durs, puis un disque dur avec de l'espace disponible. La modification peut être effectuée dans l'onglet Partitions :

  1. Cliquez sur Ajouter pour créer une partition. Lorsque vous utilisez une partition MBR, spécifiez qu'il est nécessaire de créer une partition principale ou étendue. Au sein de la partition étendue, vous pouvez créer plusieurs partitions logiques. Pour plus de détails, reportez-vous à la Section 10.1.1, « Tables de partitions ».

  2. Spécifiez la taille de la nouvelle partition. Vous pouvez choisir d'occuper tout l'espace disque non partitionné ou de spécifier une taille personnalisée.

  3. Sélectionnez le système de fichiers à utiliser et un point de montage. YaST propose un point de montage pour chaque partition créée. Pour utiliser une méthode de montage différente, comme le montage par étiquette, sélectionnez Options Fstab.

  4. Indiquez des options de système de fichiers supplémentaires si votre configuration l'exige. Cette étape est nécessaire si vous avez besoin de noms de périphériques permanents, par exemple. Pour plus de détails sur les options disponibles, reportez-vous à la Section 10.1.3, « Modification d'une partition ».

  5. Cliquez sur Terminer pour appliquer la configuration du partitionnement et quitter le module.

    Si vous avez créé la partition lors de l'installation, vous revenez à l'écran de présentation de l'installation.

10.1.2.2 Partitionnement Btrfs

Le système de fichiers par défaut pour la partition racine est Btrfs. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper” (Guide d'administration, Chapitre 7 « Récupération système et gestion des instantanés avec Snapper ») et au Book “Storage Administration Guide”, Chapter 1 “Overview of File Systems in Linux” (Guide d'administration du stockage, Chapitre 1 « Présentation des systèmes de fichiers dans Linux »). Le système de fichiers racine est le sous-volume par défaut et il n'est pas répertorié dans la liste des sous-volumes créés. En tant que sous-volume Btrfs par défaut, il peut être monté comme système de fichiers normal.

Important
Important : Btrfs sur une partition racine chiffrée

La configuration par défaut du partitionnement suggère une partition racine de type Btrfs et /boot comme répertoire. Pour chiffrer la partition racine, assurez-vous d'utiliser le type de table de partitions GPT au lieu du type MSDOS par défaut. Dans le cas contraire, le chargeur d'amorçage GRUB2 risque de ne pas disposer de suffisamment d'espace pour celui nécessaire à la deuxième étape.

Il est possible de créer des instantanés de sous-volumes Btrfs, manuellement ou automatiquement, selon les événements système. Par exemple, lorsque vous modifiez le système de fichiers, zypper appelle la commande snapper afin de créer des instantanés avant et après le changement. Cela se révèle particulièrement utile si la modification effectuée par zypper ne vous convient pas et si vous souhaitez revenir à l'état précédent. Étant donné que snapper appelé par zypper crée des instantanés du système de fichiers racine par défaut, il est judicieux d'exclure des répertoires spécifiques des instantanés. C'est la raison pour laquelle YaST propose de créer les sous-volumes distincts suivants :

/boot/grub2/i386-pc, /boot/grub2/x86_64-efi, /boot/grub2/powerpc-ieee1275, /boot/grub2/s390x-emu

Un retour à l'état initial de la configuration du chargeur de démarrage n'est pas pris en charge. Les répertoires ci-dessus sont spécifiques à l'architecture. Les deux premiers répertoires sont présents sur les machines AMD64/Intel 64, les deux derniers respectivement sur IBM POWER et IBM Z.

/home

Si le répertoire /home ne réside pas sur une partition distincte, il est exclu pour éviter les pertes de données lors des retours à l'état initial.

/opt

Les produits tiers sont généralement installés sous /opt. Ce répertoire est exclu pour éviter la désinstallation de ces applications lors des retours à l'état initial.

/srv

Contient des données pour les serveurs Web et FTP. Il est exclu pour éviter les pertes de données lors des retours à l'état initial.

/tmp

Tous les répertoires contenant des fichiers temporaires et des caches sont exclus des instantanés.

/usr/local

Ce répertoire est utilisé lors de l'installation manuelle de logiciels. Il est exclu pour éviter la désinstallation de ces applications lors des retours à l'état initial.

/var

Ce répertoire contient de nombreux fichiers de variables, tels que des journaux, des caches temporaires, des produits tiers dans /var/opt, et est l'emplacement par défaut des images et des bases de données de machines virtuelles. Par conséquent, ce sous-volume est créé pour exclure toutes les données de variables des instantanés et a sa fonction « Copy-On-Write » (Copie sur écriture) désactivée.

Astuce
Astuce : taille de la partition Btrfs

Étant donné que les instantanés enregistrés nécessitent davantage d'espace disque, il est recommandé de réserver suffisamment d'espace pour Btrfs. La taille suggérée pour une partition Btrfs racine avec les sous-volumes proposés est de 20 Go.

10.1.2.3 Gestion de sous-volumes Btrfs à l'aide de YaST

Les sous-volumes d'une partition Btrfs peuvent désormais être gérés avec le module Partitionnement en mode expert de YaST. Vous pouvez ajouter de nouveaux sous-volumes ou des sous-volumes existants.

Procédure 10.1 : Sous-volumes Btrfs avec YaST
  1. Démarrez le module Partitionnement en mode expert de YaST à l'aide de Système › Partitionneur.

  2. Sélectionnez Btrfs dans le volet Vue système de gauche.

  3. Sélectionnez la partition Btrfs dont vous souhaitez gérer les sous-volumes et cliquez ensuite sur Modifier.

  4. Cliquez sur Traitement du sous-volume. La liste de tous les sous-volumes existants de la partition Btrfs sélectionnée est alors affichée. Il existe plusieurs entrées @/.snapshots/xyz/snapshot ; chacun de ces sous-volumes appartient à un seul instantané existant.

  5. Procédez comme suit selon que vous souhaitez ajouter ou supprimer des sous-volumes :

    1. Pour supprimer un sous-volume, sélectionnez-le dans la liste des Sous-volumes existants, puis cliquez sur Supprimer.

    2. Pour ajouter un nouveau sous-volume, entrez son nom dans la zone de texte Nouveau sous-volume, puis cliquez sur Ajouter un nouvel élément.

      Sous-volumes Btrfs dans le partitionneur YaST
      Figure 10.2 : Sous-volumes Btrfs dans le partitionneur YaST
  6. Confirmez en sélectionnant OK et Terminer.

  7. Pour quitter le partitionneur, cliquez sur Terminer.

10.1.3 Modification d'une partition

Lorsque vous créez une nouvelle partition ou que vous modifiez une partition existante, vous pouvez définir différents paramètres. Pour les nouvelles partitions, les paramètres par défaut définis par YaST sont généralement suffisants et ne nécessitent aucune modification. Pour modifier manuellement la configuration de votre partition, procédez de la façon suivante :

  1. Sélectionnez la partition.

  2. Cliquez sur Éditer pour modifier la partition et fixer les paramètres :

    ID du système de fichiers

    Même si vous ne souhaitez pas formater la partition à ce stade, affectez-lui un ID de système de fichiers pour vous assurer que la partition est convenablement mémorisée. Les valeurs types sont Linux, Linux swap, Linux LVM et Linux RAID.

    Système de fichiers

    Pour modifier le système de fichiers de la partition, cliquez sur Formater la partition et sélectionnez le type de système de fichiers dans la liste Système de fichiers.

    SUSE Linux Enterprise Server prend en charge plusieurs types de systèmes de fichiers. Btrfs est le système de fichiers Linux privilégié pour la partition racine en raison de ses fonctionnalités avancées. Il prend en charge la fonctionnalité de copie sur écriture, la création d'instantanés, la distribution multi-périphérique, les sous-volumes et autres techniques utiles. XFS, Ext3 et JFS sont des systèmes de fichiers de journalisation. Ces systèmes de fichiers peuvent restaurer le système très rapidement après un crash système en utilisant les processus d'écriture consignés en cours de fonctionnement. Ext2 n'est pas un système de fichiers de journalisation, mais convient pour les partitions plus petites car il requiert peu d'espace disque pour la gestion.

    Le système de fichiers par défaut pour la partition racine est Btrfs. Ce système est XFS pour les partitions supplémentaires.

    Le système de fichiers UDF peut être utilisé sur des supports optiques réinscriptibles et non réinscriptibles, des clés USB à mémoire flash et des disques durs. Il est pris en charge par de nombreux systèmes d'exploitation.

    Swap est un format spécial permettant d'utiliser la partition comme mémoire virtuelle. Créez une partition Swap d'au moins 256 Mo. Toutefois, si vous utilisez tout votre espace d'échange, pensez à ajouter de la mémoire à votre système plutôt que davantage d'espace d'échange.

    Avertissement
    Avertissement : changement du système de fichiers

    Le changement de système de fichiers et le reformatage de partitions effacent irrémédiablement toutes les données de la partition.

    Pour plus de détails sur les différents systèmes de fichiers, reportez-vous au Storage Administration Guide (Guide d'administration du stockage).

    Codage du périphérique

    Si vous activez le codage, toutes les données seront écrites sur le disque dur sous forme codée. Cela accroît la sécurité des données sensibles, mais ralentit le système en raison du temps requis par le codage. Pour plus d'informations sur le codage des systèmes de fichiers, reportez-vous au Book “Security and Hardening Guide”, Chapter 12 “Encrypting Partitions and Files” (Guide de sécurité, Chapitre 12 « Chiffrement des partitions et des fichiers »).

    Point de montage

    Définissez le répertoire au niveau duquel la partition doit être montée dans l'arborescence du système de fichiers. Sélectionnez l'une des propositions de YaST ou entrez un autre nom.

    Options Fstab

    Définissez les divers paramètres compris dans le fichier d'administration du système de fichiers global (/etc/fstab). Les paramètres par défaut doivent convenir à la plupart des configurations. Vous pouvez, par exemple, modifier l'identification du système de fichiers et passer d'un nom de périphérique à une étiquette de volume. Pour l'étiquette de volume, vous pouvez utiliser tous les caractères à l'exception de la barre oblique (/) et de l'espace.

    Pour obtenir des noms de périphériques permanents, utilisez l'option de montage Device ID , UUID (Identifiant unique universel) ou LABEL. Dans SUSE Linux Enterprise Server, les noms de périphérique permanents sont activés par défaut.

    Note
    Note : IBM Z : montage par chemin

    Sur les plates-formes IBM Z, le montage par ID est problématique en cas de copie disque à disque à des fins de clonage. Pour ces plates-formes, les périphériques sont donc, par défaut, montés par chemin à l'emplacement /etc/fstab.

    Si vous préférez monter la partition par son étiquette, vous devez en définir une dans l'entrée de texte Étiquette de volume. Vous pouvez, par exemple, utiliser l'étiquette de partition HOME pour une partition à monter sur /home.

    Si vous prévoyez d'utiliser des quotas sur le système de fichiers, utilisez l'option de montage Activer la prise en charge des quotas. Vous devez activer cette option pour pouvoir définir des quotas utilisateur dans le module YaST Gestion des utilisateurs. Pour plus d'informations sur la configuration des quotas utilisateurs, reportez-vous à la Section 22.3.3, « Gestion des quotas ».

  3. Sélectionnez Terminer pour enregistrer les modifications.

Note
Note : redimensionnement des systèmes de fichiers

Pour redimensionner un système de fichiers existant, sélectionnez la partition et cliquez sur Redimensionner. Souvenez-vous qu'il est impossible de redimensionner une partition déjà montée. Pour redimensionner une partition, vous devez la démonter avant d'exécuter l'outil de partitionnement.

10.1.4 Options avancées

Après avoir sélectionné un disque dur (comme sda) dans le volet Vue système, vous pouvez accéder au menu Expert en bas à droite de la fenêtre Partitionnement en mode expert. Le menu contient les options suivantes :

Créer une nouvelle table de partition

Cette option permet de créer une nouvelle table de partition sur le périphérique sélectionné.

Avertissement
Avertissement : création d'une nouvelle table de partition

La création d'une nouvelle table de partition sur un périphérique supprime définitivement toutes les partitions et leurs données du périphérique.

Cloner ce disque

Cette option vous permet de cloner la disposition de la partition du périphérique (et non les données) sur d'autres disques disponibles.

10.1.5 Options avancées

Après avoir sélectionné le nom d'hôte de l'ordinateur (niveau supérieur de l'arborescence dans le volet Vue Système), vous pouvez accéder au menu Configurer situé dans la partie inférieure droite de la fenêtre Partitionneur en mode expert. Le menu contient les options suivantes :

Configurer iSCSI

Pour accéder à SCSI sur les périphériques de bloc IP, vous devez d'abord configurer iSCSI. Cela entraîne l'affichage de périphériques disponibles supplémentaires dans la liste de la partition principale.

Configurer multipath

Cette option permet de configurer l'amélioration multipath vers les périphériques de stockage de masse pris en charge.

10.1.6 Autres conseils de partitionnement

Cette section présente quelques conseils et astuces sur le partitionnement qui vous aideront à prendre les bonnes décisions lors de la configuration de votre système.

10.1.6.1 Nombre de cylindres

Des outils de partition différents peuvent compter les cylindres d'une partition en commençant par 0 ou par 1. Pour calculer le nombre de cylindres, calculez la différence entre le dernier et le premier numéros de cylindre, puis ajoutez 1.

10.1.6.2 Utilisation d'espace d'échange (swap)

L'espace d'échange (swap) est utilisé pour augmenter la mémoire physique disponible. Ainsi, il est possible d'utiliser davantage de mémoire que la mémoire physique RAM disponible. Jusqu'à la version 2.4.10, le système de gestion de la mémoire des kernels exigeait de l'espace d'échange pour des raisons de sécurité. Si vous n'aviez pas deux fois plus d'espace d'échange que de RAM, les performances du système en pâtissaient. Ces limitations ne sont plus d'actualité.

Linux utilise une page appelée « La moins récemment utilisée » (LRU) pour sélectionner les pages à déplacer de la mémoire vers le disque. Par conséquent, les applications en cours d'exécution disposent de plus de mémoire disponible et la mise en cache fonctionne mieux.

Si une application tente d'allouer autant de mémoire qu'elle peut en obtenir, des problèmes d'espace d'échange surviendront. Il existe trois cas principaux :

Système sans espace d'échange

L'application se dote de toute la mémoire qui peut être libérée. Tous les caches sont libérés, donc toutes les autres applications en cours d'exécution sont ralenties. Après quelques minutes, le mécanisme OOM Killer (qui supprime les processus utilisant trop de mémoire) du kernel s'active et supprime le processus.

Système avec espace d'échange moyen (128 à 512 Mo)

Le système est d'abord ralenti, comme un système sans espace d'échange. Une fois que toute la RAM physique a été utilisée, il passe sur l'espace d'échange. À ce moment, le système est très lent et il est impossible d'exécuter des commandes à distance. Il reste dans cet état pendant 10 à 15 minutes (selon la vitesse des disques durs qui exécutent l'espace mémoire d'échange) jusqu'à ce que l'outil OOM Killer du kernel résolve le problème. Vous aurez besoin d'une quantité relativement importante d'espace d'échange si l'ordinateur doit effectuer une « Hibernation » (sauvegarde du contenu de la mémoire vive sur le disque dur). Dans ce cas, l'espace d'échange doit être assez important pour contenir les données de la mémoire (512 Mo à 1 Go).

Système avec grand espace de swap (plusieurs gigaoctets)

Dans ce cas, il est préférable de ne pas avoir d'application non contrôlée qui effectue frénétiquement des échanges. Si ce problème survient, le système mettra plusieurs heures à retrouver son état normal. D'autres processus risquent de subir des défaillances et délais d'attente importants, donc de quitter le système dans un état non défini, même si le processus défectueux est arrêté. Dans ce cas, éteignez, puis rallumez la machine et essayez de la faire fonctionner à nouveau. Un grand volume d'espace d'échange est inutile, sauf si une application nécessite cette configuration. Les applications concernées (notamment les bases de données ou les programmes de manipulation d'images) bénéficient souvent d'une option qui permet d'utiliser directement l'espace de disque dur dont elles ont besoin. Il est recommandé de tirer parti de cette option plutôt que d'utiliser beaucoup d'espace d'échange.

Si votre système est sous contrôle mais s'il a besoin de plus d'espace d'échange après quelque temps, vous pouvez augmenter l'espace d'échange en ligne. Si vous avez préparé une partition pour l'espace d'échange, ajoutez-la à l'aide de YaST. Si vous ne disposez d'aucune partition disponible, vous pouvez également utiliser un fichier d'échange pour augmenter l'espace d'échange. Ces fichiers sont généralement plus lents que les partitions, mais par rapport à la mémoire RAM physique, ces deux types d'éléments sont lents et la différence est négligeable.

Procédure 10.2 : Ajout manuel d'un fichier d'échange

Pour ajouter un fichier d'échange sur un système en cours d'exécution, procédez de la façon suivante :

  1. Créez un fichier vide sur votre système. Par exemple, pour ajouter à /var/lib/swap/swapfile un fichier d'échange de 128 Mo, utilisez les commandes suivantes :

    tux > sudo mkdir -p /var/lib/swap
    tux > sudo dd if=/dev/zero of=/var/lib/swap/swapfile bs=1M count=128
  2. Initialisez ce fichier d'échange grâce à la commande suivante :

    tux > sudo mkswap /var/lib/swap/swapfile
    Note
    Note : UUID modifié pour les partitions d'échange lors de leur formatage à l'aide de mkswap

    Si possible, évitez de reformater les partitions d'échange existantes avec mkswap. Le reformatage avec mkswap modifie la valeur UUID de la partition d'échange. Vous pouvez reformater via YaST (ce qui mettra à jour/etc/fstab) ou ajuster l'emplacement /etc/fstab manuellement.

  3. Activez le fichier d'échange grâce à la commande :

    tux > sudo swapon /var/lib/swap/swapfile

    Pour désactiver ce fichier d'échange, utilisez la commande suivante :

    tux > sudo swapoff /var/lib/swap/swapfile
  4. Vérifiez les espaces d'échange disponibles actuellement grâce à la commande :

    tux > cat /proc/swaps

    À ce stade, il ne s'agit que d'espace d'échange temporaire. Après le prochain redémarrage, il ne sera plus utilisé.

  5. Pour activer ce fichier d'échange de façon permanente, ajoutez à /etc/fstab la ligne suivante :

    /var/lib/swap/swapfile swap swap defaults 0 0

10.1.7 Partitionnement et LVM

Depuis le partitionneur expert, accédez à la configuration LVM en cliquant sur l'option Gestion du volume dans le volet Vue Système. Cependant, si une configuration LVM fonctionnelle existe déjà sur votre système, celle-ci s'active automatiquement dès que vous entrez pour la première fois en mode de configuration LVM au cours d'une session. Dans ce cas, aucun disque contenant une partition (appartenant à un groupe de volumes activé) ne peut être repartitionné. En effet, le kernel Linux ne peut pas lire la table de partition modifiée d'un disque dur si une partition du disque est en cours d'utilisation. Si vous disposez déjà d'une configuration LVM fonctionnelle sur votre système, aucun repartitionnement physique ne devrait être nécessaire. Modifiez plutôt la configuration des volumes logiques.

Au début de chaque volume physique, des informations sur le volume sont écrites dans la partition. Pour réutiliser une partition de ce type avec un gestionnaire différent de LVM, il est conseillé de supprimer le début de ce volume. Par exemple, avec le groupe de volumes system et le volume physique /dev/sda, utilisez la commande 2 :

dd if=/dev/zero of=/dev/sda2 bs=512 count=1
Avertissement
Avertissement : système de fichiers pour le démarrage

Le système de fichiers utilisé pour le démarrage (système de fichiers root ou /boot) ne doit pas être stocké sur un volume logique LVM. Stockez-le plutôt sur une partition physique normale.

Pour plus de détails sur LVM, reportez-vous au Book “Storage Administration Guide” (Guide d'administration du stockage).

10.2 Configuration de LVM

Cette section explique les étapes spécifiques à effectuer lors de la configuration de LVM. Si vous avez besoin d'informations sur le Gestionnaire de volumes logiques en général, reportez-vous au Book “Storage Administration Guide”, Chapter 5 “LVM Configuration”, Section 5.1 “Understanding the Logical Volume Manager”.

Avertissement
Avertissement : sauvegarde des données

L'utilisation de LVM peut induire une augmentation des risques, notamment en ce qui concerne la perte de données. Mais les risques comprennent également le crash des applications, les pannes de courant ou les commandes défectueuses. Aussi, avant d'implémenter LVM ou de reconfigurer des volumes, enregistrez vos données. Ne travaillez jamais sans avoir au préalable fait une sauvegarde.

Pour configurer LVM avec YaST, utilisez le partitionnement en mode expert de YaST (voir Section 10.1, « Utilisation de l'outil Partitionnement en mode expert ») dans Gestion du volume du volet Vue système. L'outil de partitionnement en mode expert permet de modifier et de supprimer des partitions existantes, mais également d'en créer de nouvelles, destinées à être utilisées avec LVM.

10.2.1 Création d'un volume physique

La première tâche à accomplir consiste à créer des volumes physiques qui fournissent de l'espace à un groupe de volumes :

  1. Sélectionnez un disque dur dans Disques durs.

  2. Placez-vous sur l'onglet Partitions.

  3. Cliquez sur Ajouter et indiquez la taille du PV souhaitée sur le disque.

  4. Cliquez sur Ne pas formater la partition et remplacez l'ID du système de fichiers par 0x8E Linux LVM. Ne montez pas cette partition.

  5. Répétez cette procédure jusqu'à ce que vous ayez défini tous les volumes physiques souhaités sur les disques disponibles.

10.2.2 Création de groupes de volumes

Si votre système ne comprend aucun groupe de volumes, vous devrez en ajouter un (reportez-vous à la Figure 10.3, « Création d'un groupe de volumes »). Il est possible de créer des groupes supplémentaires en cliquant sur l'option Gestion du volume du volet Vue système, puis sur Ajouter un groupe de volumes. En règle générale, un seul groupe de volumes suffit.

  1. Entrez un nom pour le VG, par exemple système.

  2. Sélectionnez la Taille des étendues physiques souhaitée. Cette valeur définit la taille d'un bloc physique dans un groupe de volumes. Tout l'espace disque d'un groupe de volumes est géré par l'intermédiaire de blocs de cette taille.

  3. Ajoutez les PV préparés au VG en sélectionnant le périphérique, puis en cliquant sur Ajouter. Vous pouvez sélectionner plusieurs périphériques à la fois. Pour ce faire, appuyez sur Ctrl tout en sélectionnant les périphériques.

  4. Sélectionnez Terminer pour que le groupe de volumes soit disponible lors des prochaines étapes de la configuration.

Création d'un groupe de volumes
Figure 10.3 : Création d'un groupe de volumes

Si plusieurs groupes de volumes sont définis et si vous souhaitez ajouter ou supprimer des PV, sélectionnez le groupe de volumes dans la liste Gestion du volume, puis cliquez sur Redimensionner. Le fenêtre suivante permet d'ajouter ou de supprimer des PV dans le groupe de volumes sélectionné.

10.2.3 Configuration des volumes logiques

Une fois le groupe de volumes peuplé de volumes physiques, définissez les volumes logiques que le système d'exploitation doit utiliser dans la boîte de dialogue suivante. Choisissez le groupe de volumes actuel et accédez à l'onglet Volumes logiques. Utilisez les options Ajouter, Modifier, Redimensionner et Supprimer des volumes logiques si nécessaire, jusqu'à épuisement de l'espace du groupe de volumes. Assignez au moins un LV à chaque groupe de volumes.

Gestion des volumes logiques
Figure 10.4 : Gestion des volumes logiques

Cliquez sur Ajouter et placez-vous sur la fenêtre contextuelle qui s'ouvre (elle ressemble à un assistant) :

  1. Entrez le nom du LV. Pour une partition à monter dans /home, vous pouvez utiliser un nom tel que HOME.

  2. Sélectionnez le type du volume logique. Il peut s'agir de Volume normal, Pool à allocation dynamique ou Volume à allocation dynamique. Notez que vous devez d'abord créer un pool à allocation dynamique, lequel peut stocker des volumes à allocation dynamique. L'allocation fine et dynamique présente un avantage de taille : la somme totale de tous les volumes à allocation dynamique stockés dans un pool de ce type peut, en effet, dépasser la taille du pool proprement dit.

  3. Sélectionnez la taille et le nombre de segments du LV. Si vous n'avez qu'un seul PV, il est inutile de sélectionner plusieurs segments.

  4. Choisissez le système de fichiers à utiliser sur le volume logique, ainsi que le point de montage.

L'utilisation de segments permet de distribuer le flux de données du LV parmi plusieurs PV (segmentation). Toutefois, la segmentation d'un volume ne peut être exécutée que sur des PV différents, chacun d'entre eux disposant au moins de l'espace du volume. Le nombre maximum de blocs est égal au nombre de PV, avec le bloc 1 signifiant « pas de segmentation ». La segmentation n'est utile que si les PV se trouvent sur différents disques durs, faute de quoi les performances risquent de s'affaiblir.

Avertissement
Avertissement : segmentation

À ce stade, YaST ne peut pas vérifier l'exactitude de vos entrées relatives à la segmentation. Toute erreur à ce stade ne sera visible qu'au moment de l'implémentation de LVM sur le disque.

Si vous avez déjà configuré LVM sur votre système, vous pouvez également utiliser les volumes logiques existants. Avant de poursuivre, assignez à ces volumes logiques les points de montage appropriés. Cliquez sur Terminer pour revenir au partitionnement en mode expert de YaST et terminer vos opérations grâce à cet outil.

10.3 Soft RAID

Cette section décrit les opérations requises pour créer et configurer les différents types de RAID. Si vous avez besoin d'informations de base sur RAID, reportez-vous au Book “Storage Administration Guide”, Chapter 7 “Software RAID Configuration”, Section 7.1 “Understanding RAID Levels” (Guide d'administration du stockage, Chapitre 7 « Configuration du RAID logiciel », Section 7.1 « Explication des niveaux RAID »).

10.3.1 Configuration de Soft RAID

Pour configurer RAID avec YaST, utilisez l'outil de partitionnement en mode expert de YaST, décrit à la Section 10.1, « Utilisation de l'outil Partitionnement en mode expert ». Cet outil de partitionnement permet de modifier et de supprimer des partitions existantes, et d'en créer de nouvelles pour les utiliser avec Soft RAID :

  1. Sélectionnez un disque dur dans Disques durs.

  2. Placez-vous sur l'onglet Partitions.

  3. Cliquez sur Ajouter et indiquez la taille de la partition RAID souhaitée sur ce disque.

  4. Cliquez sur Ne pas formater la partition et remplacez l'ID du système de fichiers par 0xFD Linux RAID. Ne montez pas cette partition.

  5. Répétez cette procédure jusqu'à ce que vous ayez défini tous les volumes physiques souhaités sur les disques disponibles.

Pour RAID 0 et RAID 1, au moins deux partitions sont nécessaires ; pour RAID 1, vous devez même en avoir exactement deux, pas plus. Si vous utilisez RAID 5, vous devez disposez d'au moins trois partitions, et pour RAID 6 et RAID 10, il vous en faut au minimum quatre. Il est recommandé d'utiliser des partitions de même taille. Les partitions RAID doivent être situées sur des disques durs différents afin de diminuer le risque de perte de données au cas où l'une des partitions serait défectueuse (RAID 1 et 5) et afin d'optimiser les performances de RAID 0. Après avoir créé toutes les partitions à utiliser avec RAID, cliquez sur RAID › Ajouter un RAID pour démarrer la configuration de RAID.

Dans la boîte de dialogue suivante, choisissez entre les niveaux RAID 0, 1, 5, 6 ou 10. Sélectionnez ensuite toutes les partitions de type « Linux RAID » ou « Linux native » que doit utiliser le système RAID. Aucune partition d'échange ou DOS n'est affichée.

Partitions RAID
Figure 10.5 : Partitions RAID

Pour ajouter une partition non assignée au volume RAID sélectionné, cliquez d'abord sur la partition, puis sur Ajouter. Assignez toutes les partitions réservées pour RAID. Sinon, l'espace de ces partitions reste inutilisé. Après avoir assigné toutes les partitions, cliquez sur Suivant pour sélectionner les Options RAID disponibles.

Au cours de dernière étape, définissez le système de fichiers à utiliser, le chiffrement et le point de montage du volume RAID. Une fois la configuration terminée (cliquez sur Terminer), vous pouvez voir le périphérique /dev/md0, ainsi que les autres, signalés par RAID dans l'outil Partitionnement en mode expert.

10.3.2 Dépannage

Reportez-vous au fichier /proc/mdstat pour savoir si une partition RAID a été endommagée. En cas de défaillance système, arrêtez votre système Linux et remplacez le disque dur défectueux par un nouveau disque partitionné de la même manière. Redémarrez ensuite votre système et entrez la commande mdadm /dev/mdX --add /dev/sdX. Remplacez « X » par vos identificateurs de périphérique. Cette commande intègre automatiquement le nouveau disque dur sur le système RAID et le reconstruit complètement.

Bien que vous puissiez accéder à toutes les données lors de la reconstruction, vous rencontrerez peut-être des problèmes de performances jusqu'à ce que le RAID soit complètement reconstruit.

10.3.3 Complément d'informations

Pour des instructions de configuration, ainsi que d'autres détails sur Soft RAID, consultez les ressources suivantes :

Des listes de diffusion concernant Linux RAID sont disponibles, notamment à l'adresse http://marc.info/?l=linux-raid.

11 Installation à distance

L'installation de SUSE® Linux Enterprise Server peut être entièrement effectuée sur le réseau. Ce chapitre décrit comment fournir l'environnement requis pour démarrer, installer et contrôler l'installation par l'intermédiaire du réseau.

11.1 Présentation

Pour une installation à distance, vous devez savoir comment démarrer et comment contrôler l'installation ainsi que la source des données d'installation. Toutes les options disponibles peuvent être combinées entre elles si elles sont disponibles pour votre plate-forme matérielle.

Méthode de démarrage

Selon le matériel, plusieurs options permettent de démarrer un système. Les options courantes sont DVD, lecteur USB ou démarrage PXE. Pour plus d'informations sur votre plate-forme, reportez-vous à la Partie I, « Préparation de l'installation ».

Pour configurer un serveur en vue du démarrage via PXE, reportez-vous au Chapitre 17, Préparation de l'environnement de démarrage réseau.

Source des données

Le plus souvent, les DVD ou les lecteurs USB sont utilisés comme source d'installation de SUSE Linux Enterprise Server (SLES). Il est également possible d'utiliser les serveurs d'installation. Dans ce cas, utilisez le paramètre de démarrage install pour spécifier la source. Pour plus d'informations, reportez-vous à la Section 7.3.3, « Spécification de la source d'installation ».

Pour utiliser une source réseau pour l'installation, préparez un serveur comme indiqué dans le Chapitre 16, Configuration d'une source d'installation réseau.

Contrôle de l'installation

Au lieu d'utiliser un clavier et un moniteur directement connectés à la machine cible, l'installation peut être contrôlée via SSH, VNC ou à l'aide de la console série d'une machine. Cette procédure est décrite à la Section 11.3, « Contrôle de l'installation via VNC », la Section 11.4, « Contrôle de l'installation via SSH » et la Section 11.5, « Surveillance de l'installation avec une console série ».

Au lieu de contrôler manuellement l'installation, AutoYaST peut être utilisé pour automatiser le processus d'installation. Pour plus d'informations, reportez-vous au Book “AutoYaST Guide”.

11.2 Scénarios d'installation à distance

Cette section présente les scénarios d'installation à distance les plus courants. Pour chaque scénario, vérifiez soigneusement la liste des conditions préalables et suivez la procédure correspondante. Si vous avez besoin d'instructions détaillées pour une étape précise, cliquez sur les liens fournis à cet effet.

11.2.1 Installation à partir d'un support source via VNC

Ce type d'installation nécessite toujours un certain niveau d'accès physique au système cible pour démarrer l'installation. L'installation est contrôlée par un poste de travail distant qui utilise VNC pour se connecter au programme d'installation. Une intervention de l'utilisateur est nécessaire, comme pour l'installation manuelle décrite dans le Chapitre 8, Procédure d'installation.

Pour ce type d'installation, assurez-vous de respecter les exigences suivantes :

  • Système cible avec connexion réseau établie.

  • Système de contrôle avec connexion réseau établie et logiciel de visualisation VNC ou navigateur compatible JavaScript (Firefox, Chromium, Internet Explorer, Opera, etc.).

  • DVD ou clé USB à mémoire flash d'installation.

Pour effectuer ce type d'installation, procédez de la façon suivante :

  1. Démarrez le système cible à l'aide du support d'installation (clé USB à mémoire flash) du kit de supports SUSE Linux Enterprise Server.

  2. Lorsque l'écran de démarrage du système cible apparaît, utilisez l'invite de paramètres de démarrage pour définir les options VNC et, si nécessaire, la configuration réseau statique. Pour plus d'informations sur les paramètres de démarrage, reportez-vous au Chapitre 7, Paramètres de démarrage.

    1. Paramètres de démarrage d'une configuration réseau statique :

      netdevice=NETDEVICE hostip=IP_ADDRESS netmask=NETMASK gateway=IP_GATEWAY vnc=1 VNCPassword=PASSWORD
    2. Paramètres de démarrage d'une configuration réseau (DHCP) dynamique :

      vnc=1 VNCPassword=PASSWORD
  3. Le système cible démarre dans un environnement texte, qui indique l'adresse réseau et le numéro d'affichage grâce auxquels toute application de visualisation VNC ou tout navigateur peut contacter l'environnement d'installation graphique. Les installations VNC s'annoncent sur OpenSLP de manière autonome si les paramètres de pare-feu les autorisent. L'outil slptool permet de les rechercher comme le décrit la Section 11.3.1, « Préparation de l'installation VNC ».

  4. Sur le poste de travail de contrôle, ouvrez une application de visualisation VNC ou un navigateur Web et connectez-vous au système cible, comme décrit à la Section 11.3, « Contrôle de l'installation via VNC ».

  5. Effectuez l'installation en suivant la procédure décrite au Chapitre 8, Procédure d'installation.

  6. Reconnectez-vous au système cible après son redémarrage pour effectuer la configuration initiale du système. Pour plus de détails, reportez-vous à la Partie V, « Configuration initiale du système ».

11.2.2 Installation à partir du réseau via VNC

Ce type d'installation ne nécessite pas d'interaction directe avec la machine cible. Le système est démarré via PXE, et les données d'installation sont extraites d'un serveur.

Pour effectuer ce type d'installation, assurez-vous de respecter les contraintes suivantes :

  • Au moins une machine qui peut être utilisée l'installation d'un serveur DHCP, NFS, HTTP, FTP, TFTP ou SMB.

  • Système cible, branché et connecté au réseau, compatible avec le démarrage PXE, la prise en charge réseau et la fonction Wake on LAN.

  • Système de contrôle avec connexion réseau opérationnelle et logiciel de visualisation VNC ou navigateur compatible JavaScript (Firefox, Chromium, Microsoft Edge, Opera, etc.).

Pour effectuer ce type d'installation, procédez de la façon suivante :

  1. Configurez le serveur qui contient les données d'installation. Pour plus de détails, reportez-vous à la Partie IV, « Configuration d'un serveur d'installation ».

  2. Configurez un serveur DHCP et TFTP sur le réseau. Cette procédure est décrite au Chapitre 17, Préparation de l'environnement de démarrage réseau. Ajoutez les paramètres de démarrage requis pour activer le serveur VNC.

  3. Activez le démarrage PXE dans le microprogramme de la machine cible. Pour plus d'informations, reportez-vous à la Section 17.4, « Préparation du système cible pour le démarrage PXE ».

  4. Lancez le processus de démarrage du système cible à l'aide de la fonction Wake on LAN. Cela est décrit à la Section 17.6, « Wake on LAN ».

  5. Sur le poste de travail de contrôle, ouvrez une application de visualisation VNC ou un navigateur Web et connectez-vous au système cible, comme décrit à la Section 11.3, « Contrôle de l'installation via VNC ».

  6. Effectuez l'installation en suivant la procédure décrite au Chapitre 8, Procédure d'installation.

  7. Reconnectez-vous au système cible après son redémarrage pour effectuer la configuration initiale du système. Pour plus de détails, reportez-vous à la Partie V, « Configuration initiale du système ».

11.2.3 Installation à partir d'un support source via SSH

Ce type d'installation nécessite toujours un certain niveau d'accès physique au système cible pour démarrer l'installation et déterminer l'adresse IP de la cible d'installation. L'installation même est entièrement contrôlée à partir d'un poste de travail distant qui utilise le protocole SSH pour se connecter au programme d'installation. Une intervention de l'utilisateur est nécessaire, comme pour l'installation standard décrite dans le Chapitre 8, Procédure d'installation.

Pour ce type d'installation, assurez-vous de respecter les exigences suivantes :

  • Système cible avec connexion réseau établie.

  • Système de contrôle doté d'une connexion réseau établie et d'un logiciel client SSH fonctionnel.

  • DVD ou clé USB à mémoire flash d'installation.

Pour effectuer ce type d'installation, procédez de la façon suivante :

  1. Configurez la cible d'installation et le serveur d'installation comme décrit dans la Partie IV, « Configuration d'un serveur d'installation ».

  2. Démarrez le système cible à l'aide du support d'installation (clé USB à mémoire flash) du kit de supports SUSE Linux Enterprise Server.

  3. Lorsque l'écran de démarrage du système cible apparaît, utilisez l'invite de paramètres de démarrage pour définir les options de SSH et, si nécessaire, la configuration réseau statique. Pour plus d'informations sur les paramètres de démarrage, reportez-vous au Chapitre 7, Paramètres de démarrage.

    1. Paramètres de démarrage d'une configuration réseau statique :

      netdevice=NETDEVICE hostip=IP_ADDRESS netmask=NETMASK gateway=IP_GATEWAY ssh=1 ssh.password=PASSWORD
    2. Paramètres de démarrage d'une configuration réseau (DHCP) dynamique :

      ssh=1 ssh.password=PASSWORD
  4. Le système cible démarre dans un environnement texte, qui indique l'adresse réseau grâce à laquelle tout client SSH peut contacter l'environnement d'installation graphique.

  5. Sur le poste de travail de contrôle, ouvrez une fenêtre de terminal et connectez-vous au système cible, comme décrit à la Section 11.4.2, « Connexion au programme d'installation ».

  6. Effectuez l'installation en suivant la procédure décrite au Chapitre 8, Procédure d'installation.

  7. Reconnectez-vous au système cible après son redémarrage pour effectuer la configuration initiale du système. Pour plus de détails, reportez-vous à la Partie V, « Configuration initiale du système ».

11.2.4 Installation à partir du réseau via SSH

Ce type d'installation ne nécessite pas d'interaction directe avec la machine cible. Le système est démarré via PXE, et les données d'installation sont extraites d'un serveur.

Pour effectuer ce type d'installation, assurez-vous de respecter les contraintes suivantes :

  • Au moins une machine qui peut être utilisée l'installation d'un serveur DHCP, NFS, HTTP, FTP, TFTP ou SMB.

  • Système cible, branché et connecté au réseau, compatible avec le démarrage PXE, la prise en charge réseau et la fonction Wake on LAN.

  • Système de contrôle doté d'une connexion réseau opérationnelle et d'un logiciel de visualisation SSH.

Pour effectuer ce type d'installation, procédez de la façon suivante :

  1. Configurez le serveur qui contient les données d'installation. Pour plus de détails, reportez-vous à la Partie IV, « Configuration d'un serveur d'installation ».

  2. Configurez un serveur DHCP et TFTP sur le réseau. Cette procédure est décrite au Chapitre 17, Préparation de l'environnement de démarrage réseau. Ajoutez les paramètres de démarrage requis pour activer le serveur SSH.

  3. Activez le démarrage PXE dans le microprogramme de la machine cible. Pour plus d'informations, reportez-vous à la Section 17.4, « Préparation du système cible pour le démarrage PXE ».

  4. Lancez le processus de démarrage du système cible à l'aide de la fonction Wake on LAN. Cela est décrit à la Section 17.6, « Wake on LAN ».

  5. Sur le poste de travail de contrôle, ouvrez un logiciel client SSH et connectez-vous au système cible, comme décrit à la Section 11.4, « Contrôle de l'installation via SSH ».

  6. Effectuez l'installation en suivant la procédure décrite au Chapitre 8, Procédure d'installation.

  7. Reconnectez-vous au système cible après son redémarrage pour effectuer la configuration initiale du système. Pour plus de détails, reportez-vous à la Partie V, « Configuration initiale du système ».

11.3 Contrôle de l'installation via VNC

À l'aide d'un logiciel de visualisation VNC, vous pouvez contrôler à distance l'installation de SUSE Linux Enterprise Server à partir de presque n'importe quel système d'exploitation. Cette section vous explique comment effectuer une configuration à l'aide d'une application de visualisation VNC ou d'un navigateur Web.

11.3.1 Préparation de l'installation VNC

Pour activer VNC sur la cible d'installation, spécifiez les paramètres de démarrage appropriés lors du démarrage initial pour l'installation (reportez-vous au Chapitre 7, Paramètres de démarrage). Le système cible démarre dans un environnement texte et attend qu'un client VNC se connecte au programme d'installation.

Le programme d'installation annonce l'adresse IP et le numéro d'affichage nécessaires à l'établissement d'une connexion pour l'installation. Si vous disposez d'un accès physique au système cible, ces informations sont fournies juste après le démarrage du système en vue de l'installation. Entrez ces informations à l'invite du logiciel client VNC et fournissez votre mot de passe VNC.

Comme la cible d'installation s'annonce via OpenSLP, vous pouvez récupérer les informations d'adresse de la cible d'installation via un navigateur SLP. Il n'y a aucun besoin de contact physique avec la cible d'installation elle-même à condition que votre configuration réseau et toutes les machines prennent en charge OpenSLP :

Procédure 11.1 : Localisation des installations VNC via OpenSLP
  1. Pour obtenir une liste complète des services proposant VNC, entrez la commande slptool findsrvtypes | grep vnc. Les cibles d'installation de VNC doivent être disponibles sous un service intitulé YaST.installation.suse.

  2. Exécutez la commande slptool findsrvs YaST.installation.suse pour obtenir une liste des installations disponibles. Utilisez l'adresse IP et le port (généralement 5901) fourni avec votre logiciel de visualisation VNC.

11.3.2 Connexion au programme d'installation

Il existe deux méthodes pour se connecter à un serveur VNC (la cible d'installation, dans le cas présent). Vous pouvez démarrer une application de visualisation VNC distincte sur n'importe quel système d'exploitation ou vous connecter à l'aide d'un navigateur Web compatible avec JavaScript.

À l'aide de VNC, vous pouvez contrôler l'installation d'un système Linux à partir de tout autre système d'exploitation (notamment d'autres versions de Linux, Windows ou Mac OS).

Sur une machine Linux, assurez-vous que le paquetage tightvnc est installé. Sur une machine Windows, installez le port Windows de cette application ; il est disponible sur la page d'accueil de TightVNC (http://www.tightvnc.com/download.html).

Pour vous connecter au programme d'installation qui s'exécute sur la machine cible, procédez de la façon suivante :

  1. Démarrez la visionneuse VNC.

  2. Entrez l'adresse IP et le numéro d'affichage de la cible d'installation, tels qu'ils sont fournis par le navigateur SLP ou le programme d'installation :

    IP_ADDRESS:DISPLAY_NUMBER

    Une fenêtre apparaît sur votre bureau ; elle affiche les écrans YaST de la même manière que pour une installation locale standard.

Lorsque vous utilisez un navigateur Web pour vous connecter au programme d'installation, vous n'avez plus besoin d'un logiciel VNC ou du système d'exploitation sous-jacent. Tant que l'application du navigateur est activée pour le support JavaScript, vous pouvez utiliser le navigateur de votre choix (Firefox, Internet Explorer, Chromium, Opera, etc.) pour effectuer l'installation sur votre système Linux.

Notez que la connexion VNC du navigateur n'est pas chiffrée.

Pour effectuer une installation VNC, procédez de la façon suivante :

  1. Lancez le navigateur Web souhaité.

  2. Entrez la ligne suivante à l'invite de saisie d'adresse :

    http://IP_ADDRESS_OF_TARGET:5801
  3. Entrez votre mot de passe VNC lorsque vous y êtes invité. La fenêtre du navigateur affiche à présent les écrans YaST, comme pour une installation locale standard.

11.4 Contrôle de l'installation via SSH

Grâce à SSH, vous pouvez contrôler à distance l'installation de votre machine Linux à l'aide du logiciel client SSH.

11.4.1 Préparation de l'installation SSH

Hormis l'installation du paquetage logiciel requis (OpenSSH pour Linux et PuTTY pour Windows), vous devez spécifier les options de démarrage correspondantes afin d'activer SSH pour l'installation. Reportez-vous au Chapitre 7, Paramètres de démarrage pour plus d'informations. OpenSSH est installé par défaut sur tout système d'exploitation SUSE Linux.

11.4.2 Connexion au programme d'installation

Après avoir démarré l'installation SSH, utilisez cette procédure pour vous connecter à la session SSH.

  1. Récupérez l'adresse IP de la cible d'installation. Si vous disposez d'un accès physique à la machine cible, utilisez l'adresse IP que la routine d'installation fournit dans la console après le démarrage initial. Prenez sinon l'adresse IP qui a été attribuée à cet hôte précis lors de la configuration du serveur DHCP.

  2. Sur la ligne de commande, entrez la commande suivante :

    ssh -X root@TARGET_IP_ADDRESS

    Remplacez ADRESSE_IP_CIBLE par l'adresse IP réelle de la cible d'installation.

  3. Lorsque vous êtes invité à saisir un nom d'utilisateur, entrez root.

  4. Lorsque vous y êtes invité, entrez le mot de passe qui a été défini avec le paramètre de démarrage SSH. Une fois l'authentification réussie, une invite de ligne de commande pour la cible d'installation apparaît.

  5. Entrez yast pour lancer le programme d'installation. Une fenêtre apparaît ; elle affiche les écrans YaST standard, tels qu'ils sont décrits dans le Chapitre 8, Procédure d'installation.

11.5 Surveillance de l'installation avec une console série

Pour cette méthode d'installation, vous avez besoin d'un deuxième ordinateur, connecté par un câble modem nul à l'ordinateur sur lequel vous installez SUSE Linux Enterprise Server. Le matériel et les microprogrammes des deux machines doivent prendre en charge la console série. Certaines implémentations de microprogrammes sont déjà configurées pour envoyer la sortie de la console de démarrage à une console série (en fournissant une arborescence de périphériques dont le chemin /chosen/stdout est défini de manière appropriée). Dans ce cas, aucune configuration supplémentaire n'est requise.

Si le microprogramme n'utilise pas la console série pour la sortie de la console de démarrage, définissez le paramètre de démarrage suivant pour l'installation : console=TTY,BAUDRATE. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 14 “The Boot Loader GRUB 2”, Section 14.2.5 “Editing menu entries during the boot procedure” (Guide d'administration, Chapitre 14 « Chargeur de démarrage GRUB 2 », Section 14.2.5 « Modification des entrées de menu lors de la procédure de démarrage ») et au Chapitre 7, Paramètres de démarrage.

BAUDRATE doit être remplacé par le débit en bauds pour l'interface. Les valeurs valides sont 115200, 38400 ou 9600. TTY doit être remplacé par le nom de l'interface. La plupart des ordinateurs comptent une ou plusieurs interfaces série. Les noms des interfaces peuvent varier en fonction du matériel:

  • ttyS0 pour APM

  • ttyAMA0 pour une architecture SBSA (Server Base System Architecture)

  • ttyPS0 pour Xilinx

Pour l'installation, vous avez besoin d'un programme de terminal tel que minicom ou screen. Pour initialiser la connexion série, lancez l'application Screen (Écran) dans une console locale en entrant la commande suivante :

tux > screen /dev/ttyUSB0 115200

Cela signifie que l'écran reçoit les données du premier port série avec un débit de 115 200 bauds. À partir de maintenant, l'installation est semblable à l'installation en mode texte sur ce terminal.

12 Dépannage

Cette section met en évidence certains problèmes typiques que vous pouvez rencontrer pendant l'installation et elle propose des solutions possibles ou des solutions de contournement.

12.1 Vérification des supports

Si vous rencontrez des problèmes lors de l'utilisation des supports d'installation de SUSE Linux Enterprise Server, vérifiez l'intégrité de ceux-ci. Démarrez le système à partir du support, puis choisissez Plus › Vérifier le support d'installation dans le menu de démarrage. Un système minimal démarre et vous permet de choisir le périphérique à vérifier. Sélectionnez le périphérique correspondant, puis confirmez en cliquant sur OK pour effectuer la vérification.

Dans un système en cours d'exécution, démarrez YaST et choisissez Logiciel › Vérification des supports. Insérez le support, puis cliquez sur Démarrer la vérification. La vérification peut prendre plusieurs minutes.

Si des erreurs sont détectées au cours de l'opération, n'utilisez pas le support en question pour l'installation. Des problèmes de support peuvent se produire, par exemple, si vous avez gravé celui-ci vous-même sur un DVD. La gravure du support à basse vitesse (4x) permet d'éviter les problèmes.

12.2 Pas de lecteur de démarrage disponible

Si votre ordinateur ne peut pas démarrer à partir d'un lecteur USB ou DVD, vous avez plusieurs possibilités. Cela vaut également si votre lecteur n'est pas pris en charge par SUSE Linux Enterprise Server.

Utilisation d'une clé USB à mémoire flash ou d'un lecteur de DVD externe

Linux prend en charge la plupart des lecteurs de clé USB à mémoire flash ou de DVD existants. Si le système ne possède pas de lecteur de DVD ou de clé USB à mémoire flash, il est toujours possible de le démarrer à l'aide d'un lecteur externe, connecté via USB, FireWire ou SCSI. Une mise à jour du microprogramme peut parfois vous aider en cas de problème.

Démarrage réseau via PXE

Si une machine n'a pas de lecteur de clé USB à mémoire flash ni de lecteur de DVD, mais dispose d'une connexion Ethernet opérationnelle, effectuez l'installation complète par le réseau. Pour plus de détails, reportez-vous à la Section 11.2.2, « Installation à partir du réseau via VNC » et à la Section 11.2.4, « Installation à partir du réseau via SSH ».

Lecteur Flash USB

Vous pouvez utiliser une clé USB si votre machine ne dispose pas d'un lecteur de DVD et d'une connexion réseau. Pour plus de détails, reportez-vous au:

12.3 Échec du démarrage à partir du support d'installation

Un paramètre incorrect dans la séquence de démarrage du BIOS fait partie des raisons pour lesquelles une machine ne démarre pas le support d'installation. Dans la séquence de démarrage du BIOS, le lecteur de clé USB à mémoire flash ou de DVD doit être défini comme première entrée pour le démarrage. Sinon, la machine va tenter de démarrer à partir d'un autre support, généralement le disque dur. Vous trouverez des instructions pour changer la séquence de démarrage du microprogramme dans la documentation fournie avec votre carte mère ou dans les paragraphes qui suivent.

Le BIOS est le logiciel qui active les fonctions les plus basiques de l'ordinateur. Les fournisseurs de cartes mères fournissent un BIOS spécifiquement adapté à leur matériel. Normalement, la configuration du BIOS n'est accessible qu'à un moment donné : lors du démarrage de la machine. Durant cette phase d'initialisation, la machine effectue plusieurs tests de diagnostic du matériel. L'un d'entre eux est la vérification de la mémoire, indiquée par un compteur mémoire. Lorsque le compteur apparaît, recherchez la ligne, généralement sous le compteur ou quelque part en bas, indiquant la touche sur laquelle appuyer pour accéder à la configuration du BIOS. La touche à actionner est généralement Suppr, F1 ou Esc. Appuyez sur cette touche jusqu'à ce que l'écran de configuration du BIOS apparaisse.

Procédure 12.1 : Modification de la séquence de démarrage du BIOS
  1. Appuyez sur la touche indiquée par les routines de démarrage pour entrer dans le BIOS et attendez que l'écran du BIOS apparaisse.

  2. Pour changer la séquence de démarrage dans un BIOS AWARD, recherchez l'entrée BIOS FEATURES SETUP. D'autres fabricants le désignent différemment, par exemple ADVANCED CMOS SETUP. Lorsque vous avez trouvé l'entrée, sélectionnez-la et confirmez-la en appuyant sur Entrée.

  3. Dans l'écran qui s'ouvre, recherchez la sous-entrée BOOT SEQUENCE ou BOOT ORDER. Modifiez les paramètres en appuyant sur Page ↑ ou Page ↓ jusqu'à ce que le lecteur de clé USB à mémoire flash ou de DVD soit répertorié en premier.

  4. Quittez l'écran de configuration du BIOS en appuyant sur Esc. Pour enregistrer les modifications, sélectionnez SAVE & EXIT SETUP (Enregistrer et quitter la configuration) ou appuyez sur F10. Pour confirmer l'enregistrement de vos paramètres, appuyez sur Y.

Procédure 12.2 : Changement de la séquence de démarrage dans un BIOS SCSI (adaptateur hôte Adaptec)
  1. Appuyez sur CtrlA afin d'ouvrir la configuration.

  2. Sélectionnez Disk Utilities (Utilitaires de disque). Les composants matériels connectés sont à présent affichés.

    Prenez note de l'ID SCSI de votre lecteur de clé USB à mémoire flash ou de DVD.

  3. Cliquez sur Esc pour fermer le menu.

  4. Ouvrez Configure Adapter Settings (Configurer les paramètres de l'adaptateur). Sous Additional Options (Options complémentaires), sélectionnez Boot Device Options (Options du périphérique de démarrage) et appuyez sur Entrée.

  5. Saisissez l'ID du lecteur de clé USB à mémoire flash ou de DVD, puis appuyez à nouveau sur Entrée.

  6. Appuyez deux fois sur Esc pour revenir à l'écran de lancement du BIOS SCSI.

  7. Quittez cet écran et confirmez avec Oui pour démarrer l'ordinateur.

Quelles que soient la langue et la configuration du clavier utilisées par votre installation finale, la plupart des configurations de BIOS utilisent la configuration américaine du clavier représentée dans la figure suivante :

Configuration américaine du clavier
Figure 12.1 : Configuration américaine du clavier

12.4 Échec de démarrage

Certains types de matériels, principalement s'ils sont très anciens ou très récents, échouent lors du démarrage. Cela peut être dû à l'absence de prise en charge du matériel dans le kernel d'installation ou à des pilotes qui engendrent des problèmes sur certains matériels spécifiques.

Si l'installation de votre système échoue avec le mode d'installation standard du premier écran de démarrage de l'installation, essayez les opérations suivantes :

  1. Laissez le support d'installation dans le lecteur et redémarrez la machine à l'aide de CtrlAltSuppr ou en utilisant le bouton de réinitialisation du matériel.

  2. Lorsque l'écran de démarrage apparaît, appuyez sur F5, utilisez les touches fléchées de votre clavier pour naviguer jusqu'à Aucune ACPI et appuyez sur Entrée pour lancer le processus de démarrage et d'installation. Cette option désactive la prise en charge des techniques de gestion d'énergie ACPI.

  3. Poursuivez l'installation comme décrit dans le Chapitre 8, Procédure d'installation.

En cas d'échec, procédez comme ci-dessus, mais choisissez Paramètres sécurisés à la place. Cette option désactive la prise en charge ACPI et DMA. La plupart des matériels démarreront avec cette option.

Si ces deux options échouent, utilisez l'invite des paramètres de démarrage pour transmettre les paramètres supplémentaires nécessaires à la prise en charge de ce type de matériel sur le kernel d'installation. Pour plus d'informations concernant les paramètres disponibles comme paramètres de démarrage, reportez-vous à la documentation du kernel dans le fichier /usr/src/linux/Documentation/kernel-parameters.txt.

Astuce
Astuce : obtention de la documentation du kernel

Installez le paquetage kernel-source pour consulter la documentation du kernel.

D'autres paramètres de kernel associés à l'interface ACPI peuvent être saisis à l'invite de démarrage avant de démarrer l'installation :

acpi=off

Ce paramètre désactive le sous-système ACPI complet sur votre ordinateur. Cela peut être utile si votre ordinateur ne peut pas gérer l'interface ACPI ou si vous pensez que celle-ci est à l'origine de problèmes sur votre ordinateur.

acpi=force

Active toujours l'interface ACPI même si votre ordinateur est doté d'un BIOS antérieur à l'an 2000. Ce paramètre active également l'interface ACPI si la configuration comporte la définition acpi=off.

acpi=noirq

N'utilisez pas ACPI pour le routage IRQ.

acpi=ht

Exécutez suffisamment d'ACPI pour activer l'hyper-threading.

acpi=strict

Soyez moins tolérant vis-à-vis des plates-formes qui ne respectent pas les spécifications ACPI de façon stricte.

pci=noacpi

Désactive le routage PCI IRQ du nouveau système ACPI.

pnpacpi=off

Cette option est prévue pour les problèmes en série ou parallèles lorsque votre configuration du BIOS contient des interruptions ou des ports incorrects.

notsc

Désactive le compteur du tampon horaire. Cette option peut être utilisée pour résoudre les problèmes de synchronisation de vos systèmes. Cette fonctionnalité est récente, par conséquent, si vous constatez des régressions sur votre machine, en particulier temporelles, voire des blocages, cette option vaut la peine d'être essayée.

nohz=off

Désactive la fonction nohz. Si votre machine se bloque, cette option peut être utile. Dans le cas contraire, elle est inutile.

Lorsque vous avez déterminé la bonne combinaison de paramètres, YaST les écrit automatiquement dans la configuration du programme de démarrage pour s'assurer que le système démarrera correctement la prochaine fois.

Si des erreurs inexplicables se produisent lors du chargement du kernel ou lors de l'installation, sélectionnez Test de mémoire dans le menu de démarrage pour vérifier la mémoire. Si Test de mémoire renvoie une erreur, il s'agit en général d'une erreur de matériel.

12.5 Échec de lancement du programme d'installation graphique

Lorsque vous insérez le support dans le lecteur et redémarrez la machine, l'écran d'installation s'ouvre, mais après que vous ayez sélectionné Installation, le programme d'installation graphique ne démarre pas.

Il existe plusieurs manières de résoudre cette situation :

  • Essayez de sélectionner une autre résolution d'écran pour les boîtes de dialogue de l'installation.

  • Sélectionnez le Mode texte pour l'installation.

  • Effectuez une installation à distance via VNC en utilisant le programme d'installation graphique.

Procédure 12.3 : Modification de la résolution de l'écran pour l'installation
  1. Démarrez l'installation.

  2. Appuyez sur F3 afin d'ouvrir un menu dans lequel vous sélectionnez une résolution plus faible pour l'installation.

  3. Sélectionnez Installation et poursuivez l'installation comme décrit au Chapitre 8, Procédure d'installation.

Procédure 12.4 : Installation en mode texte
  1. Démarrez l'installation.

  2. Appuyez sur F3 et sélectionnez Mode texte.

  3. Sélectionnez Installation et poursuivez l'installation comme décrit au Chapitre 8, Procédure d'installation.

Procédure 12.5 : Installation VNC
  1. Démarrez l'installation.

  2. Saisissez le texte suivant à l'invite des paramètres de démarrage :

    vnc=1 vncpassword=SOME_PASSWORD

    Remplacez SOME_PASSWORD (UN_MOT_DE_PASSE) par le mot de passe à utiliser pour l'installation de VNC.

  3. Sélectionnez Installation, puis appuyez sur Entrée pour lancer l'installation.

    Au lieu de démarrer directement avec la procédure d'installation graphique, le système continue de s'exécuter en mode texte. Le système s'arrête alors, affichant un message qui contient l'adresse IP et le numéro de port grâce auxquels il est possible d'accéder au programme d'installation via une interface de navigateur ou une application de visualisation VNC.

  4. Si vous utilisez un navigateur pour accéder au programme d'installation, lancez-le et saisissez les informations d'adresse fournies par les routines d'installation de la future machine SUSE Linux Enterprise Server, puis cliquez sur Entrée :

    http://IP_ADDRESS_OF_MACHINE:5801

    Une boîte de dialogue s'ouvre dans la fenêtre du navigateur et vous invite à fournir le mot de passe VNC. Saisissez-le et poursuivez l'installation comme décrit au Chapitre 8, Procédure d'installation.

    Important
    Important : prise en charge multi plate-forme

    L'installation via VNC fonctionne avec n'importe quel navigateur sur n'importe quel système d'exploitation, pourvu que la prise en charge Java soit activée.

    Fournissez l'adresse IP et le mot de passe à votre application de visualisation VNC lorsque vous y êtes invité. Une fenêtre s'ouvre et affiche les boîtes de dialogue de l'installation. Poursuivez l'installation comme d'habitude.

12.6 Lancement d'un écran de démarrage minimal

Vous avez inséré le support dans le lecteur, les routines du BIOS sont terminées, mais le système ne se lance pas avec l'écran de démarrage graphique. À la place, il lance une interface texte minimale. Cela peut se produire sur n'importe quelle machine ne disposant pas de la mémoire graphique suffisante pour afficher un écran de démarrage graphique.

Bien que l'interface texte de l'écran de démarrage semble minimaliste, elle fournit presque les mêmes fonctionnalités que l'interface graphique :

Options de démarrage

Contrairement à l'interface graphique, les différents paramètres de démarrage ne peuvent pas être sélectionnés en utilisant les touches de curseur de votre clavier. Le menu de démarrage de l'écran de démarrage en mode texte offre des mots clés à saisir à l'invite de démarrage. Ces mots clés correspondent aux options fournies dans la version graphique. Saisissez votre choix et appuyez sur Entrée pour lancer le processus de démarrage.

Options de démarrage personnalisées

Après avoir sélectionné un paramètre de démarrage, saisissez le mot clé approprié à l'invite de démarrage ou entrez d'autres paramètres de démarrage personnalisés comme indiqué à la Section 12.4, « Échec de démarrage ». Pour lancer le processus d'installation, appuyez sur Entrée.

Résolutions de l'écran

Utilisez les touches de fonction (F1 ... F12) pour déterminer la résolution d'écran de l'installation. Si vous devez démarrer en mode texte, choisissez F3.

12.7 Fichiers journaux

Pour plus d'informations sur les fichiers journaux créés lors de l'installation, reportez-vous au Book “Administration Guide”, Chapter 42 “Gathering System Information for Support”, Section 42.5 “Gathering Information during the Installation” (Guide d'administration, Chapitre 43 « Collecte d'informations système pour le support », Section 43.5 « Collecte d'informations lors de l'installation »).

Partie III Personnalisation des images d'installation

  • 13 Clonage d'images de disque
  • Ce chapitre décrit l'utilisation d'images clonées pour l'installation de SUSE Linux Enterprise Server. Ce mode de fonctionnement est principalement utilisé dans les environnements virtualisés.

  • 14 Personnalisation des images d'installation avec mksusecd
  • mksusecd est un outil très utile pour créer une image d'installation personnalisée. Utilisez-le pour modifier les images d'installation SUSE Linux Enterprise standard : ajoutez et supprimez des fichiers, créez une image d'installation réseau minimale, personnalisez les options de démarrage et de dépôt, et créez une image de démarrage minimale en tant qu'alternative pour le démarrage d'un système à partir d'un serveur PXE.

  • 15 Personnalisation manuelle des images d'installation
  • Vous pouvez personnaliser les images d'installation par défaut de SUSE Linux Enterprise en éditant un fichier dans l'image ISO d'installation media.1/products. Ajoutez des modules et des extensions pour créer une image d'installation personnalisée unique. Copiez ensuite votre image personnalisée sur un CD, un DVD ou une clé USB à mémoire flash pour créer un support d'installation personnalisé de démarrage. Pour obtenir des instructions complètes, reportez-vous au document sur les meilleures pratiques SUSE How to Create a Custom Installation Medium for SUSE Linux Enterprise 15 (Procédure de création d'un support d'installation personnalisé pour SUSE Linux Enterprise 15).

13 Clonage d'images de disque

Ce chapitre décrit l'utilisation d'images clonées pour l'installation de SUSE Linux Enterprise Server. Ce mode de fonctionnement est principalement utilisé dans les environnements virtualisés.

13.1 Présentation

SUSE Linux Enterprise Server fournit un script pour nettoyer la configuration qui est unique pour chaque installation. Avec l'introduction de systemd, des identificateurs système uniques sont utilisés et définis dans différents fichiers et à divers emplacements. Par conséquent, le clonage n'est plus la méthode recommandée pour créer des images système. Les images peuvent être créées avec KIWI : reportez-vous à l'adresse https://doc.opensuse.org/projects/kiwi/doc/.

Pour cloner des disques de machines, reportez-vous à la documentation de votre environnement de virtualisation.

13.2 Nettoyage des identificateurs système uniques

Avertissement
Avertissement : perte de configuration importante

L'exécution de la procédure suivante supprime définitivement les données de configuration importantes du système. Si le système source pour le clone est utilisé en production, exécutez le script de nettoyage sur l'image clonée.

Pour nettoyer tous les identificateurs système uniques, exécutez la procédure suivante avant ou après le clonage d'une image de disque. En cas d'exécution sur le clone, cette procédure doit être exécutée sur chaque clone. Par conséquent, nous vous recommandons de créer une image de référence qui n'est pas utilisée en production et sert uniquement de source pour les nouveaux clones. L'image de référence est déjà nettoyée et les clones peuvent être utilisés immédiatement.

La commande clone-master-clean-up par exemple supprime les éléments suivants :

  • Fichiers d'échange

  • Dépôts Zypper

  • Clés d'hôte et de client SSH

  • Répertoires temporaires, tels que /tmp/*

  • Données postfix

  • Script de pare-feu HANA

  • Journal systemd

  1. Utilisez zypper pour installer clone-master-clean-up :

    tux > sudo zypper install clone-master-clean-up
  2. Configurez le comportement de clone-master-clean-up en modifiant /etc/sysconfig/clone-master-clean-up. Ce fichier de configuration définit si les utilisateurs avec un UID supérieur à 1 000, les fichiers /etc/sudoers, les dépôts Zypper et les instantanés Btrfs doivent être supprimés.

  3. Supprimez la configuration existante et les identificateurs uniques en exécutant le script suivant :

    tux > sudo clone-master-clean-up

14 Personnalisation des images d'installation avec mksusecd

mksusecd est un outil très utile pour créer une image d'installation personnalisée. Utilisez-le pour modifier les images d'installation SUSE Linux Enterprise standard : ajoutez et supprimez des fichiers, créez une image d'installation réseau minimale, personnalisez les options de démarrage et de dépôt, et créez une image de démarrage minimale en tant qu'alternative pour le démarrage d'un système à partir d'un serveur PXE.

14.1 Installation de mksusecd

Sous SLE 15, mksusecd se trouve dans le module des outils de développement Development Tools Module. Si vous n'avez pas activé ce module, vous devez l'activer. Recherchez d'abord le nom de module exact avec zypper :

tux > zypper search-packages mksusecd
Following packages were found in following modules:

Package               Module or Repository
--------------------  -----------------------------------------------------------------
mksusecd              Development Tools Module (sle-module-development-tools/15/x86_64)
mksusecd-debuginfo    Development Tools Module (sle-module-development-tools/15/x86_64)
mksusecd-debugsource  Development Tools Module (sle-module-development-tools/15/x86_64)
mksusecd              Available
srcpackage:mksusecd   Available

To activate the respective module or product, use SUSEConnect --product.
Use SUSEConnect --help for more details.

Activez-le avec SUSEConnect :

tux > sudo SUSEConnect -p sle-module-development-tools/15/x86_64

Sous SLE 15.1 et versions ultérieures, il se trouve dans le Dépôt principal de mise à jour, qui est activé par défaut.

Installez mksusecd de la façon habituelle :

tux > sudo zypper se mksusecd

Exécutez mksusecd --help pour afficher la liste de toutes les commandes.

Après avoir créé votre image personnalisée, gravez-la sur un support CD/DVD à l'aide de votre programme d'écriture de disque préféré, tel que Brasero ou mybashburn, ou créez une clé USB à mémoire flash de démarrage à l'aide de la commande dd. Assurez-vous que le périphérique n'est pas monté, puis exécutez la commande suivante :

root # dd if=min-install.iso of=/dev/SDB bs=4M

Votre nouveau périphérique de démarrage est prêt à l'emploi.

14.2 Création d'une image de démarrage minimale

Utilisez mksusecd pour créer un image de démarrage minimale afin de démarrer les machines clientes à partir d'un CD/DVD ou d'une clé USB à mémoire flash, au lieu de les lancer à partir d'un serveur de démarrage PXE. L'image de démarrage minimale lance le kernel et initrd, puis les fichiers d'installation restants sont récupérés à partir d'un serveur NFS local (voir Section 16.1, « Configuration d'un serveur d'installation à l'aide de YaST »).

Exécutez la commande suivante pour créer l'image ISO minimale :

tux > sudo mksusecd --create min-install.iso \
--net=nfs://192.168.1.1:/srv/install/ARCH/OS_VERSION/SP_VERSION/cd1  \
/srv/tftpboot/EFI/ARCH/boot

Remplacez l'adresse du serveur NFS par la vôtre. Remplacez ARCH par le répertoire correspondant à l'architecture du système cible. Remplacez également OS_version (Version_SE) et SP_VERSION (VERSION_SP) en fonction de vos chemins comme indiqué à la Section 16.1, « Configuration d'un serveur d'installation à l'aide de YaST ».

14.3 Définition des paramètres de démarrage du kernel par défaut

Plutôt que d'attendre un invite d'amorçage pour entrer vos paramètres de démarrage du kernel personnalisés, configurez-les dans une image mksusecd personnalisée :

tux > sudo mksusecd --create install.iso \
--boot "textmode=1 splash=silent mitigations=auto"

Vérifiez que vos paramètres personnalisés sont chargés correctement après le démarrage en interrogeant /proc :

tux > cat /proc/cmdline

14.4 Personnalisation des modules, extensions et dépôts

SUSE Linux Enterprise 15 prend en charge des modules (à ne pas confondre avec les modules de kernel) et extensions pour différents composants du produit. Il s'agit de modules complémentaires au module Basesystem (Système de base) par défaut, comme Development Tools, Desktop Applications et SUSE Linux Enterprise Live Patching. Pour plus d'informations, reportez-vous au manuel Modules and Extensions Quick Start (Démarrage rapide des modules et extensions).

mksusecd vous permet de créer un image d'installation contenant tous les modules et extensions supplémentaires de votre choix. Commencez par interroger les images existantes, comme dans cet exemple pour SUSE Linux Enterprise 15 SP2 :

tux > sudo mksusecd --list-repos SLE-15-SP2-Full-ARCH-GM-media1.iso
Repositories:
  SLES15-SP2 [15.2-0]
  SLES15 [15.2-0]
  Basesystem-Module [15.2-0]
  SUSE-CAP-Tools-Module [15.2-0]
  Containers-Module [15.2-0]
  Desktop-Applications-Module [15.2-0]
  Development-Tools-Module [15.2-0]

Créez une image d'installation constituée à partir des modules, extensions et dépôts que vous sélectionnez, et activez-les automatiquement :

tux > sudo mksusecd --create myinstaller.iso\
  --enable-repos auto --include-repos Basesystem-Module,Desktop-Applications-Module \
  SLE-15-SP2-Online-ARCH-GM-media1.iso \
  SLE-15-SP2-Full-ARCH-GM-media1.iso

Cela crée et ajoute le fichier add_on_products.xml à la nouvelle image. Remplacez --enable-repos auto par --enable-repos ask afin que le programme d'installation affiche une boîte de dialogue permettant de choisir les modules.

Note
Note : fichier de contrôle AutoYaST

Si vous utilisez AutoYaST pour configurer vos installations, il n'est pas nécessaire de répertorier ces modules dans le fichier de contrôle AutoYaST lorsque vous utilisez l'option --enable-repos.

14.5 Création d'une image ISO Netinstall minimale

Pour créer un image d'installation minimale afin de lancer une installation réseau, utilisez l'option --nano :

tux > sudo mksusecd --create netinstall.iso \
--nano SLE-15-SP2-Online-ARCH-GM-media1.iso

14.6 Modification du dépôt par défaut

Pour définir un autre dépôt, tel que votre propre dépôt local, utilisez l'option --net :

tux > sudo mksusecd --create localinstall.iso \
--net "https://example.com/local" SLE-15-SP2-Online-ARCH-GM-media1.iso

15 Personnalisation manuelle des images d'installation

Vous pouvez personnaliser les images d'installation par défaut de SUSE Linux Enterprise en éditant un fichier dans l'image ISO d'installation media.1/products. Ajoutez des modules et des extensions pour créer une image d'installation personnalisée unique. Copiez ensuite votre image personnalisée sur un CD, un DVD ou une clé USB à mémoire flash pour créer un support d'installation personnalisé de démarrage. Pour obtenir des instructions complètes, reportez-vous au document sur les meilleures pratiques SUSE How to Create a Custom Installation Medium for SUSE Linux Enterprise 15 (Procédure de création d'un support d'installation personnalisé pour SUSE Linux Enterprise 15).

Partie IV Configuration d'un serveur d'installation

16 Configuration d'une source d'installation réseau

Ce chapitre décrit comment créer un serveur qui fournit les données requises pour l'installation de SUSE Linux Enterprise Server sur le réseau.

En fonction du système d'exploitation exécuté sur la machine à utiliser comme source d'installation réseau pour SUSE Linux Enterprise Server, plusieurs options sont disponibles pour la configuration du serveur. Pour configurer un serveur d'installation, la procédure la plus simple consiste à utiliser YaST.

Astuce
Astuce : système d'exploitation du serveur d'installation

Vous pouvez même utiliser une machine Microsoft Windows comme serveur d'installation pour le déploiement de Linux. Reportez-vous à la Section 16.5, « Gestion d'un dépôt SMB » pour plus d'informations.

16.1 Configuration d'un serveur d'installation à l'aide de YaST

YaST fournit un outil graphique qui permet de créer des dépôts réseau. Il prend en charge les serveurs d'installation réseau HTTP, FTP et NFS.

  1. Connectez-vous en tant qu'utilisateur root à la machine qui doit jouer le rôle de serveur d'installation.

  2. Sélectionnez YaST › Divers › Serveur d'installation.

  3. Sélectionnez le type de dépôt (HTTP, FTP ou NFS). Le service sélectionné est lancé automatiquement à chaque démarrage du système. Si un service du type sélectionné est déjà en cours d'exécution sur votre système et si vous souhaitez le configurer manuellement, désactivez la fonction de configuration automatique du service de serveur en sélectionnant Ne configurer aucun des services réseau. Dans les deux cas, définissez le répertoire du serveur dans lequel placer les données d'installation.

  4. Configurez le type de dépôt requis. Cette étape concerne la configuration automatique des services de serveur. Elle est ignorée lorsque la configuration automatique est désactivée.

    Définissez un alias pour le répertoire racine du serveur FTP ou HTTP sur lequel les données d'installation doivent figurer. Par la suite, le dépôt sera situé sous ftp://IP-serveur/Alias/Nom (FTP) ou sous http://IP-serveur/Alias/Nom (HTTP). Nom désigne le nom du dépôt, dont la définition s'effectue à l'étape suivante. Si vous avez sélectionné NFS à l'étape précédente, définissez des caractères joker et des options d'exportation. Le serveur NFS sera accessible sous nfs://IP-serveur/Nom. Pour plus d'informations sur le serveur NFS et les exportations, reportez-vous au Book “Administration Guide”, Chapter 33 “Sharing File Systems with NFS” (Guide d'administration, Chapitre 34 « Partage de systèmes de fichiers avec NFS »).

    Astuce
    Astuce : paramètres de pare-feu

    Assurez-vous que les paramètres du pare-feu de votre système serveur autorisent le trafic au niveau des ports pour HTTP, NFS et FTP. Dans le cas contraire, activez Ouvrir port dans pare-feu ou sélectionnez d'abord Détails du pare-feu.

  5. Configurez le dépôt. Avant la copie des supports d'installation vers leur destination, définissez le nom du dépôt (choisissez plutôt une abréviation du produit et de la version facile à mémoriser). YaST permet de fournir des images ISO des supports au lieu de copies des DVD d'installation. Pour ce faire, sélectionnez la case à cocher correspondante et indiquez le chemin du répertoire sous lequel trouver les fichiers ISO localement. En fonction du produit à distribuer à l'aide de ce serveur d'installation, vous devrez peut-être ajouter des supports, tels que des DVD de Service Pack, comme dépôts supplémentaires. Pour annoncer votre serveur d'installation sur le réseau via OpenSLP, sélectionnez l'option correspondante.

    Astuce
    Astuce : annonce du dépôt

    Pensez à annoncer votre dépôt via OpenSLP si la configuration du réseau prend en charge cette option. Cela vous évite d'entrer le chemin d'installation réseau sur chaque machine cible. Les systèmes cibles sont simplement démarrés à l'aide du paramètre de démarrage SLP ; ils trouveront le dépôt réseau sans qu'aucune autre opération de configuration ne soit nécessaire. Pour plus d'informations sur cette option, reportez-vous au Chapitre 7, Paramètres de démarrage.

  6. Configurez des dépôts supplémentaires. YaST suit une convention de dénomination spécifique pour configurer des dépôts de CD de produit complémentaire ou de Service Pack. La configuration est acceptée uniquement si le nom de dépôt des CD de produit complémentaire commence par le nom de dépôt du support d'installation. En d'autres termes, si vous avez choisi SLES12SP1 comme nom de dépôt pour DVD 1, sélectionnez SLES12SP1addon comme nom de dépôt pour DVD2.

  7. Téléchargez les données d'installation. La copie des supports d'installation constitue l'étape la plus longue dans la configuration d'un serveur d'installation. Insérez les supports dans l'ordre demandé par YaST et attendez la fin de la procédure de copie. Lorsque les sources ont été entièrement copiées, revenez à l'aperçu des dépôts existants et fermez la configuration en sélectionnant Terminer.

    Le serveur d'installation est désormais entièrement configuré et prêt à fonctionner. Il démarre automatiquement en même temps que le système. Aucune autre intervention n'est nécessaire. Si vous avez désactivé à l'aide de YaST la configuration automatique du service réseau sélectionné lors de la première étape, il suffit de configurer et de démarrer manuellement ce service.

Pour désactiver un dépôt, sélectionnez le dépôt à supprimer, puis sélectionnez Supprimer. Les données de l'installation sont supprimées du système. Pour désactiver le service réseau, utilisez le module YaST correspondant.

Si votre serveur d'installation doit fournir les données d'installation de plusieurs produits de la version du produit, démarrez le module de serveur d'installation YaST. Sélectionnez ensuite Ajouter dans l'aperçu des dépôts existants pour configurer le nouveau dépôt.

Avertissement
Avertissement : conflit entre le serveur d'installation YaST et le serveur RMT

Si vous configurez un serveur en tant que serveur d'installation avec YaST, cela installe et configure automatiquement le serveur Web Apache, qui écoute sur le port 80.

Toutefois, la configuration d'une machine en tant que serveur RMT (Repository Mirroring Tool) installe automatiquement le serveur Web NGINX et le configure pour écouter sur le port 80.

Par conséquent, n'essayez pas d'activer ces deux fonctions sur un même serveur. Un seul serveur ne peut pas héberger ces deux fonctions simultanément.

16.2 Configuration manuelle d'un dépôt NFS

La configuration d'une source NFS en vue de l'installation s'effectue en deux étapes. Dans un premier temps, créez l'arborescence qui contient les données d'installation et copiez les supports d'installation vers cette arborescence. Exportez ensuite le répertoire qui contient les données d'installation vers le réseau.

Pour créer un répertoire qui contient les données d'installation, procédez de la façon suivante :

  1. Connectez-vous en tant qu'utilisateur root.

  2. Créez un répertoire destiné à contenir les données d'installation et accédez à ce répertoire. Par exemple :

    root # mkdir -p /srv/install/PRODUCT/PRODUCTVERSION
    root # cd /srv/install/PRODUCT/PRODUCTVERSION

    Remplacez PRODUCT par l'abréviation du nom du produit et PRODUCTVERSION par une chaîne qui contient le nom et la version du produit (par exemple, /srv/install/SLES/15.1).

  3. Pour chaque support d'installation contenu dans le kit de supports, exécutez les commandes suivantes :

    1. Copiez tout le contenu du support d'installation vers le répertoire du serveur d'installation :

      root # cp -a /media/PATH_TO_YOUR_MEDIA_DRIVE .

      Remplacez PATH_TO_YOUR_MEDIA_DRIVE (CHEMIN_LECTEUR_SUPPPORT) par le chemin réel qui permet d'accéder au lecteur du support d'installation.

    2. Renommez le répertoire en fonction du numéro du support :

      root # mv PATH_TO_YOUR_MEDIA_DRIVE DVDX

      Remplacez X par le numéro réel de votre support d'installation.

Sous SUSE Linux Enterprise Server, vous pouvez exporter le dépôt avec NFS à l'aide de YaST. Procédez de la façon suivante :

  1. Connectez-vous en tant qu'utilisateur root.

  2. Sélectionnez YaST › Services réseau › Serveur NFS.

  3. Cliquez sur Démarrer et Ouvrir port dans pare-feu, puis cliquez sur Suivant.

  4. Sélectionnez Ajouter un répertoire et recherchez le répertoire contenant les sources d'installation (ici, il s'agit du répertoire PRODUCTVERSION).

  5. Sélectionnez Ajouter hôte et entrez les noms d'hôte des machines vers lesquelles exporter les données d'installation. Au lieu d'indiquer les noms d'hôte, vous pouvez utiliser des caractères joker, des plages d'adresses réseau ou le nom de domaine de votre réseau. Entrez les options d'exportation appropriées ou laissez celles par défaut ; ces dernières fonctionnent correctement dans la plupart des configurations. Pour plus d'informations sur la syntaxe utilisée lors de l'exportation des partages NFS, reportez-vous à la page de manuel consacrée à l'exportation.

  6. Cliquez sur Terminer. Le serveur NFS qui héberge le dépôt SUSE Linux Enterprise Server est démarré et intégré automatiquement au processus d'amorçage.

Si vous préférez exporter manuellement le dépôt via NFS au lieu d'utiliser le module YaST relatif aux serveurs NFS, procédez comme suit :

  1. Connectez-vous en tant qu'utilisateur root.

  2. Ouvrez le fichier /etc/exports et entrez la ligne de commande suivante :

    /PRODUCTVERSION *(ro,root_squash,sync)

    Cette commande permet d'exporter le répertoire /PRODUCTVERSION vers tout hôte membre de ce réseau ou capable de se connecter à ce serveur. Pour limiter l'accès à ce serveur, remplacez le caractère joker générique * par des masques de réseau ou des noms de domaine. Pour plus d'informations, reportez-vous à la page de manuel consacrée à l'exportation. Enregistrez et quittez ce fichier de configuration.

  3. Pour ajouter le service NFS à la liste des serveurs démarrés au cours du démarrage du système, exécutez les commandes suivantes :

    root # systemctl enable nfsserver
  4. Démarrez le serveur NFS avec la commande systemctl start nfsserver. Si vous devez modifier la configuration de votre serveur NFS par la suite, modifiez le fichier de configuration et redémarrez le daemon NFS à l'aide de la commande systemctl restart nfsserver.service.

L'annonce du serveur NFS via OpenSLP permet de communiquer l'adresse de ce serveur à tous les clients du réseau.

  1. Connectez-vous en tant qu'utilisateur root.

  2. Créez le fichier de configuration /etc/slp.reg.d/install.suse.nfs.reg avec les lignes suivantes :

    # Register the NFS Installation Server
    service:install.suse:nfs://$HOSTNAME/PATH_TO_REPOSITORY/DVD1,en,65535
    description=NFS Repository

    Remplacez PATH_TO_REPOSITORY (CHEMIN_DÉPÔT) par le chemin réel de la source d'installation sur votre serveur.

  3. Démarrez le daemon OpenSLP en exécutant la commande systemctl start slpd.

Pour plus d'informations sur OpenSLP, reportez-vous à la documentation relative au paquetage, située dans /usr/share/doc/packages/openslp/, ou le Book “Administration Guide”, Chapter 36 “SLP” (Guide d'administration, Chapitre 37 « SLP »). Pour plus d'informations sur NFS, reportez-vous au Book “Administration Guide”, Chapter 33 “Sharing File Systems with NFS” (Guide d'administration, Chapitre 34 « Partage de systèmes de fichiers avec NFS »).

16.3 Configuration manuelle d'un dépôt FTP

La création d'un dépôt FTP est très similaire à celle d'un dépôt NFS. Un dépôt FTP peut également être annoncé sur le réseau à l'aide d'OpenSLP.

  1. Créez un répertoire qui contient les sources d'installation, comme décrit à la Section 16.2, « Configuration manuelle d'un dépôt NFS ».

  2. Configurez le serveur FTP pour distribuer le contenu de votre répertoire d'installation :

    1. Connectez-vous en tant qu'utilisateur root et installez le paquetage vsftpd à l'aide du gestionnaire de logiciels YaST.

    2. Entrez dans le répertoire racine du serveur FTP :

      root # cd /srv/ftp
    3. Créez un sous-répertoire qui contient les sources d'installation dans le répertoire racine FTP :

      root # mkdir REPOSITORY

      Remplacez REPOSITORY (DÉPÔT) par le nom du produit.

    4. Montez le contenu du référentiel d'installation dans l'environnement racine modifié du serveur FTP :

      root # mount --bind PATH_TO_REPOSITORY /srv/ftp/REPOSITORY

      Remplacez les variables PATH_TO_REPOSITORY (CHEMIN_DÉPÔT) et REPOSITORY (DÉPÔT) par des valeurs adaptées à votre configuration. Pour que ces modifications soient permanentes, ajoutez-les au fichier /etc/fstab.

    5. Démarrez vsftpd à l'aide de vsftpd.

  3. Annoncez le dépôt via OpenSLP si votre configuration réseau prend en charge cette opération :

    1. Créez le fichier de configuration /etc/slp.reg.d/install.suse.ftp.reg avec les lignes suivantes :

      # Register the FTP Installation Server
      service:install.suse:ftp://$HOSTNAME/REPOSITORY/DVD1,en,65535
      description=FTP Repository

      Remplacez REPOSITORY (DÉPÔT) par le nom réel du répertoire de dépôt sur votre serveur. La ligne service: doit être entrée sous forme de ligne continue.

    2. Démarrez le daemon OpenSLP en exécutant la commande systemctl start slpd.

Astuce
Astuce : configuration d'un serveur FTP avec YaST

Si vous préférez utiliser YaST plutôt que de configurer manuellement le serveur d'installation FTP, reportez-vous au Book “Administration Guide”, Chapter 38 “Setting Up an FTP Server with YaST” (Guide d'administration, Chapitre 39 « Configuration d'un serveur FTP avec YaST »).

16.4 Configuration manuelle d'un dépôt HTTP

La création d'un dépôt HTTP est très similaire à celle d'un dépôt NFS. Un dépôt HTTP peut également être annoncé sur le réseau à l'aide d'OpenSLP.

  1. Créez un répertoire qui contient les sources d'installation en suivant la procédure décrite à la Section 16.2, « Configuration manuelle d'un dépôt NFS ».

  2. Configurez le serveur HTTP pour distribuer le contenu de votre répertoire d'installation :

    1. Installez le serveur Web Apache conformément à la description proposée dans le Book “Administration Guide”, Chapter 37 “The Apache HTTP Server”, Section 37.1.2 “Installation” (Guide d'administration, Chapitre 38 « Serveur HTTP Apache », Section 38.1.2 « Installation »).

    2. Accédez au répertoire racine du serveur HTTP (/srv/www/htdocs) et créez un sous-répertoire qui contiendra les sources d'installation :

      root # mkdir REPOSITORY

      Remplacez REPOSITORY (DÉPÔT) par le nom du produit.

    3. Créez un lien symbolique à partir de l'emplacement des sources d'installation vers le répertoire racine du serveur Web (/srv/www/htdocs) :

      root # ln -s /PATH_TO_REPOSITORY/srv/www/htdocs/REPOSITORY
    4. Modifiez le fichier de configuration du serveur HTTP (/etc/apache2/default-server.conf) de manière à ce qu'il suive les liens symboliques. Remplacez la ligne suivante :

      Options None

      par

      Options Indexes FollowSymLinks
    5. Rechargez la configuration du serveur HTTP à l'aide de la commande systemctl reload apache2.

  3. Annoncez le dépôt via OpenSLP si votre configuration réseau prend en charge cette opération :

    1. Créez le fichier de configuration /etc/slp.reg.d/install.suse.http.reg avec les lignes suivantes :

      # Register the HTTP Installation Server
      service:install.suse:http://$HOSTNAME/REPOSITORY/DVD1/,en,65535
      description=HTTP Repository

      Remplacez REPOSITORY (DÉPÔT) par le chemin réel du dépôt sur votre serveur. La ligne service: doit être entrée sous forme de ligne continue.

    2. Démarrez le daemon OpenSLP en exécutant la commande systemctl start slpd.

16.5 Gestion d'un dépôt SMB

À l'aide du protocole SMB, vous pouvez importer les sources d'installation depuis un serveur Microsoft Windows et démarrer le déploiement Linux sans même disposer d'une machine Linux.

Pour configurer un partage Windows exporté sur lequel réside votre dépôt SUSE Linux Enterprise Server, procédez comme suit :

  1. Connectez-vous à votre machine Windows.

  2. Créez un répertoire qui contiendra l'intégralité de l'arborescence d'installation et nommez-le INSTALL, par exemple.

  3. Exportez ce partage en suivant la procédure décrite dans votre documentation Windows.

  4. Accédez à ce partage et créez un sous-répertoire nommé PRODUCT. Remplacez PRODUCT par le nom réel du produit.

  5. Accédez au répertoire INSTALL/PRODUCT et copiez chaque support dans un répertoire distinct, par exemple DVD1 et DVD2.

Pour utiliser un partage monté SMB comme dépôt, procédez comme suit :

  1. Démarrez la cible d'installation.

  2. Sélectionnez Installation.

  3. Appuyez sur la touche F4 pour sélectionner le dépôt.

  4. Sélectionnez SMB, puis saisissez le nom ou l'adresse IP de la machine Windows, le nom du partage (INSTALL/PRODUCT/DVD1 dans cet exemple), le nom d'utilisateur et le mot de passe. La syntaxe ressemble à ceci :

    smb://workdomain;user:password@server/INSTALL/DVD1

    Après avoir appuyé sur Entrée, YaST démarre. Vous pouvez alors effectuer l'installation.

16.6 Utilisation d'images ISO du support d'installation sur le serveur

Plutôt que de copier manuellement les supports physiques dans votre répertoire serveur, vous pouvez monter les images ISO du support d'installation sur votre serveur d'installation, puis les utiliser comme dépôt. Pour configurer un serveur HTTP, NFS ou FTP qui utilise des images ISO à la place des copies de support, procédez de la façon suivante :

  1. Téléchargez les images ISO et enregistrez-les sur la machine à utiliser comme serveur d'installation.

  2. Connectez-vous en tant qu'utilisateur root.

  3. Choisissez et créez un emplacement approprié pour stocker les données d'installation, comme décrit à la Section 16.2, « Configuration manuelle d'un dépôt NFS », à la Section 16.3, « Configuration manuelle d'un dépôt FTP » ou à la Section 16.4, « Configuration manuelle d'un dépôt HTTP ».

  4. Créez des sous-répertoires pour chaque support d'installation.

  5. Pour monter et décompresser chaque image ISO à son emplacement final, exécutez la commande suivante :

    root # mount -o loop PATH_TO_ISO PATH_TO_REPOSITORY/PRODUCT/MEDIUMX

    Remplacez PATH_TO_ISO (CHEMIN_ISO) par le chemin d'accès à votre copie locale de l'image ISO. Remplacez PATH_TO_REPOSITORY (CHEMIN_DÉPÔT) par le répertoire source de votre serveur. Remplacez PRODUCT (PRODUIT) par le nom du produit et SUPPORTX par le type (CD ou DVD) et le nombre de supports que vous utilisez.

  6. Procédez de même pour monter toutes les images ISO nécessaires à votre produit.

  7. Démarrez votre serveur d'installation comme d'habitude, en suivant la procédure décrite à la Section 16.2, « Configuration manuelle d'un dépôt NFS », à la Section 16.3, « Configuration manuelle d'un dépôt FTP » ou à la Section 16.4, « Configuration manuelle d'un dépôt HTTP ».

Pour monter automatiquement les images ISO lors du démarrage, ajoutez les entrées correspondantes dans /etc/fstab. Dans le cas ci-dessus, l'entrée ressemblerait à l'exemple suivant :

PATH_TO_ISO PATH_TO_REPOSITORY/PRODUCTMEDIUM auto loop

17 Préparation de l'environnement de démarrage réseau

Ce chapitre décrit la façon de configurer un serveur DHCP et un serveur TFTP fournissant l'infrastructure requise pour démarrer avec PXE.

SUSE® Linux Enterprise Server peut être installé par le biais d'un Preboot Execution Environment (PXE). Le matériel client a besoin de prendre en charge le démarrage via PXE. Le réseau doit être doté d'un serveur DHCP et d'un serveur TFTP fournissant les données requises aux clients. Ce chapitre vous guide dans la configuration des serveurs requis.

PXE démarre uniquement un kernel et initrd. Cela permet de démarrer dans un environnement d'installation ou dans des systèmes actifs. Pour configurer les sources d'installation, reportez-vous au Chapitre 16, Configuration d'une source d'installation réseau.

Cette section expose les tâches de configuration nécessaires pour les scénarios de démarrage complexes. Elle contient des exemples de configuration « prêts à l'emploi » pour le protocole DHCP, le démarrage PXE, le protocole TFTP et la fonction Wake on LAN.

Les exemples supposent que les serveurs DHCP, TFTP et NFS résident sur la même machine ayant pour adresse IP 192.168.1.1. Tous les services peuvent résider sur des ordinateurs différents sans problème. Veillez à modifier les adresses IP en fonction de vos besoins.

17.1 Configuration d'un serveur DHCP

Un serveur DHCP fournit des assignations d'adresses IP dynamiques (Section 17.1.1, « Assignation d'adresse dynamique ») et statiques (Section 17.1.2, « Assignation d'adresses IP statiques ») à vos clients réseau. Il annonce les serveurs, les routes et les domaines. Pour les serveurs TFTP, DHCP fournit également les fichiers de kernel et initrd. Les fichiers qui sont chargés dépendent de l'architecture de la machine cible et de l'utilisation éventuelle du démarrage BIOS ou UEFI hérité. Les clients transmettent leur type d'architecture dans leur demande DHCP. Suivant ces informations, le serveur DHCP décide quels fichiers le client doit télécharger pour le démarrage.

Avertissement
Avertissement : échec de l'installation PXE et AutoYaST

À partir de SUSE Linux Enterprise 15,0, il existe des situations spéciales dans lesquelles le démarrage PXE et les installations AutoYaST échouent. Pour plus d'informations et pour connaître la solution, reportez-vous à la Section 17.1.3, « Échecs d'installation PXE et AutoYaST ».

17.1.1 Assignation d'adresse dynamique

L'exemple suivant montre comment configurer un serveur DHCP qui assigne des adresses IP aux clients de façon dynamique, et qui annonce les serveurs, les routeurs, les domaines et les fichiers de démarrage.

  1. Connectez-vous en tant qu'utilisateur root à la machine qui héberge le serveur DHCP.

  2. Activez le serveur DHCP en exécutant la commande systemctl enable dhcpd.

  3. Ajoutez les lignes suivantes à la configuration de sous-réseau du fichier de configuration du serveur DHCP, situé dans /etc/dhcpd.conf :

    # The following lines are optional
    option domain-name "my.lab";
    option domain-name-servers 192.168.1.1;
    option routers 192.168.1.1;
    option ntp-servers 192.168.1.1;
    ddns-update-style none;
    default-lease-time 3600;
    
    # The following lines are required
    option arch code 93 = unsigned integer 16; # RFC4578
    subnet 192.168.1.0 netmask 255.255.255.0 {
     next-server 192.168.1.1;
     range 192.168.1.100 192.168.1.199;
     default-lease-time 3600;
     max-lease-time 3600;
     if option arch = 00:07 or option arch = 00:09 {
       filename "/EFI/x86/grub.efi";
     }
     else if option arch = 00:0b {
       filename "/EFI/aarch64/bootaa64.efi";
     }
     else  {
       filename "/BIOS/x86/pxelinux.0";
     }
    }

    Cet exemple de configuration utilise le sous-réseau 192.168.1.0/24 avec DHCP, DNS et la passerelle sur le serveur avec l'adresse IP 192.168.1.1. Assurez-vous que toutes les adresses IP sont modifiées en fonction de votre topologie de réseau. Pour plus d'informations sur les options disponibles dansdhcpd.conf, reportez-vous à la page de manuel dhcpd.conf.

  4. Redémarrez le serveur DHCP en exécutant la commande systemctl restart dhcpd.

17.1.2 Assignation d'adresses IP statiques

Un serveur DHCP peut également assigner des adresses IP statiques et des noms d'hôte à des clients du réseau. Un cas d'utilisation consiste à assigner des adresses statiques à des serveurs. Un autre cas d'utilisation implique de limiter les clients qui peuvent rejoindre le réseau à ceux disposant d'une adresse IP statique, et de ne fournir aucune réserve d'adresses dynamiques.

Modifiez la configuration DHCP ci-dessus conformément à l'exemple suivant :

group {
 host test {
   hardware ethernet MAC_ADDRESS;
   fixed-address IP_ADDRESS;
   }
}

L'instruction d'hôte assigne un nom d'hôte à la cible d'installation. Pour lier le nom d'hôte et l'adresse IP à un hôte spécifique, vous devez indiquer l'adresse matérielle (MAC) du client. Remplacez toutes les variables utilisées dans cet exemple par les valeurs réelles qui correspondent à votre environnement, puis enregistrez les modifications et redémarrez le serveur DHCP.

17.1.3 Échecs d'installation PXE et AutoYaST

À partir de SUSE Linux entreprise 15.0 et d'ISC DHCP 4.3.x, des situations spéciales peuvent entraîner un échec du démarrage de PXE et des installations AutoYaST. Si votre serveur DHCP ne possède pas de réserve d'adresses IP dynamiques disponibles, mais n'autorise que des adresses statiques prédéfinies par client, et que les clients envoient des identificateurs de client RFC 4361, les installations PXE/AutoYaST ne fonctionneront pas. (Si le système n'autorise que des adresses assignées à des clients réseau spécifiques et ne fournit pas de réserve d'adresses dynamiques, les machines aléatoires ne peuvent pas se connecter au réseau).

Lorsqu'un nouveau système démarre dans PXE, il envoie une requête au serveur DHCP et s'identifie à l'aide d'un identificateur de client constitué du type de matériel et de l'adresse MAC de l'interface réseau. Il s'agit d'un client-id(ID client) RFC 2132. Le serveur DHCP propose alors l'adresse IP assignée. Ensuite, le kernel d'installation est chargé et envoie une autre requête DHCP, mais ce client-id est différent et est envoyé au format RFC 4361. Le serveur DHCP ne reconnaît pas qu'il s'agit du même client et recherche une adresse IP dynamique disponible, alors qu'il n'y en a pas, de sorte que l'installation s'arrête.

La solution consiste à configurer les clients pour qu'ils envoient des ID de client au format RFC 2132. Pour envoyer un client-id RFC 2132 au cours de l'installation, utilisez linuxrc afin de transmettre la commande ifcfg suivante :

ifcfg=eth0=dhcp,DHCLIENT_CLIENT_ID=01:03:52:54:00:02:c2:67,
DHCLIENT6_CLIENT_ID=00:03:52:54:00:02:c2:67

Le client-id DHCPv4 RFC 2132 traditionnellement utilisé sur Ethernet est constitué du type de matériel (01 pour Ethernet) et suivi de l'adresse matérielle (adresse MAC), par exemple :

01:52:54:00:02:c2:67

Le client-id DHCPv4 RFC 4361 tente de corriger le problème d'identification d'une machine qui compte plusieurs interfaces réseau. Le nouveau client-id DHCPv4 présente le même format que le client-id DHCPv6. Il commence par le préfixe 0xff (plutôt que par le type de matériel), suivi de l'IAID (Interface-address Association ID, ID d'association d'adresse d'interface qui décrit l'interface sur la machine) DHCPv6, puis du DUID (DHCP Unique Identifier, identificateur unique DHCP) DHCPv6 qui identifie de manière unique la machine.

Selon le DUID basé sur le type et l'adresse de matériel susmentionnés, le nouveau client-id DHCPv4 RFC 4361 serait :

  • En utilisant les derniers octets de l'adresse MAC en tant qu'IAID : ff:00:02:c2:67:00:01:xx:xx:xx:xx:52:54:00:02:c2:67

  • Si l'IAID est un simple numéro incrémenté : ff:00:00:00:01:00:01:xx:xx:xx:xx:52:54:00:02:c2:67

Les champs xx:xx:xx:xx de l'horodatage DUID-LLT (DUID-Link-Layer Timestamp) correspondent à un tampon horaire de création. Une couche de liaison de données DUID-LL (DUID-Link-Layer, par exemple 00:03:00:01:$MAC) n'a pas de tampon horaire.

Pour plus d'informations sur l'utilisation de linuxrc, reportez-vous au manuel (Guide d'AutoYaST). Consultez également le document man 4 initrd et la documentation relative aux options dhcp4 "create-cid", dhcp6 "default-duid" dans man 5 wicked-config, wicked duid --help et wicked iaid --help.

17.2 Configuration d'un serveur TFTP

La procédure suivante explique comment préparer le serveur de façon à ce que les machines clientes dotées de UEFI et BIOS puissent démarrer à distance à l'aide des fichiers exportés par TFTP.

17.2.1 Installation d'un serveur TFTP

Pour installer un serveur TFTP, procédez comme suit :

  1. Installez le paquetage tftp.

    tux > sudo zypper in tftp
  2. Révisez la configuration tftpd dans /etc/sysconfig/tftp et ajoutez ou modifiez les options selon vos besoins. Reportez-vous à man 8 tftpd pour plus de détails. Le daemon TFTP fonctionne sans modifier la configuration. Le répertoire racine par défaut des fichiers est /srv/tftpboot.

  3. Assurez-vous que tftpd est lancé au moment du démarrage, puis redémarrez-le pour lire la nouvelle configuration.

    tux > sudo systemctl enable tftp.socket
    tux > sudo systemctl restart tftp.socket

17.2.2 Installation des fichiers de démarrage

SUSE Linux Enterprise Server fournit les fichiers requis pour un démarrage via PXE sur des machines BIOS ou UEFI. Les architectures matérielles suivantes sont prises en charge :

  • AMD64/Intel 64

  • AArch64

  • POWER

  • IBM Z

Les fichiers nécessaires au démarrage à partir d'une architecture matérielle spécifique sont inclus dans un paquetage de RPM. Installez-le sur la machine exécutant le serveur TFTP :

tux > sudo zypper in tftpboot-installation-SLE-OS_VERSION-ARCHITECTURE

Remplacez OS_VERSION (VERSION_SE) par le numéro de version de votre installation SUSE Linux Enterprise Server, par exemple SLE-15-SP2-x86_64, et ARCHITECTURE par l'architecture de votre système, par exemple x86_64. Le texte obtenu ressemble à ceci : tftpboot-installation-SLE-15-SP2-x86_64 Exécutez zypper se tftpboot pour rechercher toutes les versions et architectures disponibles.

Les fichiers seront installés dans /srv/tftpboot/SLE-VERSION_SE-ARCHITECTURE. Vous pouvez également copier les fichiers des autres versions et architectures de SUSE Linux Enterprise Server dans le répertoire /srv/tftpboot.

Astuce
Astuce : diversité des architectures desservies

L'architecture matérielle client et serveur peut varier. Par exemple, vous pouvez exécuter un serveur TFTP AMD64/Intel 64 et fournir un environnement de démarrage pour les machines client AArch64 en installant le paquetage tftpboot-installation-SLE-15-SP2-aarch64.

Note
Note : répertoire /srv/tftpboot/ existant

Si le répertoire /srv/tftpboot existe déjà sur votre machine, tous les fichiers vont être installés à l'emplacement /usr/share/tftpboot-installation/. C'est le cas si vous mettez à niveau votre serveur PXE à partir d'une version précédente de SLES.

Pour résoudre ce problème, copiez les fichiers manuellement à partir de /usr/share/tftpboot-installation/ vers /srv/tftpboot/. Vous pouvez également supprimer /srv/tftpboot/ et réinstaller le paquetage tftpboot-installation-SLE-OS_VERSION-ARCHITECTURE.

17.2.3 Configuration de PXELINUX

Ouvrez le fichier /srv/tftpboot/SLE-OS_VERSION-ARCHITECTURE/net/pxelinux.cfg/default dans un éditeur de texte. Remplacez le chemin d'accès du paramètre install selon votre configuration, comme décrit dans le Chapitre 16, Configuration d'une source d'installation réseau. Remplacez également TFTP_SERVER (SERVEUR_TFTP) par l'adresse IP du serveur TFTP. Pour obtenir une vue d'ensemble des options de configuration PXELINUX, reportez-vous à la Section 17.3, « Options de configuration PXELINUX ».

default linux

# install
label linux
  ipappend 2
  kernel boot/ARCHITECTURE/loader/linux
  append initrd=boot/ARCHITECTURE/loader/initrd instsys=tftp://TFTP_SERVER/SLE-OS_VERSION-ARCHITECTURE/boot/ARCHITECTURE/root install=PROTOCOL://SERVER_IP:/PATH

display  message
implicit 1
prompt  1
timeout  50

Pour plus de détails sur les paramètres de démarrage qui sont utilisés sur la ligne append, reportez-vous à la Section 7.3, « Liste des paramètres de démarrage importants ».

Si nécessaire, modifiez /srv/tftpboot/SLE-OS_VERSION-ARCHITECTURE/net/pxelinux.cfg/message pour afficher un message dans le menu de démarrage.

17.2.4 Préparation du démarrage PXE pour EFI avec GRUB2

Il est inutile de modifier les fichiers de configuration GRUB2. Toutefois, les paramètres par défaut ne comportent pas de source réseau pour le système d'installation. Si vous souhaitez installer entièrement SUSE Linux Enterprise Server via le réseau, ajoutez le paramètre install aux lignes linuxefi dans le fichier /srv/tftpboot/SLE-OS_VERSION-ARCHITECTURE/EFI/BOOT/grub.cfg. Définissez le paramètre install en fonction de votre configuration, comme décrit dans le Chapitre 16, Configuration d'une source d'installation réseau. Pour plus d'informations sur les autres paramètres de démarrage qui sont utilisés dans les lignes efilinux, reportez-vous à la Section 7.3, « Liste des paramètres de démarrage importants ».

17.3 Options de configuration PXELINUX

Les options répertoriées à cet endroit constituent un sous-ensemble de toutes les options disponibles pour le fichier de configuration PXELINUX.

APPEND OPTIONS

Ajoute une ou plusieurs options à la ligne de commande du kernel. Celles-ci sont ajoutées pour les démarrages automatique et manuel. Les options sont ajoutées en tout début de ligne de commande du kernel ; en règle générale, elles peuvent être remplacées par les options de kernel entrées de manière explicite.

APPEND -

N'ajoute rien. APPEND suivi d'un seul tiret, utilisé comme argument dans une section LABEL peut servir à remplacer un APPEND global.

DEFAULT OPTIONS_KERNEL...

Définit la ligne de commande de kernel par défaut. Si PXELINUX démarre automatiquement, il agit comme si les entrées qui figurent après DEFAULT avaient été saisies à l'invite de démarrage, et ce à une exception près : l'option auto est ajoutée automatiquement, ce qui indique un démarrage automatique.

Si aucun fichier de configuration n'existe ou si aucune entrée DEFAULT n'est définie dans le fichier de configuration, la valeur par défaut est le nom de kernel « linux » sans la moindre option.

IFAPPEND FLAG

Ajoute une option spécifique à la ligne de commande du kernel en fonction de la valeur FLAG. L'option IFAPPEND est disponible uniquement sur PXELINUX. FLAG attend une valeur, décrite dans le Tableau 17.1, « Options de ligne de commande de kernel générées et ajoutées en provenance de IFAPPEND » :

Tableau 17.1 : Options de ligne de commande de kernel générées et ajoutées en provenance de IFAPPEND

Argument

Ligne de commande de kernel générée/Description

1

ip=CLIENT_IP:BOOT_SERVER_IP:GW_IP:NETMASK

Les marques de réservation sont remplacées en fonction de l'entrée du serveur de démarrage PXE ou DHCP/BOOTP.

Notez que cette option ne remplace par l'exécution d'un client DHCP sur le système démarré. En l'absence de renouvellements réguliers, le bail obtenu par le BIOS PXE arrive à expiration, ce qui permet au serveur DHCP de réutiliser l'adresse IP.

2

BOOTIF=MAC_ADDRESS_OF_BOOT_INTERFACE

Cette option se révèle particulièrement utile pour éviter les timeouts lorsque le serveur d'installation sonde les interfaces LAN les unes après les autres jusqu'à ce qu'il obtienne une réponse d'un serveur DHCP. Cette option permet à un programme initrd de déterminer l'interface à partir de laquelle le système a démarré. linuxrc lit cette option et utilise cette interface réseau.

4

SYSUUID=SYSTEM_UUID

Ajoute des UUID en hexadécimales minuscules ; voir /usr/share/doc/packages/syslinux/pxelinux.txt

LABEL LABEL KERNEL IMAGE APPEND OPTIONS...

Indique que si LABEL est entré comme étant le kernel à démarrer, PXELINUX doit démarrer à la place IMAGE et les options APPEND spécifiées doivent être utilisées. Elles remplacent celles qui sont spécifiées dans la section globale du fichier avant la première commande LABEL. La valeur par défaut de la variable IMAGE est identique à celle de LABEL ; si aucune option APPEND n'est fournie, l'entrée globale (le cas échéant) est utilisée par défaut. Vous pouvez utiliser jusqu'à 128 entrées LABEL.

PXELINUX utilise la syntaxe suivante :

label MYLABEL
  kernel MYKERNEL
  append MYOPTIONS

Les libellés sont tronqués comme s'il s'agissait de noms de fichiers et ils doivent être uniques après cette opération. Par exemple, les deux libellés « v2.6.30 » et « v2.6.31 » ne pourraient pas être différenciés sous PXELINUX car, une fois tronqués, ils portent tous deux le même nom de fichier DOS.

Le kernel ne doit pas nécessairement être un kernel Linux. Il peut également s'agir d'un secteur de démarrage ou d'un fichier COMBOOT.

LOCALBOOT TYPE

Sous PXELINUX, si vous remplacez une option KERNEL par LOCALBOOT 0, vous appelez ce libellé précis, et entraînez le démarrage du disque local et non du kernel.

Argument

Description

0

Effectue un démarrage normal.

4

Effectue un démarrage local avec le pilote UNDI (Universal Network Driver Interface - Interface de pilote réseau universelle) qui réside toujours en mémoire.

5

Effectue un démarrage local avec l'intégralité de la pile PXE, y compris le pilote UNDI, qui réside toujours en mémoire.

Aucune autre valeur n'est définie. Si vous ne savez pas à quoi correspondent les piles UNDI et PXE, indiquez 0.

TIMEOUT TIME-OUT

Indique la durée d'attente (en 1/10e de seconde) dans l'invite de démarrage, avant que le démarrage automatique soit lancé. Le timeout est annulé dès que l'utilisateur commence à saisir des données ; le système considère que l'utilisateur va terminer la commande initiée. Un timeout de zéro désactive entièrement le timeout (il s'agit également de la valeur par défaut). La valeur maximale de timeout est 35 996 (un peu moins d'une heure).

PROMPT val_drapeau

Si l'option val_drapeau a pour valeur 0, l'invite de démarrage apparaît uniquement si vous appuyez sur la touche Maj ou Alt, ou si Verr. maj ou Arrêt défil est défini (option par défaut). Si val_drapeau a la valeur 1, cet argument affiche toujours l'invite de démarrage.

F2  FILENAME
F1  FILENAME
..etc...
F9  FILENAME
F10 FILENAME

Affiche le fichier indiqué à l'écran lorsque vous appuyez sur une touche de fonction à l'invite de démarrage. Cette option peut être utilisée pour implémenter l'aide en ligne sur le pré-lancement (normalement pour les options de ligne de commande du kernel). Afin d'assurer une compatibilité avec les versions antérieures, vous pouvez également utiliser la touche F10 à la place de F0. Il n'y a actuellement aucun moyen de lier les noms de fichiers aux touches F11 et F12.

17.4 Préparation du système cible pour le démarrage PXE

Préparez le BIOS du système pour le démarrage de l'environnement PXE en incluant l'option PXE dans l'ordre de démarrage du BIOS.

Avertissement
Avertissement : ordre de démarrage du BIOS

Ne placez pas l'option PXE avant le paramètre de démarrage du disque dur dans le BIOS. Le système essaierait sinon de se réinstaller chaque fois que vous le démarrez.

17.5 Préparation du système cible pour la fonction Wake on LAN (réveil à distance)

Pour la fonction Wake on LAN (WOL), vous devez activer l'option BIOS appropriée avant d'effectuer l'installation. Notez également l'adresse MAC du système cible. Ces informations sont nécessaires pour lancer la fonction Wake on LAN.

17.6 Wake on LAN

La fonction Wake on LAN permet à une machine d'être activée par un paquet réseau spécial qui contient l'adresse MAC de la machine. Comme chaque machine au monde dispose d'un identificateur MAC unique, vous ne risquez pas d'activer par erreur la mauvaise machine.

Important
Important : réveil à distance sur différents segments du réseau

Si la machine de contrôle ne se trouve pas sur le même segment de réseau que la cible de la commande WOL, vous avez deux options. Configurez les demandes WOL pour qu'elles soient envoyées en multidiffusion ou contrôlez à distance une machine sur ce segment de réseau pour qu'elle joue le rôle d'expéditeur de ces demandes.

Les utilisateurs de SUSE Linux Enterprise Server peuvent utiliser un module YaST nommé WOL pour configurer facilement la fonction Wake on LAN. Les utilisateurs d'autres versions de systèmes d'exploitation basés sur SUSE Linux peut utiliser un outil de ligne de commande.

17.7 Wake on LAN (réveil à distance) avec YaST

Cette procédure permet de configurer Wake on LAN avec YaST.

  1. Connectez-vous en tant qu'utilisateur root.

  2. Sélectionnez YaST › Services réseau › WOL.

  3. Cliquez sur Ajouter, puis entrez le nom d'hôte et l'adresse MAC du système cible.

  4. Pour activer cette machine, sélectionnez l'entrée appropriée et cliquez sur Réveiller.

Partie V Configuration initiale du système

  • 18 Configuration des composants matériels avec YaST
  • YaST vous permet de configurer des éléments matériels tels que de l'équipement audio, la disposition du clavier système ou encore des imprimantes.

  • 19 Installation et suppression de logiciels
  • Utilisez l'outil de gestion des logiciels de YaST pour rechercher les composants logiciels à ajouter ou à supprimer. YaST résout toutes les dépendances. Pour installer des paquetages non livrés avec le support d'installation, ajoutez des dépôts de logiciels à votre configuration et laissez YaST les gérer. Maintenez votre système à jour en gérant les mises à jour de logiciels à l'aide de l'applet de mise à jour.

  • 20 Installation de modules, extensions et produits complémentaires tiers
  • Les modules et les extensions ajoutent des parties ou des fonctionnalités au système. Ce chapitre couvre leur installation, leur portée, leur état de support et leur cycle de vie.

  • 21 Installation de plusieurs versions du kernel
  • SUSE Linux Enterprise Server prend en charge l'installation parallèle de plusieurs versions du kernel. Lorsque vous installez un deuxième kernel, une entrée de démarrage et un fichier initrd sont automatiquement créés. Aucune autre configuration manuelle n'est donc requise. Lorsque vous redémarrez la machine, le nouveau kernel est disponible sous la forme d'un paramètre de démarrage supplémentaire.

    Cette fonctionnalité vous permet de tester les mises à jour de kernel en toute sécurité, tout en ayant la possibilité de revenir au kernel opérationnel précédent. Pour ce faire, n'utilisez pas les outils de mise à jour (tels que YaST Online Update ou l'applet de mise à jour), mais suivez la procédure décrite dans ce chapitre.

  • 22 Gestion des utilisateurs avec YaST
  • Lors de l'installation, vous pouvez avoir créé un utilisateur local pour votre système. Le module Gestion des utilisateurs et des groupes de YaST vous permet d'ajouter davantage d'utilisateurs ou de modifier des utilisateurs existants. Il vous permet également de configurer votre système afin d'auth…

  • 23 Modification des paramètres de langue et de pays avec YaST
  • Si vous travaillez dans différents pays ou dans un environnement multilingue, votre ordinateur nécessite une configuration spécifique. SUSE® Linux Enterprise Server peut gérer différents paramètres locaux en parallèle. Un paramètre local est un ensemble de paramètres qui définit les paramètres de la…

18 Configuration des composants matériels avec YaST

YaST vous permet de configurer des éléments matériels tels que de l'équipement audio, la disposition du clavier système ou encore des imprimantes.

Note
Note : paramètres de la carte graphique, du moniteur, de la souris et du clavier

La carte graphique, le moniteur, la souris et le clavier peuvent être configurés avec des outils GNOME.

18.1 Configuration de la disposition de votre clavier système

Le module Configuration du clavier système de YaST vous permet de définir la disposition par défaut pour ce système (cette disposition est également utilisée pour la console). Les utilisateurs peuvent modifier la disposition du clavier dans leurs sessions X à l'aide des outils du bureau.

  1. Ouvrez la boîte de dialogue Configuration du clavier système de YaST en cliquant sur Matériel › Configuration du clavier système dans YaST. Vous pouvez également démarrer le module en saisissant sudo yast2 keyboard sur la ligne de commande.

  2. Sélectionnez la Configuration de clavier de votre choix dans la liste.

  3. Vous pouvez éventuellement définir le taux de répétition ou de délai du clavier dans les Paramètres avancés.

  4. Vous pouvez essayer les paramètres sélectionnés dans la zone de texte Test.

  5. Si le résultat est conforme à vos attentes, confirmez vos modifications et fermez la boîte de dialogue. Les paramètres sont écrits dans /etc/sysconfig/keyboard.

18.2 Configuration des cartes son

YaST détecte automatiquement la plupart des cartes son et les configure avec les valeurs appropriées. Pour modifier les paramètres par défaut ou si vous devez configurer une carte son qui n'a pas pu être configurée automatiquement, utilisez le module YaST relatif au son. Ce module vous permet également de configurer des cartes son supplémentaires ou de modifier leur ordre.

Pour démarrer le module de son, lancez YaST, puis cliquez sur Matériel › Son. Vous pouvez également ouvrir directement la boîte de dialogue Configuration du son à partir d'une ligne de commande en exécutant la commande yast2 sound & en tant qu'utilisateur root. Si le module son n'est pas disponible, installez-le à l'aide de la commande sudo zypper install yast2-sound.

Image

La boîte de dialogue affiche toutes les cartes son détectées.

Procédure 18.1 : Configuration des cartes son

Si vous avez ajouté une nouvelle carte son ou si YaST n'a pas réussi à configurer automatiquement une carte son existante, suivez la procédure ci-après. Pour configurer une nouvelle carte son, vous devez connaître le fournisseur de votre carte et son modèle. En cas de doute, reportez-vous à la documentation de votre carte son pour obtenir les informations requises. Pour accéder à une liste de référence répertoriant les cartes son prises en charge par ALSA avec leur module de son correspondant, visitez le site http://www.alsa-project.org/main/index.php/Matrix:Main.

Pendant la configuration, vous pouvez choisir parmi les options de configuration suivantes :

Configuration automatique rapide

Vous n'avez pas besoin d'exécuter la procédure suivante ; la carte son est configurée automatiquement. Vous pouvez définir le volume ou toutes les options que vous souhaitez modifier ultérieurement.

Configuration normale

Permet de régler le volume de sortie et de tester le son pendant la configuration.

Configuration avancée avec possibilité de changer les options

Pour les utilisateurs avancés uniquement. Permet de personnaliser tous les paramètres de la carte son.

Important
Important : configuration avancée

Utilisez cette option uniquement si vous savez exactement ce que vous faites. Sinon, ne modifiez pas les paramètres et utilisez les options de configuration normale ou automatique.

  1. Démarrez le module YaST relatif au son.

  2. Pour configurer une carte son détectée mais non configurée, sélectionnez l'entrée correspondante dans la liste, puis cliquez sur Modifier.

    Pour configurer une nouvelle carte son, cliquez sur Ajouter. Sélectionnez le fournisseur et le modèle de votre carte son, puis cliquez sur Suivant.

  3. Sélectionnez l'une des options de configuration, puis cliquez sur Suivant.

  4. Si vous avez choisi Configuration normale, vous pouvez maintenant tester la configuration du son et régler le volume. Commencez aux alentours de 10 % pour éviter d'endommager vos haut-parleurs ou vos tympans.

  5. Une fois toutes les options définies selon votre choix, cliquez sur suivant.

    La boîte de dialogue Configuration du son affiche la carte son qui vient d'être configurée ou modifiée.

  6. Pour supprimer la configuration d'une carte son que vous n'utilisez plus, sélectionnez l'entrée correspondante, puis cliquez sur Supprimer.

  7. Cliquez sur OK pour enregistrer les modifications et quitter le module YaST relatif au son.

Procédure 18.2 : Modification des configurations de cartes son
  1. Pour modifier la configuration d'une carte son individuelle (pour les utilisateurs avancés uniquement), sélectionnez l'entrée de la carte son dans la boîte de dialogue Configuration du son, puis cliquez sur Modifier.

    Vous accédez ainsi à la section Options avancées de la carte son dans laquelle vous pouvez configurer plusieurs paramètres. Pour plus d'informations, cliquez sur Aide.

  2. Pour régler le volume d'une carte son déjà configurée ou pour tester la carte son, sélectionnez l'entrée correspondante dans la boîte de dialogue Configuration du son, puis cliquez sur Autre. Sélectionnez l'option de menu correspondante.

    Note
    Note : console de mixage YaST

    Les paramètres de la console de mixage YaST proposent uniquement des options de base. Celles-ci sont conçues à des fins de dépannage (par exemple si un son de test n'est pas audible). Accédez aux paramètres de la console de mixage YaST depuis Autre › Volume. Pour un usage quotidien ou pour définir plus précisément les options de son, utilisez l'applet du mélangeur fourni par votre ordinateur ou l'outil de ligne de commande alsasound.

  3. Pour la lecture des fichiers MIDI, sélectionnez Autre › Démarrer le séquenceur.

  4. Lorsqu'une carte son prise en charge est détectée, vous pouvez installer SoundFonts pour la lecture de fichiers MIDI :

    1. Insérez le CD-ROM du pilote d'origine dans votre lecteur de CD ou de DVD.

    2. Sélectionnez Autre › Installer les fontes sonores pour copier SF2 SoundFonts™ sur votre disque dur. Les fontes sonores sont enregistrées dans le répertoire /usr/share/sfbank/creative/.

  5. Si vous avez configuré plusieurs cartes son sur votre système, vous pouvez modifier l'ordre de vos cartes. Pour configurer une carte son en tant que périphérique principal, sélectionnez la carte dans la section Configuration du son, puis cliquez sur Autre › Définir comme carte primaire. Le périphérique audio ayant l'index 0 est le périphérique par défaut utilisé par le système et les applications.

  6. Par défaut, SUSE Linux Enterprise Server utilise le système audio PulseAudio. Il s'agit d'une couche d'abstraction qui permet de mélanger plusieurs flux audio en contournant les éventuelles restrictions matérielles. Pour activer ou désactiver le système audio PulseAudio, cliquez sur Autre › Configuration PulseAudio. S'il est activé, la daemon PulseAudio est utilisé pour lire les sons. Désactivez la prise en charge PulseAudio pour utiliser une alternative à l'échelle du système.

Le volume et la configuration de toutes les cartes son s'enregistrent lorsque vous cliquez sur OK et que vous quittez le module YaST relatif au son. Les paramètres du mélangeur sont enregistrés dans le fichier /etc/asound.state. Les données de configuration ALSA sont annexées à la fin du fichier /etc/modprobe.d/sound et écrites sur /etc/sysconfig/sound.

18.3 Configuration d'une imprimante

YaST peut être utilisé pour configurer une imprimante locale reliée à votre machine via un port USB et pour configurer les impressions avec des imprimantes réseau. Il est également possible de partager des imprimantes sur le réseau. Pour plus d'informations sur l'impression (informations générales, détails techniques et dépannage), reportez-vous au Book “Administration Guide”, Chapter 20 “Printer Operation” (Guide d'administration, Chapitre 20 « Opération d'impression »).

Dans YaST, cliquez sur Matériel › Imprimante pour lancer le module relatif aux imprimantes. La vue Configurations d'imprimantes s'ouvre par défaut en affichant la liste de toutes les imprimantes disponibles et configurées. Cette vue est particulièrement utile en cas d'accès à un grand nombre d'imprimantes via le réseau. Elle permet également d'imprimer une page de test et de configurer des imprimantes.

Note
Note : démarrage de CUPS

Pour imprimer à partir de votre système, CUPS doit être en cours d'exécution. S'il ne l'est pas, vous êtes invité à le démarrer. Répondez Oui, faute de quoi vous ne pourrez pas configurer l'impression. Si CUPS n'est pas lancé au moment du démarrage, vous serez également invité à activer cette fonction. Il est recommandé de répondre Oui, faute de quoi vous devrez démarrer CUPS manuellement après chaque redémarrage.

18.3.1 Configuration des imprimantes

En général, une imprimante USB est détectée automatiquement. Si ce n'est pas le cas, deux explications sont possibles :

  • L'imprimante USB est hors tension.

  • La communication entre l'imprimante et l'ordinateur est impossible. Vérifiez le câblage et les fiches pour vous assurer que l'imprimante est correctement connectée. Si tel est le cas, le problème n'est peut-être pas lié à l'imprimante, mais plutôt au port USB.

La configuration d'une imprimante s'effectue en trois étapes. Commencez par spécifier le type de connexion, puis choisissez un pilote et nommez la file d'attente d'impression pour cette configuration.

Pour de nombreux modèles d'imprimantes, plusieurs pilotes sont disponibles. Lors de la configuration de l'imprimante, YaST utilise par défaut les pilotes marqués comme recommandés. Il n'est généralement pas nécessaire de modifier le pilote. Toutefois, si vous souhaitez qu'une imprimante couleur imprime uniquement en noir et blanc, vous pouvez utiliser un pilote qui ne prend pas en charge l'impression couleur, par exemple. Si vous rencontrez des problèmes de performances avec une imprimante PostScript lors de l'impression de graphiques, essayez de passer d'un pilote PostScript à un pilote PCL (si votre imprimante prend en charge PCL).

Si aucun pilote n'est répertorié pour votre imprimante, essayez de sélectionner un pilote générique avec une langue standard appropriée dans la liste. Reportez-vous à la documentation de votre imprimante pour déterminer le langage (ensemble de commandes contrôlant l'imprimante) pris en charge par votre imprimante. Si cela ne fonctionne pas, reportez-vous à la Section 18.3.1.1, « Ajout de pilotes avec YaST » pour trouver une autre solution.

Une imprimante n'est jamais utilisée directement, mais toujours via une file d'attente d'impression. Cette file d'attente garantit que les travaux simultanés peuvent être mis en attente et traités les uns après les autres. Chaque file d'attente d'impression est assignée à un pilote spécifique et l'imprimante peut comporter plusieurs files d'attente. Cela permet de configurer une seconde file d'attente sur une imprimante couleur qui imprime uniquement en noir et blanc, par exemple. Pour plus d'informations sur les files d'attente d'impression, reportez-vous au Book “Administration Guide”, Chapter 20 “Printer Operation”, Section 20.1 “The CUPS Workflow” (Guide d'administration, Chapitre 20 « Opération d'impression », Section 20.1 « Workflow CUPS »).

Procédure 18.3 : Ajout d'une nouvelle imprimante
  1. Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel › Imprimante.

  2. Cliquez sur Ajouter dans l'écran Configurations d'imprimantes .

  3. Si votre imprimante figure déjà sous Spécifier la connexion, passez à l'étape suivante. Sinon, sélectionnez Détecter plus d'éléments ou lancez l'assistant de connexion.

  4. Entrez le nom du fournisseur et du modèle dans la zone de texte située sous Rechercher et assigner un pilote, puis cliquez sur Rechercher.

  5. Sélectionnez un pilote qui correspond à votre imprimante. Il est recommandé de sélectionner le premier pilote de la liste. Si aucun pilote approprié n'est affiché :

    1. Vérifiez votre terme de recherche.

    2. Élargissez votre recherche en cliquant sur Trouver plus d'éléments.

    3. Ajoutez un pilote selon la procédure décrite dans la Section 18.3.1.1, « Ajout de pilotes avec YaST ».

  6. Spécifiez le paramètre Taille du papier par défaut.

  7. Dans le champ Définir un nom arbitraire, entrez un nom unique pour la file d'attente d'impression.

  8. L'imprimante est désormais configurée avec les paramètres par défaut et prête à l'emploi. Cliquez sur OK pour revenir à la vue Configurations d'imprimantes. L'imprimante qui vient d'être configurée apparaît désormais dans la liste des imprimantes.

18.3.1.1 Ajout de pilotes avec YaST

Tous les pilotes d'imprimante disponibles pour SUSE Linux Enterprise Server ne sont pas installés par défaut. Si lors de l'ajout d'une nouvelle imprimante, aucun pilote approprié n'est disponible dans la boîte de dialogue Rechercher et assigner un pilote, installez un paquetage de pilotes pour vos imprimantes :

Procédure 18.4 : Installation de paquetages de pilotes supplémentaires
  1. Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel › Imprimante.

  2. Cliquez sur Ajouter dans l'écran Configurations d'imprimantes.

  3. Cliquez sur Driver Packages (Paquetages de pilote) dans la section Find and Assign a Driver (Trouver et assigner un pilote).

  4. Sélectionnez un ou plusieurs paquetages de pilotes appropriés dans la liste. Ne spécifiez pas le chemin d'un fichier de description d'imprimante.

  5. Cliquez sur OK et confirmez l'installation du paquetage.

  6. Pour utiliser ces pilotes directement, suivez la Procédure 18.3, « Ajout d'une nouvelle imprimante ».

Les imprimantes PostScript ne nécessitent pas de logiciel de pilote d'imprimante. Elles ont uniquement besoin d'un fichier PPD (PostScript Printer Description) qui correspond au modèle particulier. Les fichiers PPD sont fournis par le fabricant de l'imprimante.

Si lors de l'ajout d'une imprimante PostScript, aucun fichier PPD approprié n'est disponible dans la boîte de dialogue Rechercher et assigner un pilote, installez un fichier PPD pour votre imprimante :

Plusieurs sources de fichiers PPD sont disponibles. Essayez d'abord les paquetages de pilotes supplémentaires fournis avec SUSE Linux Enterprise Server, mais qui ne sont pas installés par défaut (voir les instructions d'installation ci-dessous). S'ils ne contiennent pas de pilotes appropriés pour votre imprimante, procurez-vous les fichiers PPD directement auprès de votre fournisseur d'imprimantes ou sur le CD de pilotes d'une imprimante PostScript. Pour plus de détails, reportez-vous au Book “Administration Guide”, Chapter 20 “Printer Operation”, Section 20.8.2 “No Suitable PPD File Available for a PostScript Printer” (Guide d'administration, Chapitre 20 « Opération d'impression », Section 20.8.2 « Absence de fichier PPD adéquat pour une imprimante PostScript »). Vous pouvez également accéder aux fichiers PPD à l'adresse http://www.linuxfoundation.org/collaborate/workgroups/openprinting/database/databaseintro, la « base de données d'imprimantes OpenPrinting.org ». Lorsque vous téléchargez des fichiers PPD à partir du site OpenPrinting, n'oubliez pas qu'ils affichent toujours l'état du dernier support Linux, qui ne correspond pas forcément à celui de SUSE Linux Enterprise Server.

Procédure 18.5 : Ajout d'un fichier PPD pour des imprimantes PostScript
  1. Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel › Imprimante.

  2. Cliquez sur Ajouter dans l'écran Configurations d'imprimantes.

  3. Cliquez sur Driver Packages (Paquetages de pilote) dans la section Find and Assign a Driver (Trouver et assigner un pilote).

  4. Entrez le chemin complet du fichier PPD dans la zone de texte située sous Rendre un fichier de description d'imprimante disponible.

  5. Cliquez sur OK pour revenir à l'écran Ajouter une nouvelle imprimante.

  6. Pour utiliser directement ce fichier PPD, suivez la Procédure 18.3, « Ajout d'une nouvelle imprimante ».

18.3.1.2 Modification d'une configuration d'imprimante locale

En éditant la configuration existante d'une imprimante, vous pouvez modifier des paramètres de base tels que le type de connexion et le pilote. Il est également possible d'ajuster les paramètres par défaut tels que le format du papier, la résolution, la source du média, etc. Vous pouvez modifier les identifiants de l'imprimante en changeant la description ou l'emplacement de l'imprimante.

  1. Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel › Imprimante.

  2. Dans l'écran Configurations d'imprimantes, sélectionnez une configuration d'imprimante locale dans la liste, puis cliquez sur Modifier.

  3. Modifiez le type de connexion ou le pilote, conformément à la Procédure 18.3, « Ajout d'une nouvelle imprimante ». Cela ne devrait être nécessaire que si vous rencontrez des problèmes avec la configuration actuelle.

  4. Vous pouvez également définir cette imprimante comme celle par défaut en cochant la case Imprimante par défaut.

  5. Modifiez les paramètres par défaut en cliquant sur Toutes les options du pilote actuel. Pour modifier un paramètre, développez la liste des options en cliquant sur le signe +. Modifiez le paramètre par défaut en cliquant sur une option. Cliquez sur OK pour appliquer vos modifications.

18.3.2 Configuration de l'impression via le réseau avec YaST

Les imprimantes réseau ne sont pas détectées automatiquement. Elles doivent être configurées manuellement à l'aide du module YaST relatif aux imprimantes. En fonction de votre configuration réseau, vous pouvez imprimer sur un serveur d'impression (CUPS, LPD, SMB ou IPX) ou directement sur une imprimante réseau (via TCP de préférence). Accédez à la vue de configuration réseau en sélectionnant Imprimer par le réseau dans le volet gauche du module YaST relatif aux imprimantes.

18.3.2.1 Utilisation de CUPS

Dans un environnement Linux, CUPS est généralement utilisé pour imprimer via le réseau. La configuration la plus simple consiste à imprimer via un seul serveur CUPS auquel tous les clients peuvent accéder directement. L'impression via plusieurs serveurs CUPS nécessite l'exécution du daemon CUPS local qui communique avec les serveurs CUPS distants.

Important
Important : navigation dans les files d'attente d'impression réseau

Les serveurs CUPS publient leurs files d'attente d'impression sur le réseau via le protocole de navigation traditionnel CUPS ou Bonjour/DNS-SD. Les clients doivent parcourir ces listes afin que les utilisateurs puissent sélectionner des imprimantes spécifiques auxquelles envoyer leurs travaux d'impression. Pour pouvoir naviguer dans les files d'attente d'impression réseau, le service cups-browsed fourni par le paquetage cups-filters-cups-browsed doit s'exécuter sur tous les clients qui impriment via les serveurs CUPS. cups-browsed est démarré automatiquement lors de la configuration de l'impression réseau avec YaST.

Si la navigation ne fonctionne pas après le démarrage de cups-browsed, les serveurs CUPS annoncent probablement les files d'attente d'impression réseau via Bonjour/DNS-SD. Dans ce cas, vous devez également installer le paquetage avahi et démarrer le service associé en exécutant la commande sudo systemctl start avahi-daemon sur tous les clients.

Procédure 18.6 : Impression via un seul serveur CUPS
  1. Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel › Imprimante.

  2. Ouvrez l'écran Imprimer via le réseau à partir du volet gauche.

  3. Sélectionnez Do All Your Printing Directly via One Single CUPS Server (Tout imprimer directement via un seul serveur CUPS) et spécifiez le nom ou l'adresse IP du serveur.

  4. Cliquez sur Tester le serveur pour vous assurer que vous avez sélectionné le nom ou l'adresse IP appropriée.

  5. Cliquez sur OK pour revenir à l'écran Configurations d'imprimantes. Toutes les imprimantes disponibles via le serveur CUPS sont désormais répertoriées.

Procédure 18.7 : Impression via plusieurs serveurs CUPS
  1. Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel › Imprimante.

  2. Ouvrez l'écran Imprimer via le réseau à partir du volet gauche.

  3. Cochez la case Accepter les annonces d'imprimantes depuis les serveurs CUPS.

  4. Spécifiez les serveurs que vous souhaitez utiliser sous Paramètres généraux. Vous pouvez accepter les connexions de tous les réseaux disponibles ou de certains hôtes spécifiques. Si vous choisissez la dernière option, vous devez spécifier les noms d'hôte ou les adresses IP.

  5. Confirmez en cliquant sur OK, puis sur Oui lorsque vous êtes invité à démarrer un serveur CUPS local. Une fois le serveur démarré, YaST revient à l'écran Configurations d'imprimantes. Cliquez sur Rafraîchir la liste pour afficher les imprimantes détectées jusqu'à maintenant. Cliquez de nouveau sur ce bouton si d'autres imprimantes supplémentaires sont disponibles.

18.3.2.2 Utilisation de serveurs d'impression autres que CUPS

Si votre réseau offre des services d'impression via des serveurs autres que CUPS, lancez le module YaST relatif aux imprimantes en cliquant sur Matériel › Imprimante, puis ouvrez l'écran Imprimer par le réseau à partir du volet gauche. Démarrez l'Assistant de connexion et sélectionnez le Type de connexion approprié. Demandez à votre administrateur réseau des détails sur la configuration d'une imprimante réseau dans votre environnement.

18.3.3 Partage des imprimantes sur le réseau

Les imprimantes gérées par un daemon CUPS local peuvent être partagées sur le réseau, transformant ainsi votre machine en serveur CUPS. Généralement, vous partagez une imprimante en activant le « mode de navigation » dans CUPS. Si la navigation est activée, les files d'attente d'impression locale sont mises à disposition sur le réseau pour écouter les daemons CUPS distants. Il est également possible de configurer un serveur CUPS dédié qui gère toutes les files d'attente d'impression et auquel les clients distants peuvent accéder directement. Dans ce cas, il n'est pas nécessaire d'activer la navigation.

Procédure 18.8 : Partage des imprimantes
  1. Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel › Imprimante.

  2. Ouvrez l'écran Partager les imprimantes dans le volet gauche.

  3. Sélectionnez Autoriser l'accès distant. Sélectionnez également Pour les ordinateurs dans le réseau local et activez le mode de navigation en sélectionnant également Publier les imprimantes par défaut dans le réseau local.

  4. Cliquez sur OK pour redémarrer le serveur CUPS et revenir à l'écran Configurations d'imprimantes.

  5. Pour plus d'informations sur les paramètres de CUPS et du pare-feu, visitez le site http://en.opensuse.org/SDB:CUPS_and_SANE_Firewall_settings.

19 Installation et suppression de logiciels

Utilisez l'outil de gestion des logiciels de YaST pour rechercher les composants logiciels à ajouter ou à supprimer. YaST résout toutes les dépendances. Pour installer des paquetages non livrés avec le support d'installation, ajoutez des dépôts de logiciels à votre configuration et laissez YaST les gérer. Maintenez votre système à jour en gérant les mises à jour de logiciels à l'aide de l'applet de mise à jour.

Modifiez la collection de logiciels de votre système via le gestionnaire de logiciels YaST. Ce module YaST est disponible en deux variantes : une variante graphique pour X Window et une variante texte à utiliser sur la ligne de commande. La variante graphique est décrite ici. Pour plus d'informations sur la variante texte de Yast, consultez le Book “Administration Guide”, Chapter 4 “YaST in Text Mode” (Guide d'administration, Chapitre 4 « YaST en mode texte »).

Note
Note : confirmation et vérification des modifications

Lors de l'installation, de la mise à jour ou de la suppression de paquetages, les modifications apportées au gestionnaire de logiciels ne sont appliquées qu'une fois que vous avez cliqué sur Accepter ou Appliquer. YaST conserve une liste répertoriant toutes les actions, qui vous permet de vérifier et de modifier vos changements avant de les appliquer au système.

19.1 Définition des termes utilisés

Les termes suivants sont essentiels à la compréhension de l'installation et la suppression de logiciels dans SUSE Linux Enterprise Server (SLES).

Dépôt

Répertoire local ou distant contenant des paquetages logiciels et des informations supplémentaires sur ces paquetages (métadonnées de paquetage).

(Dépôt) Alias/Nom de dépôt

Nom court donné à un dépôt (appelé Alias dans Zypper et Nom de dépôt dans YaST). Il peut être choisi par l'utilisateur lors de l'ajout d'un dépôt ; il doit être unique.

Fichiers de description du dépôt

Chaque dépôt fournit des fichiers décrivant le contenu du dépôt (noms des paquetage, versions, etc.). Ces fichiers de description du dépôt sont téléchargés dans un cache local utilisé par YaST.

Produit

Représente un produit complet, par exemple SUSE® Linux Enterprise Server.

Modèle

Un modèle est un groupe de paquetages installable et ayant un rôle spécifique. Par exemple, le modèle Ordinateur portable contient tous les paquetages nécessaires dans un environnement d'informatique mobile. Les modèles définissent des dépendances de paquetages (comme les paquetages requis ou recommandés) et sont fournis avec une présélection de paquetages marqués en vue d'une installation. Ceci garantit que les paquetages les plus importants nécessaires dans un but spécifique sont disponibles sur votre système après l'installation du modèle. Si nécessaire, vous pouvez sélectionner ou désélectionner manuellement des paquetages dans un modèle.

Paquetage

Un paquetage est un fichier compressé au format rpm qui contient les fichiers d'un programme particulier.

Correctif

Un correctif comporte un ou plusieurs paquetages et peut être appliqué via des deltarpm. Il peut également introduire des dépendances dans les paquetages qui ne sont pas encore installés.

Correctif

Terme générique désignant un produit, un modèle, un logiciel ou un correctif. Les types les plus utilisés sont le logiciel ou le correctif.

deltarpm

Un deltarpm se compose uniquement des différentiels binaires compris entre deux versions définies d'un paquetage. Il a donc la taille de téléchargement la plus petite. Avant son installation, l'intégralité du paquetage RPM est reconstruit sur la machine locale.

Dépendances des paquetages

Certains paquetages, comme les bibliothèques partagées, dépendent d'autres paquetages. En d'autres termes, un paquetage peut nécessiter la présence d'autres paquetages. Si les paquetages requis ne sont pas disponibles, le paquetage ne peut pas être installé. En plus des dépendances (exigences de paquetages) obligatoires, certains paquetages recommandent la présence d'autres paquetages. Ces paquetages recommandés ne sont installés que s'ils sont actuellement disponibles. Dans le cas contraire, ils sont ignorés et le paquetage qui les recommande est installé malgré tout.

19.2 Enregistrement d'un système installé

Si vous avez ignoré l'enregistrement pendant l'installation ou que vous souhaitez réenregistrer votre système, vous pouvez enregistrer le système à tout moment. Utilisez le module YaST Enregistrement de votre produit ou l'outil de ligne de commande SUSEConnect.

19.2.1 Enregistrement avec YaST

Pour enregistrer le système, démarrez YaST et basculez vers Logiciel, puis Enregistrement de votre produit.

Par défaut, le système est enregistré auprès du Novell SUSE Customer Center. Si votre entreprise propose des serveurs d'enregistrement locaux, vous pouvez en choisir un dans la liste des serveurs détectés automatiquement ou fournir l'URL manuellement.

19.2.2 Enregistrement avec SUSEConnect

Pour vous enregistrer à partir de la ligne de commande, utilisez la commande

tux > sudo SUSEConnect -r REGISTRATION_CODE -e EMAIL_ADDRESS

Remplacez REGISTRATION_CODE (CODE_ENREGISTREMENT) par le code d'enregistrement que vous avez reçu avec votre exemplaire de SUSE Linux Enterprise Server. Remplacez EMAIL_ADDRESS (ADRESSE_ÉLECTRONIQUE) par l'adresse électronique associée au compte SUSE que vous ou votre entreprise utilisez pour gérer les abonnements.

Pour effectuer l'enregistrement sur un serveur d'enregistrement local, fournissez également l'URL du serveur :

tux > sudo SUSEConnect -r REGISTRATION_CODE -e EMAIL_ADDRESS --url "URL"

19.3 Utilisation du gestionnaire de logiciels de YaST

Démarrez le gestionnaire de logiciels à partir du Centre de contrôle YaST en sélectionnant Logiciel › Gestion des logiciels.

Image

19.3.2 Installation et suppression des paquetages ou des modèles

Certains paquetages, comme les bibliothèques partagées, dépendent d'autres paquetages. Par ailleurs, certains paquetages ne peuvent pas coexister avec d'autres sur le système. Si possible, YaST résout automatiquement ces dépendances ou ces conflits. Si votre choix entraîne un conflit de dépendances qui ne peut être résolu automatiquement, vous devez le résoudre manuellement en suivant la procédure décrite dans la Section 19.3.4, « Dépendances des paquetages ».

Note
Note : suppression de paquetages

Lors de la suppression de paquetages, YaST supprime par défaut les paquetages sélectionnés uniquement. Si vous souhaitez que YaST supprime également tous les autres paquetages devenus inutiles après la suppression du paquetage spécifié, sélectionnez Options › Nettoyer lors de la suppression des paquetages dans le menu principal.

  1. Recherchez les paquetages conformément à la procédure décrite dans la Section 19.3.1, « Vues de recherche de paquetages ou de modèles ».

  2. Les paquetages trouvés s'affichent dans le volet droit. Pour installer ou supprimer un paquetage, cliquez dessus avec le bouton droit de la souris et sélectionnez Installer ou Supprimer. Si l'option appropriée n'est pas disponible, vérifiez l'état du paquetage marqué par le symbole situé en regard de son nom. Appuyez sur MajF1 pour obtenir de l'aide.

    Astuce
    Astuce : application d'une action sur tous les paquetages répertoriés

    Pour appliquer une action sur tous les paquetages répertoriés dans le volet droit, accédez au menu principal et choisissez une action dans Paquetage › Tout dans cette liste.

  3. Pour installer un modèle, cliquez avec le bouton droit de la souris sur son nom et sélectionnez Installer.

  4. Il est impossible de supprimer un modèle. Sélectionnez plutôt les paquetages d'un modèle à supprimer et marquez-les pour suppression.

  5. Pour sélectionner davantage de paquetages, répétez les étapes ci-dessus.

  6. Avant d'appliquer vos modifications, vous pouvez les vérifier ou les modifier en cliquant sur Afficher › Résumé de l'installation. Tous les paquetages qui changeront d'état sont affichés par défaut.

  7. Pour restaurer l'état d'un paquetage, cliquez dessus avec le bouton droit de la souris et sélectionnez l'une des entrées suivantes : Conserver si sa suppression ou sa mise à jour a été programmée ou Ne pas installer si son installation a été programmée. Pour abandonner toutes les modifications et quitter le gestionnaire de logiciels, cliquez sur Annuler et Abandonner.

  8. Lorsque vous avez terminé, cliquez sur Accepter pour appliquer vos modifications.

  9. Si YaST a trouvé des dépendances sur d'autres paquetages, une liste des paquetages ayant été choisis pour l'installation, la mise à jour ou la suppression s'affiche. Cliquez sur Continuer pour les accepter.

    Une fois que les paquetages sélectionnés sont installés, mis à jour ou supprimés, le gestionnaire de logiciels YaST termine le processus automatiquement.

Note
Note : installation des paquetages sources

Actuellement, le gestionnaire de logiciels YaST ne permet pas l'installation de paquetages sources. Pour y parvenir, utilisez l'outil de la ligne de commande zypper. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 6 “Managing Software with Command Line Tools”, Section 6.1.3.5 “Installing or Downloading Source Packages” (Guide d'administration, Chapitre 6 « Gestion des logiciels avec les outils de ligne de commande », Section 6.1.3.5 « Installation ou téléchargement de paquetages sources »).

19.3.3 Mise à jour des paquetages

Au lieu de mettre à jour des paquetages individuels, vous pouvez également mettre à jour tous les paquetages installés ou tous les paquetages provenant d'un dépôt spécifique. En cas de mise à jour de masse des paquetages, les points suivants sont généralement pris en compte :

  • Priorités des dépôts fournissant le paquetage

  • Architecture du paquetage (par exemple, AMD64/Intel 64)

  • Numéro de version du paquetage

  • Fournisseur du paquetage

Le point le plus important pour le choix des candidats à la mise à jour dépend de l'option de mise à jour que vous avez sélectionnée.

  1. Pour mettre à jour tous les paquetages installés vers la dernière version, sélectionnez Paquetage › Tous les paquetages › Mettre à jour si une nouvelle version est disponible dans le menu principal.

    Tous les dépôts sont sélectionnés en tant que candidats potentiels à la mise à jour conformément à la stratégie suivante : YaST commence par essayer de limiter la recherche aux paquetages ayant la même architecture et le même fournisseur que le paquetage installé. Si la recherche propose des résultats, le « meilleur » candidat à la mise à jour est sélectionné conformément au processus ci-dessous. Toutefois, si aucun paquetage comparable du même fournisseur n'est trouvé, la recherche est élargie à tous les paquetages ayant la même architecture. Si aucun paquetage correspondant n'est trouvé, tous les paquetages sont considérés et le « meilleur » candidat à la mise à jour est sélectionné en fonction des critères suivants :

    1. Priorité du dépôt : privilégiez le paquetage provenant du dépôt ayant la priorité la plus élevée.

    2. Si plusieurs paquetages sont sélectionnés, choisissez celui présentant la « meilleure » architecture (meilleur choix : faire correspondre l'architecture avec celle du paquetage installé).

    Si le paquetage trouvé dispose d'un numéro de version supérieur à celui du paquetage installé, ce dernier sera mis à jour et remplacé par le candidat à la mise à jour sélectionné.

    Cette option tente d'éviter les modifications au niveau de l'architecture et du fournisseur pour les paquetages installés, mais il arrive qu'elles soient tolérées.

    Note
    Note : mise à jour inconditionnelle

    Si vous sélectionnez Paquetage › Tous les paquetages › Mise à jour inconditionnelle, les mêmes critères s'appliquent, mais le paquetage candidat est installé de façon inconditionnelle. Cette option peut donc entraîner des mises à niveau vers des versions antérieures de certains paquetages.

  2. Pour s'assurer que le paquetage prévu pour une mise à jour de masse provient d'un dépôt spécifique, procédez comme suit :

    1. Sélectionnez le dépôt à partir duquel vous souhaitez procéder à la mise à jour conformément à la procédure décrite dans la Section 19.3.1, « Vues de recherche de paquetages ou de modèles » .

    2. À droite de la fenêtre, cliquez sur Basculer les paquetages système vers les versions dans ce dépôt. Ceci permet explicitement à YaST de modifier le fournisseur du paquetage lors du remplacement des paquetages.

      Lorsque vous cliquez sur Accepter, tous les paquetages installés seront remplacés par des paquetages dérivés de ce dépôt, le cas échéant. Ceci peut entraîner des changements au niveau du fournisseur et de l'architecture, voire la mise à niveau vers une version antérieure de certains paquetages.

    3. Pour éviter ceci, cliquez sur Annuler le basculement des paquetages du système vers les versions dans ce dépôt. Notez que vous ne pourrez plus annuler après avoir cliqué sur le bouton Accepter.

  3. Avant d'appliquer vos modifications, vous pouvez les vérifier ou les modifier en cliquant sur Afficher › Résumé de l'installation. Tous les paquetages qui changeront d'état sont affichés par défaut.

  4. Si toutes les options sont définies conformément à vos besoins, confirmez vos modifications en cliquant sur Accepter pour lancer la mise à jour de masse.

19.3.4 Dépendances des paquetages

La plupart des paquetages dépendent d'autres paquetages. Par exemple, si un paquetage utilise une bibliothèque partagée, il dépend alors du paquetage fournissant cette bibliothèque. Par ailleurs, certains paquetages ne peuvent pas coexister sous peine d'engendrer un conflit (par exemple, vous pouvez installer un seul agent de transfert de messages électroniques : Sendmail ou Postfix). Lors de l'installation ou de la suppression d'un logiciel, le gestionnaire de logiciels s'assure que tous les conflits ou dépendances sont résolus pour garantir l'intégrité du système.

S'il n'existe qu'une solution permettant de résoudre une dépendance ou un conflit, ces derniers sont résolus automatiquement. Les solutions multiples entraînent toujours un conflit qui nécessite une résolution manuelle. Si la résolution du conflit implique un changement de fournisseur ou d'architecture, elle doit également être exécutée manuellement. Lorsque vous cliquez sur Accepter pour appliquer les modifications dans le gestionnaire de logiciels, vous obtenez un aperçu de toutes les actions déclenchées par le résolveur automatique que vous devrez confirmer.

Par défaut, les dépendances sont automatiquement contrôlées. Un contrôle est exécuté à chaque fois que l'état d'un paquetage change (par exemple, lors de la définition d'un paquetage en vue de son installation ou de sa suppression). En général, cette opération est utile mais peut vite devenir fastidieuse lors de la résolution manuelle d'un conflit de dépendances. Pour désactiver cette fonction, accédez au menu principal et désélectionnez Dépendances › Vérification automatique. Pour exécuter un contrôle de dépendance manuel, sélectionnez Dépendances › Vérifier maintenant. Une vérification de cohérence est effectuée à chaque fois que vous confirmez votre sélection avec Accepter.

Pour vérifier les dépendances d'un paquetage, cliquez dessus avec le bouton droit de la souris, puis sélectionnez Afficher les informations sur le solutionneur. Une carte des dépendances s'affiche. Les paquetages déjà installés s'affichent dans un cadre vert.

Note
Note : résolution manuelle des conflits de paquetages

Si vous n'êtes pas un utilisateur expérimenté, il est recommandé de suivre les suggestions de YaST relatives au traitement des conflits de paquetages pour pouvoir les résoudre. Gardez à l'esprit que toute modification peut déclencher d'autres conflits. Vous pouvez donc rapidement faire face à une accumulation de conflits. Dans de telles circonstances, annulez le gestionnaire de logiciels, abandonnez toutes vos modifications, puis redémarrez.

Gestion d'un conflit dans le gestionnaire de logiciels
Figure 19.1 : Gestion d'un conflit dans le gestionnaire de logiciels

19.3.5 Gestion des recommandations de paquetage

Outre les fortes dépendances matérielles requises pour exécuter un programme (par exemple une bibliothèque), un paquetage peut également avoir des dépendances dites « faibles », qui ajoutent par exemple une fonctionnalité supplémentaire ou des traductions. Ces dépendances faibles sont appelées recommandations de paquetage.

La façon de traiter ces recommandations a quelque peu changé depuis l'arrivée de SUSE Linux Enterprise Server 12 SP1. Rien ne change lors de l'installation d'un nouveau paquetage. Les paquetages recommandés sont toujours installés par défaut.

Avant SUSE Linux Enterprise Server 12 SP1, les recommandations manquantes pour les paquetages déjà installés étaient installées automatiquement. Désormais, ces paquetages ne seront plus installés automatiquement. Pour revenir à l'ancienne configuration par défaut, indiquez PKGMGR_REEVALUATE_RECOMMENDED="yes" dans /etc/sysconfig/yast2. Pour installer toutes les recommandations manquantes pour les paquetages déjà installés, démarrez YaST › Gestionnaire de logiciels et sélectionnez Extras › Installer tous les paquetages recommandés correspondants.

Pour désactiver l'installation des paquetages recommandés lors de l'installation de nouveaux paquetages, désactivez Dépendances › Installer les paquetages recommandés dans le gestionnaire de logiciels YaST. Si vous utilisez l'outil de ligne de commande Zypper pour installer des paquetages, utilisez l'option --no-recommends.

19.4 Gestion des services et des dépôts de logiciels

Pour installer un logiciel tiers, ajoutez des dépôts de logiciels à votre système. Par défaut, les dépôts de produit tels que le DVD de SUSE Linux Enterprise Server 15 SP2 et le dépôt de mise à jour correspondant, sont automatiquement configurés une fois le système enregistré. Pour plus d'informations sur l'enregistrement, reportez-vous à la Section 8.7, « Enregistrement » ou au Book “Guide de mise à niveau”, Chapter 4 “Mise à niveau en mode hors ligne”, Section 4.8 “Enregistrement de votre système”. En fonction du produit initialement sélectionné, un autre dépôt contenant des traductions, des dictionnaires, etc. peut également être configuré.

Pour gérer les dépôts, lancez YaST et sélectionnez Logiciel › Dépôts de logiciels. La boîte de dialogue Dépôts de logiciels configurés s'ouvre. Vous pouvez gérer ici les abonnements aux services en modifiant la vue dans le coin droit de la boîte de dialogue et en la définissant sur Tous les services. Dans ce contexte, un service est un service d'index de dépôts (RIS - Repository Index Service) qui peut contenir un ou plusieurs dépôts de logiciels. Un tel service peut être modifié de façon dynamique par son administrateur ou son fournisseur.

Chaque dépôt fournit des fichiers décrivant le contenu du dépôt (noms des paquetage, versions, etc.). Ces fichiers de description du dépôt sont téléchargés dans un cache local utilisé par YaST. Pour garantir leur intégrité, les dépôts de logiciels peuvent être signés avec la clé GPG du mainteneur des dépôts. À chaque fois que vous ajoutez un nouveau dépôt, YaST vous propose d'importer sa clé.

Avertissement
Avertissement : approbation des sources de logiciels externes

Avant d'ajouter des dépôts de logiciels externes à votre liste de dépôts, assurez-vous qu'ils sont approuvés. SUSE n'est pas responsable en cas d'éventuels problèmes résultant de l'installation de logiciels à partir de dépôts tiers.

19.4.1 Ajout de dépôts de logiciels

Vous pouvez ajouter des dépôts à partir d'un DVD/CD, d'une clé USB à mémoire flash, d'un répertoire local, d'une image ISO ou d'une source réseau.

Pour ajouter des dépôts depuis la boîte de dialogue Dépôts de logiciels configurés dans YaST, procédez comme suit :

  1. Cliquez sur Ajouter.

  2. Sélectionnez l'une des options de la boîte de dialogue :

    Ajout d'un dépôt de logiciels
    Figure 19.2 : Ajout d'un dépôt de logiciels
    • Pour analyser le réseau à la recherche des serveurs d'installation qui annoncent leurs services via SLP, sélectionnez Analyser avec SLP et cliquez ensuite sur Suivant.

    • Pour ajouter un dépôt à partir d'un support amovible, sélectionnez l'option appropriée et insérez le support ou connectez le périphérique USB à la machine. Cliquez sur Suivant pour démarrer l'installation.

    • Pour la majorité des dépôts, vous êtes invité à indiquer le chemin d'accès (ou URL) au support après avoir sélectionné l'option appropriée et cliqué sur Suivant. Vous n'êtes pas obligé d'indiquer un Nom de dépôt. Si aucun nom n'est renseigné, YaST utilise l'URL ou le nom du produit.

    L'option Télécharger les fichiers de description du dépôt est activée par défaut. Si vous désactivez cette option, YaST téléchargera automatiquement les fichiers ultérieurement, si cela s'avère nécessaire.

  3. En fonction du dépôt que vous avez ajouté, vous pouvez être invité à importer la clé GPG de l'espace de stockage ou à accepter une licence.

    Une fois les messages confirmés, YaST télécharge et analyse les métadonnées. Le logiciel ajoute alors le dépôt à la liste des Dépôts configurés.

  4. Au besoin, définissez les Propriétés du dépôt en suivant la procédure décrite à la Section 19.4.2, « Gestion des propriétés des dépôts ».

  5. Cliquez sur OK pour confirmer vos modifications et fermer la boîte de dialogue de configuration.

  6. Une fois le dépôt ajouté, le gestionnaire de logiciels démarre et vous pouvez installer des paquetages à partir de cette source. Pour plus d'informations, reportez-vous au Chapitre 19, Installation et suppression de logiciels.

19.4.2 Gestion des propriétés des dépôts

L'aperçu Dépôts de logiciels configurés des Dépôts de logiciels vous permet de modifier les propriétés des dépôts suivantes :

État

L'état du dépôt peut être Activé ou Désactivé. Les paquetages que vous pouvez installer ne proviennent que des dépôts activés. Pour désactiver temporairement un dépôt, sélectionnez-le et désélectionnez l'option Activer. Vous pouvez également double-cliquer sur le nom d'un dépôt pour changer son état. Pour supprimer totalement un dépôt, cliquez sur Supprimer.

Rafraîchir

Lors du rafraîchissement d'un dépôt, la description de son contenu (noms des paquetages, versions, etc.) est téléchargée dans un cache local utilisé par YaST. Il suffit d'effectuer cette manipulation une fois pour les dépôts statiques, comme les CD ou les DVD, alors que les dépôts dont le contenu est souvent modifié doivent être rafraîchis fréquemment. La façon la plus simple de conserver le cache d'un dépôt à jour consiste à sélectionner Rafraîchir automatiquement. Pour exécuter un rafraîchissement manuel, cliquez sur Rafraîchir, puis sélectionnez l'une des options.

Conserver les paquetages téléchargés

Les paquetages des dépôts distants sont téléchargés avant d'être installés. Ils sont supprimés par défaut en cas d'installation réussie. L'activation de l'option Conserver les paquetages téléchargés permet d'empêcher la suppression des paquetages téléchargés. L'emplacement de téléchargement est configuré dans /etc/zypp/zypp.conf. Il s'agit par défaut du dossier /var/cache/zypp/packages.

Priorité

La priorité d'un dépôt est une valeur comprise entre 1 et 200, avec 1 correspondant à la priorité la plus élevée et 200, la plus faible. Tout nouveau dépôt ajouté avec YaST est associé par défaut à une priorité de 99. Si vous n'accordez pas d'importance à la valeur de la priorité d'un dépôt spécifique, vous pouvez également la définir sur 0 pour lui attribuer la priorité par défaut (99). Si un paquetage est disponible dans plusieurs dépôts, le dépôt ayant la plus haute priorité est prioritaire. Ceci est utile pour éviter de télécharger des paquetages inutiles depuis Internet en attribuant à un dépôt local (un DVD par exemple) une priorité plus élevée.

Important
Important : priorité par rapport à la version

Le dépôt ayant la plus haute priorité est prioritaire dans tous les cas. Ainsi, assurez-vous que le dépôt de mise à jour a toujours la priorité la plus élevée, faute de quoi vous risquez d'installer une version obsolète qui ne sera pas mise à jour avant la prochaine mise à jour en ligne.

Nom et URL

Pour modifier le nom ou l'URL d'un dépôt, sélectionnez-le dans la liste, puis cliquez sur Modifier.

19.4.3 Gestion des clés de dépôts

Pour garantir leur intégrité, les dépôts de logiciels peuvent être signés avec la clé GPG du mainteneur des dépôts. À chaque fois que vous ajoutez un nouveau dépôt, YaST vous propose d'importer sa clé. Vérifiez-la comme toutes les autres clés GPG et assurez-vous qu'elle ne change pas. Si vous détectez un changement de clé, il est possible que le dépôt soit à l'origine du problème. Désactivez le dépôt en tant que source d'installation jusqu'à ce que la cause du changement de clé soit identifiée.

Pour gérer toutes les clés importées, cliquez sur Clés GPG dans la boîte de dialogue Dépôts de logiciels configurés. Sélectionnez une entrée pour afficher les principales priorités en bas de la fenêtre. Cliquez sur Ajouter, Modifier ou Supprimer pour ajouter, modifier ou supprimer des clés.

19.5 Outil de mise à jour de paquets GNOME

SUSE propose en permanence des correctifs et des mises à jour de sécurité logiciels pour votre produit. Ils peuvent être installés à l'aide d'outils disponibles sur votre bureau ou en exécutant le module YaST Online Update. Cette section décrit comment mettre à jour le système à partir du bureau GNOME à l'aide de l'Outil de mise à jour de paquets.

Contrairement au module YaST Online Update, l'Outil de mise à jour de paquets GNOME propose non seulement d'installer les correctifs depuis les dépôts de mise à jour, mais, également, les nouvelles versions de paquetages qui sont déjà installés. (Les correctifs résolvent des problèmes de sécurité ou des dysfonctionnements. Les fonctionnalités et le numéro de version ne sont généralement pas modifiés. Les nouvelles versions d'un paquetage augmentent le numéro de version et, généralement, ajoutent des fonctionnalités ou introduisent des modifications majeures).

Lorsque de nouveaux correctifs ou mises à jour de paquetage sont disponibles, GNOME affiche une notification dans la zone de notification ou sur l'écran de verrouillage.

Notification de mise à jour sur le bureau de GNOME
Figure 19.3 : Notification de mise à jour sur le bureau de GNOME

Pour configurer les paramètres de notification de l'Outil de mise à jour de paquets, démarrez les paramètres GNOME et choisissez Notifications › Outil de mise à jour de paquets.

Procédure 19.1 : installation des correctifs et mises à jour avec l'Outil de mise à jour de paquets GNOME
  1. Pour installer des correctifs et mises à jour, cliquez sur le message de notification. Cette opération ouvre l'Outil de mise à jour de paquets GNOME. Vous pouvez également ouvrir l'outil de mise à jour à partir des Activités en tapant package U et en choisissant Outil de mise à jour de paquets.

    Image
  2. Les mises à jour sont triées en quatre catégories :

    Mises à jour de sécurité (correctifs)

    Corrigent les risques de sécurité graves et doivent toujours être installées.

    Mises à jour recommandées (correctifs)

    Résolvent des problèmes susceptibles d'endommager votre ordinateur. Leur installation est fortement recommandée.

    Mises à jour facultatives (correctifs)

    Résolvent des problèmes non liés à la sécurité ou apportent des améliorations.

    Autres mises à jour

    Fournissent de nouvelles versions des paquetages qui sont installés.

    Toutes les mises à jour disponibles sont présélectionnées pour l'installation. Si vous ne souhaitez pas installer toutes les mises à jour, commencez par désélectionner les mises à jour non souhaitées. Il est vivement conseillé de toujours installer toutes les mises à jour de sécurité et recommandées.

    Pour obtenir des informations détaillées sur une mise à jour, cliquez sur son titre, puis sur Détails. Les informations sont affichées dans une zone sous la liste des paquetages.

  3. Cliquez sur Installer les mises à jour pour lancer l'installation.

  4. Certaines mises à jour peuvent nécessiter de redémarrer la machine ou de se déconnecter. Vérifiez le message qui s'affiche après l'installation pour obtenir des instructions.

19.6 Mise à jour des paquetages avec GNOME Logiciels

En plus de l'outil de mise à jour de paquets GNOME, GNOME fournit GNOME Logiciels qui comporte les fonctionnalités suivantes :

  • Installation, mise à jour et suppression des logiciels fournis en tant que RPM par le biais de PackageKit

  • Installation, mise à jour et suppression des logiciels fournis en tant que Flatpak

  • Installation, mise à jour et suppression des extensions GNOME Shell (https://extensions.gnome.org)

  • Mise à jour du microprogramme pour les périphériques matériels à l'aide de LVFS (Linux Vendor Firmware Service, https://fwupd.org)

En outre, GNOME Logiciels fournit des captures d'écran, des évaluations et des analyses des logiciels.

GNOME Logiciels : vue des mises à jour
Figure 19.4 : GNOME Logiciels : vue des mises à jour

GNOME Logiciels présente les différences suivantes par rapport aux autres outils fournis sous SUSE Linux Enterprise Server :

  • Contrairement à YaST ou Zypper, pour installer un logiciel mis en paquetage en tant que RPM, GNOME Logiciels est limité aux logiciels qui fournissent des métadonnées AppStream. C'est le cas de la plupart des applications de bureau.

  • Alors que l'outil de mise à jour de paquets GNOME met à jour les paquetages au sein du système en cours d'exécution (ce qui vous oblige à redémarrer les applications respectives), GNOME Logiciels télécharge les mises à jour, mais ne les applique qu'au prochain redémarrage du système.

20 Installation de modules, extensions et produits complémentaires tiers

Les modules et les extensions ajoutent des parties ou des fonctionnalités au système. Ce chapitre couvre leur installation, leur portée, leur état de support et leur cycle de vie.

Les modules sont des composants SUSE Linux Enterprise Server bénéficiant d'une prise en charge complète, avec un cycle de vie et un planning de mise à jour différents. Il s'agit d'un ensemble de paquetages, qui ont une étendue clairement définie et sont fournis via un canal en ligne uniquement. Pour obtenir la liste des modules, de leurs dépendances et de leur cycle de vie, reportez-vous à l'adresse https://www.suse.com/releasenotes/x86_64/SUSE-SLES/15/#Intro.ModuleExtensionRelated.

Les extensions, telles que SUSE Linux Enterprise Workstation Extension ou High Availability Extension, ajoutent des fonctionnalités au système et nécessitent une clé d'enregistrement pouvant être payante. Les extensions sont distribuées par le biais d'un canal en ligne ou d'un support physique. L'enregistrement auprès du SUSE Customer Center ou d'un serveur d'enregistrement local est une condition préalable pour s'abonner aux canaux en ligne. L'extension Package Hub (Section 20.3, « SUSE Package Hub ») est une exception car elle ne nécessite pas de clé d'enregistrement et n'est pas couverte par les contrats de support SUSE. Certaines extensions nécessitent une clé d'enregistrement avec un produit de base mais pas avec un autre, car YaST les enregistre automatiquement avec la clé de leur produit de base.

La liste des extensions et des modules pour votre produit est accessible après avoir enregistré votre système auprès du SUSE Customer Center ou d'un serveur d'enregistrement local. Si vous avez ignoré l'étape d'enregistrement, vous pourrez enregistrer votre système ultérieurement en utilisant le module Configuration de SUSE Customer Center de YaST. Pour plus d'informations, reportez-vous à la Book “Guide de mise à niveau”, Chapter 4 “Mise à niveau en mode hors ligne”, Section 4.8 “Enregistrement de votre système”.

Certains produits complémentaires sont également fournis par des tiers ; ainsi, certains matériels exigent des pilotes binaires uniquement pour fonctionner correctement. Si cela concerne votre matériel, reportez-vous aux notes de version pour obtenir plus d'informations sur la disponibilité des pilotes binaires pour votre système. Les notes de version sont disponibles sur le site https://www.suse.com/releasenotes/, auprès de YaST ou dans le dossier /usr/share/doc/release-notes/ sur votre système installé.

20.1 Installation de modules et extensions à partir des canaux en ligne

Pour effectuer la procédure suivante, vous devez enregistrer votre système auprès de SUSE Customer Center ou d'un serveur d'enregistrement local. Lors de l'enregistrement de votre système, vous verrez une liste d'extensions et de modules immédiatement après avoir terminé l'Étape 5 du Book “Guide de mise à niveau”, Chapter 4 “Mise à niveau en mode hors ligne”, Section 4.8 “Enregistrement de votre système”. Dans ce cas, ignorez les étapes suivantes et passez à l'Étape 2.

Note
Note : affichage des produits complémentaires déjà installés

Pour afficher les produits complémentaires déjà installés, démarrez YaST et sélectionnez Software (Logiciels) › Add-Ons (Produits complémentaires).

Procédure 20.1 : Installation de produits complémentaires et extensions à partir de canaux en ligne à l'aide de YaST
  1. Démarrez YaST et sélectionnez Software (Logiciel) › Add System Extensions or Modules (Ajouter des modules ou extensions système).

    YaST se connecte au serveur d'enregistrement et affiche une liste des extensions et modules disponibles.

    Note
    Note : extensions et modules disponibles

    La quantité de modules et d'extensions disponibles dépend du serveur d'enregistrement. Il se peut qu'un serveur d'enregistrement local ne propose que des dépôts de mises à jour sans aucune extension supplémentaire.

  2. Cliquez sur une entrée pour en afficher la description.

  3. Cochez les cases correspondant aux entrées que vous souhaitez installer.

    Installation des extensions de système
    Figure 20.1 : Installation des extensions de système
  4. Cliquez sur Suivant pour continuer.

  5. En fonction des dépôts à ajouter pour l'extension ou le module, vous pouvez être invité à importer la clé GPG du dépôt ou à accepter une licence.

    Une fois les messages confirmés, YaST télécharge et analyse les métadonnées. Les dépôts correspondant aux extensions sélectionnées sont ajoutés à votre système ; aucune source d'installation supplémentaire n'est requise.

  6. Au besoin, définissez les Propriétés du dépôt en suivant la procédure décrite à la Section 19.4.2, « Gestion des propriétés des dépôts ».

20.2 Installation d'extensions et de produits complémentaires tiers à partir d'un support

En cas d'installation d'une extension ou d'un produit complémentaire à partir d'un support, vous pouvez sélectionner différents types de support : DVD/CD, périphériques de stockage de masse amovibles (comme des disques flash), une image ISO ou un répertoire local. Le support peut également être fourni par un serveur réseau ; via HTTP, FTP, NFS ou Samba, par exemple.

  1. Démarrez YaST et sélectionnez Logiciels › Produits complémentaires. Vous pouvez également démarrer le module Produits complémentaires YaST à partir de la ligne de commande en entrant la commande sudo yast2 add-on.

    La boîte de dialogue affiche un aperçu des produits complémentaires, modules et extensions déjà installés.

    Liste des produits complémentaires, modules et extensions installés
    Figure 20.2 : Liste des produits complémentaires, modules et extensions installés
  2. Sélectionnez Ajouter pour installer un nouveau produit complémentaire.

  3. Dans la boîte de dialogue Produit complémentaire, sélectionnez l'option correspondant au type de support à partir duquel vous souhaitez l'installer :

    Installation d'un produit complémentaire ou d'une extension
    Figure 20.3 : Installation d'un produit complémentaire ou d'une extension
    • Pour analyser le réseau à la recherche des serveurs d'installation qui annoncent leurs services via SLP, sélectionnez Analyser avec SLP et cliquez ensuite sur Suivant.

    • Pour ajouter un dépôt à partir d'un support amovible, sélectionnez l'option appropriée et insérez le support ou connectez le périphérique USB à la machine. Cliquez sur Suivant pour démarrer l'installation.

    • Pour la plupart des types de support, vous êtes invité à indiquer le chemin d'accès (ou URL) au support après avoir sélectionné l'option appropriée et cliqué sur Suivant. Vous n'êtes pas obligé d'indiquer un Nom de dépôt. Si aucun nom n'est renseigné, YaST utilise l'URL ou le nom du produit comme nom pour le dépôt.

    L'option Télécharger les fichiers de description du dépôt est activée par défaut. Si vous désactivez cette option, YaST téléchargera automatiquement les fichiers ultérieurement, si cela s'avère nécessaire.

  4. En fonction du dépôt que vous avez ajouté, vous pouvez être invité à importer la clé GPG de l'espace de stockage ou à accepter une licence.

    Une fois les messages confirmés, YaST télécharge et analyse les métadonnées. Le logiciel ajoute alors le dépôt à la liste des Dépôts configurés.

  5. Au besoin, définissez les Propriétés du dépôt en suivant la procédure décrite à la Section 19.4.2, « Gestion des propriétés des dépôts ».

  6. Cliquez sur OK pour confirmer vos modifications et fermer la boîte de dialogue de configuration.

  7. Après avoir ajouté avec succès le dépôt du produit complémentaire, le gestionnaire de logiciels démarre et vous pouvez installer les paquetages. Pour plus d'informations, reportez-vous au Chapitre 19, Installation et suppression de logiciels.

20.3 SUSE Package Hub

Dans la liste Available Extensions and Modules (Extensions et modules disponibles), vous trouverez SUSE Package Hub (concentrateur de paquetages SUSE). Il est disponible sans frais supplémentaires. Il fournit un grand nombre de paquetages supplémentaires mis à la disposition de la communauté pour SUSE Linux Enterprise qui peuvent être facilement installés, mais qui ne sont pas pour autant pris en charge par SUSE.

Pour plus d'informations sur SUSE Package Hub et comment y apporter votre contribution, consultez le site https://packagehub.suse.com/.

Important
Important : SUSE Package Hub non pris en charge

N'oubliez pas que les paquetages fournis dans le hub SUSE Package Hub ne sont pas officiellement pris en charge par SUSE. SUSE prend uniquement en charge l'activation du dépôt Package Hub et l'aide dans le cadre de l'installation ou du déploiement des paquetages RPM.

21 Installation de plusieurs versions du kernel

SUSE Linux Enterprise Server prend en charge l'installation parallèle de plusieurs versions du kernel. Lorsque vous installez un deuxième kernel, une entrée de démarrage et un fichier initrd sont automatiquement créés. Aucune autre configuration manuelle n'est donc requise. Lorsque vous redémarrez la machine, le nouveau kernel est disponible sous la forme d'un paramètre de démarrage supplémentaire.

Cette fonctionnalité vous permet de tester les mises à jour de kernel en toute sécurité, tout en ayant la possibilité de revenir au kernel opérationnel précédent. Pour ce faire, n'utilisez pas les outils de mise à jour (tels que YaST Online Update ou l'applet de mise à jour), mais suivez la procédure décrite dans ce chapitre.

Avertissement
Avertissement : droit au support

Sachez que vous perdrez votre droit au support sur la machine en cas d'installation d'un kernel tiers ou auto-compilé. Seuls les kernels livrés avec SUSE Linux Enterprise Server et ceux distribués via les canaux de mise à jour officiels pour SUSE Linux Enterprise Server sont pris en charge.

Astuce
Astuce : vérification du kernel de configuration de votre chargeur de démarrage

Il est conseillé de vérifier la configuration de votre chargeur de démarrage après avoir installé un autre kernel afin de définir l'entrée de démarrage par défaut de votre choix. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 14 “The Boot Loader GRUB 2”, Section 14.3 “Configuring the Boot Loader with YaST”.

21.1 Activation et configuration de la prise en charge de plusieurs versions

L'installation de plusieurs versions d'un paquetage (prise en charge multiversion) est activée par défaut à partir de SUSE Linux Enterprise 12. Pour vérifier ce paramètre, procédez comme suit :

  1. Ouvrez /etc/zypp/zypp.conf avec l'éditeur de votre choix en tant qu'utilisateur root.

  2. Recherchez la chaîne multiversion. Si la prise en charge multiversion est activée pour tous les paquetages de kernels disposant de cette fonction, la ligne suivante s'affiche, sans commentaire :

    multiversion = provides:multiversion(kernel)
  3. Pour limiter cette prise en charge à certaines versions de kernel, ajoutez les noms de paquetage sous la forme d'une liste séparée par des virgules à l'option multiversion dans /etc/zypp/zypp.conf. Par exemple :

    multiversion = kernel-default,kernel-default-base,kernel-source
  4. Enregistrez vos modifications.

Avertissement
Avertissement : paquetages de modules de kernels (KMP)

Assurez-vous que les modules de kernels requis (KMP) proposés par les fournisseurs sont également installés pour le kernel nouvellement mis à jour. Le processus de mise à jour de kernels ne signale pas les éventuels modules de kernels manquants car les conditions liées aux paquetages sont toujours remplies par l'ancien kernel conservé sur le système.

21.1.1 Suppression automatique des kernels inutilisés

Lorsque vous testez fréquemment des nouveaux kernels sur lesquels la prise en charge de plusieurs versions est activée, il devient rapidement difficile de s'y retrouver dans le menu de démarrage. Dans la mesure où une partition /boot dispose généralement d'un espace limité, des problèmes de débordement /boot peuvent apparaître. Bien que vous puissiez supprimer manuellement les versions de kernel inutilisées à l'aide de YaST ou Zypper (comme décrit ci-dessous), vous pouvez également configurer libzypp de manière à supprimer automatiquement les kernels qui ne sont plus utilisés. Par défaut, aucun kernel n'est supprimé.

  1. Ouvrez /etc/zypp/zypp.conf avec l'éditeur de votre choix en tant qu'utilisateur root.

  2. Recherchez la chaîne multiversion.kernels et activez cette option en annulant la mise en commentaire de la ligne. Cette option adopte une liste des valeurs suivantes séparées par des virgules :

    5.3.18-8 : conserve le kernel avec le numéro de version spécifié

    latest : conserve le kernel ayant le numéro de version le plus élevé

    latest-N : conserve le kernel ayant le Nième numéro de version le plus élevé

    running : conserve le kernel en cours d'exécution

    oldest : conserve le kernel ayant le numéro de version le plus petit (celui livré initialement avec SUSE Linux Enterprise Server)

    oldest+N : conserve le kernel ayant le Nième numéro de version le plus petit

    En voici quelques exemples

    multiversion.kernels = latest,running

    Conserve le kernel le plus récent et celui en cours d'exécution. Cela équivaut à désactiver la fonction « multiversion », si ce n'est que l'ancien kernel est supprimé après le redémarrage suivant, et non immédiatement après l'installation.

    multiversion.kernels = latest,latest-1,running

    Conserve les deux derniers kernels et celui en cours d'exécution.

    multiversion.kernels = latest,running,5.3.18-8

    Conserve le dernier kernel, celui en cours d'exécution et 5.3.18-8.

    Astuce
    Astuce : maintien de l'exécution du kernel

    À moins d'utiliser une configuration spéciale, gardez toujours le kernel marqué comme en cours d'exécution (running).

    Si vous ne maintenez pas le kernel en cours d'exécution, il sera supprimé lors de sa mise à jour. Cela signifie qu'ensuite, tous les modules du kernel en cours d'exécution seront également supprimés et ne pourront plus être chargés.

    Si vous décidez de ne pas maintenir le kernel en cours d'exécution, redémarrez toujours immédiatement après une mise à niveau du kernel pour éviter des problèmes avec les modules.

21.1.2 Cas d'utilisation : suppression d'un ancien kernel uniquement après le redémarrage

Vous souhaitez être certain que l'ancien kernel ne sera supprimé qu'après avoir redémarré le système avec le nouveau kernel.

Remplacez la ligne suivante dans /etc/zypp/zypp.conf :

multiversion.kernels = latest,running

Les paramètres précédents indiquent au système de ne conserver la dernière version du kernel et celle en cours d'exécution que si elles sont différentes.

21.1.3 Cas d'utilisation : conservation des anciens kernels comme solution de secours

Vous souhaitez conserver une ou plusieurs versions de kernel afin d'en avoir un ou plusieurs « de rechange ».

Cela peut s'avérer utile si vous avez besoin de kernels à des fins de test. En cas de problème (si votre ordinateur ne démarre pas, par exemple), vous pouvez toujours utiliser une ou plusieurs versions de kernel valides connues.

Remplacez la ligne suivante dans /etc/zypp/zypp.conf :

multiversion.kernels = latest,latest-1,latest-2,running

Lorsque vous redémarrez votre système après l'installation d'un nouveau kernel, le système conserve trois kernels : le kernel actuel (configuré en tant que latest,running) et ses deux prédécesseurs immédiats (configurés en tant que latest-1 et latest-2).

21.1.4 Cas d'utilisation : conservation d'une version de kernel spécifique

Vous effectuez régulièrement des mises à jour système et installez de nouvelles versions de kernel. Toutefois, vous compilez également votre propre version du kernel et voulez être certain que le système les conserve.

Remplacez la ligne suivante dans /etc/zypp/zypp.conf :

multiversion.kernels = latest,5.3.18-8,running

Lorsque vous redémarrez votre système après l'installation d'un nouveau kernel, le système conserve deux kernels : le nouveau kernel qui est celui en cours d'exécution (configuré en tant que latest,running) et celui compilé par vos soins (configuré en tant que 5.3.18-8).

21.2 Installation/suppression de plusieurs versions de kernel avec YaST

YaST vous permet d'installer ou de retirer plusieurs kernels :

  1. Démarrez YaST et ouvrez le gestionnaire de logiciels via Logiciel › Gestion de logiciels.

  2. Dressez la liste de tous les paquetages capables de fournir plusieurs versions en sélectionnant Afficher › Groupes de paquetages › Paquetages multiversions.

    Gestionnaire de logiciels : affichage multiversion
    Figure 21.1 : Gestionnaire de logiciels : affichage multiversion
  3. Sélectionnez un paquetage et ouvrez l'onglet Version correspondant dans le volet situé en bas à gauche.

  4. Pour installer un paquetage, cliquez sur la case à cocher en regard de celui-ci. Une coche verte indique que le paquetage est sélectionné pour être installé.

    Pour supprimer un paquetage déjà installé (signalé par une coche blanche), cochez la case en regard de celui-ci jusqu'à ce qu'un X rouge indique qu'il a été sélectionné en vue de la suppression.

  5. Cliquez sur Accepter pour démarrer l'installation.

21.3 Installation/suppression de plusieurs versions de kernel avec Zypper

zypper vous permet d'installer ou de retirer plusieurs noyaux :

  1. Utilisez la commande zypper se -s 'kernel*' pour afficher la liste de tous les paquetages de kernel disponibles :

    S | Name           | Type       | Version         | Arch   | Repository
    --+----------------+------------+-----------------+--------+-------------------
    i+ | kernel-default       | package | 5.3.18-8.2       | x86_64 | (System Packages)                    
    v  | kernel-default       | package | 5.3.18-10.1      | x86_64 | SLE-Module-Basesystem15-SP2-Pool     
       | kernel-default-base  | package | 5.3.18-10.1.4.8  | x86_64 | SLE-Module-Basesystem15-SP2-Pool     
       | kernel-default-devel | package | 5.3.18-10.1      | x86_64 | SLE-Module-Basesystem15-SP2-Pool     
       | kernel-devel         | package | 5.3.18-10.1      | noarch | SLE-Module-Basesystem15-SP2-Pool     
    i  | kernel-firmware      | package | 20200107-3.12.1  | noarch | SLE-Module-Basesystem15-SP2-Pool
  2. Indiquez la version exacte lors de l'installation :

    tux > sudo zypper in kernel-default-5.3.18-8.2
  3. Lorsque vous désinstallez un kernel, utilisez les commandes zypper se -si 'kernel*' pour afficher la liste de tous les kernels installés et zypper rmVERSION-NOM PAQUETAGE pour supprimer le paquetage.

22 Gestion des utilisateurs avec YaST

Lors de l'installation, vous pouvez avoir créé un utilisateur local pour votre système. Le module Gestion des utilisateurs et des groupes de YaST vous permet d'ajouter davantage d'utilisateurs ou de modifier des utilisateurs existants. Il vous permet également de configurer votre système afin d'authentifier les utilisateurs auprès d'un serveur réseau.

22.1 Boîte de dialogue Gestion des utilisateurs et des groupes

Pour gérer les utilisateurs et les groupes, démarrez YaST et cliquez sur Sécurité et Utilisateurs › Gestion des groupes et des utilisateurs. Vous pouvez également ouvrir directement la boîte de dialogue Gestion des utilisateurs et des groupes à partir d'une ligne de commande en exécutant sudo yast2 users &.

Gestion des utilisateurs et des groupes YaST
Figure 22.1 : Gestion des utilisateurs et des groupes YaST

Un ID utilisateur (UID) est attribué à chaque utilisateur à l'échelle du système. En dehors des utilisateurs qui peuvent se connecter à votre machine, il existe également plusieurs utilisateurs système destinés exclusivement à un usage interne. Chaque utilisateur est affecté à un ou plusieurs groupes. Comme pour les utilisateurs système, il existe également des groupes système destinés à un usage interne.

En fonction de l'ensemble d'utilisateurs que vous choisissez d'afficher et de modifier dans la boîte de dialogue (utilisateurs locaux, utilisateurs réseau, utilisateurs système), la fenêtre principale présente plusieurs onglets. Ces derniers vous permettent d'exécuter les tâches suivantes :

Gestion des comptes utilisateur

À partir de l'onglet Utilisateurs, vous pouvez créer, modifier, supprimer ou désactiver temporairement les comptes utilisateur, comme décrit à la Section 22.2, « Gestion des comptes utilisateur ». Pour en savoir plus sur les options avancées, telles que l'application des stratégies de mot de passe, l'utilisation de répertoires privés codés ou la gestion des quotas de disque, reportez-vous à la Section 22.3, « Options supplémentaires des comptes utilisateur ».

Modification des paramètres par défaut

Les comptes utilisateur locaux sont créés en fonction des paramètres définis dans l'onglet Paramètres par défaut pour les nouveaux utilisateurs. Pour en savoir plus sur la modification de l'affectation aux groupes et le chemin d'accès par défaut ou les autorisations d'accès aux répertoires, reportez-vous à la Section 22.4, « Modification des paramètres par défaut des utilisateurs locaux ».

Affectation des utilisateurs à des groupes

Pour savoir comment modifier l'affectation d'utilisateurs individuels à des groupes, reportez-vous à la Section 22.5, « Affectation des utilisateurs à des groupes ».

Gestion des groupes

L'onglet Groupes vous permet d'ajouter, de modifier ou de supprimer des groupes existants. Reportez-vous à la Section 22.6, « Gestion des groupes » pour obtenir des informations sur cette procédure.

Modification de la méthode d'authentification des utilisateurs

Si votre machine est connectée à un réseau fournissant des méthodes d'authentification des utilisateurs, telles que NIS ou LDAP, vous pouvez choisir parmi plusieurs méthodes d'authentification dans l'onglet Paramètres d'authentification. Pour plus d'informations, reportez-vous à la Section 22.7, « Modification de la méthode d'authentification des utilisateurs ».

Pour la gestion des utilisateurs et des groupes, la boîte de dialogue offre une fonctionnalité similaire. Vous pouvez facilement passer de la gestion des utilisateurs à celle des groupes en sélectionnant l'onglet approprié en haut de la boîte de dialogue.

Les options de filtre vous permettent de définir l'ensemble des utilisateurs ou des groupes que vous souhaitez modifier : sur l'onglet Users (Utilisateurs) ou Group (Groupe), cliquez sur Set Filter (Définir le filtre) pour afficher et modifier des utilisateurs ou des groupes. Elles sont répertoriées en fonction de certaines catégories, telles que Local Users (Utilisateurs locaux) ou LDAP Users (Utilisateurs LDAP), le cas échéant. Les options Définir le filtre › Personnaliser le filtre vous permettent également de définir et d'utiliser un filtre personnalisé.

En fonction du filtre sélectionné, les options suivantes ne seront pas toutes accessibles dans la boîte de dialogue.

22.2 Gestion des comptes utilisateur

YaST propose de créer, modifier, supprimer ou désactiver temporairement des comptes utilisateur. Ne modifiez les comptes utilisateur que si vous êtes un utilisateur expérimenté ou un administrateur.

Note
Note : modification des ID d'utilisateurs existants

La propriété des fichiers est liée à l'ID de l'utilisateur, et non à son nom. Suite à la modification d'un ID utilisateur, les fichiers du répertoire privé de l'utilisateur appliquent automatiquement cette modification. Néanmoins, après une telle modification, l'utilisateur n'est plus propriétaire des fichiers qu'il a créés ailleurs que sur le système de fichiers, sauf si la propriété de ces fichiers a été modifiée manuellement.

La section suivante explique comment définir des comptes utilisateur par défaut. Pour plus d'options, reportez-vous à la Section 22.3, « Options supplémentaires des comptes utilisateur ».

Procédure 22.1 : Ajout ou modification des comptes utilisateur
  1. Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST et cliquez sur l'onglet Utilisateurs.

  2. Sélectionnez l'option Définir le filtre pour définir l'ensemble d'utilisateurs que vous souhaitez gérer. La boîte de dialogue répertorie les utilisateurs du système et les groupes auxquels ils appartiennent.

  3. Pour modifier les options d'un utilisateur existant, sélectionnez une entrée et cliquez sur Modifier.

    Pour créer un nouveau compte utilisateur, cliquez sur Ajouter.

  4. Entrez les données de l'utilisateur appropriées dans le premier onglet, comme les paramètres Nom d'utilisateur (utilisé pour se connecter) et Mot de passe. Ces données sont suffisantes pour créer un nouvel utilisateur. Si vous cliquez sur OK maintenant, le système affectera automatiquement un ID utilisateur et définira toutes les autres valeurs en fonction des paramètres par défaut.

  5. Activez l'option Recevoir les messages du système si vous souhaitez qu'un quelconque type de notifications système soit diffusé dans la boîte aux lettres de cet utilisateur. Cette opération crée un alias de messagerie pour l'utilisateur root. L'utilisateur peut ainsi lire le message système sans devoir se connecter en tant qu'utilisateur root au préalable.

    Les messages envoyés par les services système sont stockés dans la boîte aux lettres locale /var/spool/mail/USERNAME, où USERNAME est le nom de connexion de l'utilisateur sélectionné. Pour lire les messages électroniques, vous pouvez utiliser la commande mail.

  6. Pour modifier des détails supplémentaires comme l'ID ou le chemin d'accès au répertoire privé de l'utilisateur, sélectionnez l'onglet Détails.

    Si vous devez déplacer le répertoire privé d'un utilisateur existant, entrez le chemin d'accès au nouveau répertoire privé ici et transférez le contenu du répertoire actuel à l'aide de l'option Déplacer vers un nouvel emplacement. Faute de quoi, le nouveau répertoire ne contiendra aucune donnée existante.

  7. Pour obliger les utilisateurs à modifier régulièrement leur mot de passe ou définir d'autres options de mot de passe, sélectionnez Paramètres du mot de passe et modifiez les options. Pour plus d'informations, reportez-vous à la Section 22.3.2, « Applications des stratégies de mot de passe ».

  8. Une fois toutes les options modifiées, cliquez sur OK.

  9. Cliquez sur OK pour fermer la boîte de dialogue de gestion et enregistrer les modifications. Un utilisateur qui vient d'être ajouté peut désormais se connecter au système à l'aide du nom de connexion et du mot de passe que vous avez créés.

    Pour enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des utilisateurs et des groupes, vous pouvez également cliquer sur Options avancées › Écrire les modifications maintenant.

Astuce
Astuce : concordance des ID utilisateur

Il est utile de faire correspondre l'ID utilisateur (local) à l'ID dans le réseau. Par exemple, un nouvel utilisateur (local) sur un ordinateur portable doit être intégré dans un environnement réseau avec le même ID utilisateur. Cela garantit que la propriété des fichiers créés par l'utilisateur « hors ligne » est identique à la propriété des fichiers qui auraient été créés directement sur le réseau.

Procédure 22.2 : Désactivation ou suppression de comptes utilisateur
  1. Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST et cliquez sur l'onglet Utilisateurs.

  2. Pour désactiver temporairement un compte utilisateur sans le supprimer, sélectionnez l'utilisateur dans la liste, puis cliquez sur Modifier. Activez l'option Désactiver le compte de connexion de l'utilisateur. L'utilisateur ne peut pas se connecter à votre machine tant que vous n'avez pas réactivé le compte.

  3. Pour supprimer un compte utilisateur, sélectionnez un utilisateur dans la liste, puis cliquez sur Supprimer. Choisissez si vous souhaitez également supprimer le répertoire privé de cet utilisateur ou conserver les données qu'il contient.

22.3 Options supplémentaires des comptes utilisateur

Outre les paramètres d'un compte utilisateur par défaut, SUSE® Linux Enterprise Server propose des options supplémentaires. Par exemple, pour appliquer des stratégies de mot de passe, vous pouvez utiliser des répertoires personnels chiffrés ou définir des quotas de disque pour les utilisateurs et les groupes.

22.3.1 Connexion automatique et connexion sans mot de passe

Si vous utilisez un environnement de bureau GNOME, vous pouvez configurer une connexion automatique (Auto Login) pour un utilisateur spécifique, ainsi qu'une Connexion sans mot de passe pour tous les utilisateurs. La fonction de connexion automatique connecte automatiquement l'utilisateur à l'environnement du bureau au démarrage de l'ordinateur. Cette fonctionnalité ne peut être activée que pour un utilisateur à la fois. Avec la connexion sans mot de passe, tous les utilisateurs peuvent se connecter au système après avoir saisi leur nom d'utilisateur dans le gestionnaire de connexion.

Avertissement
Avertissement : risque lié à la sécurité

L'activation des options Connexion automatique ou Connexion sans mot de passe sur une machine à laquelle plusieurs personnes peuvent accéder présente un risque de sécurité. Si les utilisateurs n'ont pas besoin de s'authentifier, ils pourront accéder à votre système et à vos données. Si votre système contient des données confidentielles, n'utilisez pas cette fonctionnalité.

Pour activer les options de connexion automatique ou de connexion sans mot de passe, accédez à la section Gestion des utilisateurs et des groupes dans YaST, puis sélectionnez Expert Options (Options avancées) › Login Settings (Paramètres de login).

22.3.2 Applications des stratégies de mot de passe

Sur tout système comportant plusieurs utilisateurs, il est judicieux d'appliquer au moins des stratégies de base en matière de sécurité des mots de passe. Les utilisateurs doivent modifier leurs mots de passe régulièrement et utiliser des mots de passe forts qui ne peuvent pas être exploités facilement. Pour les utilisateurs locaux, procédez comme suit :

Procédure 22.3 : Configuration des paramètres de mot de passe
  1. Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST, puis sélectionnez l'onglet Utilisateurs.

  2. Sélectionnez l'utilisateur pour lequel vous souhaitez modifier les options du mot de passe, puis cliquez sur Modifier.

  3. Sélectionnez l'onglet Paramètres du mot de passe. La modification du dernier mot de passe de l'utilisateur s'affiche sur l'onglet.

  4. Pour que l'utilisateur modifie son mot de passe à sa prochaine connexion, sélectionnez Forcer la modification du mot de passe.

  5. Pour obliger les utilisateurs à modifier leur mot de passe, renseignez les paramètres Durée maximale d'un mot de passe (en jours) et Durée minimale d'un mot de passe (en jours).

  6. Pour rappeler à l'utilisateur de modifier son mot de passe avant qu'il n'expire, définissez un nombre comme Délai de publication d'un avertissement (en jours) avant l'expiration d'un mot de passe.

  7. Pour limiter la période durant laquelle l'utilisateur peut continuer de se connecter après l'expiration de son mot de passe, modifiez la valeur du paramètre Délai (en jours) pendant lequel la connexion est encore utilisable après l'expiration du mot de passe.

  8. Vous pouvez également spécifier une date d'expiration particulière pour le compte. Renseignez le paramètre Date d'expiration au format AAAA-MM-JJ. Notez que ce paramètre n'est pas lié au mot de passe, mais plutôt au compte proprement dit.

  9. Pour plus d'informations sur les options et les valeurs par défaut, cliquez sur Aide.

  10. Cliquez sur OK pour appliquer vos modifications.

22.3.3 Gestion des quotas

Pour éviter l'épuisement des capacités du système sans notification, les administrateurs peuvent définir des quotas pour les utilisateurs et les groupes. Les quotas peuvent être définis pour un ou plusieurs systèmes de fichiers et restreindre la quantité d'espace disque pouvant être utilisée et le nombre d'inodes (index nodes - nœuds d'index) pouvant être créés ici. Les inodes sont des structures de données sur un système de fichiers qui stockent des informations de base sur un fichier ordinaire, un répertoire ou un autre objet du système de fichiers. Ils stockent tous les attributs d'un objet du système de fichiers (comme la propriété des utilisateurs et des groupes, les autorisations de lecture, d'écriture ou d'exécution), à l'exception du nom et du contenu du fichier.

SUSE Linux Enterprise Server permet l'utilisation de quotas souples et stricts. En outre, il est possible de définir des intervalles bonus qui permettent aux utilisateurs ou aux groupes de dépasser temporairement leur quota, sous certaines limites.

Quotas souples

Définit un niveau d'avertissement qui, lorsqu'il est atteint, avertit les utilisateurs qu'ils approchent de la limite. Les administrateurs invitent les utilisateurs à nettoyer et à réduire leurs données sur la partition. La limite de quota souple est généralement inférieure à la limite de quota ferme.

Quota ferme

Définit la limite à partir de laquelle les demandes d'écriture sont refusées. Lorsque le quota ferme est atteint, plus aucune donnée supplémentaire ne peut être stockée et les applications peuvent se bloquer.

Période bonus

Définit l'intervalle de temps entre le dépassement des quotas souples et l'envoi d'un avertissement. Elle est généralement définie sur une valeur relativement faible : une ou plusieurs heures.

Procédure 22.4 : Activation de la prise en charge des quotas pour une partition

Pour configurer des quotas pour certains utilisateurs et groupes, vous devez commencer par activer la prise en charge des quotas pour la partition concernée dans l'outil de partitionnement en mode expert de YaST.

Note
Note : quotas pour les partitions Btrfs

Les quotas des partitions Btrfs sont traités différemment. Pour plus d'informations, reportez-vous au Book “Storage Administration Guide”, Chapter 1 “Overview of File Systems in Linux”, Section 1.2.5 “Btrfs Quota Support for Subvolumes” (Guide d'administration du stockage, Chapitre 1 « Présentation des systèmes de fichiers dans Linux », Section 1.2.5 « Prise en charge des quotas Btrfs pour les sous-volumes »).

  1. Dans YaST, sélectionnez Système › Partitionneur, puis cliquez sur Oui pour poursuivre.

  2. Dans le Partitionneur en mode expert, sélectionnez la partition pour laquelle vous souhaitez activer les quotas, puis cliquez sur Modifier.

  3. Cliquez surOptions Fstab et activez l'option Activer la prise en charge des quotas. Si le paquetage quota n'est pas déjà installé, il le sera lorsque vous aurez confirmé le message approprié en cliquant sur Oui.

  4. Confirmez vos modifications et quittez le Partitionneur en mode expert.

  5. Vérifiez que le service quotaon est en cours d'exécution en entrant la commande suivante :

    tux > sudo systemctl status quotaon

    Il doit être marqué comme étant actif (active). À défaut, démarrez-le à l'aide de la commande systemctl start quotaon.

Procédure 22.5 : Définition de quotas pour les utilisateurs et les groupes

Vous pouvez désormais définir des quotas souples ou stricts pour des utilisateurs ou des groupes spécifiques, ainsi que des délais sous forme d'intervalles bonus.

  1. Dans la section Gestion des utilisateurs et des groupes de YaST, sélectionnez l'utilisateur ou le groupe pour lequel vous souhaitez définir les quotas, puis cliquez sur Modifier.

  2. Dans l'onglet Plug-ins, sélectionnez l'entrée Gérer les quotas des utilisateurs, puis cliquez sur Lancer pour ouvrir la boîte de dialogue Configuration des quotas.

  3. Dans Système de fichiers, sélectionnez la partition à laquelle vous souhaitez appliquer le quota.

    Image
  4. Sous Limites de taille, limitez la quantité d'espace disque. Entrez le nombre de blocs de 1 Go que l'utilisateur ou le groupe peut avoir sur cette partition. Spécifiez une valeur pour les champs Limite douce et Limite dure.

  5. Par ailleurs, vous pouvez limiter le nombre d'inodes que l'utilisateur ou le groupe peut avoir sur cette partition. Sous Limites I-nodes, entrez les valeurs des champs Limite douce et Limite dure.

  6. Vous ne pouvez définir des intervalles bonus que si l'utilisateur ou le groupe a déjà dépassé la limite douce de taille ou d'inodes spécifiée. Dans le cas contraire, les zones de texte relatives au délai ne seront pas activées. Spécifiez le délai pendant lequel l'utilisateur ou le groupe est autorisé à dépasser les limites définies ci-dessus.

  7. Cliquez sur OK pour confirmer vos paramètres.

  8. Cliquez sur OK pour fermer la boîte de dialogue de gestion et enregistrer les modifications.

    Pour enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des utilisateurs et des groupes, vous pouvez également cliquer sur Options avancées › Écrire les modifications maintenant.

SUSE Linux Enterprise Server (SLES) fournit également des outils de ligne de commande comme repquota ou warnquota. Les administrateurs système peuvent utiliser ces outils pour contrôler l'utilisation du disque ou envoyer des notifications par courrier électronique aux utilisateurs dépassant leur quota. À l'aide de quota_nld, les administrateurs peuvent également transmettre à D-BUS les messages du kernel relatifs aux quotas dépassés. Pour plus d'informations, reportez-vous aux pages du manuel repquota, warnquota et quota_nld.

22.4 Modification des paramètres par défaut des utilisateurs locaux

Lorsque vous créez de nouveaux utilisateurs locaux, certains paramètres par défaut sont utilisés par YaST. Ces paramètres incluent par exemple le groupe principal et les groupes secondaires auxquels appartient l'utilisateur ou les autorisations d'accès au répertoire privé de l'utilisateur. Vous pouvez modifier ces paramètres par défaut selon vos besoins :

  1. Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST et sélectionnez l'onglet Paramètres par défaut pour les nouveaux utilisateurs.

  2. Pour modifier le groupe principal auquel les nouveaux utilisateurs doivent automatiquement appartenir, sélectionnez un autre groupe dans Groupe par défaut.

  3. Pour modifier les groupes secondaires des nouveaux utilisateurs, ajoutez ou changez les groupes dans Groupes secondaires. Les noms des groupes doivent être séparés par des virgules.

  4. Si vous ne voulez pas utiliser /home/USERNAME comme chemin d'accès par défaut aux répertoires personnels des nouveaux utilisateurs, modifiez le paramètre Path Prefix for Home Directory (Préfixe du chemin d'accès pour le répertoire personnel).

  5. Pour modifier les répertoires privés récemment créés, changez la valeur umask dans Umask pour le répertoire privé. Pour plus d'informations sur la valeur umask, reportez-vous au Book “Security and Hardening Guide”, Chapter 19 “Access Control Lists in Linux” (Guide de sécurité, Chapitre 11 « Listes de contrôle des accès dans Linux ») et à la page de manuel umask.

  6. Pour obtenir des informations sur les options individuelles, cliquez sur Aide.

  7. Cliquez sur OK pour appliquer vos modifications.

22.5 Affectation des utilisateurs à des groupes

Les utilisateurs locaux sont affectés à plusieurs groupes en fonction des paramètres par défaut accessibles depuis la boîte de dialogue Gestion des utilisateurs et des groupes, dans l'onglet Paramètres par défaut pour les nouveaux utilisateurs. La section suivante explique comment modifier l'affectation d'un utilisateur individuel à un groupe. Si vous devez modifier les affectations aux groupes par défaut pour les nouveaux utilisateurs, reportez-vous à la Section 22.4, « Modification des paramètres par défaut des utilisateurs locaux ».

Procédure 22.6 : Modification de l'affectation d'un utilisateur à un groupe
  1. Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST et cliquez sur l'onglet Utilisateurs. Il répertorie les utilisateurs et les groupes auxquels les utilisateurs appartiennent.

  2. Cliquez sur Modifier et sélectionnez l'onglet Détails.

  3. Pour modifier le groupe principal auquel l'utilisateur appartient, cliquez sur Groupe par défaut et sélectionnez le groupe dans la liste.

  4. Pour affecter l'utilisateur à des groupes secondaires supplémentaires, cochez les cases correspondantes dans la liste Groupes supplémentaires.

  5. Cliquez sur OK pour appliquer vos modifications.

  6. Cliquez sur OK pour fermer la boîte de dialogue de gestion et enregistrer les modifications.

    Pour enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des utilisateurs et des groupes, vous pouvez également cliquer sur Options avancées › Écrire les modifications maintenant.

22.6 Gestion des groupes

Avec YaST, vous pouvez également ajouter, modifier ou supprimer des groupes en toute simplicité.

Procédure 22.7 : Création et modification de groupes
  1. Ouvrez la boîte de dialogue Gestion des groupes et des utilisateurs dans YaST, puis cliquez sur l'onglet Groupes.

  2. L'option Définir le filtre permet de définir l'ensemble de groupes que vous souhaitez gérer. La boîte de dialogue répertorie les groupes contenus sur le système.

  3. Pour créer un nouveau groupe, cliquez sur Ajouter.

  4. Pour modifier un groupe existant, sélectionnez-le et cliquez sur Modifier.

  5. Vous pouvez entrer ou modifier les données dans la boîte de dialogue suivante. La liste de droite présente un aperçu de tous les utilisateurs et utilisateurs système disponibles qui peuvent être membres du groupe.

    Image
  6. Pour ajouter des utilisateurs existants au nouveau groupe, sélectionnez-les dans la liste Membres du groupe en cochant la case correspondante. Décochez la case pour les supprimer du groupe.

  7. Cliquez sur OK pour appliquer vos modifications.

  8. Cliquez sur OK pour fermer la boîte de dialogue de gestion et enregistrer les modifications.

    Pour enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des utilisateurs et des groupes, vous pouvez également cliquer sur Options avancées › Écrire les modifications maintenant.

Pour pouvoir supprimer un groupe, celui-ci ne doit contenir aucun membre. Pour supprimer un groupe, sélectionnez-le dans la liste, puis cliquez sur Supprimer. Cliquez sur OK pour fermer la boîte de dialogue de gestion et enregistrer les modifications. Pour enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des utilisateurs et des groupes, vous pouvez également cliquer sur Options avancées › Écrire les modifications maintenant.

22.7 Modification de la méthode d'authentification des utilisateurs

Si votre machine est connectée à un réseau, vous pouvez modifier la méthode d'authentification. Les options suivantes sont disponibles :

NIS

Les utilisateurs sont gérés de façon centralisée sur un serveur NIS, pour tous les systèmes membres du réseau. Pour plus de détails, reportez-vous au Book “Security and Hardening Guide”, Chapter 3 “Using NIS”.

SSSD

Le service System Security Services Daemon (SSSD) peut localement mettre en cache les données utilisateur, puis autoriser les utilisateurs à utiliser les données même si le service d'annuaire réel est (temporairement) inaccessible. Pour plus de détails, reportez-vous au Book “Security and Hardening Guide”, Chapter 4 “Setting Up Authentication Clients Using YaST”, Section 4.2 “SSSD” (Guide de sécurité, Chapitre 4 « Configuration des clients d'authentification à l'aide de YaST », Section 4.2 « SSSD »).

Samba

L'authentification SMB est souvent employée dans les réseaux mixtes Linux et Windows. Pour plus de détails, reportez-vous au Book “Administration Guide”, Chapter 34 “Samba” (Guide d'administration, Chapitre 35 « Samba »).

Pour modifier la méthode d'authentification, procédez comme suit :

  1. Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST.

  2. Cliquez sur l'onglet Paramètres d'authentification pour afficher un aperçu des méthodes d'authentification disponibles et des paramètres actuels.

  3. Pour changer de méthode d'authentification, cliquez sur Configurer et sélectionnez la méthode d'authentification que vous souhaitez modifier. Cela vous permet d'accéder directement aux modules YaST relatifs à la configuration des clients. Pour plus d'informations sur la configuration du client approprié, reportez-vous aux sections suivantes :

    NIS : Book “Security and Hardening Guide”, Chapter 3 “Using NIS”, Section 3.2 “Configuring NIS Clients”

    LDAP : Book “Security and Hardening Guide”, Chapter 4 “Setting Up Authentication Clients Using YaST”, Section 4.1 “Configuring an Authentication Client with YaST”

    Samba : Book “Administration Guide”, Chapter 34 “Samba”, Section 34.5.1 “Configuring a Samba Client with YaST”

    SSSD : Book “Security and Hardening Guide”, Chapter 4 “Setting Up Authentication Clients Using YaST”, Section 4.2 “SSSD”

  4. Après avoir accepté la configuration, revenez à l'aperçu Gestion des utilisateurs et des groupes.

  5. Cliquez sur OK pour fermer la boîte de dialogue de gestion.

22.8 Utilisateurs système par défaut

Par défaut, SUSE Linux Enterprise Server (SLES) crée des noms d'utilisateur qui ne peuvent pas être supprimés. Ces utilisateurs sont généralement définis dans la Linux Standard Base. La liste suivante fournit les noms d'utilisateur communs et leur but :

Noms d'utilisateur courants installés par défaut
bin, daemon

Utilisateur hérité, pour assurer la compatibilité avec les applications héritées. Les nouvelles applications ne doivent plus utiliser ce nom d'utilisateur.

gdm

Utilisé par GDM (GNOME Display Manager) pour fournir des ouvertures de session en mode graphique et gérer les affichages local et à distance.

lp

Utilisé par le daemon d'imprimante pour CUPS (Common Unix Printing System).

mail

Utilisateur réservé pour les programmes de messagerie comme sendmail ou postfix.

man

Utilisé par le programme man pour accéder aux pages du manuel.

messagebus

Utilisé pour accéder à D-Bus (Desktop Bus), bus logiciel pour les communications interprocessus. Son daemon s'appelle dbus-daemon.

nobody

Utilisateur qui ne possède aucun fichier et ne se trouve dans aucun groupe privilégié. Aujourd'hui, son utilisation est limitée comme Linux Standard Base recommande de fournir un compte utilisateur distinct pour chaque daemon.

nscd

Utilisé par le daemon NSCD (Name Service Caching Daemon). Ce daemon est un service de recherche destiné à améliorer les performances avec NIS et LDAP. Son daemon s'appelle nscd.

polkitd

Utilisé par le framework d'autorisation PolicyKit qui définit et gère les demandes d'autorisation pour les processus non privilégiés. Son daemon s'appelle polkitd.

postfix

Utilisé par le programme de messagerie Postfix.

pulse

Utilisé par le serveur audio Pulseaudio.

root

Utilisé par l'administrateur système, fournit tous les privilèges appropriés.

rpc

Utilisé par la commande rpcbind, mapper de port RPC.

rtkit

Utilisé par le paquetage rtkit qui fournit un service de système D-Bus pour le mode planification en temps réel.

salt

Utilisateur pour l'exécution à distance parallèle fournie par Salt. Son daemon s'appelle salt-master.

scard

Utilisateur pour la communication avec les cartes à puce et leurs lecteurs. Son daemon s'appelle pcscd.

srvGeoClue

Utilisé par le service D-Bus GeoClue pour fournir des informations de localisation.

sshd

Utilisé par le démon Secure Shell (SSH) pour assurer une communication sécurisée et chiffrée sur un réseau non sécurisé.

statd

Utilisé par le protocole NSM (Network Status Monitor) implémenté dans le daemon rpc.statd à l'écoute des notifications de redémarrage.

systemd-coredump

Utilisé par la commande /usr/lib/systemd/systemd-coredump commande afin d'acquérir, enregistrer et traiter les vidages de la mémoire.

systemd-timesync

Utilisé par la commande /usr/lib/systemd/systemd-timesyncd afin de synchroniser l'horloge du système local avec un serveur de protocole NTP (Network Time Protocol) distant.

23 Modification des paramètres de langue et de pays avec YaST

Si vous travaillez dans différents pays ou dans un environnement multilingue, votre ordinateur nécessite une configuration spécifique. SUSE® Linux Enterprise Server peut gérer différents paramètres locaux en parallèle. Un paramètre local est un ensemble de paramètres qui définit les paramètres de langue et de pays utilisés dans l'interface utilisateur.

La langue principale du système a été sélectionnée au cours de l'installation et les paramètres du clavier et du fuseau horaire ont été modifiés. Toutefois, vous pouvez installer des langues supplémentaires sur votre système et déterminer les langues installées à utiliser par défaut.

Pour ce faire, utilisez le module YaST relatif aux langues, comme indiqué à la Section 23.1, « Modification de la langue du système ». Installez des langues secondaires pour obtenir des localisations facultatives si vous devez démarrer des applications ou des bureaux dans des langues autres que la langue principale.

En dehors de cela, le module YaST relatif au fuseau horaire vous permet de régler les paramètres de pays et de fuseau de votre ordinateur de façon appropriée. Il permet également de synchroniser l'horloge de votre système par rapport au serveur horaire. Pour plus d'informations, reportez-vous à la Section 23.2, « Modifications des paramètres du pays et de l'heure ».

23.1 Modification de la langue du système

Selon la façon dont vous utilisez votre bureau et si vous souhaitez faire basculer l'intégralité du système vers une autre langue, ou uniquement l'environnement du bureau, plusieurs possibilités s'offrent à vous :

Modification globale de la langue du système

Procédez comme indiqué à la Section 23.1.1, « Modification des langues système avec YaST » et à la Section 23.1.2, « Modification de la langue système par défaut » pour installer des paquetages localisés supplémentaires avec YaST et définir la langue par défaut. Les modifications seront prises en compte lors de votre prochaine connexion. Pour vous assurer que les modifications ont été appliquées dans tout le système, redémarrez ce dernier ou fermez, puis redémarrez tous les services, applications et programmes en cours d'exécution.

Modification de la langue du bureau uniquement

Si vous avez déjà installé les paquetages de langue souhaités pour votre environnement de bureau avec YaST, comme décrit ci-dessous, vous pouvez changer la langue de votre bureau à l'aide du centre de contrôle du bureau. Après le redémarrage du serveur X, l'ensemble du bureau s'affiche dans la nouvelle langue. Les applications qui ne font pas partie de l'environnement de votre bureau ne sont pas affectées par cette modification et peuvent toujours apparaître dans la langue définie dans YaST.

Modification temporaire de la langue dans une seule application

Vous pouvez définir une seule application dans une autre langue (qui a déjà été installée avec YaST). Pour ce faire, démarrez l'application depuis la ligne de commande en spécifiant le code de langue, comme décrit dans la Section 23.1.3, « Changement de langue pour les applications Standard X et GNOME ».

23.1.1 Modification des langues système avec YaST

YaST distingue deux catégories de langues :

Langue principale

La langue principale définie dans YaST s'applique à l'ensemble du système, y compris YaST et l'environnement de bureau. Cette langue est utilisée lorsqu'elle est disponible, sauf si vous spécifiez une autre langue.

Langues secondaires

Installez des langues secondaires pour transformer votre système en système multilingue. Les langues secondaires installées peuvent être sélectionnées manuellement pour une situation spécifique. Vous pouvez ainsi utiliser une langue secondaire pour démarrer une application dans une certaine langue, par exemple pour effectuer du traitement de texte dans cette langue.

Avant d'installer des langues supplémentaires, déterminez celle qui sera utilisée par défaut par le système (langue principale).

Pour accéder au module YaST relatif aux langues, démarrez YaST et cliquez sur Système › Langue. Vous pouvez également ouvrir directement la boîte de dialogue Langues à partir d'une ligne de commande en exécutant sudo yast2 language &.

Image
Procédure 23.1 : Installation de langues supplémentaires

Lors de l'installation de langues supplémentaires, YaST permet également de définir des paramètres locaux différents pour l'utilisateur root (voir Étape 4). L'option Paramètres locaux pour l'utilisateur root détermine la façon dont les variables locales (LC_*) du fichier /etc/sysconfig/language sont définies pour l'utilisateur root. Vous pouvez les définir sur le même paramètre local que pour les utilisateurs normaux. Vous pouvez également le garder inchangé par les changements de langue ou seulement définir la variable RC_LC_CTYPE sur les mêmes valeurs que pour les utilisateurs normaux. La variable RC_LC_CTYPE définit la localisation pour les appels de fonction spécifiques à la langue.

  1. Pour ajouter des langues dans le module YaST relatif aux langues, sélectionnez les Langues secondaires que vous souhaitez installer.

  2. Pour définir une langue en tant que langue par défaut, définissez-la en tant que Langue principale.

  3. En outre, adaptez le clavier pour la nouvelle langue principale, ainsi que le fuseau horaire, le cas échéant.

    Astuce
    Astuce : paramètres avancés

    Pour accéder aux options avancées du clavier ou du fuseau horaire, sélectionnez Matériel › Configuration du clavier système ou Système › Date et heure dans YaST pour ouvrir les boîtes de dialogue correspondantes. Pour plus d'informations, reportez-vous à la Section 18.1, « Configuration de la disposition de votre clavier système » et à la Section 23.2, « Modifications des paramètres du pays et de l'heure ».

  4. Pour modifier les paramètres de langue spécifiques à l'utilisateur root, cliquez sur Détails.

    1. Définissez Paramètres locaux pour l'utilisateur root sur la valeur souhaitée. Pour plus d'informations, cliquez sur Aide.

    2. Décidez si vous souhaitez ou non Utiliser le codage UTF-8 pour l'utilisateur root.

  5. Si votre paramètre local n'a pas été inclus dans la liste des langues principales disponibles, essayez de le spécifier à l'aide de l'option Paramètre local détaillé. Toutefois, certaines localisations peuvent être incomplètes.

  6. Confirmez vos modifications en cliquant sur OK dans les boîtes de dialogue. Si vous avez sélectionné des langues secondaires, YaST installe les paquetages logiciels localisés des langues supplémentaires.

Votre système est désormais multilingue. Cependant, pour démarrer une application dans une langue autre que la langue principale, vous devez définir explicitement la langue souhaitée, comme expliqué dans la Section 23.1.3, « Changement de langue pour les applications Standard X et GNOME ».

23.1.2 Modification de la langue système par défaut

Pour modifier globalement la langue par défaut d'un système, procédez comme suit :

  1. Démarrez le module YaST relatif aux langues.

  2. Sélectionnez la langue de votre choix en tant que Langue principale.

    Important
    Important : suppression des anciennes langues système

    Si vous basculez vers une autre langue principale, les paquetages logiciels localisés de l'ancienne langue principale seront supprimés du système. Pour modifier la langue du système par défaut tout en conservant l'ancienne langue principale en tant que langue supplémentaire, ajoutez-la en tant que Langue secondaire en cochant la case correspondante.

  3. Modifiez les options du clavier et du fuseau horaire si nécessaire.

  4. Confirmez vos modifications en cliquant sur OK.

  5. Une fois que YaST a appliqué les modifications, redémarrez les sessions X en cours (par exemple, en vous déconnectant, puis en vous reconnectant) pour que YaST et les applications du bureau s'affichent dans la nouvelle langue.

23.1.3 Changement de langue pour les applications Standard X et GNOME

Après avoir installé la langue de votre choix avec YaST, vous pouvez exécuter une application dans une autre langue.

Lancez l'application en utilisant la commande suivante :

LANG=LANGUAGE application

Par exemple, pour démarrer f-spot en allemand, exécutez LANG=de_DE f-spot. Pour les autres langues, utilisez le code de langue approprié. Pour obtenir une liste de tous les codes de langues disponibles, exécutez la commande locale -av.

23.2 Modifications des paramètres du pays et de l'heure

À l'aide du module YaST relatif à la date et à l'heure, réglez la date, l'heure et les informations du fuseau horaire de votre système en fonction de la région dans laquelle vous travaillez. Pour accéder au module YaST, démarrez YaST et cliquez sur Système › Date et heure. Vous pouvez également ouvrir directement la boîte de dialogue Horloge et fuseau horaire à partir d'une ligne de commande en exécutant la commande sudo yast2 timezone &.

Image

Commencez par sélectionner une région générale, comme l'Europe. Sélectionnez le pays dans lequel vous travaillez, par exemple, l'Allemagne.

En fonction des systèmes d'exploitation exécutés sur votre poste de travail, réglez les paramètres de l'horloge matérielle de façon appropriée :

  • Si un autre système d'exploitation est exécuté sur votre machine, par exemple Microsoft Windows*, il est probable que votre système utilise l'heure locale plutôt que l'heure UTC. Si tel est le cas, désactivez Horloge matérielle définie sur UTC.

  • Si seul Linux est exécuté sur votre machine, définissez l'horloge matérielle sur UTC et demandez que le changement entre heure standard et heure d'été se fasse automatiquement.

Important
Important : réglage de l'horloge matérielle sur UTC

Le passage de l'heure standard à l'heure d'été (et inversement) ne peut être effectué automatiquement que si l'horloge matérielle (horloge CMOS) est réglée sur UTC. Cela s'applique également si vous utilisez la synchronisation horaire automatique avec NTP. En effet, la synchronisation automatique n'est effectuée que si la différence d'heure entre l'horloge matérielle et l'horloge système est inférieure à 15 minutes.

Étant donné qu'une heure incorrecte sur le système peut provoquer de sérieux problèmes (sauvegardes non effectuées, perte de messages électroniques, échecs de montage sur des systèmes de fichiers distants, etc.), il est vivement conseillé de toujours régler l'horloge matérielle sur UTC.

Vous pouvez modifier la date et l'heure manuellement ou opter pour la synchronisation de votre machine avec un serveur NTP, en permanence ou simplement pour régler votre horloge matérielle.

Procédure 23.2 : Réglage manuel de la date et de l'heure
  1. Dans le module YaST relatif au fuseau horaire, cliquez sur Autres paramètres pour régler la date et l'heure.

  2. Sélectionnez Manuellement et saisissez les valeurs de date et d'heure.

  3. Confirmez vos modifications.

Procédure 23.3 : Définition de la date et de l'heure avec un serveur NTP
  1. Cliquez sur Autres paramètres pour régler la date et l'heure.

  2. Sélectionnez Synchroniser avec le serveur NTP.

  3. Entrez l'adresse d'un serveur NTP si elle n'est pas prédéfinie.

    Image
  4. Cliquez sur Synchroniser maintenant pour que l'heure de votre système soit correctement définie.

  5. Pour utiliser NTP en permanence, cochez la case Sauvegarder la configuration NTP.

  6. Le bouton Configurer vous permet d'accéder à la configuration avancée du serveur NTP. Pour plus de détails, reportez-vous au Book “Administration Guide”, Chapter 30 “Time Synchronization with NTP”, Section 30.1 “Configuring an NTP Client with YaST” (Guide d'administration, Chapitre 31 « Synchronisation horaire avec NTP », Section 31.1 « Configuration avec un client NTP à l'aide de YaST »).

  7. Confirmez vos modifications.

A Création d'images et de produits

Pour adapter de façon optimale le système d'exploitation à votre déploiement, vous pouvez créer des supports personnalisés pour une utilisation en tant qu'applicatif ou système en direct avec KIWI. KIWI peut être utilisé sur une machine locale ou en ligne dans SUSE Studio Express (OBS).

KIWI vous permet de créer des DVD, des CD ou des lecteurs flash à utiliser pour les plates-formes matérielles compatibles avec Linux, ainsi que des disques virtuels pour les systèmes de virtualisation et cloud (tels que Xen, KVM, VMware, EC2 etc.). Les images créées par KIWI peuvent également être utilisées dans un environnement PXE pour effectuer un démarrage à partir du réseau.

Ce guide n'aborde pas les thèmes liés à KIWI en profondeur, puisqu'une documentation distincte est disponible :

  • Pour plus d'informations, reportez-vous à la documentation KIWI à la page https://github.com/openSUSE/kiwi (également disponible dans le paquetage kiwi-doc).

  • SUSE Studio Express Open Build Service permet de créer des images de système d'exploitation en ligne. Il prend en charge les applicatifs virtuels et les systèmes en direct en fonction d'OpenSUSE ou de SUSE Linux Enterprise. Pour plus d'informations et d'instructions, reportez-vous à la page https://studioexpress.opensuse.org/.