Accéder au contenu
documentation.suse.com / Guide de déploiement
SUSE Linux Enterprise Server 12 SP5

Guide de déploiement

Indique comment installer un ou plusieurs systèmes et exploiter les fonctionnalités inhérentes au produit pour une infrastructure de déploiement. Vous pouvez choisir entre différentes approches qui vont d'une installation locale ou d'un serveur d'installation réseau au déploiement en masse à l'aide d'une technique d'installation automatisée, commandée à distance et hautement personnalisée.

Date de publication : 12 décembre 2024
Liste des illustrations

Copyright © 2006– 2024 SUSE LLC et contributeurs. Tous droits réservés.

Il est autorisé de copier, distribuer et/ou modifier ce document conformément aux conditions de la licence de documentation libre GNU version 1.2 ou (à votre discrétion) 1.3, avec la section permanente qu'est cette mention de copyright et la licence. Une copie de la version de licence 1.2 est incluse dans la section intitulée « Licence de documentation libre GNU ».

Pour les marques commerciales SUSE, consultez le site Web http://www.suse.com/company/legal/. Toutes les autres marques de fabricants tiers sont la propriété de leur détenteur respectif. Les symboles de marque commerciale (®,™, etc.) indiquent des marques commerciales de SUSE et de ses filiales. Des astérisques (*) désignent des marques commerciales de fabricants tiers.

Toutes les informations de cet ouvrage ont été regroupées avec le plus grand soin. Cela ne garantit cependant pas sa complète exactitude. Ni SUSE LLC, ni les sociétés affiliées, ni les auteurs, ni les traducteurs ne peuvent être tenus responsables des erreurs possibles ou des conséquences qu'elles peuvent entraîner.

À propos de ce guide

Il existe plusieurs façons d'installer SUSE Linux Enterprise Server. Il est impossible d'évoquer toutes les combinaisons de démarrage, du serveur d'installation, d'installations automatisées ou de déploiement d'images. Ce manuel doit vous aider à choisir la méthode la plus appropriée pour déployer votre installation.

Partie I, « Préparation de l'installation »

Les instructions de déploiement standard diffèrent selon l'architecture utilisée. Pour connaître les différences et les conditions relatives à l'architecture, reportez-vous à cette section.

Partie II, « Workflow d'installation »

La plupart des tâches requises au cours des installations sont décrites ici. Il est notamment question de la configuration manuelle de votre ordinateur et de l'installation de logiciels supplémentaires.

Partie III, « Configuration d'un serveur d'installation »

SUSE® Linux Enterprise Server peut être installé de différentes manières. Outre l'installation classique à partir d'un support, vous avez le choix entre plusieurs approches réseau. Cette section décrit la procédure de configuration d'un serveur d'installation et la préparation du démarrage du système cible pour l'installation.

Partie IV, « Installation à distance »

Cette section présente les scénarios d'installation à distance les plus courants. Tandis que certaines nécessitent une intervention de l'utilisateur ou un certain degré d'accès physique au système cible, d'autres sont totalement automatisées et ne requièrent aucune intervention. Découvrez quelle approche convient le mieux à votre scénario.

Partie V, « Configuration initiale du système »

Apprenez à configurer votre système après l'installation. Cette section traite des tâches courantes telles que la configuration des composants matériels, l'installation ou la suppression de logiciels, la gestion des utilisateurs ou la modification des paramètres avec YaST.

Partie VI, « Mise à jour et mise à niveau de SUSE Linux Enterprise »

Cette section fournit des informations générales sur la terminologie, les versions de Service Pack et les cycles de vie des produits SUSE, ainsi que sur les stratégies de mise à niveau recommandées.

1 Exigences requises

Pour que ces instructions restent gérables, certaines hypothèses techniques ont été faites:

  • avoir une certaine expérience en matière informatique et connaître le vocabulaire technique de base ;

  • connaître la documentation de votre système et le réseau sur lequel il s'exécute ;

  • avoir une connaissance de base des systèmes Linux.

2 Documentation disponible

Note
Note : documentation en ligne et dernières mises à jour

La documentation relative à nos produits est disponible à la page https://documentation.suse.com/, où vous pouvez également rechercher les dernières mises à jour et parcourir ou télécharger la documentation dans différents formats.

En outre, la documentation sur le produit est généralement disponible dans votre système sous /usr/share/doc/manual.

La documentation suivante est disponible pour ce produit :

Article “Démarrage rapide de l'installation

Répertorie les configurations système requises et indique comment installer SUSE Linux Enterprise Server depuis un DVD ou une image ISO.

Book “Guide de déploiement

Indique comment installer un ou plusieurs systèmes et exploiter les fonctionnalités inhérentes au produit pour une infrastructure de déploiement. Vous pouvez choisir entre différentes approches qui vont d'une installation locale ou d'un serveur d'installation réseau au déploiement en masse à l'aide d'une technique d'installation automatisée, commandée à distance et hautement personnalisée.

Book “Administration Guide”

Présente les tâches d'administration système telles que la maintenance, la surveillance et la personnalisation d'un système initialement installé.

Book “Virtualization Guide”

Décrit la technologie de virtualisation dans les grandes lignes et présente libvirt, l'interface unifiée de virtualisation, ainsi que des informations détaillées sur des hyperviseurs spécifiques.

Book “Storage Administration Guide”

Fournit des informations à propos de la gestion des périphériques de stockage sous SUSE Linux Enterprise Server.

Book “AutoYaST”

AutoYaST est un système pour le déploiement de masse sans surveillance des systèmes SUSE Linux Enterprise Server (SLES) utilisant un profil AutoYaST contenant les données d'installation et de configuration. Ce manuel vous guide pendant les étapes de base de l'installation automatique : préparation, installation et configuration.

Book “Security and Hardening Guide”

Présente les concepts de base de la sécurité système, couvrant les aspects de la sécurité locale et réseau. Explique comment utiliser les logiciels de sécurité inhérents au produit, tels que AppArmor ou le système d'audit qui collecte, de manière fiable, des informations sur tout événement ayant trait à la sécurité.

Book “Hardening Guide”

Traite en détail des procédures d'installation et de configuration d'une solution SUSE Linux Enterprise Server sécurisée, ainsi que des autres processus nécessaires après l'installation pour renforcer la sécurité de cette installation. Assiste l'administrateur dans les choix et décisions en matière de sécurité.

Book “System Analysis and Tuning Guide”

Guide d'administrateur pour la détection, la résolution des problèmes et l'optimisation du système. Indique comment inspecter et optimiser votre système à l'aide d'outils de surveillance et comment gérer efficacement les ressources. Contient également un aperçu des problèmes courants et de leurs solutions, de l'aide supplémentaire et des ressources de documentation.

Book “Subscription Management Tool Guide”

Guide de l'administrateur pour l'outil de gestion des abonnements, un système proxy pour SUSE Customer Center avec des cibles de dépôt et d'enregistrement. Découvrez comment installer et configurer un serveur SMT local, mettre en miroir et gérer les dépôts, gérer les machines clientes et configurer des clients pour utiliser SMT.

Book “GNOME User Guide”

Présente le bureau GNOME de SUSE Linux Enterprise Server. Ce manuel vous guide tout au long de l'utilisation et de la configuration du bureau, et vous aide à réaliser des tâches essentielles. Il s'adresse essentiellement aux utilisateurs finaux qui souhaitent utiliser efficacement GNOME comme bureau par défaut.

3 Commentaires

Pour soumettre vos commentaires, vous disposez de plusieurs options :

Bogues et demandes d'amélioration

Pour connaître les services et les options de support disponibles pour votre produit, visitez le site http://www.suse.com/support/.

L'aide sur openSUSE est fournie par la communauté. Reportez-vous au site https://en.opensuse.org/Portal:Support pour plus d'informations.

Pour signaler les bogues relatifs à un composant produit, rendez-vous sur le site https://scc.suse.com/support/requests, connectez-vous et cliquez sur Créer un(e) nouveau(elle).

Commentaires utilisateur

Nous sommes à l'écoute de vos commentaires et suggestions concernant ce manuel et les autres documentations fournies avec ce produit. Utilisez le lien « Report Bug » (Signaler un bogue) à côté de chaque titre pour fournir des commentaires via SUSE Bugzilla.

Messagerie

Pour formuler des commentaires sur la documentation de ce produit, vous pouvez également envoyer un message électronique à l'adresse doc-team@suse.com. Veillez à inclure le titre du document, la version du produit et la date de publication de la documentation. Pour signaler des erreurs ou proposer des améliorations, veuillez fournir une brève description du problème et mentionner le numéro de section et la page (ou URL) correspondants.

4 Conventions relatives à la documentation

Les conventions typographiques et mentions suivantes sont utilisées dans cette documentation :

  • /etc/passwd : noms de répertoires et de fichiers

  • MARQUE_RÉSERVATION: l'élément MARQUE_RÉSERVATION doit être remplacé par la valeur réelle

  • PATH : variable d'environnement PATH

  • ls, --help : commandes, options et paramètres

  • user : utilisateurs ou groupes

  • nom_paquetage  : nom d'un paquetage

  • Alt, AltF1 : touche ou combinaison de touches sur lesquelles appuyer ; les touches apparaissent en majuscules comme sur un clavier

  • Fichier, Fichier › Enregistrer sous : options de menu, boutons

  • AMD/Intel Ce paragraphe concerne uniquement l'architecture AMD64/Intel 64. Les flèches marquent le début et la fin du bloc de texte.

    IBM Z, POWER Ce paragraphe ne s'applique qu'aux architectures IBM  Z et POWER. Les flèches marquent le début et la fin du bloc de texte.

  • Pingouins qui dansent (chapitre Pingouins, ↑Autre manuel) : référence au chapitre d'un autre manuel.

  • Commandes à exécuter avec les privilèges root. Souvent, vous pouvez également leur ajouter en préfixe la commande sudo pour les exécuter sans privilèges.

    root # command
    tux > sudo command
  • Commandes pouvant être exécutées par des utilisateurs non privilégiés.

    tux > command
  • Avis

    Avertissement
    Avertissement : note d'avertissement

    Information essentielle dont vous devez prendre connaissance avant de continuer. Met en garde contre des problèmes de sécurité ou des risques de perte de données, de détérioration matérielle ou de blessure physique.

    Important
    Important : note importante

    Information importante dont vous devez prendre connaissance avant de continuer.

    Note
    Note : note de remarque

    Information supplémentaire, par exemple sur les différences dans les versions des logiciels.

    Astuce
    Astuce : note indiquant une astuce

    Information utile, telle qu'un conseil ou un renseignement pratique.

1 Planification pour SUSE Linux Enterprise Server

1.1 Considérations relatives au déploiement d'un serveur SUSE Linux Enterprise Server

La mise en œuvre d'un système d'exploitation est une opération qui doit être préparée avec soin, qu'elle se produise dans un environnement informatique existant ou créé de toutes pièces. Au début de la phase de planification, vous devez tenter de définir les objectifs du projet et les fonctions requises. Cette étape doit être répétée pour chaque projet. Vous devrez chaque fois répondre aux questions suivantes :

  • Combien d'installations va-t-il falloir effectuer ? Les méthodes de déploiement les mieux adaptées varient en fonction de cette réponse.

  • Le système sera-t-il exécuté en tant qu'hôte physique ou en tant que machine virtuelle ?

  • Le système se situera-t-il dans un environnement hostile ? Pour obtenir une vue d'ensemble des conséquences possibles, reportez-vous au Book “Security and Hardening Guide”, Chapter 1 “Security and Confidentiality”.

  • Comment allez-vous obtenir les mises à jour régulières ? Tous les correctifs sont fournis en ligne pour les utilisateurs enregistrés. Pour l'enregistrement et les correctifs, reportez-vous à la base de données de l'assistance technique (http://download.suse.com/).

  • Avez-vous besoin d'aide pour votre installation locale ? SUSE propose des formations, une assistance technique et des services de conseil pour tout ce qui a trait à SUSE Linux Enterprise Server. Pour plus d'informations, reportez-vous au site https://www.suse.com/products/server/.

  • Avez-vous besoin de produits tiers ? Vérifiez que le produit requis est également pris en charge par la plate-forme choisie. SUSE peut vous aider à prendre en charge des logiciels sur d'autres plates-formes, au besoin.

1.2 Déploiement de SUSE Linux Enterprise Server

Pour garantir le parfait fonctionnement de votre système, essayez d'utiliser systématiquement un matériel certifié. Le processus de certification du matériel est continuel. La base de données des matériels certifiés est régulièrement mise à jour. Vous trouverez le formulaire de recherche des matériels certifiés à la page http://www.suse.com/yessearch/Search.jsp.

En fonction du nombre d'installations souhaitées, il peut être avantageux de recourir à des serveurs d'installation, voire de complètement automatiser les installations. Avec les technologies de virtualisation Xen ou KVM, il est conseillé d'envisager le recours aux systèmes de fichiers racines réseau ou aux solutions de stockage réseau (iSCSI, par exemple).

SUSE Linux Enterprise Server vous propose tout un éventail de services. Pour obtenir la vue d'ensemble des informations documentées dans le présent ouvrage, reportez-vous au Book “Administration Guide”, Preface “About This Guide”. La plupart des configurations requises peuvent être réalisées avec YaST, l'utilitaire de configuration de SUSE. En outre, de nombreuses configurations manuelles sont décrites dans les sections correspondantes.

En plus de l'installation logicielle de base, il est conseillé d'étudier la possibilité de former les utilisateurs finals des systèmes, ainsi que le personnel de votre service d'assistance.

1.3 Exécution de SUSE Linux Enterprise Server

Le système d'exploitation de SUSE Linux Enterprise Server est stable et éprouvé. Malheureusement, cela n'empêche pas les pannes matérielles ou autres, qui risquent de bloquer le système ou de faire perdre des données. Pour toute tâche informatique sérieuse présentant des risques de perte de données, il est vivement recommandé de procéder à une sauvegarde régulière.

Pour une sécurité optimale, notamment en ce qui concerne les données, vous devez régulièrement effectuer des mises à jour de toutes les machines utilisées. Si vous avez un serveur d'importance stratégique, vous devez exécuter une seconde machine identique (pré-production) qui permet de tester toutes les modifications. De plus, vous aurez également la possibilité de changer de machine en cas de panne matérielle.

1.4 Enregistrement de SUSE Linux Enterprise Server

Pour obtenir un support technique et les mises à jour des produits, vous devez enregistrer et activer vos produits SUSE auprès du SUSE Customer Center. Nous vous recommandons de vous enregistrer pendant l'installation, car cela vous permettra d'installer le système avec les mises à jour et les correctifs les plus récents. Toutefois, si vous êtes hors ligne ou que vous souhaitez ignorer l'étape d'enregistrement, vous pouvez vous enregistrer à tout moment ultérieurement sur le système installé.

Si votre entreprise ne fournit pas de serveur d'enregistrement local, l'inscription de SUSE Linux nécessite un compte SUSE Si vous ne disposez pas encore de compte SUSE, rendez-vous sur la page d'accueil du SUSE Customer Center (https://scc.suse.com/) pour en créer un.

Pendant l'installation, il vous sera demandé d'entrer votre code d'enregistrement. Pour plus de détails, reportez-vous à la Section 6.8, « Enregistrement auprès du SUSE Customer Center ».

Si vous déployez vos instances automatiquement à l'aide d'AutoYaST, vous pouvez enregistrer le système pendant l'installation en fournissant les informations correspondantes dans le fichier de contrôle AutoYaST. Pour plus de détails, reportez-vous au Book “AutoYaST”, Chapter 4 “Configuration and Installation Options”, Section 4.3 “System Registration and Extension Selection”.

Pour l'enregistrement d'un système déjà installé, reportez-vous à la Section 13.2, « Enregistrement d'un système installé ».

Partie I Préparation de l'installation

  • 2 Installation sur AMD64 et Intel 64
  • Ce chapitre décrit les étapes nécessaires pour préparer l'installation de SUSE Linux Enterprise Server sur des ordinateurs AMD64 et Intel 64. Cette section présente les étapes nécessaires pour préparer les différentes méthodes d'installation. La liste des configurations matérielles requises donne un aperçu des systèmes pris en charge par SUSE Linux Enterprise Server. Vous trouverez ici des informations sur les méthodes d'installation possibles et sur plusieurs problèmes connus fréquents. Vous apprendrez également comment contrôler l'installation, fournir des supports d'installation et démarrer par les méthodes habituelles.

  • 3 Installation sur IBM POWER
  • Ce chapitre décrit la procédure pour préparer l'installation de SUSE® Linux Enterprise Server sur les systèmes IBM POWER.

  • 4 Installation sur IBM Z
  • Ce chapitre décrit la procédure pour préparer l'installation de SUSE® Linux Enterprise Server sur les systèmes IBM Z. Il fournit toutes les informations nécessaires pour préparer l'installation du côté LPAR et z/VM.

  • 5 Installation sur ARM AArch64
  • Ce chapitre décrit les étapes nécessaires pour préparer l'installation de SUSE Linux Enterprise Server sur des ordinateurs ARM AArch64. Cette section présente les étapes nécessaires pour préparer les différentes méthodes d'installation. La liste des configurations matérielles requises donne un aperçu des systèmes pris en charge par SUSE Linux Enterprise Server. Vous trouverez ici des informations sur les méthodes d'installation possibles et sur plusieurs problèmes connus fréquents. Vous apprendrez également comment contrôler l'installation, fournir des supports d'installation et démarrer par les méthodes habituelles.

2 Installation sur AMD64 et Intel 64

Ce chapitre décrit les étapes nécessaires pour préparer l'installation de SUSE Linux Enterprise Server sur des ordinateurs AMD64 et Intel 64. Cette section présente les étapes nécessaires pour préparer les différentes méthodes d'installation. La liste des configurations matérielles requises donne un aperçu des systèmes pris en charge par SUSE Linux Enterprise Server. Vous trouverez ici des informations sur les méthodes d'installation possibles et sur plusieurs problèmes connus fréquents. Vous apprendrez également comment contrôler l'installation, fournir des supports d'installation et démarrer par les méthodes habituelles.

2.1 Configuration système pour Linux

Le système d'exploitation SUSE® Linux Enterprise Server peut être déployé sur une vaste gamme d'équipements matériels. Il est impossible de répertorier toutes les combinaisons de supports SUSE Linux Enterprise Server matériels. Cependant, vous trouverez ci-dessous des informations sur la configuration minimale requise pour vous aider lors de la phase de planification.

Pour garantir le bon fonctionnement d'une configuration d'ordinateur donnée, recherchez les plates-formes certifiées par SUSE. Pour consulter la liste, consultez le site https://www.suse.com/yessearch/.

2.1.1 Matériel pour Intel 64 et AMD64

Les architectures Intel 64 et AMD64 permettent une migration simple des logiciels x86 vers leur version 64 bits. Tout comme l'architecture x86, elles représentent une alternative rentable.

UC

Toutes les unités centrales disponibles sur le marché à ce jour sont prises en charge.

Nombre maximum d'unités centrales

Le nombre maximal d'UC prises en charge de par la conception du logiciel est de 8 192 pour Intel 64 et AMD64. Si vous avez l'intention d'utiliser un système de cette capacité, vérifiez sur notre page Web (https://www.suse.com/yessearch/) que les périphériques sont conformes à la certification système du matériel.

Configuration requise pour la mémoire

Un minimum de 512 Mo de mémoire est requis pour une installation minimale. Cependant, la configuration système minimale recommandée est de 1024 ou de 512 Mo par unité centrale sur les ordinateurs multiprocesseurs. Ajoutez 150 Mo pour une installation à distance via HTTP ou FTP. Notez que ces valeurs ne sont valables que pour l'installation du système d'exploitation. La quantité de mémoire réelle en production dépend de la charge de travail système.

Configuration requise pour le disque dur

La configuration requise pour le disque dépend en grande partie de l'installation sélectionnée et de votre utilisation de la machine. La configuration minimale des différents éléments est la suivante :

Système

Configuration requise pour le disque dur

Minimum

800 Mo - 1 Go

Interface X Window System minimale

1,4 Go

Bureau GNOME

3,5 Go

Tous les modèles

8,5 Go

Utilisation d'instantanés pour la virtualisation

min. 8 Go

Méthodes de démarrage

L'ordinateur peut être démarré depuis un CD ou un réseau. Un serveur de démarrage spécifique est requis pour un démarrage sur le réseau. Il peut également être configuré avec SUSE Linux Enterprise Server.

2.2 Considérations relatives à l'installation

Cette section aborde plusieurs facteurs à prendre en compte avant d'installer SUSE Linux Enterprise Server sur un matériel AMD64 et Intel 64.

2.2.1 Type d'installation

SUSE Linux Enterprise Server est normalement installé en tant que système d'exploitation indépendant. Depuis l'introduction de la virtualisation, il est également possible d'exécuter plusieurs instances de SUSE Linux Enterprise Server sur le même matériel. Toutefois, l'installation du serveur hôte de machine virtuelle s'effectue comme une installation classique en y ajoutant des paquetages supplémentaires. L'installation des invités virtuels est décrite dans le Book “Virtualization Guide”, Chapter 9 “Guest Installation”.

2.2.2 Méthodes de démarrage

Selon le matériel utilisé, les méthodes de démarrage suivantes sont disponibles pour la première procédure de démarrage (avant l'installation de SUSE Linux Enterprise Server).

Tableau 2.1 : Options de démarrage

Option de démarrage

Utilisation

Un lecteur de CD ou de DVD

Il s'agit de la méthode de démarrage la plus simple. Le système requiert un lecteur de CD ou de DVD disponible en local.

Disques flash

Les images requises pour créer des disques de démarrage se trouvent sur le premier CD ou DVD dans le répertoire /boot. Reportez-vous également au fichier README situé dans le même répertoire. Le démarrage depuis une clé USB n'est possible que si le BIOS de la machine prend en charge cette méthode.

PXE ou bootp

Doit être pris en charge par le BIOS ou le microprogramme du système utilisé. Cette option nécessite qu'un serveur de démarrage soit installé sur le réseau. Cette tâche peut être assurée par un serveur SLES distinct.

Disque dur

SUSE Linux Enterprise Server peut également être lancé à partir d'un disque dur. Pour ce faire, copiez le kernel (linux) et le système d'installation (initrd) depuis le répertoire /boot/loader du premier CD ou DVD vers le disque dur, puis ajoutez une entrée appropriée au chargeur de démarrage.

2.2.3 Source d'installation

Lors de l'installation de SUSE Linux Enterprise Server, les données d'installation effectives doivent être accessibles sur le réseau, sur une partition du disque dur ou sur un DVD local. Pour effectuer une installation depuis le réseau, vous avez besoin d'un serveur d'installation. Pour mettre les données d'installation à disposition, configurez un ordinateur dans un environnement Unix ou Linux en tant que serveur NFS, HTTP, SMB ou FTP. Pour rendre les données d'installation disponibles depuis un ordinateur Windows, libérez les données avec SMB.

La source d'installation est particulièrement facile à sélectionner si vous configurez un serveur SLP sur le réseau local. Pour plus d'informations, reportez-vous au Chapitre 8, Configuration du serveur qui contient les sources d'installation.

2.2.4 Cible d'installation

La plupart des installations sont effectuées sur un disque dur local. Par conséquent, il est nécessaire que les contrôleurs du disque dur soient accessibles au système d'installation. Si un contrôleur spécifique (comme un contrôleur RAID) requiert un module de kernel supplémentaire, fournissez un disque de mise à jour du module de kernel au système d'installation.

Tous les types de périphériques de bloc peuvent servir de cibles d'installation, à condition qu'ils offrent un espace disque et une vitesse suffisants pour exécuter un système d'exploitation. Il peut s'agir de périphériques de bloc réseau comme iSCSI ou SAN. Il est également possible d'effectuer des installations sur des systèmes de fichiers réseau offrant des autorisations Unix standard. Cependant, il peut être difficile de démarrer ces systèmes de fichiers, qui doivent être pris en charge par initramfs avant que le système ne démarre. Ce type d'installation peut être utile lorsque vous devez démarrer le même système à des endroits différents ou que vous prévoyez d'utiliser des fonctionnalités de virtualisation telles que la migration de domaine.

2.2.5 Autres méthodes d'installation

SUSE Linux Enterprise Server propose plusieurs méthodes de contrôle de l'installation :

  • Installation sur la console

  • Installation avec une console série

  • Installation avec AutoYaST

  • Installation avec des images KIWI

  • Installation avec SSH

  • Installation avec VNC

Par défaut, la console graphique est utilisée. Si vous devez installer un grand nombre d'ordinateurs similaires, il est recommandé de créer un fichier de configuration AutoYaST ou une image KIWI préchargée et de le/la rendre accessible au processus d'installation. Reportez-vous également à la documentation d'AutoYaST sur le site Book “AutoYaST” et de KIWI à l'adresse http://doc.opensuse.org/projects/kiwi/doc/.

2.3 Support de démarrage et d'installation

Lors de l'installation du système, le support de démarrage peut être différent du support d'installation du système. Toutes les combinaisons de supports pris en charge pour le démarrage et l'installation peuvent être utilisées.

2.3.1 Support de démarrage

Le démarrage d'un ordinateur dépend des performances du matériel utilisé et de la disponibilité du support pour l'option de démarrage correspondante.

Démarrage à partir d'un DVD

Il s'agit de la méthode la plus courante pour démarrer un système. Très simple pour la plupart des utilisateurs d'ordinateurs, elle requiert néanmoins un grand nombre d'interactions pour chaque processus d'installation.

Démarrage à partir d'un disque dur USB

En fonction du matériel utilisé, il est possible de démarrer le système à partir d'un disque dur USB. Le support correspondant doit être créé en suivant la procédure décrite à la Section 6.2.2, « PC (AMD64/Intel 64/ARM AArch64) : démarrage du système ».

Démarrage à partir d'un réseau

Vous ne pouvez démarrer un ordinateur directement depuis le réseau que s'il est pris en charge par le BIOS ou le microprogramme de l'ordinateur. Cette méthode de démarrage nécessite qu'un serveur de démarrage fournisse les images de démarrage requises sur le réseau. Le protocole exact dépend de votre matériel. Plusieurs services, tels que TFTP et DHCP ou le démarrage PXE, sont généralement nécessaires. Si vous avez besoin d'un serveur de démarrage, consultez également la Section 10.1.3, « Installation à distance via VNC : démarrage PXE et fonction Wake on LAN (réveil à distance) ».

2.3.2 Support d'installation

Le support d'installation contient tous les paquetages et méta-informations nécessaires pour installer une instance SUSE Linux Enterprise Server. Le système d'installation doit pouvoir y accéder après le démarrage en vue de l'installation. SUSE Linux Enterprise Server permet de fournir le support d'installation au système de différentes manières.

Installation à partir d'un DVD

Toutes les données nécessaires sont fournies sur le support de démarrage. En fonction de l'installation sélectionnée, une connexion réseau ou des supports supplémentaires peuvent être nécessaires.

Installation réseau

Si vous envisagez d'installer plusieurs systèmes, il est plus facile de fournir les supports d'installation via le réseau. Il est possible d'effectuer l'installation via plusieurs protocoles courants, comme NFS, HTTP, FTP ou SMB. Pour plus d'informations sur l'exécution d'une telle installation, reportez-vous au Chapitre 10, Installation à distance.

2.4 Procédure d'installation

Cette section présente les étapes requises pour effectuer une installation complète de SUSE® Linux Enterprise Server dans le mode requis. La Partie II, « Workflow d'installation » contient une description complète de la procédure d'installation et de configuration du système avec &yast.

2.4.1 Démarrage depuis une unité locale interchangeable

Vous pouvez utiliser un lecteur de DVD-ROM et des périphériques de stockage USB pour procéder à une installation. Réglez votre ordinateur en fonction de vos besoins :

  1. Assurez-vous que le lecteur est entré comme lecteur amorçable dans le BIOS.

  2. Insérez le support de démarrage dans le lecteur et lancez la procédure de démarrage.

  3. Le menu de démarrage de l'installation de SUSE Linux Enterprise Server permet de transférer différents paramètres vers le système d'installation. Reportez-vous également à la Section 10.2.2, « Utilisation des options de démarrage personnalisées ». Si vous souhaitez effectuer l'installation sur le réseau, indiquez à cet endroit la source d'installation.

  4. Si vous rencontrez des problèmes au cours de l'installation, utilisez les paramètres sans échec pour le démarrage.

2.4.2 Installation via le réseau

Un serveur d'installation est requis pour effectuer l'installation via une source réseau. La procédure d'installation du serveur est décrite au Chapitre 8, Configuration du serveur qui contient les sources d'installation.

Si vous avez un serveur SLP, sélectionnez SLP comme source d'installation dans le premier écran de démarrage. Lors de la procédure de démarrage, sélectionnez les sources d'installation disponibles à utiliser.

Si le DVD est disponible sur le réseau, utilisez-le comme source d'installation. Dans ce cas, spécifiez le paramètre install=<URL> avec des valeurs appropriées à l'invite de démarrage. Pour plus d'informations sur ce paramètre, reportez-vous à la Section 10.2.2, « Utilisation des options de démarrage personnalisées ».

2.5 Contrôle de l'installation

Vous pouvez contrôler l'installation de différentes manières. La méthode la plus souvent utilisée consiste à installer SUSE® Linux Enterprise Server à partir de la console de l'ordinateur. D'autres options sont disponibles pour différentes situations.

2.5.1 Installation sur la console de l'ordinateur

La méthode la plus simple pour installer SUSE Linux Enterprise Server est d'utiliser la console de l'ordinateur. Avec cette méthode, un programme d'installation graphique vous guide tout au long du processus d'installation. Cette méthode d'installation est décrite en détail au Chapitre 6, Installation avec YaST.

Vous pouvez tout de même effectuer l'installation sur la console sans mode graphique établi. Le programme d'installation textuel offre la même fonctionnalité que la version graphique. Pour quelques conseils sur la navigation dans ce mode, reportez-vous au Book “Administration Guide”, Chapter 5 “YaST in Text Mode”, Section 5.1 “Navigation in Modules”.

2.5.2 Installation à l'aide d'une console série

Pour cette méthode d'installation, vous avez besoin d'un deuxième ordinateur, connecté par un câble modem nul à l'ordinateur sur lequel vous installez SUSE Linux Enterprise Server. Selon le matériel, la console série est parfois déjà en mesure d'accéder au microprogramme ou au BIOS de l'ordinateur. Si cela est possible, vous pouvez effectuer toute l'installation avec cette méthode. Pour activer l'installation de la console série, spécifiez le paramètre supplémentaire console=ttyS0 à l'invite d'amorçage. Cela doit se faire une fois le processus d'amorçage terminé, mais avant le démarrage du système d'installation.

Sur la plupart des ordinateurs, il y a deux interfaces série : ttyS0 et ttyS1. Pour l'installation, vous avez besoin d'un programme de terminal tel que minicom ou screen. Pour initialiser la connexion série, lancez l'application Screen (Écran) dans une console locale en entrant la commande suivante :

screen /dev/ttyS0 9600

Cela signifie que l'écran reçoit les données du premier port série avec un débit en bauds de 9 600. À partir de maintenant, l'installation est semblable à l'installation en mode texte sur ce terminal.

2.5.3 Installation avec le protocole SSH

Si vous n'avez pas d'accès direct à la machine et si l'installation est lancée depuis une console de gestion, vous pouvez contrôler tout le processus d'installation via le réseau. Pour ce faire, saisissez les paramètres ssh=1 et ssh.password=SECRET à l'invite de démarrage. Un daemon SSH est ensuite lancé sur le système. Vous pouvez alors vous connecter en tant qu'utilisateur root avec le mot de passe SECRET.

Pour vous connecter, utilisez ssh -X. Le transfert X via SSH est pris en charge, pour autant que vous disposiez d'un serveur X local. Dans le cas contraire, YaST fournit une interface texte via ncurses. YaST vous guide ensuite tout au long du processus d'installation. Cette procédure est décrite en détail à la Section 10.1.5, « Installation simple à distance via SSH : configuration réseau dynamique ».

Si votre réseau local ne comporte aucun serveur DHCP disponible, affectez manuellement une adresse IP au système d'installation. Pour ce faire, saisissez l'option HostIP=IPADDR à l'invite de démarrage.

2.5.4 Installation via VNC

Si vous ne pouvez pas accéder directement au système, mais que vous souhaitez effectuer une installation graphique, installez SUSE Linux Enterprise Server via VNC. Cette méthode est décrite en détail à la Section 10.3.1, « Installation VNC ».

Étant donné que des clients VNC appropriés sont également disponibles pour d'autres systèmes d'exploitation tels que Microsoft Windows et Mac OS, l'installation peut également être contrôlée depuis des ordinateurs exécutant ces systèmes d'exploitation.

2.5.5 Installation avec AutoYaST

Si vous devez installer SUSE Linux Enterprise Server sur plusieurs ordinateurs présentant une configuration matérielle similaire, il est recommandé d'effectuer les installations avec AutoYaST. Dans ce cas, installez une instance de SUSE Linux Enterprise Server, puis utilisez-la pour créer les fichiers de configuration AutoYaST nécessaires.

AutoYaST est décrit en détail au Book “AutoYaST” .

2.6 Gestion des problèmes de démarrage et d'installation

Avant la livraison, SUSE® Linux Enterprise Server est soumis à un programme de test approfondi. Malgré cela, des problèmes peuvent survenir lors du démarrage ou de l'installation.

2.6.1 Problèmes liés au démarrage

Des problèmes de démarrage peuvent empêcher le lancement du programme d'installation de YaST sur votre système. Il peut aussi arriver que votre système ne démarre pas une fois l'installation terminée.

Le système installé démarre, mais pas le support

Modifiez le microprogramme ou le BIOS de l'ordinateur pour corriger la séquence de démarrage. Pour ce faire, reportez-vous au manuel du matériel.

L'ordinateur se bloque

Modifiez la console de votre ordinateur pour rendre les sorties du kernel visibles. Assurez-vous de vérifier les dernières sorties. Pour ce faire, appuyez sur la touche CtrlAltF10. Si vous ne parvenez pas à résoudre le problème, consultez le service de support de SUSE Linux Enterprise Server. Pour consigner tous les messages système au démarrage, utilisez une connexion série, comme décrit dans la Section 2.5, « Contrôle de l'installation ».

Disquette de démarrage

La disquette de démarrage est une solution provisoire utile si vous rencontrez des difficultés lors de la configuration d'autres options ou si vous souhaitez reporter la décision concernant le mécanisme de démarrage final. Pour plus d'informations sur la création des disquettes de démarrage, reportez-vous au Book “Administration Guide”, Chapter 13 “The Boot Loader GRUB 2” grub2-mkrescue.

Avertissement de virus après l'installation

Des variantes BIOS vérifient la structure du secteur de démarrage (MBR) et affichent de manière erronée un avertissement de virus après l'installation de GRUB 2. Pour résoudre ce problème, entrez dans le BIOS et recherchez les paramètres ajustables correspondants. Par exemple, désactivez la protection anti-virus. Vous pourrez réactiver cette option ultérieurement. Cependant, cela n'est pas nécessaire si Linux est le seul système d'exploitation utilisé.

2.6.2 Problèmes liés à l'installation

Si un problème inattendu survient pendant l'installation, des informations sont nécessaires pour en déterminer la cause. Suivez les instructions ci-après pour résoudre le problème :

  • Vérifiez les sorties sur les différentes consoles. Vous pouvez passer d'une console à l'autre en employant la combinaison de touches CtrlAltFn. Par exemple, pour obtenir un shell dans lequel éxécuter différentes commandes, appuyez sur CtrlAltF2.

  • Essayez de lancer l'installation avec les « Paramètres sécurisés  » (appuyez sur la touche F5 dans l'écran d'installation et sélectionnez Paramètres sécurisés). Si l'installation fonctionne normalement, il existe une incompatibilité qui entraîne l'échec d'ACPI ou d'APIC. Dans certains cas, une mise à jour du BIOS ou du microprogramme résout ce problème.

  • Saisissez la commande dmesg -T pour vérifier les messages système sur une console sur le système d'installation.

2.6.3 Redirection de la source de démarrage vers le DVD de démarrage

Pour simplifier le processus d'installation et éviter des installations accidentelles, votre système est paramétré par défaut pour un démarrage à partir du premier disque dur sur le DVD d'installation de SUSE Linux Enterprise Server. À ce stade, un chargeur de démarrage installé prend généralement le contrôle du système. Cela signifie que le DVD de démarrage peut rester dans le lecteur lors d'une installation. Pour démarrer l'installation, choisissez une option d'installation dans le menu de démarrage du support.

3 Installation sur IBM POWER

Ce chapitre décrit la procédure pour préparer l'installation de SUSE® Linux Enterprise Server sur les systèmes IBM POWER.

3.1 Configuration requise

Une installation standard requiert au moins 512 Mo de RAM. L'installation d'un système standard avec le bureau GNOME requiert au moins 3,5 Go d'espace disque dur disponible ; une installation complète nécessite environ 8,5 Go.

3.1.1 Configuration matérielle requise

Le système d'exploitation SUSE® Linux Enterprise Server peut fonctionner sur des serveurs IBM POWER8. Vous trouverez ci-dessous des informations sur la configuration minimale requise pour vous aider lors de la phase de planification.

Pour garantir le bon fonctionnement d'une configuration d'ordinateur donnée, consultez la base de données des matériels certifiés par SUSE. La liste des matériels certifiés est disponible à l'adresse http://www.suse.com/yessearch/Search.jsp.

SUSE Linux Enterprise Server peut prendre en charge d'autres systèmes IBM POWER non répertoriés ci-dessous. Pour obtenir les informations les plus récentes, rendez-vous sur le Centre d'informations IBM pour Linux à l'adresse http://www.ibm.com/support/knowledgecenter/linuxonibm/liaam/liaamdistros.htm.

Vous trouverez des informations à jour sur IBM FixCentral (http://www.ibm.com/support/fixcentral/). Sélectionnez votre système dans la liste Groupe de produits. Des logiciels supplémentaires sont disponibles à partir du dépôt d'outils IBM PowerLinux. Le dépôt d'outils IBM est également appelé dépôt Yum. Pour plus d'informations sur l'utilisation du dépôt d'outils IBM PowerLinux, consultez l'adresse https://ibm.biz/Bdxn3N.

3.1.1.1 Serveurs équipés d'un processeur IBM POWER8

Tous les serveurs POWER8 pris en charge sont compatibles avec PowerKVM.

  • 8247-21L (IBM Power® System S120L)

  • 8247-22L (IBM Power System S220L)

  • 8284-22A (IBM Power System S2200)

  • 8286-41A (IBM Power System S1400)

  • 8286-42A (IBM Power System S2400)

3.2 Préparation

Ce chapitre décrit les étapes de préparation requises avant de procéder effectivement à l'installation de SUSE Linux Enterprise Server. La procédure d'installation dépend du système utilisé. Les méthodes suivantes sont prises en charge :

Si SUSE® Linux Enterprise Server doit être installé sur plusieurs systèmes ou partitions, il est recommandé de créer une source d'installation réseau. Vous pouvez utiliser la même source pour procéder à des installations simultanées sur plusieurs partitions ou systèmes. Pour plus d'informations sur la configuration d'une source d'installation réseau, reportez-vous à la Section 8.1, « Configuration d'un serveur d'installation à l'aide de YaST ».

3.2.1 Installation sur des serveurs avec IBM PowerKVM à l'aide de Kimchi

Cette section décrit les étapes préparatoires à l'installation sur des systèmes IBM PowerLinux avec PowerKVM. Vous y apprendrez comment effectuer l'installation à partir d'une image ISO avec l'interface utilisateur Kimchi. Kimchi est un outil destiné à l'administration d'IBM PowerKVM.

Dans cette section, nous partons du principe que PowerKVM s'exécute sur votre serveur IBM PowerLinux. Si PowerKVM n'est pas préinstallé, consultez l'article « Configuring IBM PowerKVM on Power Systems » (Configuration d'IBM PowerKVM sur des systèmes Power) sur le site http://www.ibm.com/support/knowledgecenter/linuxonibm/liabp/liabpkickoff.htm pour installer et configurer PowerKVM.

3.2.1.1 Création d'un modèle SUSE Linux Enterprise Server avec Kimchi

Les modèles constituent la source d'installation pour les invités PowerKVM. Vous pouvez créer un modèle, le cloner ou le modifier. Pour cloner un modèle à partir d'un invité existant, ce dernier doit être désactivé.

Procédure 3.1 : Création d'un modèle avec Kimchi
  1. Entrez l'URL du serveur PowerLinux sur lequel PowerKVM s'exécute dans la barre d'adresse du navigateur Web ; https://POWERLINUX_IP:8001, par exemple (remplacez POWERLINUX_IP [ADRESSE_IP_POWERLINUX] par l'adresse IP de votre système).

  2. Cliquez sur l'onglet Modèles pour activer la page Modèles.

  3. Cliquez sur le signe plus (+) vert pour créer le modèle SUSE Linux Enterprise Server.

  4. Dans la boîte de dialogue Add Template (Ajouter un modèle), effectuez une sélection parmi les options suivantes :

    Local ISO Image (Image ISO locale)

    Sélectionnez cette option pour analyser les réserves de stockage à la recherche des images ISO d'installation disponibles sur le système.

    Local Image File (Fichier image local)

    Sélectionnez cette option pour spécifier un chemin d'accès à un fichier image local.

    Remote ISO file (Fichier ISO distant)

    Sélectionnez cette option pour spécifier un emplacement distant d'une image ISO d'installation.

  5. Sélectionnez le fichier ISO à utiliser pour créer un invité et cliquez sur Create Templates from Selected ISO (Créer des modèles à partir du fichier ISO sélectionné).

  6. Pour configurer le nouveau modèle, cliquez sur Actions › Modifier et modifiez ensuite les valeurs par défaut conformément à votre workload.

    Image

Pour plus d'informations, consultez l'article « Setting up a template using Kimchi » (Configuration d'un modèle à l'aide de Kimchi) à l'adresse http://www.ibm.com/support/knowledgecenter/linuxonibm/liabp/liabpkimchitemplate.htm.

3.2.1.2 Installation de SUSE Linux Enterprise Server en tant qu'invité avec Kimchi

  1. Entrez l'URL du serveur PowerLinux sur lequel PowerKVM s'exécute dans la barre d'adresse du navigateur Web ; https://POWERLINUX_IP:8001, par exemple (remplacez POWERLINUX_IP [ADRESSE_IP_POWERLINUX] par l'adresse IP de votre système).

  2. Cliquez sur l'onglet Invités pour activer la page Invités.

  3. Cliquez sur le signe plus (+) vert pour créer l'invité SUSE Linux Enterprise Server.

  4. Attribuez un Nom de machine virtuelle à l'invité SUSE Linux Enterprise Server.

    Sélectionnez le modèle SUSE Linux Enterprise Server créé à la Section 3.2.1.1, « Création d'un modèle SUSE Linux Enterprise Server avec Kimchi », puis cliquez sur Créer.

    Image
  5. Une fois que l'invité est créé, il est prêt à être démarré. Cliquez sur le bouton marche/arrêt de couleur rouge pour démarrer l'invité SUSE Linux Enterprise Server. Vous pouvez également sélectionner Actions › Démarrer.

  6. Cliquez sur Actions › Connecter, puis connectez votre visionneuse VNC au processus d'installation selon la procédure décrite à la Section 10.3.1.2, « Connexion au programme d'installation ».

Astuce
Astuce : création de plusieurs invités

Pour créer plusieurs invités d'un type similaire, sélectionnez Cloner dans le menu Actions d'un invité existant.

Vous pouvez à présent poursuivre l'installation par défaut via VNC, comme décrit à la Section 6.3, « Étapes de l'installation ».

3.2.2 Installation sur des serveurs avec IBM PowerKVM à l'aide de virt-install

Au lieu d'effectuer une installation avec Kimchi, vous pouvez utiliser l'outil de ligne de commande Virt-install qui permet de réaliser l'installation sur des serveurs avec IBM PowerKVM. Cette méthode est particulièrement utile si vous devez installer plusieurs machines virtuelles sur des systèmes IBM PowerLinux Server. virt-install prend en charge de nombreux scénarios d'installation ; un scénario d'installation à distance via un démarrage PXE et VNC est présenté à la section suivante. Pour plus d'informations sur virt-install, reportez-vous au Book “Virtualization Guide”, Chapter 9 “Guest Installation”, Section 9.2 “Installing from the Command Line with virt-install.

Préparez un dépôt avec les sources d'installation et le système cible compatible avec le démarrage PXE, comme décrit à la Section 10.1.3, « Installation à distance via VNC : démarrage PXE et fonction Wake on LAN (réveil à distance) ».

Entrez une commande semblable à ceci sur la ligne de commande (réglez les options en fonction de vos besoins et de votre matériel) :

virt-install --name server_sle12 --memory 4096 --vcpus=2 --pxe \
--graphics vnc --os-variant sles11 \
--disk pool=default,size=3000,format=qcow2,allocation=1G,bus=virtio \
-w mac=MAC_ADDRESS,model=spapr-vlan

Cette commande utilise le graphique VNC et le client graphique est démarré automatiquement. Effectuez l'installation comme décrit à la Section 6.3, « Étapes de l'installation ».

3.2.3 Installation sur une partition à l'aide d'IVM

Ce guide vous aide à installer SUSE Linux Enterprise Server sur une partition de serveur Power Systems à l'aide de l'interface Web Integrated Virtualization Manager (IVM). Avant de commencer l'installation, assurez-vous que les conditions suivantes soient remplies :

  • Le système Linux on Power est sous tension.

  • Le serveur E/S virtuel est installé.

  • IVM est bien configuré.

Procédure 3.2 : Connexion à l'interface Web IVM
  1. Ouvrez une fenêtre de navigateur Web et connectez-vous, via le protocole HTTP ou HTTPS, à l'adresse IP qui a été assignée à IVM au cours du processus d'installation (par exemple, https://ADRESSE_IP). La fenêtre de bienvenue s'affiche.

  2. Connectez-vous en tant qu'utilisateur padmin et spécifiez le mot de passe défini au cours du processus d'installation. L'interface IVM s'affiche.

  3. Sélectionnez View/Modify Virtual Ethernet (Afficher/modifier l'Ethernet virtuel).

  4. Cliquez sur Initialize Virtual Ethernet (Initialiser l'Ethernet virtuel) pour permettre une connectivité Ethernet entre les partitions.

  5. Lorsque l'Ethernet virtuel est initialisé, cliquez sur Apply (Appliquer).

  6. Si votre installation requiert une mise en réseau externe, créez un pont Ethernet virtuel.

    1. Sélectionnez l'onglet Virtual Ethernet Bridge (Pont Ethernet virtuel).

    2. Sélectionnez l'adaptateur physique pour le pont, puis Appliquer.

Ensuite, créez une partition en procédant comme suit :

Procédure 3.3 : Créer une partition
  1. Dans l'interface Web IVM, cliquez surView/Modify Partition (Afficher/modifier la partition) Create Partition (Créer une partition).

  2. Entrez le nom de la partition. Pour passer à l'étape suivante, cliquez sur Next (Suivant) dans cet écran et au cours des étapes suivantes.

  3. Spécifiez la mémoire de votre partition. Si vous avez créé une réserve de mémoire partagée, vos partitions peuvent partager de la mémoire. Dans le cas contraire, sélectionnez Dedicated (Dédiée).

  4. Spécifiez le nombre de processeurs et le mode de traitement de la partition.

  5. Spécifiez un Ethernet virtuel pour la partition. Si vous ne souhaitez pas configurer un adaptateur, sélectionnez none (Aucun) pour l'Ethernet virtuel.

  6. Créez un nouveau disque virtuel ou assignez des disques virtuels et des volumes physiques existants qui ne sont actuellement assignés à aucune partition.

  7. Vérifiez le nom du disque virtuel et le nom de la réserve de stockage de votre disque, et spécifiez une taille de disque virtuel.

  8. Configurez les périphériques optiques de votre partition en développant les sections Physical Optical Devices (Périphériques optiques physiques) et Virtual Optical Devices (Périphériques optiques virtuels) pour ensuite sélectionner le ou les périphériques à assigner à la partition.

  9. Vérifiez les paramètres de configuration de votre partition, puis cliquez sur Finish (Terminer). La partition est créée et disponible à partir de la liste View/Modify Partitions (Afficher/modifier les partitions).

À présent, activez la partition créée :

Procédure 3.4 : Activation de la partition
  1. Dans l'interface Web IVM, cliquez sur View/Modify Partition (Afficher/modifier la partition) et sélectionnez la zone en regard de la partition à activer.

  2. Sélectionnez More Tasks (Plus de tâches).

  3. Sélectionnez Open a terminal window (Ouvrir une fenêtre de terminal).

  4. Cliquez sur Activate (Activer) en regard de la partition.

  5. Dans la fenêtre de terminal, entrez 1 pour démarrer les services de gestion du système (SMS).

La machine est maintenant configurée. Vous pouvez démarrer l'installation :

Procédure 3.5 : Démarrage de l'installation de Linux
  1. Dans la fenêtre Boot selection (Sélection de démarrage), entrez1 pour sélectionner le menu SMS. Entrez 1 avant que l'écran de démarrage du microprogramme soit complètement affiché, car il disparaît une fois l'opération terminée. Si vous manquez l'écran, redémarrez le système.

  2. À ce stade, vous pouvez insérer le disque de support du serveur E/S virtuel (VIOS) dans l'unité de disque.

  3. Entrez 2 pour passer à la saisie du mot de passe dans le menu de sélection de la langue. Entrez le mot de passe de l'ID d'administrateur.

  4. Dans le menu SMS principal, entrez 5 pour choisir l'option Select Boot Options (Sélectionner les options de démarrage).

  5. Entrez 1 pour sélectionner Install/Boot Device (Installer/démarrer un périphérique).

  6. Entrez 7 pour afficher tous les périphériques de démarrage disponibles.

  7. Entrez le numéro correspondant au périphérique à utiliser. Si votre périphérique n'est pas répertorié, entrez N pour en afficher d'autres.

  8. Entrez 2 pour effectuer un démarrage de type Normal Mode Boot (Démarrage en mode normal).

  9. Entrez 1 pour quitter le menu SMS et lancer le processus de démarrage.

  10. À l'invite de démarrage du programme d'installation, tapez :

    install vnc=1
    vncpassword=VNC_PASSWORD

    Remplacez VNC_PASSWORD (MOT_DE_PASSE_VNC par un mot de passe de votre choix (la longueur minimale est de huit caractères) et appuyez sur Entrée pour lancer l'installation de SUSE Linux Enterprise Server. Le kernel commence à se charger.

Une fois que le kernel a commencé à se charger, le programme d'installation a besoin de certaines informations de la part du système afin de configurer une session VNC. Vous devez disposer d'une pile TCP/IP valide pour pouvoir utiliser VNC. Utilisez DHCP ou définissez manuellement vos informations réseau à l'aide des instructions fournies par le programme d'installation.

Procédure 3.6 : Démarrage d'une session VNC
  1. Dans la fenêtre Périphérique réseau, sélectionnez eth0 en tant que périphérique réseau. Sélectionnez OK et appuyez sur Entrée.

  2. Testez le support d'installation. Vous pouvez également poursuivre sans effectuer le test. Pour ce faire, sélectionnez Ignorer.

  3. Une fois le serveur VNC démarré par le système, un message vous invite à connecter votre client VNC et fournit une adresse IP. Prenez note de cette adresse IP.

  4. Démarrez un client VNC sur votre ordinateur portable ou votre PC. Entrez l'adresse IP obtenue à l'étape précédente, suivie de :1, par exemple 192.168.2.103:1.

  5. Effectuez l'installation comme décrit au Section 6.3, « Étapes de l'installation ».

3.2.4 Installation sur des serveurs sans couche d'abstraction OpenPower

Ces informations permettent d'installer Linux à l'aide d'une console série ou d'un écran et d'un clavier sur un serveur Power Systems. Cette installation suppose que vous disposiez d'un système non géré (autonome) prêt à démarrer.

  1. Mettez votre système sous tension en sélectionnant Power On (Allumer) dans le menu Power On/Off System (Allumer/éteindre le système). Lorsque le système vous demande si vous souhaitez continuer à l'aide de la console, entrez 0 pour poursuivre.

  2. Insérez le support d'installation de SUSE Linux Enterprise Server dans l'unité de disque.

  3. Dans la fenêtre Select Language (Sélectionner la langue), entrez 2 pour continuer le démarrage.

  4. Entrez 1 pour accepter le contrat de licence.

  5. Dans la fenêtre Boot selection (Sélection de démarrage), entrez1 pour sélectionner le menu SMS. Entrez 1 avant que l'écran de démarrage du microprogramme soit complètement affiché, car il disparaît une fois l'opération terminée. Si vous manquez l'écran, redémarrez le système.

  6. Entrez 2 pour passer à la saisie du mot de passe dans le menu de sélection de la langue. Entrez le mot de passe de l'ID d'administrateur.

  7. Dans le menu SMS principal, entrez 5 pour choisir l'option Select Boot Options (Sélectionner les options de démarrage).

  8. Entrez 7 pour afficher tous les périphériques de démarrage disponibles.

  9. Entrez le numéro correspondant au périphérique à utiliser. Si votre périphérique n'est pas répertorié, entrez N pour en afficher d'autres.

  10. Entrez 2 pour effectuer un démarrage de type Normal Mode Boot (Démarrage en mode normal).

  11. Entrez 1 pour quitter le menu SMS et lancer le processus de démarrage.

  12. À l'invite de démarrage du programme d'installation, tapez :

    install vnc=1
    vncpassword=VNC_PASSWORD

    Remplacez VNC_PASSWORD (MOT_DE_PASSE_VNC par un mot de passe de votre choix (la longueur minimale est de huit caractères) et appuyez sur Entrée pour lancer l'installation de SUSE Linux Enterprise Server. Le kernel commence à se charger.

Une fois que le kernel a commencé à se charger, le programme d'installation a besoin de certaines informations de la part du système afin de configurer une session VNC. Vous devez disposer d'une pile TCP/IP valide pour pouvoir utiliser VNC. Utilisez DHCP ou définissez manuellement vos informations réseau à l'aide des instructions fournies par le programme d'installation.

Procédure 3.7 : Démarrage d'une session VNC
  1. Dans la fenêtre Périphérique réseau, sélectionnez eth0 en tant que périphérique réseau. Sélectionnez OK et appuyez sur Entrée.

  2. Testez le support d'installation. Vous pouvez également poursuivre sans effectuer le test. Pour ce faire, sélectionnez Ignorer.

  3. Une fois le serveur VNC démarré par le système, un message vous invite à connecter votre client VNC et fournit une adresse IP. Prenez note de cette adresse IP.

  4. Démarrez un client VNC sur votre ordinateur portable ou votre PC. Entrez l'adresse IP obtenue à l'étape précédente, suivie de :1, par exemple 192.168.2.103:1.

  5. Effectuez l'installation comme décrit au Section 6.3, « Étapes de l'installation ».

3.3 Pour plus d'informations

Pour plus d'informations sur IBM PowerLinux, consultez les sources SUSE et IBM :

  • La base de connaissances du support SUSE à l'adresse https://www.suse.com/support/kb/ est un outil efficace pour aider les clients à résoudre leurs problèmes. Effectuez des recherches dans la base de connaissances sur SUSE Linux Enterprise Server à l'aide de mots clés tels que POWER ou PowerKVM.

  • Recherchez les alertes de sécurité à l'adresse suivante : https://www.suse.com/support/security/. SUSE tient également à jour deux listes de diffusion, auxquelles toute personne peut s'abonner, en relation avec la sécurité.

    • suse-security : discussion d'ordre général concernant la sécurité pour Linux et SUSE. Toutes les alertes de sécurité pour SUSE Linux Enterprise Server sont envoyées à cette liste.

    • suse-security-announce : la liste de diffusion de SUSE signale exclusivement les alertes de sécurité.

  • En cas d'erreurs matérielles, vérifiez sur le Panneau de configuration tout code susceptible d'être affiché. Vous pouvez rechercher tous les codes affichés dans le centre d'informations IBM Power Systems Hardware Information Center à l'adresse https://ibm.biz/Bdxn3T.

  • Pour des conseils de dépannage, reportez-vous à la rubrique IBM PowerLinux FAQ dans le centre d'informations à l'adresse https://ibm.biz/Bdxn35.

  • Pour faire partie de la liste de diffusion linuxppc-dev, enregistrez-vous à l'aide des formulaires disponibles à l'adresse http://lists.ozlabs.org/listinfo/linuxppc-dev/.

4 Installation sur IBM Z

Ce chapitre décrit la procédure pour préparer l'installation de SUSE® Linux Enterprise Server sur les systèmes IBM Z. Il fournit toutes les informations nécessaires pour préparer l'installation du côté LPAR et z/VM.

4.1 Informations générales et spécifications

Cette section fournit des informations de base sur la configuration système requise (telle que le matériel pris en charge), le niveau MicroCode et le logiciel. Elle traite également des différents types d'installation et de la manière d'exécuter un IPL pour la première installation. Pour obtenir des informations techniques détaillées concernant IBM Z sous SUSE Linux Enterprise Server, consultez le site http://www.ibm.com/developerworks/linux/linux390/documentation_suse.html.

4.1.1 Configuration système requise

Cette section fournit une liste du matériel pour IBM Z pris en charge par SUSE Linux Enterprise Server. Elle traite ensuite du niveau MicroCode (MCL) utilisé sur votre système IBM Z pour l'installation. Vous trouverez des informations sur les autres logiciels à installer et à utiliser pour l'installation à la fin de cette section.

4.1.1.1 Matériel

SUSE Linux Enterprise Server s'exécute correctement sur les plates-formes suivantes :

  • IBM zEnterprise System z196 (2817)

  • IBM zEnterprise System z114 (2818)

  • IBM zEnterprise EC12 (zEC12) (2827)

  • IBM zEnterprise BC12 (zBC12) (2828)

  • IBM z Systems z13 (2964)

  • IBM z Systems z13s (2965)

  • IBM LinuxONE Emperor (2964)

  • IBM LinuxONE Rockhopper (2965)

4.1.1.1.1 Prérequis système liés à la mémoire

Des méthodes d'installation différentes ont des prérequis système liés à la mémoire différents lors de l'installation. Une fois l'installation terminée, l'administrateur système peut réduire la mémoire pour obtenir la taille souhaitée. SUSE recommande :

1 Go

Pour une installation sous z/VM.

1 Go

Pour une installation sous LPAR.

1 Go

Pour une installation sous KVM.

Note
Note : prérequis système liés à la mémoire pour des sources d'installation à distance

Pour une installation à partir de sources d'installation NFS, FTP ou SMB ou chaque fois que VNC est utilisé, au moins 512 Mo de mémoire sont requis. Dans le cas contraire, la tentative d'installation risque d'échouer. Souvenez-vous que le nombre de périphériques visibles par un invité z/VM ou une image LPAR affecte la configuration de mémoire requise. Une installation avec des centaines de périphériques accessibles peut nécessiter plus de mémoire (même si ces périphériques ne sont pas utilisés pour l'installation).

4.1.1.1.2 Espace disque requis

La configuration du disque dur requise dépend fortement de l'installation. En règle générale, pour que le système fonctionne correctement, vous devez avoir plus d'espace disque que n'en nécessite le logiciel d'installation. La configuration minimale des différents éléments est la suivante :

800 Mo

Installation minimale

1,4 Go

Installation minimale + système de base

2,6 Go

Installation par défaut

3,6 Go+

Recommandée (avec bureau graphique, paquetages de développement et Java).

4.1.1.1.3 Connexion réseau

Une connexion réseau est requise pour communiquer avec votre système SUSE Linux Enterprise Server. Il peut s'agir d'une ou de plusieurs des connexions ou des cartes réseau suivantes :

  • OSA Express Ethernet (y compris Fast et Gigabit Ethernet)

  • HiperSockets ou Guest LAN

  • 10 GBE, VSWITCH

  • RoCE (RDMA over Converged Ethernet)

Les interfaces suivantes sont toujours incluses mais ne sont plus prises en charge :

  • CTC (ou CTC virtuel)

  • ESCON

  • Interface réseau IP pour IUCV

Pour les installations sous KVM, assurez-vous que les conditions suivantes sont réunies pour permettre à l'invité de machine virtuelle d'accéder en toute transparence au réseau :

  • L'interface réseau virtuelle est connectée à une interface réseau hôte.

  • L'interface réseau hôte est connectée à un réseau auquel le serveur virtuel participera.

  • Si l'hôte est configuré pour utiliser une connexion réseau redondante en regroupant deux ports réseau OSA indépendants dans une interface réseau liée, l'identificateur de cette dernière est bond0 (ou, s'il existe plusieurs interfaces liées, bond1, bond2, etc.).

  • Si la connexion réseau hôte n'a pas été configurée de façon redondante, il faut utiliser l'identificateur de l'interface réseau unique. Celui-ci se présente sous la forme enccw0.0.NNNN, où NNNN est le numéro de périphérique de l'interface réseau de votre choix.

4.1.1.2 Niveau MicroCode, APAR et correctifs

Vous trouverez la documentation relative aux restrictions et exigences de cette version de SUSE Linux Enterprise Server sur IBM developerWorks à l'adresse http://www.ibm.com/developerworks/linux/linux390/documentation_suse.html. Il est recommandé de toujours utiliser le niveau de service le plus élevé. Contactez l'assistance technique IBM pour connaître la configuration minimale requise.

4.1.1.2.1 z/VM
  • z/VM 5.4

  • z/VM 6.2

  • z/VM 6.3. Il est vivement recommandé d'installer APAR VM65419 (ou version ultérieure) afin d'améliorer la sortie de qclib.

Négociez l'ordre d'installation avec votre support IBM, car il peut être nécessaire d'activer les APAR VM avant d'installer les nouveaux niveaux MicroCode.

4.1.1.3 Logiciel

Si vous installez SUSE Linux Enterprise Server via un protocole NFS ou FTP non-Linux, vous risquez de rencontrer des problèmes avec les logiciels serveur NFS ou FTP. Le serveur FTP standard de Windows* peut générer des erreurs. L'installation via SMB sur ces machines est donc généralement recommandée.

Pour vous connecter au système d'installation de SUSE Linux Enterprise Server, utilisez l'une des méthodes suivantes (l'utilisation de SSH or VNC est recommandée) :

SSH avec émulation de terminal (compatible xterm)

SSH est un outil Unix standard qui doit être présent sur tout système Unix ou Linux. Pour Windows, il existe un client SSH appelé Putty. Il est gratuit et disponible sur le site http://www.chiark.greenend.org.uk/~sgtatham/putty/.

Client VNC

Pour Linux, un client VNC nommé vncviewer est inclus dans SUSE Linux Enterprise Server en tant que partie du paquetage tightvnc. Pour Windows, TightVNC est également disponible. Vous pouvez le télécharger sur le site http://www.tightvnc.com/.

Serveur X

Vous trouverez une mise en oeuvre du serveur X adaptée sur tous les postes de travail Linux ou Unix. Il existe de nombreux environnements commerciaux de systèmes X Window pour Windows et Mac OS*. Certains peuvent être téléchargés sous la forme de versions d'essai gratuites. Vous pouvez obtenir une version d'essai du serveur Mocha X Server de MochaSoft sur le site http://www.mochasoft.dk/freeware/x11.htm.

Astuce
Astuce : informations complémentaires

Consultez le fichier README situé dans le répertoire racine du DVD 1 de votre instance SUSE Linux Enterprise Server avant d'installer SUSE Linux Enterprise Server sur IBM Z. Ce fichier complète la documentation présentée dans ce manuel.

4.1.2 Types d'installation

Cette section présente les différents types d'installation possibles avec SUSE Linux Enterprise Server pour IBM Z :

LPAR

Installation de SUSE Linux Enterprise Server à l'aide d'une partition logique (LPAR).

z/VM

Installation de SUSE Linux Enterprise Server en tant que système d'exploitation invité dans z/VM.

KVM

Installation de SUSE Linux Enterprise Server en tant que système d'exploitation invité dans KVM.

Selon le mode d'installation (LPAR ou z/VM), il existe plusieurs manières de démarrer le processus d'installation et d'exécuter un IPL sur le système installé.

4.1.2.1 LPAR

Si vous installez SUSE Linux Enterprise Server for IBM Z sur une partition logique (LPAR), assignez de la mémoire et des processeurs à l'instance. L'installation dans une partition logique est recommandée si les machines de production sont très chargées. L'exécution en mode LPAR permet également de bénéficier de normes de sécurité plus strictes. La mise en réseau entre les partitions logiques est possible sur des interfaces externes ou Hipersockets. Si vous prévoyez d'utiliser votre installation à des fins de virtualisation avec KVM, une installation dans une partition logique est vivement conseillée.

4.1.2.2 z/VM

L'exécution de SUSE Linux Enterprise Server for IBM Z dans z/VM implique que SUSE Linux Enterprise Server est un système invité au sein de z/VM. Un avantage de ce mode est que vous contrôlez totalement SUSE Linux Enterprise Server à partir de z/VM. Cela s'avère très utile pour le développement du kernel ou le débogage basé sur le kernel. Il est également très facile d'ajouter ou de supprimer du matériel vers et depuis les invités Linux. La création d'invités SUSE Linux Enterprise Server supplémentaires est une opération particulièrement simple. Vous pouvez, en outre, exécuter des centaines d'instances Linux simultanément.

4.1.2.3 Invité KVM

Afin d'installer SUSE Linux Enterprise Server for IBM Z en tant qu'invité KVM, une instance de serveur hôte KVM doit être installée sur la partition logique. Pour plus de détails sur l'installation de l'invité, reportez-vous à la Procédure 4.3, « Présentation d'une installation invité KVM ».

4.1.3 Options IPL

Cette section fournit les informations nécessaires pour exécuter un IPL pour la première installation. Selon le type d'installation, différentes options doivent être utilisées. Les options Lecteur VM, Charger depuis un CD-ROM ou un serveur et Chargement depuis un DVD associé à SCSI sont traitées dans cette section. L'installation des paquetages logiciels, via le réseau, ne requiert pas de support IPL.

4.1.3.1 Lecteur VM

Pour exécuter un IPL depuis un lecteur VM, transférez tout d'abord les fichiers nécessaires vers le lecteur. Pour une meilleure administration, il est recommandé de créer un utilisateur linuxmnt qui détient un minidisque avec les fichiers et les scripts requis pour IPL. Les invités Linux peuvent ensuite accéder à ce minidisque en lecture seule.

4.1.3.2 Chargement à partir d'un support amovible ou un serveur

Pour exécuter un IPL dans une partition LPAR, vous pouvez charger directement l'image du kernel à partir du lecteur de CD/DVD-ROM de la console HMC ou de l'ordinateur SE, ou à partir de tout système distant accessible via FTP. Vous pouvez exécuter cette fonction depuis HMC. Le processus d'installation requiert un fichier avec une assignation de l'emplacement des données d'installation sur le système de fichiers et les emplacements de la mémoire où les données doivent être copiées.

Pour SUSE Linux Enterprise Server, il existe deux fichiers de ce type. Les deux se trouvent dans le répertoire racine du système de fichiers du DVD1 :

  • Suse.ins qui nécessitera, pour pouvoir être utilisé, de configurer l'accès réseau dans Linuxrc avant de commencer l'installation.

  • susehmc.ins qui permet d'effectuer l'installation sans le moindre accès au réseau.

Dans le volet de navigation gauche de HMC, développez Systems Management › Systèmes (Gestion des systèmes) et sélectionnez le macroordinateur que vous voulez utiliser. Choisissez la partition logique (LPAR) dans laquelle vous souhaitez démarrer SUSE Linux Enterprise Server dans la table de partitions logiques et sélectionnez ensuite Chargement depuis un support amovible ou un serveur.

Sélectionnez maintenant Hardware Management Console CD-ROM/DVD (CD-ROM/DVD de la console de gestion du matériel) ou FTP Source (Source FTP). Si vous avez choisi la seconde option, fournissez l'adresse ou le nom du serveur, ainsi que vos informations d'identification. Si le fichier .ins approprié ne se trouve pas dans le répertoire racine du serveur, indiquez le chemin d'accès à ce fichier. Accédez au menu Select the software to load (Sélectionner le logiciel à charger) et sélectionnez l'entrée .ins appropriée. Cliquez sur OK pour démarrer l'installation.

4.1.3.3 Chargement depuis un DVD associé à SCSI

Pour exécuter un IPL à partir d'un DVD SCSI, vous devez avoir accès à un adaptateur FCP connecté à un lecteur de DVD. Vous devez récupérer les valeurs pour WWPN et LUN sur l'unité SCSI. Pour plus de détails, reportez-vous à la Section 4.2.4.1.2, « Exécution d'un IPL à partir d'un DVD SCSI associé FCP ».

4.1.3.4 Chargement depuis le réseau à l'aide de zPXE

Pour effectuer un chargement IPL à partir du réseau avec zPXE, un serveur Cobbler fournissant le kernel, le disque RAM et un fichier parmfile est nécessaire. Il est initié en exécutant le script ZPXE EXEC. Reportez-vous à la Section 4.2.1.3, « Utilisation d'un serveur Cobbler pour zPXE » pour plus d'informations. zPXE est uniquement disponible sur z/VM.

4.2 Préparation de l'installation

Découvrez comment rendre les données accessibles pour l'installation, installer SUSE Linux Enterprise Server selon différentes méthodes ainsi que préparer et utiliser l'IPL du système d'installation de SUSE Linux Enterprise Server. Vous trouverez également des informations sur la configuration et l'installation réseau.

4.2.1 Mise à disposition des données d'installation

Cette section fournit des informations détaillées pour rendre accessibles les données d'installation de SUSE Linux Enterprise Server for IBM Z. Selon l'ordinateur que vous utilisez et l'environnement système, choisissez une installation NFS ou FTP. Si vous exécutez des postes de travail Microsoft Windows dans votre environnement, vous pouvez utiliser le réseau Windows (y compris le protocole SMB) pour installer SUSE Linux Enterprise Server sur votre système IBM Z.

Astuce
Astuce : exécution d'un IPL à partir d'un DVD

Depuis le Service Pack 1 de SUSE Linux Enterprise Server Version 10, il est possible d'exécuter un IPL depuis un DVD et d'utiliser ce dernier comme support d'installation. Cela peut s'avérer très pratique si vous êtes confronté à des restrictions concernant la configuration d'un serveur d'installation fournissant un support d'installation sur votre réseau. Vous devez disposer d'un lecteur de DVD SCSI associé à un protocole FCP.

Note
Note : aucune installation « à partir du disque dur »

Il est impossible de procéder à une installation depuis le disque dur en plaçant le contenu du DVD sur une partition sur un DASD.

4.2.1.1 Utilisation d'un poste de travail Linux ou d'un DVD SUSE Linux Enterprise Server

Si votre poste de travail Linux s'exécute dans votre environnement informatique, utilisez le poste de travail pour fournir les données d'installation au processus d'installation IBM Z via NFS ou FTP. Si le poste de travail Linux s'exécute sous SUSE Linux Enterprise Server, vous pouvez configurer un serveur d'installation (NFS ou FTP) à l'aide du module YaST Serveur d'installation, comme décrit à la Section 8.1, « Configuration d'un serveur d'installation à l'aide de YaST ».

4.2.1.1.1 Avec un serveur NFS

Utilisez le serveur NFS (network file system - système de fichiers réseau) pour mettre à disposition le support d'installation.

Important
Important : exportation de périphériques installés avec NFS

Exporter la racine du système de fichiers (/) n'entraîne pas l'exportation des périphériques installés, comme un DVD. Désignez explicitement le point d'installation dans /etc/exports :

/media/dvd  *(ro)

Une fois ce fichier modifié, redémarrez le serveur NFS en exécutant la commande sudo systemctl restart nfsserver.

4.2.1.1.2 Avec un serveur FTP

La configuration d'un serveur FTP sur un système Linux implique d'installer et de configurer un logiciel serveur, tel que vsftpd. Si vous utilisez SUSE Linux Enterprise Server, reportez-vous au Book “Administration Guide”, Chapter 34 “Setting Up an FTP Server with YaST” pour obtenir des instructions d'installation. Le téléchargement des données d'installation via une connexion anonyme n'est pas pris en charge. Par conséquent, vous devez configurer le serveur FTP pour assurer l'authentification utilisateur.

4.2.1.1.3 SUSE Linux Enterprise Server sur DVD

Le DVD 1 de SUSE Linux Enterprise Server for IBM Z contient une image Linux de démarrage pour les postes de travail Intel et une image pour IBM Z.

Sur les postes de travail Intel, démarrez depuis ce DVD, répondez aux questions concernant la langue et la configuration du clavier, puis sélectionnez Démarrer le système de secours. Pour cette opération, 64 Mo minimum de mémoire vive sont requis. Aucun espace disque n'est requis, car tout le système de secours réside dans la mémoire vive du poste de travail. Cette approche nécessite que vous soyez familier avec Linux et la mise en réseau car vous devez configurer manuellement la mise en réseau du poste de travail.

Pour IBM Z, exécutez l'IPL de votre invité LPAR/VM depuis ce DVD, comme décrit à la Section 4.2.4.1.2, « Exécution d'un IPL à partir d'un DVD SCSI associé FCP ». Après avoir entré les paramètres de votre réseau, le système d'installation considère le DVD comme la source des données d'installation. Dans la mesure où IBM Z ne peut pas être associé directement à un terminal compatible X11, choisissez entre une installation VNC ou SSH. SSH fournit également une installation graphique par le tunnelage de la connexion x via SSH grâce à ssh -X.

4.2.1.2 Utilisation d'un poste travail Microsoft Windows

Si un poste de travail Microsoft Windows est disponible sur votre réseau, utilisez cet ordinateur pour mettre à disposition le support d'installation. Pour ce faire, le moyen le plus simple est d'utiliser le protocole SMB, déjà inclus sur le système d'exploitation Windows. Assurez-vous de cocher la case SMB over TCP/IP (SMB sur TCP/IP) pour activer l'encapsulation de paquetages SMB dans les paquetages TCP/IP. Pour plus d'informations, reportez-vous à l'aide en ligne de Windows ou à la documentation Windows traitant de la mise en réseau. Vous pouvez également utiliser FTP. Un logiciel tiers pour Windows est également requis dans ce cas.

4.2.1.2.1 Avec un serveur SMB

Pour mettre à disposition le support d'installation avec le serveur SMB, insérez le DVD 1 de SUSE Linux Enterprise Server dans le lecteur de DVD du poste de travail Windows. Créez ensuite un nouveau partage en utilisant la lettre du lecteur de DVD-ROM et mettez-le à disposition de toutes les personnes sur le réseau.

Dans YaST, le chemin d'installation peut se présenter comme suit :

smb://DOMAIN;USER:PW@SERVERNAME/SHAREPATH

Où les marques de réservation ont la signification suivante :

DOMAIN

Domaine de répertoire actif ou groupe de travail facultatif.

USER , PW

Nom d'utilisateur et mot de passe facultatifs d'un utilisateur habilité à accéder à ce serveur et à son partage.

SERVERNAME

Nom du serveur qui héberge le ou les partages.

SHAREPATH

Chemin d'accès aux partages.

4.2.1.2.2 Avec un serveur NFS

Reportez-vous à la documentation fournie avec le produit tiers qui active les services du serveur NFS pour votre poste de travail Windows. Le lecteur contenant les DVD SUSE Linux Enterprise Server doit se situer dans le chemin NFS disponible.

4.2.1.2.3 Avec un serveur FTP

Reportez-vous à la documentation fournie avec le produit tiers qui active les services du serveur FTP sur votre poste de travail Windows. Le lecteur contenant les DVD SUSE Linux Enterprise Server doit se situer dans le chemin FTP disponible.

Le serveur FTP faisant partie de certaines versions de Microsoft Windows implémente uniquement un sous-ensemble des commandes FTP et n'est pas adapté pour fournir les données d'installation. Si c'est le cas de votre poste de travail Windows, utilisez un serveur FTP tiers offrant les fonctions requises.

4.2.1.2.4 Utilisation d'un lecteur de DVD SCSI associé à FCP

Après avoir exécuté un IPL depuis le DVD SCSI, comme décrit à la Section 4.1.3.3, « Chargement depuis un DVD associé à SCSI », le système d'installation utilise le DVD comme support d'installation. Dans ce cas, vous n'avez pas besoin des supports d'installation sur le serveur FTP, NFS ou SMB. Cependant, vous avez besoin des données de configuration réseau de votre SUSE Linux Enterprise Server, car vous devez configurer le réseau au cours de l'installation afin d'effectuer une installation graphique au moyen de VNC ou X.

4.2.1.3 Utilisation d'un serveur Cobbler pour zPXE

Pour effectuer un chargement IPL à partir du réseau, un serveur Cobbler est nécessaire afin de fournir le kernel, le fichier initrd et les données d'installation. La préparation du serveur Cobbler se décompose en quatre étapes :

  • Importation des données d'installation

  • Ajout d'une distribution

  • Ajout de profils

  • Ajout de systèmes

4.2.1.3.1 Importation des données d'installation

L'importation du support exige que la source d'installation soit disponible sur le serveur Cobbler, à partir d'un DVD ou d'une source réseau. Exécutez la commande suivante pour importer les données :

cobbler import --path=PATH1 --name=IDENTIFIER2 --arch=s390x

1

Point de montage des données d'installation.

2

Chaîne identifiant le produit importé ; « sles12_s390x », par exemple. Cette chaîne est utilisée comme nom du sous-répertoire dans lequel sont copiées les données d'installation. Sur un serveur Cobbler qui s'exécute sous SUSE Linux Enterprise, il s'agit de /srv/www/cobbler/ks_mirror/IDENTIFIER. Ce chemin peut être différent si le serveur Cobbler s'exécute sous un autre système d'exploitation.

4.2.1.3.2 Ajout d'une distribution

En ajoutant une distribution, vous indiquez au serveur Cobbler de fournir le kernel et le fichier initrd requis pour un chargement IPL via zPXE. Exécutez la commande suivante sur le serveur Cobbler afin d'ajouter SUSE Linux Enterprise Server for IBM Z :

cobbler distro add --arch=s390 --breed=suse --name="IDENTIFIER"1 \
  --os-version=sles122 \
  --initrd=/srv/www/cobbler/ks_mirror/IDENTIFIER/boot/s390x/initrd3 \
  --kernel=/srv/www/cobbler/ks_mirror/IDENTIFIER/boot/s390x/linux4 \
  --kopts="install=http://cobbler.example.com/cobbler/ks_mirror/IDENTIFIER"5

1

Identificateur personnalisé pour la distribution, par exemple « SLES 12 SP5 Z ». Doit être unique.

2

Identificateur du système d'exploitation. Utilisez sles12.

3

Chemin d'accès au fichier initrd. La première partie du chemin d'accès (/srv/www/cobbler/ks_mirror/IDENTIFIER/) dépend de l'emplacement où Cobbler a importé les données et du nom du sous-répertoire choisi lors de l'importation des données d'installation.

4

Chemin d'accès au kernel. La première partie du chemin d'accès (/srv/www/cobbler/ks_mirror/IDENTIFIER/) dépend de l'emplacement où Cobbler a importé les données et du nom du sous-répertoire choisi lors de l'importation des données d'installation.

5

URL vers le répertoire d'installation sur le serveur Cobbler.

4.2.1.3.3 Réglage du profil

Lors de l'ajout d'une distribution (reportez-vous à la Section 4.2.1.3.2, « Ajout d'une distribution »), un profil correspondant à IDENTIFIER est généré automatiquement. Utilisez la commande suivante pour effectuer quelques adaptations nécessaires :

cobbler distro edit \
--name=IDENTIFIER1 --os-version=sles102 --ksmeta=""3
--kopts="install=http://cobbler.example.com/cobbler/ks_mirror/IDENTIFIER"4

1

Identificateur du profil. Utilisez la même chaîne que celle spécifiée lorsque vous aviez ajouté la distribution.

2

Version du système d'exploitation. Distribution à laquelle le profil doit être appliqué. Vous devez utiliser la chaîne spécifiée avec --name=IDENTIFIER dans l'étape d'importation.

3

Option nécessaire pour la création des modèles des fichiers kickstart. Elle n'est pas utilisée pour SuSE, alors définissez une valeur vide comme spécifié dans l'exemple.

4

Liste des paramètres kernel séparés par des espaces. Doit inclure au moins le paramètre install comme illustré dans l'exemple.

4.2.1.3.4 Ajout de systèmes

La dernière étape requise consiste à ajouter des systèmes au serveur Cobbler. L'ajout d'un système doit être effectué pour chaque invité IBM Z qui doit démarrer via zPXE. Les invités sont identifiés au moyen de leur ID utilisateur z/VM (l'exemple suivant utilise l'ID « linux01 »). Notez que cet ID doit être une chaîne en minuscules. Pour ajouter un système, exécutez la commande suivante :

cobbler system add --name=linux01 --hostname=linux01.example.com \
--profile=IDENTIFIER --interface=qdio \
--ip-address=192.168.2.103 --subnet=192.168.2.255 --netmask=255.255.255.0 \
--name-servers=192.168.1.116 --name-servers-search=example.com \
--gateway=192.168.2.1 --kopts="KERNEL_OPTIONS"

L'option --kopts vous permet de spécifier les paramètres de kernel et d'installation que vous indiquez normalement dans le fichier parmfile. Les paramètres sont saisis dans une liste d'éléments séparés par des espaces sous la forme PARAMÈTRE1=VALEUR1 PARAMÈTRE2=VALEUR2. Le programme d'installation vous invite à saisir les paramètres manquants. Pour bénéficier d'une installation entièrement automatisée, vous devez indiquer tous les paramètres de mise en réseau, des DASD et un fichier AutoYaST. Vous trouverez, ci-dessous, un exemple d'invité équipé d'une interface OSA utilisant les mêmes paramètres réseau que ci-dessus.

--kopts=" \
AutoYaST=http://192.168.0.5/autoinst.xml \
Hostname=linux01.example.com \
Domain=example.com \
HostIP=192.168.2.103 \
Gateway=192.168.2.1 \
Nameserver=192.168.1.116 \
Searchdns=example.com \
InstNetDev=osa; \
Netmask=255.255.255.0 \
Broadcast=192.168.2.255 \
OsaInterface=qdio \
Layer2=0 \
PortNo=0 \
ReadChannel=0.0.0700 \
WriteChannel=0.0.0701 \
DataChannel=0.0.0702 \
DASD=600"

4.2.1.4 Installation à partir d'un DVD ou d'un disque Flash de la console HMC

Pour installer SUSE Linux Enterprise Server (SLES) sur des serveurs IBM Z, une source d'installation réseau est généralement nécessaire. Toutefois, dans certains environnements, il peut parfois être impossible de remplir cette condition. Avec SUSE Linux Enterprise Server, vous pouvez utiliser le DVD existant ou le disque Flash de la console de gestion du matériel (HMC) comme source de l'installation sur une partition LPAR.

Pour effectuer l'installation à partir du DVD ou du disque Flash de la console HMC, procédez comme suit :

Important
Important : configuration du réseau

N'oubliez pas de configurer le réseau dans linuxrc avant de procéder à l'installation. Il n'est pas possible de transmettre des paramètres de démarrage par la suite. De plus, il est très probable que vous ayez besoin d'un accès réseau. Dans linuxrc, accédez àStart Installation (Démarrer l'installation), puis sélectionnez Network Setup (Configuration du réseau).

Important
Important : le système Linux doit d'abord démarrer

Avant d'accorder l'accès au contenu sur le DVD ou le disque Flash de la console HMC, attendez que le système Linux démarre. L'exécution d'un IPL peut interrompre la connexion entre la console HMC et la partition LPAR. Si la première tentative d'utilisation de la méthode décrite échoue, vous pouvez accorder l'accès et réessayer l'option HMC.

Note
Note : dépôt d'installation

Étant donné la nature transitoire de l'assignation, les fichiers du disque Flash ou du DVD ne resteront pas en tant que dépôt pour l'installation. Si vous avez besoin d'un dépôt d'installation, enregistrez et utilisez le dépôt en ligne.

4.2.2 Types d'installation

Cette section traite des étapes à exécuter pour installer SUSE Linux Enterprise Server pour tous les modes d'installation et de la méthode de recherche des informations appropriées. Une fois les étapes de préparation décrites dans les chapitres précédents effectuées, suivez la présentation du mode d'installation souhaité pour installer SUSE Linux Enterprise Server sur votre système.

Comme le décrit la Section 4.2.1, « Mise à disposition des données d'installation », il existe trois modes différents d'installation pour Linux sur IBM Z :

  • Installation LPAR

  • Installation z/VM

  • Installation invité KVM

Procédure 4.1 : Présentation d'une installation LPAR
  1. Préparez les périphériques requis pour l'installation. Reportez-vous à la Section 4.2.3.1, « Préparation de l'IPL d'une installation LPAR ».

  2. Exécutez un IPL sur le système d'installation. Reportez-vous à la Section 4.2.4.1, « Exécution d'un IPL sur une installation LPAR ».

  3. Configurez le réseau. Reportez-vous à la Section 4.2.5, « Configuration réseau ».

  4. Connectez-vous au système d'installation de SUSE Linux Enterprise Server. Reportez-vous à la Section 4.2.6, « Connexion au système d'installation de SUSE Linux Enterprise Server ».

  5. Lancez l'installation avec YaST et exécutez un IPL sur le système installé. Reportez-vous au Chapitre 6, Installation avec YaST.

Procédure 4.2 : Présentation de l'installation z/VM
  1. Préparez les périphériques requis pour l'installation. Reportez-vous à la Section 4.2.3.2, « Préparation de l'IPL d'une installation z/VM ».

  2. Exécutez un IPL sur le système d'installation. Reportez-vous à la Section 4.2.4.2, « Exécution d'un IPL sur une installation z/VM ».

  3. Configurez le réseau. Reportez-vous à la Section 4.2.5, « Configuration réseau ».

  4. Connectez-vous au système d'installation de SUSE Linux Enterprise Server. Reportez-vous à la Section 4.2.6, « Connexion au système d'installation de SUSE Linux Enterprise Server ».

  5. Lancez l'installation avec YaST et exécutez un IPL sur le système installé. Reportez-vous au Chapitre 6, Installation avec YaST.

Procédure 4.3 : Présentation d'une installation invité KVM
  1. Créez une image de disque virtuel et écrivez un fichier XML de domaine. Reportez-vous à la Section 4.2.3.3, « Préparation de l'IPL d'une installation invité KVM ».

  2. Préparez la cible d'installation et exécutez un IPL sur l'invité de machine virtuelle. Reportez-vous à la Section 4.2.4.3, « Exécution d'un IPL sur une installation invité KVM ».

  3. Section 4.2.5.3, « Configuration du réseau et sélection de la source d'installation ».

  4. Connectez-vous au système d'installation de SUSE Linux Enterprise Server. Reportez-vous à la Section 4.2.6, « Connexion au système d'installation de SUSE Linux Enterprise Server ».

  5. Lancez l'installation avec YaST et exécutez un IPL sur le système installé. Reportez-vous au Chapitre 6, Installation avec YaST.

4.2.3 Préparation de l'IPL du système d'installation de SUSE Linux Enterprise Server

4.2.3.1 Préparation de l'IPL d'une installation LPAR

Configurez votre système IBM Z pour qu'il démarre en mode ESA/S390 ou Linux seul avec un profil d'activation approprié et IOCDS. Pour plus d'informations sur cette procédure, reportez-vous à la documentation IBM. Reportez-vous à la Section 4.2.4.1, « Exécution d'un IPL sur une installation LPAR ».

4.2.3.2 Préparation de l'IPL d'une installation z/VM

4.2.3.2.1 Ajout d'un invité Linux

Pour commencer, connectez et formatez un ou plusieurs DASD sur le système que l'invité Linux doit utiliser dans z/VM. Créez ensuite un nouvel utilisateur dans z/VM. Cet exemple illustre le répertoire pour un utilisateur LINUX1 avec le mot de passe LINPWD, une mémoire de 1 Go (pouvant atteindre 2 Go), une mémoire vive étendue de 32 Mo (XSTORE), plusieurs minidisques (MDISK), deux unités centrales et un périphérique OSA QDIO.

Astuce
Astuce : affectation de mémoire aux invités z/VM

Lorsque vous affectez de la mémoire à un invité z/VM, assurez-vous que la taille de la mémoire est adaptée aux besoins de votre type d'installation préférée. Reportez-vous à la Section 4.1.1.1.1, « Prérequis système liés à la mémoire ». Pour définir la taille de la mémoire sur 1 Go, utilisez la commande CP DEFINE STORAGE 1G. À la fin de l'installation, réinitialisez la taille de la mémoire vers la valeur souhaitée.

Exemple 4.1 : Configuration d'un répertoire z/VM
USER LINUX1 LINPWD 1024M 2048M G
*____________________________________________
* LINUX1
*____________________________________________
* This VM Linux guest has two CPUs defined.

CPU 01 CPUID 111111
CPU 02 CPUID 111222
IPL CMS PARM AUTOCR
IUCV ANY
IUCV ALLOW
MACH ESA 10
OPTION MAINTCCW RMCHINFO
SHARE RELATIVE 2000
CONSOLE 01C0 3270 A
SPOOL 000C 2540 READER *
SPOOL 000D 2540 PUNCH A
SPOOL 000E 3203 A
* OSA QDIO DEVICE DEFINITIONS
DEDICATE 9A0 9A0
DEDICATE 9A1 9A1
DEDICATE 9A2 9A2
*
LINK MAINT 0190 0190 RR
LINK MAINT 019E 019E RR
LINK MAINT 019D 019D RR
* MINIDISK DEFINITIONS
MDISK 201 3390 0001 0050 DASD40 MR ONE4ME TWO4ME THR4ME
MDISK 150 3390 0052 0200 DASD40 MR ONE4ME TWO4ME THR4ME
MDISK 151 3390 0253 2800 DASD40 MR ONE4ME TWO4ME THR4ME

Cet exemple utilise un minidisque 201 comme disque d'un invité. Le minidisque 150 avec 200 cylindres est le périphérique de commutation Linux. Le disque 151 avec 2 800 cylindres contient l'installation Linux.

A ce stade, ajoutez (en tant qu'utilisateur MAINT) l'invité au répertoire utilisateur avec la commande DIRM FOR LINUX1 ADD. Saisissez le nom de l'invité (LINUX1) et appuyez sur la touche F5. Configurez l'environnement de l'utilisateur avec :

DIRM DIRECT
DIRM USER WITHPASS

La dernière commande renvoie un numéro de fichier du lecteur. Ce numéro est requis pour exécuter la commande suivante :

RECEIVE <number> USER DIRECT A (REPL)

Vous pouvez désormais vous connecter sur Invité en tant qu'utilisateur Linux1.

Si l'option dirmaint n'est pas disponible, reportez-vous à la documentation IBM pour configurer cet utilisateur.

Reportez-vous à la Section 4.2.4.2, « Exécution d'un IPL sur une installation z/VM ».

4.2.3.3 Préparation de l'IPL d'une installation invité KVM

Une installation d'invité KVM nécessite un fichier XML de domaine définissant la machine virtuelle et au moins une image de disque virtuel pour l'installation.

4.2.3.3.1 Création d'une image de disque virtuel

Par défaut, libvirt recherche des images de disque dans le dossier /var/lib/libvirt/images/ sur le serveur hôte de machine virtuelle. Bien que les images puissent aussi être stockées n'importe où ailleurs sur le système de fichiers, il est recommandé de les enregistrer toutes à un emplacement unique pour faciliter leur maintenance. L'exemple suivant crée une image qcow2 avec une taille de 10 Go dans le dossier /var/lib/libvirt/images/. Pour plus d'informations, reportez-vous au Book “Virtualization Guide”, Chapter 28 “Guest Installation”, Section 28.2 “Managing Disk Images with qemu-img.

  1. Connectez-vous au serveur hôte KVM.

  2. Exécutez la commande suivante pour créer l'image :

    qemu-img create -f qcow2 /var/lib/libvirt/images/s12lin_qcow2.img 10G
4.2.3.3.2 Écriture d'un fichier XML de domaine

Un fichier XML de domaine est utilisé pour définir l'invité de machine virtuelle. Pour créer le fichier XML de domaine, ouvrez un fichier vide s12-1.xml dans un éditeur et créez un fichier comme dans l'exemple suivant.

Exemple 4.2 : Exemple de fichier XML de domaine

L'exemple suivant crée un invité de machine virtuelle avec un seul processeur, 1 Go de RAM et l'image de disque virtuel créée à la section précédente (Section 4.2.3.3.1, « Création d'une image de disque virtuel »). Il part du principe que l'interface réseau hôte à laquelle est associé le serveur virtuel est bond0. Modifiez l'élément de périphériques source pour qu'il corresponde à votre configuration réseau.

<domain type="kvm">
 <name>s12-1</name>
 <description>Guest-System SUSE Sles12</description>
 <memory>1048576</memory>
 <vcpu>1</vcpu>
 <os>
  <type arch="s390x" machine="s390-ccw-virtio">hvm</type>
  <!-- Boot kernel - remove 3 lines after successfull installation -->
  <kernel>/var/lib/libvirt/images/s12-kernel.boot</kernel>
  <initrd>/var/lib/libvirt/images/s12-initrd.boot</initrd>
  <cmdline>linuxrcstderr=/dev/console</cmdline>
 </os>
 <iothreads>1</iothreads>
 <on_poweroff>destroy</on_poweroff>
 <on_reboot>restart</on_reboot>
 <on_crash>preserve</on_crash>
 <devices>
  <emulator>/usr/bin/qemu-system-s390x</emulator>
  <disk type="file" device="disk">
   <driver name="qemu" type="qcow2" cache="none" iothread="1" io="native"/>
   <source file="/var/lib/libvirt/images/s12lin_qcow2.img"/>
   <target dev="vda" bus="virtio"/>
  </disk>
  <interface type="direct">
   <source dev="bond0" mode="bridge"/>
   <model type="virtio"/>
  </interface>
  <console type="pty">
   <target type="sclp"/>
  </console>
 </devices>
</domain>

4.2.4 Exécution d'un IPL sur le système d'installation de SUSE Linux Enterprise Server

4.2.4.1 Exécution d'un IPL sur une installation LPAR

Il existe différentes façons d'exécuter un IPL sur SUSE Linux Enterprise Server au sein d'une partition LPAR. La méthode recommandée est d'utiliser la fonction Load from CD-ROM or server (Charger depuis un CD-ROM ou un serveur) de SE ou HMC.

4.2.4.1.1 Exécution d'un IPL à partir d'un DVD-ROM

Cochez le LPAR à installer, puis sélectionnez Load from CD-ROM or server (Charger depuis un CD-ROM ou un serveur). Ne remplissez pas le champ relatif à l'emplacement du fichier ou saisissez le chemin d'accès au répertoire racine du premier DVD-ROM, puis sélectionnez Continuer. Dans la liste des options qui s'affiche, sélectionnez l'emplacement par défaut. Operating system messages (Messages du système d'exploitation) doit afficher les messages de démarrage du kernel.

4.2.4.1.2 Exécution d'un IPL à partir d'un DVD SCSI associé FCP

Vous pouvez utiliser la procédure LOAD en sélectionnant SCSI comme Type de chargement pour exécuter un IPL à partir de SCSI. Entrez le WWPN (Worldwide port name, Identifiant unique de port) et le LUN (Logical unit number, Identifiant d'unité logique) fournis par votre pont ou stockage SCSI (16 chiffres ; ne pas oublier les 0 à droite). Le sélecteur du programme de démarrage doit être réglé sur 2. Utilisez votre adaptateur FCP comme Adresse de chargement et exécutez un IPL.

4.2.4.2 Exécution d'un IPL sur une installation z/VM

Cette section traite de l'exécution d'un IPL sur le système d'installation afin d'installer SUSE Linux Enterprise Server for IBM Z sur un système z/VM.

4.2.4.2.1 Exécution d'un IPL à partir du lecteur z/VM

Vous avez besoin d'une bonne connexion TCP/IP et d'un programme client FTP dans votre invité z/VM récemment défini pour transférer le système d'installation via FTP. La configuration de TCP/IP pour z/VM ne sera pas abordée dans ce manuel. À ce propos, reportez-vous à la documentation IBM appropriée.

Connectez-vous en tant qu'invité Linux z/VM pour exécuter un IPL. Rendez le contenu du répertoire /boot/s390x du DVD 1 de SUSE Linux Enterprise Server for IBM Z accessible via FTP sur votre réseau. Récupérez les fichiers linux, initrd, parmfile et sles12.exec dans ce répertoire. Transférez les fichiers avec une taille de blocs fixe de 80 caractères. Spécifiez la taille en exécutant la commande FTP locsite fix 80. Il est important de copier les fichiers linux (kernel Linux) et initrd (image d'installation) comme fichiers binaires. Pour ce faire, utilisez le mode de transfert binary. Les fichiers parmfile et sles12.exec doivent être transférés en mode ASCII.

L'exemple montre les étapes requises. Dans cet exemple, les fichiers requis sont accessibles sur un serveur FTP à l'adresse IP 192.168.0.3, avec l'ID de connexion lininst. Ces informations peuvent varier selon le réseau.

Exemple 4.3 : Transfert de fichiers binaires via le serveur FTP
FTP 192.168.0.3
VM TCP/IP FTP Level 530
Connecting to 192.168.0.3, port 21
220 ftpserver FTP server (Version wu-2.4.2-academ[BETA-18](1)
Thu Feb 11 16:09:02 GMT 2010) ready.
USER
lininst
331 Password required for lininst
PASS
******
230 User lininst logged in.
Command:
binary
200 Type set to I
Command:
locsite fix 80
Command:
get /media/dvd1/boot/s390x/linux sles12.linux
200 PORT Command successful
150 Opening BINARY mode data connection for /media/dvd1/boot/s390x/linux
(10664192 bytes)
226 Transfer complete.
10664192 bytes transferred in 13.91 seconds.
Transfer rate 766.70 Kbytes/sec.
Command:
get /media/dvd1/boot/s390x/initrd sles12.initrd
200 PORT Command successful
150 Opening BINARY mode data connection for /media/dvd1/boot/s390x/initrd
(21403276 bytes)
226 Transfer complete.
21403276 bytes transferred in 27.916 seconds.
Transfer rate 766.70 Kbytes/sec.
Command:
ascii
200 Type set to A
Command:
get /media/dvd1/boot/s390x/parmfile sles12.parmfile
150 Opening ASCII mode data connection for /media/dvd1/boot/s390x/parmfile
(5 bytes)
226 Transfer complete.
5 bytes transferred in 0.092 seconds.
Transfer rate 0.05 Kbytes/sec.
Command:
get /media/dvd1/boot/s390x/sles12.exec sles12.exec
150 Opening ASCII mode data connection for /media/dvd1/boot/s390x/sles12.exec
(891 bytes)
226 Transfer complete.
891 bytes transferred in 0.097 seconds.
Transfer rate 0.89 Kbytes/sec.
Command:
quit

Utilisez le fichier sles12.exec de script REXX que vous avez téléchargé pour exécuter un IPL sur le système d'installation Linux. Ce script charge le kernel, le fichier parmfile et le disque virtuel initial dans le lecteur pour exécuter un IPL.

Exemple 4.4 : SLES12 EXEC
/* REXX LOAD EXEC FOR SUSE LINUX S/390 VM GUESTS       */
/* LOADS SUSE LINUX S/390 FILES INTO READER            */
SAY ''
SAY 'LOADING SLES12 FILES INTO READER...'
'CP CLOSE RDR'
'PURGE RDR ALL'
'SPOOL PUNCH * RDR'
'PUNCH SLES12 LINUX A (NOH'
'PUNCH SLES12 PARMFILE A (NOH'
'PUNCH SLES12 INITRD A (NOH'
'IPL 00C'

Ce script permet d'exécuter un IPL sur le système d'installation de SUSE Linux Enterprise Server avec la commande sles12. Le kernel Linux démarre et imprime ses messages de démarrage.

Pour continuer l'installation, passez à la Section 4.2.5, « Configuration réseau ».

4.2.4.2.2 Exécution d'un IPL à partir d'un DVD SCSI associé FCP

Pour exécuter un IPL dans z/VM, préparez le processus IPL de SCSI en utilisant le paramètre SET LOADDEV :

SET LOADDEV PORTNAME 200400E8 00D74E00 LUN 00020000 00000000 BOOT 2

Une fois le paramètre LOADDEV configuré avec les valeurs appropriées, exécutez un IPL sur votre adaptateur FCP, par exemple :

IPL FC00

Pour continuer l'installation, passez à la Section 4.2.5, « Configuration réseau ».

4.2.4.2.3 IPL à partir d'un serveur Cobbler avec zPXE

Pour exécuter un IPL à partir d'un serveur Cobbler avec zPXE, vous devez transférer le script zpxe.rexx via FTP du serveur Cobbler vers votre invité z/VM. L'invité z/VM a besoin d'une connexion TCP/IP opérationnelle et d'un programme client FTP.

Connectez-vous en tant qu'invité z/VM Linux pour effectuer un chargement IPL et transférer le script avec une taille fixe de 80 caractères en mode ASCII (voir Exemple 4.3, « Transfert de fichiers binaires via le serveur FTP », par exemple). Le script zpxe.rexx est disponible sur le serveur Cobbler à l'emplacement /usr/share/doc/packages/S390-Tools /.

zpxe.rexx est censé remplacer le fichier PROFILE EXEC de votre invité. Effectuez une copie de sauvegarde du fichier PROFILE EXEC et renommez ZPXE REXX en PROFILE EXEC. Une autre solution consiste à appeler ZPXE REXX à partir du fichier PROFILE EXEC existant en ajoutant une nouvelle ligne avec le contenu suivant : 'ZPXE REXX'.

La dernière étape consiste à créer un fichier de configuration, ZPXE CONF, en indiquant à ZPXE REXX le serveur Cobbler à contacter et le disque à charger par IPL. Exécutez xedit zpxe conf a et créez ZPXE CONF avec le contenu suivant (remplacez les données d'exemple en conséquence) :

HOST cobbler.example.com
IPLDISK 600

Le serveur Cobbler sera connecté lors de la prochaine connexion à votre invité z/VM. Si une installation est programmée sur le serveur Cobbler, elle est exécutée. Pour programmer l'installation, exécutez la commande suivante sur le serveur Cobbler :

cobbler system edit --name ID1 --netboot-enabled 12 --profile PROFILENAME3

1

ID utilisateur z/VM.

2

Activez le chargement IPL à partir du réseau.

3

Nom du profil existant, voir Section 4.2.1.3.3, « Réglage du profil ».

4.2.4.3 Exécution d'un IPL sur une installation invité KVM

Pour démarrer l'installation de l'invité, vous devez tout d'abord démarrer l'invité de machine virtuelle défini à la Section 4.2.3.3.1, « Création d'une image de disque virtuel ». Pour ce faire, vous devez commencer par rendre disponibles les fichiers kernel et initrd requis pour exécuter l'IPL.

4.2.4.3.1 Préparation de la source d'installation

Le kernel et l'image initrd du système d'installation doivent être copiés sur le serveur hôte de machine virtuelle pour permettre l'exécution d'un IPL sur l'invité de machine virtuelle sur le système d'installation.

  1. Connectez-vous à l'hôte KVM et assurez-vous que vous pouvez vous connecter à l'hôte distant ou au périphérique qui fournit la source d'installation.

  2. Copiez les deux fichiers suivants de la source d'installation vers l'emplacement /var/lib/libvirt/images/. Si les données sont fournies à partir d'un hôte distant, utilisez ftp, sftp ou scp pour transférer les fichiers :

    /boot/s390x/initrd
    /boot/s390x/cd.ikr
  3. Renommez les fichiers sur l'hôte KVM :

    cd /var/lib/libvirt/images/
    mv initrd s12-initrd.boot
     mv cd.ikr s12-kernel.boot
4.2.4.3.2 Exécution d'un IPL sur l'invité de machine virtuelle

Pour exécuter un IPL sur l'invité de machine virtuelle, connectez-vous à l'hôte KVM et exécutez la commande suivante :

virsh  create s12-1.xml --console

Une fois le démarrage de l'invité de machine virtuelle effectué, le système d'installation démarre et le message suivant s'affiche :

Domain s12-1 started
Connected to domain s12-1
Escape character is ^]
Initializing cgroup subsys cpuset
Initializing cgroup subsys cpu
Initializing
cgroup subsys cpuacct
.
.
Please make sure your installation medium is available.
Retry?
0) <-- Back <--
1) Yes
2) No

Répondez 2) No (Non) et choisissez Installation à l'étape suivante. Procédez comme décrit à la Section 4.2.5.3, « Configuration du réseau et sélection de la source d'installation ».

4.2.5 Configuration réseau

Patientez jusqu'à ce que le kernel ait terminé ses routines de démarrage. Si vous effectuez une installation en mode basique ou dans un LPAR, ouvrez le menu Operating System Messages (Messages du système d'exploitation) sur HMC ou SE.

Pour commencer, choisissez Démarrer l'installation dans le menu principal linuxrc, puis Démarrer l'installation ou la mise à jour pour lancer le processus d'installation. Sélectionnez Réseau comme support d'installation, puis sélectionnez le type de protocole réseau qui sera utilisé pour l'installation. La Section 4.2.1, « Mise à disposition des données d'installation » décrit comment mettre à disposition les données d'installation pour différents types de connexions réseau. Actuellement, FTP, HTTP, NFS et SMB/CIFS (partage de fichiers Windows) sont pris en charge.

Sélectionnez, dans la liste des périphériques disponibles, un périphérique réseau OSA ou HiperSockets sur lequel consigner les données d'installation. Il se peut que cette liste contienne également des périphériques CTC, ESCON ou IUCV, mais ces derniers ne sont plus pris en charge sur SUSE Linux Enterprise Server.

4.2.5.1 Configuration d'une interface HiperSockets

Sélectionnez un périphérique HiperSockets dans la liste des périphériques réseau. Saisissez ensuite les numéros des canaux de lecture, d'écriture et de données :

Exemple 4.5 : Types de connexion réseau pris en charge et paramètres des pilotes
Choose the network device.

 1) IBM parallel CTC Adapter (0.0.0600)
 2) IBM parallel CTC Adapter (0.0.0601)
 3) IBM parallel CTC Adapter (0.0.0602)
 4) IBM Hipersocket (0.0.0800)
 5) IBM Hipersocket (0.0.0801)
 6) IBM Hipersocket (0.0.0802)
 7) IBM OSA Express Network card (0.0.0700)
 8) IBM OSA Express Network card (0.0.0701)
 9) IBM OSA Express Network card (0.0.0702)
10) IBM OSA Express Network card (0.0.f400)
11) IBM OSA Express Network card (0.0.f401)
12) IBM OSA Express Network card (0.0.f402)
13) IBM IUCV

> 4

Device address for read channel. (Enter '+++' to abort).
[0.0.800]> 0.0.800

Device address for write channel. (Enter '+++' to abort).
[0.0.801]> 0.0.801

Device address for data channel. (Enter '+++' to abort).
[0.0.802]> 0.0.802

4.2.5.2 Configuration d'un périphérique OSA Express

Sélectionnez un périphérique OSA Express dans la liste des périphériques réseau, puis indiquez un numéro de port. Saisissez ensuite les numéros des canaux de lecture, d'écriture et de données, ainsi que le nom du port, le cas échéant. Choisissez si vous souhaitez activer la prise en charge de la couche OSI de niveau 2.

Le numéro de port a été ajouté pour permettre la prise en charge des nouveaux périphériques réseau OSA Express 3 à 2 ports. Si vous n'utilisez pas de périphérique OSA Express 3, veuillez saisir 0. Les cartes OSA Express peuvent aussi s'exécuter dans un mode de « prise en charge de la couche OSI de niveau 2 » ou utiliser un mode commun plus ancien « couche de niveau 3 ». Le mode de la carte affecte tous les systèmes qui partagent le périphérique, y compris les systèmes sur d'autres LPAR. Si vous avez un doute, indiquez 2 pour assurer une compatibilité avec le mode par défaut utilisé par les autres systèmes d'exploitation, comme z/VM et z/OS. Consultez votre administrateur de matériel pour obtenir plus d'informations sur ces options.

Exemple 4.6 : Paramètres du pilote de périphérique réseau
Choose the network device.

 1) IBM parallel CTC Adapter (0.0.0600)
 2) IBM parallel CTC Adapter (0.0.0601)
 3) IBM parallel CTC Adapter (0.0.0602)
 4) IBM Hipersocket (0.0.0800)
 5) IBM Hipersocket (0.0.0801)
 6) IBM Hipersocket (0.0.0802)
 7) IBM OSA Express Network card (0.0.0700)
 8) IBM OSA Express Network card (0.0.0701)
 9) IBM OSA Express Network card (0.0.0702)
10) IBM OSA Express Network card (0.0.f400)
11) IBM OSA Express Network card (0.0.f401)
12) IBM OSA Express Network card (0.0.f402)
13) IBM IUCV

> 7

Enter the relative port number. (Enter '+++' to abort).
> 0

Device address for read channel. (Enter '+++' to abort).
[0.0.0700]> 0.0.0700

Device address for write channel. (Enter '+++' to abort).
[0.0.0701]> 0.0.0701

Device address for data channel. (Enter '+++' to abort).
[0.0.0702]> 0.0.0702

Enable OSI Layer 2 support?

0) <-- Back <--
1) Yes
2) No

> 1

MAC address. (Enter '+++' to abort).
> +++

4.2.5.3 Configuration du réseau et sélection de la source d'installation

Après avoir saisi tous les paramètres de périphérique réseau, le pilote approprié est installé et les messages de kernel correspondants sont affichés.

Ensuite, choisissez d'utiliser ou non la configuration automatique DHCP pour configurer les paramètres de l'interface réseau. Étant donné que DHCP fonctionne uniquement sur quelques périphériques et qu'il requiert des paramètres de configuration matérielle spécifiques, il est préférable de cliquer sur NO (Non) à cet endroit. Dans ce cas, vous êtes invité à indiquer les paramètres suivants :

  • L'adresse IP du système à installer

  • Le masque de réseau correspondant (s'il n'a pas été spécifié avec l'adresse IP).

  • L'adresse IP d'une passerelle pour accéder au serveur

  • La liste des domaines de recherche couverts par le serveur DNS

  • L'adresse IP du serveur de noms de domaine

Exemple 4.7 : Paramètres réseau
Automatic configuration via DHCP?

0) <-- Back <--
1) Yes
2) No

> 2

Enter your IP address with network prefix.

You can enter more than one, separated by space, if necessary.
Leave empty for autoconfig.

Examples: 192.168.5.77/24 2001:db8:75:fff::3/64. (Enter '+++' to abort).
> 192.168.0.20/24

Enter your name server IP address.

You can enter more than one, separated by space, if necessary.
Leave empty if you don't need one.

Examples: 192.168.5.77 2001:db8:75:fff::3. (Enter '+++' to abort).
> 192.168.0.1

Enter your search domains, separated by a space:. (Enter '+++' to abort).
> example.com

Enter the IP address of your name server. Leave empty if you do not need one. (En
ter '+++' to abort).
> 192.168.0.1

Pour terminer, vous êtes invité à saisir des informations sur le serveur d'installation, telles que l'adresse IP, le répertoire contenant les données d'installation et les références de connexion. Dès que vous avez saisi toutes les données requises, le système d'installation est chargé.

4.2.6 Connexion au système d'installation de SUSE Linux Enterprise Server

Après avoir chargé le système d'installation, linuxrc veut connaître le type d'affichage que vous comptez utiliser pour contrôler la procédure d'installation. Vous pouvez choisir parmi X11 (système X Window), VNC (protocole Virtual Network Computing), SSH (mode texte ou installation X11 via un shell sécurisé) ou la console ASCII. Il est conseillé de sélectionner VNC ou SSH.

Si vous optez pour la console ASCII, YaST démarre en mode texte et vous pouvez exécuter l'installation directement sur votre terminal. Pour plus d'informations sur l'utilisation de YaST en mode texte, reportez-vous au Book “Administration Guide”, Chapter 5 “YaST in Text Mode”. L'utilisation de la console ASCII ne s'avère utile qu'en cas d'installation dans une partition logique.

Note
Note : émulation de terminal pour la console ASCII

Pour permettre le fonctionnement avec YaST en mode texte, il est nécessaire de procéder à l'exécution dans un terminal avec une émulation Linux/VT220 (également appelée console ASCII). Vous ne pouvez pas utiliser YaST sur un terminal 3270, par exemple.

4.2.6.1 Lancement de l'installation pour VNC

  1. Une fois que l'option d'installation VNC a été choisie, le serveur VNC démarre. Une brève information affichée dans la console fournit des informations sur l'adresse IP et le numéro d'affichage requis pour une connexion à l'aide de vncviewer.

  2. Démarrez une application client VNC sur votre système client.

  3. Saisissez l'adresse IP et le numéro d'affichage du système d'installation de SUSE Linux Enterprise Server lorsque vous y êtes invité.

  4. Une fois la connexion établie, commencez par installer SUSE Linux Enterprise Server avec YaST.

4.2.6.2 Lancement de l'installation pour le système X Window

Important
Important : mécanisme d'authentification X

L'installation directe avec le système X Window repose sur un mécanisme d'authentification primitif basé sur des noms d'hôte. Ce mécanisme est désactivé dans les versions actuelles de SUSE Linux Enterprise Server. Il est préférable de procéder à une installation avec SSH ou VNC.

  1. Assurez-vous que le serveur X permet au client (le système installé) de se connecter. Définissez la variable DISPLAYMANAGER_XSERVER_TCP_PORT_6000_OPEN="yes" dans le fichier /etc/sysconfig/displaymanager. Ensuite, redémarrez le serveur X et permettez la connexion du client au serveur à l'aide de xhost <client IP address>.

  2. À l'invite du système d'installation, saisissez l'adresse IP de la machine exécutant le serveur X.

  3. Patientez jusqu'à ce que YaST s'ouvre, puis démarrez l'installation.

4.2.6.3 Lancement de l'installation pour SSH

Pour se connecter à un système d'installation avec le nom earth en utilisant SSH, exécutez ssh -X earth. Si votre poste de travail s'exécute sous Microsoft Windows, utilisez le client SSH et Telnet, ainsi que l'émulateur de terminal Putty, disponible sur le site http://www.chiark.greenend.org.uk/~sgtatham/putty/. Définissez l'option Enable X11 forwarding (Activer le transfert X11) dans Putty sous Connexion › SSH › X11. Si vous utilisez un autre système d'exploitation, exécutez ssh -X earth pour vous connecter à un système d'installation avec le nom Earth. Le transfert X via SSH est pris en charge, pour autant que vous disposiez d'un serveur X local. Dans le cas contraire, YaST fournit une interface texte via ncurses.

Une invite de connexion apparaît. Saisissez root et connectez-vous en saisissant votre mot de passe. Saisissez la commande yast.ssh pour démarrer YaST. YaST vous guide ensuite tout au long du processus d'installation.

Passez à la description détaillée de la procédure d'installation disponible au Chapitre 6, Installation avec YaST.

4.2.7 Procédure de démarrage de SUSE Linux Enterprise Server sur IBM Z

Le processus de démarrage de SLES 10 et 11 a suivi le schéma suivant. Pour plus d'informations, reportez-vous à la documentation fournie sur le site http://www.ibm.com/developerworks/linux/linux390/documentation_suse.html.

  1. Indiquez le kernel.

  2. Indiquez ou créez un fichier initrd pour le kernel spécifié.

  3. Indiquez les chemins corrects du fichier initrd et du kernel dans le fichier /etc/zipl.conf.

  4. Installez la configuration fournie au système par /etc/zipl.conf.

SLES 12 introduit un changement dans la façon dont SUSE Linux Enterprise Server démarre sur IBM Z. Ce changement s'explique par plusieurs raisons :

  • Alignement sur d'autres architectures : d'un point de vue administratif, les systèmes SLES doivent se comporter de la même façon quelle que soit l'architecture.

  • Btrfs : le chargeur d'amorçage zipl est techniquement incompatible avec Btrfs, le nouveau système de fichiers racine par défaut pour SLES (reportez-vous au Book “Storage Administration Guide”, Chapter 1 “Overview of File Systems in Linux”, Section 1.2 “Btrfs” pour plus de détails).

  • Prise en charge des retours à l'état initial du système avec Snapper : utilisé conjointement avec Btrfs, Snapper fournit des instantanés du système démarrables qui peuvent être utilisés pour les retours à l'état initial du système (reportez-vous au Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper” pour plus de détails).

De ce fait, à partir de SLES 12, GRUB 2 remplace zipl sur SUSE Linux Enterprise Server for IBM Z. GRUB 2 sur l'architecture AMD64/Intel 64 comprend des pilotes de périphérique au niveau du microprogramme pour accéder au système de fichiers. Le macroordinateur ne contient pas de microprogramme et l'ajout de ccw à GRUB 2 représenterait une tâche considérable, mais nécessiterait aussi la réimplémentation de zipl dans GRUB 2. Par conséquent, SUSE Linux Enterprise Server utilise une approche en deux étapes :

Première étape :

Une partition distincte contenant le kernel et un fichier initrd est montée sur /boot/zipl (opération comparable à /boot/efi sur les plates-formes UEFI). Ce kernel et le fichier initrd sont chargés via la commande zipl et utilisent la configuration mentionnée dans le fichier /boot/zipl/config.

Cette configuration ajoute le mot clé initgrub à la ligne de commande du kernel. Une fois que le kernel et le fichier initrd sont chargés, le fichier initrd active les périphériques requis pour monter le système de fichiers racine (voir le fichier /boot/zipl/active_devices.txt). Ensuite, un programme d'espace utilisateur GRUB 2 est lancé afin de lire le fichier /boot/grub2/grub.cfg.

Deuxième étape :

Le kernel et le fichier initrd dans le fichier /boot/grub2/grub.cfg sont démarrés à l'aide de la commande kexec. Les périphériques répertoriés dans /boot/zipl/active_devices.txt qui sont nécessaires pour démarrer le système sur le disque sont activés. Les autres périphériques de cette liste seront autorisés, mais ignorés si non requis. Le système de fichiers racine est monté et la procédure de démarrage se poursuit comme sur les autres architectures.

4.3 Fichier parmfile : automatisation de la configuration du système

Vous pouvez en partie automatiser le processus d'installation en spécifiant les paramètres déterminants dans le fichier parmfile. Le fichier parmfile contient toutes les données requises pour la configuration réseau et la configuration DASD. Il peut en outre être utilisé pour configurer la méthode de connexion au système d'installation de SUSE Linux Enterprise Server et l'instance de YaST exécutée à cet endroit. L'intervention de l'utilisateur se limite donc à l'installation de YaST à l'aide des boîtes de dialogue YaST.

Vous pouvez transférer les paramètres suivants à la routine d'installation. Ils sont alors considérés comme des valeurs par défaut pour l'installation. Les adresses IP, les noms de serveurs et les valeurs numériques sont donnés à titre d'exemples. Remplacez ces valeurs par celles dont vous avez besoin dans votre scénario d'installation.

Le nombre de lignes dans le fichier parmfile est limité à 10. Spécifiez plusieurs paramètres par ligne. Les noms de ces paramètres ne tiennent pas compte des majuscules et des minuscules. Séparez les paramètres par des espaces. Vous pouvez spécifier les paramètres dans n'importe quel ordre. Conservez toujours la chaîne PARAMETER=value sur la même ligne. Par exemple :

Hostname=s390zvm01.suse.de HostIP=10.11.134.65
Astuce
Astuce : utilisation du protocole IPv6 au cours de l'installation

Par défaut, vous ne pouvez assigner à votre machine que des adresses réseau IPv4. Pour activer IPv6 au cours de l'installation, entrez l'un des paramètres suivants lors de l'invite de démarrage : ipv6=1 (accepter IPv4 et IPv6) ou ipv6only=1 (n'accepter qu'IPv6).

Certains paramètres figurant ci-dessous sont requis. S'ils sont manquants, le processus automatique s'interrompt et vous êtes invité à saisir manuellement la valeur.

4.3.1 Paramètres généraux

AutoYaST=<URL> Manual=0

Le paramètre AutoYaST indique l'emplacement du fichier de contrôle autoinst.xml pour l'installation automatique. Le paramètre Manuel contrôle si les autres paramètres sont uniquement des valeurs par défaut qui doivent être approuvées par l'utilisateur. Définissez ce paramètre sur 0 si toutes les valeurs doivent être acceptées et si vous voulez qu'aucune question ne soit poser. Le fait de définir le paramètre AutoYaST entraîne la définition du paramètre Manual sur 0.

Info=<URL>

Indique l'emplacement d'un fichier à partir duquel il est possible de lire plus d'options. Cela permet d'ignorer la limite de 10 lignes (et de 80 caractères par ligne sous z/VM) dans le fichier parmfile. Des informations supplémentaires sur le fichier Info sont disponibles dans le Book “AutoYaST”, Chapter 6 “The Auto-Installation Process”, Section 6.3.3 “Combining the linuxrc info file with the AutoYaST control file”. Puisque le fichier Info n'est accessible que par le réseau sur IBM z, vous ne pouvez pas l'utiliser pour spécifier les options requises pour la configuration du réseau (c'est-à-dire les options décrites dans la Section 4.3.2, « Configuration de l'interface réseau »). Par ailleurs, les options spécifiques à linuxrc, comme l'option de débogage, doivent être spécifiées dans le fichier parmfile pour être prises en compte.

Upgrade=<0|1>

Pour mettre à niveau votre version de SUSE Linux Enterprise, vous devez spécifier Upgrade=1. Par conséquent, un fichier parmfile personnalisé est requis pour la mise à niveau d'une installation existante de SUSE Linux Enterprise. En l'absence de ce paramètre, l'installation ne fournit aucune option de mise à niveau.

4.3.2 Configuration de l'interface réseau

Important
Important : configuration de l'interface réseau

Les paramètres évoqués dans cette section s'appliquent uniquement à l'interface réseau utilisée lors de l'installation. Configurez des interfaces réseau supplémentaires sur le système installé en suivant les instructions du Book “Administration Guide”, Chapter 17 “Basic Networking”, Section 17.6 “Configuring a Network Connection Manually”.

Hostname=zsystems.example.com

Entrez le nom d'hôte complet.

Domain=exemple.com

Chemin de recherche du domaine pour DNS. Cela vous permet d'utiliser des noms d'hôtes plus courts à la place des noms d'hôtes complets.

HostIP=192.168.1.2

Saisissez l'adresse IP de l'interface à configurer.

Gateway=192.168.1.3

Spécifiez la passerelle à utiliser.

Nameserver=192.168.1.4

Spécifiez le serveur DNS responsable.

InstNetDev=osa

Saisissez le type d'interface à configurer. Les valeurs possibles sont osa, hsi, ctc, escon et iucv (CTC, ESCON et IUCV ne sont officiellement plus pris en charge).

Pour les interfaces de type hsi et osa, spécifiez un maque réseau approprié et une adresse de diffusion facultative :

Netmask=255.255.255.0
Broadcast=192.168.255.255

Pour les interfaces de type ctc, escon et iucv (les interfaces CTC, ESCON et IUCV n'étant plus officiellement prises en charge), saisissez l'adresse IP du pair :

Pointopoint=192.168.55.20
OsaInterface=<lcs|qdio>

Pour les périphériques réseau osa, spécifiez l'interface hôte (qdio ou lcs).

Layer2=<0|1>

Pour les périphériques Ethernet QDIO osa et les périphériques hsi, indiquez si vous souhaitez activer (1) ou désactiver (0) la prise en charge de la couche OSI niveau 2.

OSAHWAddr=02:00:65:00:01:09

Pour les périphériques Ethernet QDIO osa prenant en charge la couche 2, spécifiez l'adresse MAC manuellement ou indiquez OSAHWADDR= (avec un espace à droite) comme valeur système par défaut.

PortNo=<0|1>

Pour les périphériques réseau osa, spécifiez le numéro de port, à condition que le périphérique prenne en charge cette fonction). La valeur par défaut est 0.

Chaque interface requiert des options de configuration spécifiques :

  • Interfaces ctc et escon (les interfaces CTC et ESCON n'étant plus officiellement prises en charge) :

    ReadChannel=0.0.0600
    WriteChannel=0.0.0601

    ReadChannel indique le canal de lecture à utiliser. WriteChannel correspond au canal d'écriture.

  • Pour l'interface ctc (qui n'est plus officiellement prise en charge), indiquez le protocole à utiliser pour cette interface :

    CTCProtocol=<0/1/2>

    Les entrées correctes sont les suivantes :

    0

    Mode compatibilité, également pour les pairs non Linux autres que OS/390 et z/OS (mode par défaut)

    1

    Mode étendu

    2

    Mode compatibilité avec OS/390 et z/OS

  • Type de périphérique réseau osa avec interface lcs :

    ReadChannel=0.0.0124

    ReadChannel représente le numéro de canal utilisé dans cette configuration. Pour dériver un deuxième numéro de port à partir de ce numéro, ajoutez un numéro à ReadChannel. Portnumber est utilisé pour spécifier le port associé.

  • Interface iucv :

    IUCVPeer=PEER

    Entrez le nom de la machine du pair.

  • Type de périphérique réseau osa avec interface qdio pour OSA-Express Gigabit Ethernet :

    ReadChannel=0.0.0700
    WriteChannel=0.0.0701
    DataChannel=0.0.0702

    Pour ReadChannel, saisissez le numéro du canal de lecture. Pour WriteChannel, saisissez le numéro du canal d'écriture. DataChannel spécifie le canal de données. Assurez-vous que le canal de lecture porte un numéro de périphérique égal.

  • Interface hsi pour HiperSockets et LAN invités VM :

    ReadChannel=0.0.0800
    WriteChannel=0.0.0801
    DataChannel=0.0.0802

    Pour ReadChannel, saisissez le numéro du canal de lecture approprié. Pour WriteChannel et DataChannel, saisissez les numéros des canaux d'écriture et de données.

4.3.3 Spécification de la source d'installation et de l'interface YaST

Install=nfs://server/directory/DVD1/

Indiquez l'emplacement de la source d'installation à utiliser. Les protocoles possibles sont nfs, smb (Samba/CIFS), ftp, tftp http et https.

Si une URL ftp, tftp ou smb est indiquée, spécifiez le nom d'utilisateur et le mot de passe avec l'URL. Ces paramètres sont facultatifs, et lorsqu'ils ne sont pas spécifiés, une connexion anonyme ou de type invité est supposée.

Install=ftp://USER:PASSWORD@SERVER/DIRECTORY/DVD1/
Install=tftp://USER:PASSWORD@SERVER/DIRECTORY/DVD1/

Si vous souhaitez effectuer l'installation via une connexion chiffrée, utilisez une URL HTTPS. Si le certificat ne peut pas être vérifié, utilisez l'option de démarrage sslcerts=0 pour désactiver la vérification du certificat.

Dans le cas d'une installation Samba ou CIFS, vous pouvez également spécifier le domaine à utiliser :

Install=smb://WORKDOMAIN;USER:PASSWORD@SERVER/DIRECTORY/DVD1/
ssh=1 vnc=1 Display_IP=192.168.42.42

Selon le paramètre que vous avez spécifié, un serveur X distant, SSH ou VNC sera utilisé pour l'installation. ssh active l'installation SSH, vnc démarre un serveur VNC sur la machine d'installation et Display_IP entraîne une tentative de connexion du système d'installation à un serveur X à l'adresse indiquée. Un seul de ces paramètres doit être défini à la fois.

Important
Important : mécanisme d'authentification X

L'installation directe avec le système X Window repose sur un mécanisme d'authentification primitif basé sur des noms d'hôte. Ce mécanisme est désactivé dans les versions actuelles de SUSE Linux Enterprise Server. Il est préférable de procéder à une installation avec SSH ou VNC.

Pour permettre une connexion entre YaST et le serveur X distant, exécutez xhost<Adresse_IP> avec l'adresse de la machine d'installation sur la machine distante.

Pour VNC, indiquez un mot de passe composé de 6 à 8 caractères pour l'installation :

VNCPassword=<a password>

Pour SSH, indiquez un mot de passe composé de 6 à 8 caractères pour l'installation :

ssh.password=<a password>

4.3.4 Exemple de fichiers parmfile

La capacité maximale d'un fichier parmfile est de 860 caractères. En règle générale, ce type de fichier doit contenir, au maximum, 10 lignes de 79 caractères. Lors de la lecture d'un fichier parmfile, toutes les lignes sont concaténées sans ajouter d'espaces. Par conséquent, le dernier caractère (79) de chaque ligne doit être un Space.

Pour recevoir les messages d'erreur potentiels sur la console, utilisez

linuxrclog=/dev/console
Exemple 4.8 : Fichier parmfile pour une installation à partir de NFS avec VNC et AutoYaST
ramdisk_size=131072 root=/dev/ram1 ro init=/linuxrc TERM=dumb
instnetdev=osa osainterface=qdio layer2=1 osahwaddr=
pointopoint=192.168.0.1
hostip=192.168.0.2
nameserver=192.168.0.3
install=nfs://192.168.0.4/SLES/SLES-12-Server/s390x/DVD1
autoyast=http://192.168.0.5/autoinst.xml
linuxrclog=/dev/console vnc=1
VNCPassword=testing
Exemple 4.9 : Fichier parmfile pour une installation avec NFS, SSH et HSI et AutoYaST avec NFS
ramdisk_size=131072 root=/dev/ram1 ro init=/linuxrc TERM=dumb
AutoYast=nfs://192.168.1.1/autoinst/s390.xml
Hostname=zsystems.example.com HostIP=192.168.1.2
Gateway=192.168.1.3 Nameserver=192.168.1.4
InstNetDev=hsi layer2=0
Netmask=255.255.255.128 Broadcast=192.168.1.255
readchannel=0.0.702c writechannel=0.0.702d datachannel=0.0.702e
install=nfs://192.168.1.5/SLES-12-Server/s390x/DVD1/
ssh=1 ssh.password=testing linuxrclog=/dev/console

4.4 Utilisation de l'émulateur de terminal vt220

Des niveaux MicroCode récents permettent d'utiliser un émulateur de terminal (terminal ASCII) vt220 intégré en plus du terminal de mode ligne standard. Le terminal vt220 est connecté à /dev/ttysclp0. Le terminal de mode ligne est connecté à /dev/ttysclp_line0. Dans le cas des installations LPAR, l'émulateur de terminal vt220 est activé par défaut.

Pour démarrer la console ASCII sur HMC, connectez-vous à HMC, puis sélectionnez Gestion des systèmes › Systèmes › ID_IMAGE. Sélectionnez la case d'option correspondant à LPAR, puis cliquez sur Récupération › Integrated ASCII Console (Console ASCII intégrée).

Pour rediriger les messages du kernel au moment du démarrage de la console du système vers le terminal vt220, ajoutez les entrées suivantes à la ligne parameters dans /etc/zipl.conf :

console=ttysclp0 console=ttysclp_line0

La ligne parameters générée ressemble à l'exemple suivant :

parameters = "root=/dev/dasda2 TERM=dumb console=ttysclp0 console=ttysclp_line0"

Enregistrez les modifications dans le fichier /etc/zipl.conf, exécutez la commande zipl et redémarrez le système.

4.5 Informations détaillées supplémentaires sur IBM Z

Vous trouverez de la documentation technique détaillée supplémentaire sur IBM Z dans les publications IBM Redbooks (https://www.redbooks.ibm.com/Redbooks.nsf/domains/zsystems) ou IBM developerWorks (https://www.ibm.com/developerworks/linux/linux390/). De la documentation spécifique à SUSE Linux Enterprise Server est disponible sur le site https://www.ibm.com/developerworks/linux/linux390/documentation_suse.html.

4.5.1 Documents généraux concernant Linux sur IBM Z

Vous trouverez des informations générales au sujet de Linux sur IBM Z dans les documents suivants :

  • Linux on IBM eServer zSeries and S/390: ISP and ASP Solutions (Linux sur les systèmes IBM eServer zSeries et S/390 : Solutions FAI et FAH) (SG24-6299)

Ces documents ne reflètent peut-être pas l'état courant de Linux, mais les principes du déploiement Linux décrits à cet endroit restent justes.

4.5.2 Problèmes techniques liés à Linux sous IBM Z

Pour plus d'informations techniques sur le kernel Linux et ses domaines d'application, reportez-vous aux documents suivants. Pour obtenir des versions mises à jour de ces documents, reportez-vous au site http://www.ibm.com/developerworks/linux/linux390/index.html.

  • Linux on System z Device Drivers, Features, and Commands (Linux pour pilotes de périphériques System z, fonctionnalités et commandes)

  • Complément à l'interface d'application binaire zSeries ELF

  • Linux on System z Device Drivers, Using the Dump Tools (Linux pour pilotes de périphériques System z, utilisation des outils de vidage)

  • IBM zEnterprise 196 Technical Guide (Guide technique d'IBM zEnterprise 196)

  • IBM zEnterprise EC12 Technical Guide (Guide technique d'IBM zEnterprise EC12)

  • IBM z13 Technical Guide (Guide technique d'IBM z13)

Pour obtenir le Livre rouge sur le développement des applications Linux, vous pouvez aussi consulter la page http://www.redbooks.ibm.com :

  • Linux on IBM eServer zSeries and S/390: Application Development (Linux sur les systèmes IBM eServer zSeries et S/390 : Développement des Applications) (SG24-6807)

4.5.3 Configurations avancées pour Linux sous IBM Z

Reportez-vous aux documents et liens suivants pour obtenir des scénarios IBM Z plus complexes :

  • Linux on IBM eServer zSeries and S/390: Large Scale Deployment (Linux sur les systèmes IBM eServer zSeries et S/390 : Déploiement à grande échelle) (SG24-6824)

  • Linux on IBM eServer zSeries and S/390: Performance Measuring and Tuning (Linux sur les systèmes IBM eServer zSeries et S/390 : Mesure et Ajustement des Performances) (SG24-6926)

  • Linux with zSeries and ESS: Essentials (Linux avec zSeries et ESS : Les bases essentielles) (SG24-7025)

  • IBM TotalStorage Enterprise Storage Server Implementing ESS Copy Services with IBM eServer zSeries (IBM TotalStorage Enterprise Storage Server avec ESS Copy Services sur IBM eServer zSeries) (SG24-5680)

  • Linux on IBM zSeries and S/390: High Availability for z/VM and Linux (Linux sur les systèmes IBM zSeries et S/390 : Haute disponibilité pour z/VM et Linux) (REDP-0220)

  • Gestion et planification des segments enregistrés

    http://publibz.boulder.ibm.com/epubs/pdf/hcsg4a00.pdf

  • Linux on System z documentation for « Development stream » (Linux avec une documentation sur les systèmes System z pour le « Flux de développement »)

    http://www.ibm.com/developerworks/linux/linux390/development_documentation.html

4.5.4 Virtualisation avec KVM sur IBM Z

Reportez-vous aux documents suivants à l'adresse https://www.ibm.com/developerworks/linux/linux390/documentation_dev.html pour plus d'informations concernant KVM sur IBM Z :

  • Installing SUSE Linux Enterprise Server 12 as a KVM Guest (Installation de SUSE Linux Enterprise Server 12 en tant qu'invité KVM) (SC34--2755-00)

  • KVM Virtual Server Quick Start (Démarrage rapide du serveur virtuel KVM) (SC34-2753-01)

  • KVM Virtual Server Management (Gestion du serveur virtuel KVM) (SC34-2752-01)

  • Device Drivers, Features, and Commands for Linux as a KVM Guest (Pilotes de périphériques, fonctionnalités et commandes de Linux en tant qu'invité KVM) (kernel 4.4) (SC34-2754-01)

5 Installation sur ARM AArch64

Ce chapitre décrit les étapes nécessaires pour préparer l'installation de SUSE Linux Enterprise Server sur des ordinateurs ARM AArch64. Cette section présente les étapes nécessaires pour préparer les différentes méthodes d'installation. La liste des configurations matérielles requises donne un aperçu des systèmes pris en charge par SUSE Linux Enterprise Server. Vous trouverez ici des informations sur les méthodes d'installation possibles et sur plusieurs problèmes connus fréquents. Vous apprendrez également comment contrôler l'installation, fournir des supports d'installation et démarrer par les méthodes habituelles.

5.1 Configuration système pour Linux

Le système d'exploitation SUSE® Linux Enterprise Server peut être déployé sur une vaste gamme d'équipements matériels. Il est impossible de répertorier toutes les combinaisons de supports SUSE Linux Enterprise Server matériels. Cependant, vous trouverez ci-dessous des informations sur la configuration minimale requise pour vous aider lors de la phase de planification.

Pour garantir le bon fonctionnement d'une configuration d'ordinateur donnée, recherchez les plates-formes certifiées par SUSE. Pour consulter la liste, consultez le site https://www.suse.com/yessearch/.

5.1.1 Matériel pour ARM AArch64

UC

La configuration minimale requise est une unité centrale qui prend en charge l'architecture de jeu d'instructions ARMv8-A, par exemple ARM Cortex-A53 ou Cortex-A57. Consultez la page https://www.arm.com/products/processors/cortex-a/ pour obtenir la liste des processeurs ARMv8-A disponibles.

Les UC ayant une architecture de jeu d'instructions ARMv8-R (en temps réel) et ARMv8-M (microcontrôleur) ne sont actuellement pas prises en charge.

Nombre maximum d'unités centrales

Le nombre maximum d'unités centrales prises en charge par la conception logicielle est de 128. Si vous avez l'intention d'utiliser un système de cette taille, vérifiez sur notre page Web (https://www.suse.com/yessearch/) que les périphériques sont conformes à la certification système du matériel.

Configuration requise pour la mémoire

Un minimum de 1 Go de mémoire est requis pour une installation minimale. Cependant, la configuration système minimale recommandée est de 1024 ou de 512 Mo par unité centrale sur les ordinateurs multiprocesseurs. Ajoutez 150 Mo pour une installation à distance via HTTP ou FTP. Notez que ces valeurs ne sont valables que pour l'installation du système d'exploitation. La quantité de mémoire réelle en production dépend de la charge de travail système.

Configuration requise pour le disque dur

La configuration requise pour le disque dépend en grande partie de l'installation sélectionnée et de votre utilisation de la machine. La configuration minimale des différents éléments est la suivante :

Système

Configuration requise pour le disque dur

Minimum

800 Mo - 1 Go

Interface X Window System minimale

1,4 Go

Bureau GNOME

3,5 Go

Tous les modèles

8,5 Go

Utilisation d'instantanés pour la virtualisation

min. 8 Go

Méthodes de démarrage

L'ordinateur peut être démarré depuis un CD ou un réseau. Un serveur de démarrage spécifique est requis pour un démarrage sur le réseau. Il peut également être configuré avec SUSE Linux Enterprise Server.

5.2 Considérations relatives à l'installation

Cette section aborde plusieurs facteurs à prendre en compte avant d'installer SUSE Linux Enterprise Server sur du matériel ARM AArch64.

5.2.1 Type d'installation

SUSE Linux Enterprise Server est normalement installé en tant que système d'exploitation indépendant. Depuis l'introduction de la virtualisation, il est également possible d'exécuter plusieurs instances de SUSE Linux Enterprise Server sur le même matériel. Toutefois, l'installation du serveur hôte de machine virtuelle s'effectue comme une installation classique en y ajoutant des paquetages supplémentaires. L'installation des invités virtuels est décrite dans le Book “Virtualization Guide”, Chapter 9 “Guest Installation”.

5.2.2 Méthodes de démarrage

Selon le matériel utilisé, les méthodes de démarrage suivantes sont disponibles pour la première procédure de démarrage (avant l'installation de SUSE Linux Enterprise Server).

Tableau 5.1 : Options de démarrage

Option de démarrage

Utilisation

Un lecteur de CD ou de DVD

Il s'agit de la méthode de démarrage la plus simple. Le système requiert un lecteur de CD ou de DVD disponible en local.

Disques flash

Les images requises pour créer des disques de démarrage se trouvent sur le premier CD ou DVD dans le répertoire /boot. Reportez-vous également au fichier README situé dans le même répertoire. Le démarrage depuis une clé USB n'est possible que si le BIOS de la machine prend en charge cette méthode.

PXE ou bootp

Doit être pris en charge par le microprogramme du système utilisé. Cette option nécessite qu'un serveur de démarrage soit installé sur le réseau. Cette tâche peut être assurée par un serveur SLES distinct.

Disque dur

SUSE Linux Enterprise Server peut également être lancé à partir d'un disque dur. Pour ce faire, copiez le kernel (linux) et le système d'installation (initrd) depuis le répertoire /boot/loader du premier CD ou DVD vers le disque dur, puis ajoutez une entrée appropriée au chargeur de démarrage.

5.2.3 Source d'installation

Lors de l'installation de SUSE Linux Enterprise Server, les données d'installation effectives doivent être accessibles sur le réseau, sur une partition du disque dur ou sur un DVD local. Pour effectuer une installation depuis le réseau, vous avez besoin d'un serveur d'installation. Pour mettre les données d'installation à disposition, configurez un ordinateur dans un environnement Unix ou Linux en tant que serveur NFS, HTTP, SMB ou FTP. Pour rendre les données d'installation disponibles depuis un ordinateur Windows, libérez les données avec SMB.

La source d'installation est particulièrement facile à sélectionner si vous configurez un serveur SLP sur le réseau local. Pour plus d'informations, reportez-vous au Chapitre 8, Configuration du serveur qui contient les sources d'installation.

5.2.4 Cible d'installation

La plupart des installations sont effectuées sur un disque dur local. Par conséquent, il est nécessaire que les contrôleurs du disque dur soient accessibles au système d'installation. Si un contrôleur spécifique (comme un contrôleur RAID) requiert un module de kernel supplémentaire, fournissez un disque de mise à jour du module de kernel au système d'installation.

Tous les types de périphériques de bloc peuvent servir de cibles d'installation, à condition qu'ils offrent un espace disque et une vitesse suffisants pour exécuter un système d'exploitation. Il peut s'agir de périphériques de bloc réseau comme iSCSI ou SAN. Il est également possible d'effectuer des installations sur des systèmes de fichiers réseau offrant des autorisations Unix standard. Cependant, il peut être difficile de démarrer ces systèmes de fichiers, qui doivent être pris en charge par initramfs avant que le système ne démarre. Ces installations sont utiles s'il est nécessaire de démarrer le même système à des emplacements différents.

5.2.5 Autres méthodes d'installation

SUSE Linux Enterprise Server propose plusieurs méthodes de contrôle de l'installation :

  • Installation sur la console graphique

  • Installation avec une console série

  • Installation avec AutoYaST

  • Installation avec des images KIWI

  • Installation avec SSH

  • Installation avec VNC

Par défaut, la console graphique est utilisée. Si vous devez installer un grand nombre d'ordinateurs similaires, il est recommandé de créer un fichier de configuration AutoYaST ou une image KIWI préchargée et de le/la rendre accessible au processus d'installation. Reportez-vous également à la documentation d'AutoYaST sur le site Book “AutoYaST” et de KIWI à l'adresse http://doc.opensuse.org/projects/kiwi/doc/.

5.3 Support de démarrage et d'installation

Lors de l'installation du système, le support de démarrage peut être différent du support d'installation du système. Toutes les combinaisons de supports pris en charge pour le démarrage et l'installation peuvent être utilisées.

5.3.1 Support de démarrage

Le démarrage d'un ordinateur dépend des performances du matériel utilisé et de la disponibilité du support pour l'option de démarrage correspondante.

Démarrage à partir d'un DVD

Il s'agit de la méthode la plus courante pour démarrer un système. Très simple pour la plupart des utilisateurs d'ordinateurs, elle requiert néanmoins un grand nombre d'interactions pour chaque processus d'installation.

Démarrage à partir d'une clé USB à mémoire Flash

En fonction du matériel utilisé, il est possible de démarrer le système à partir d'un disque dur USB. Le support correspondant doit être créé en suivant la procédure décrite à la Section 6.2.2, « PC (AMD64/Intel 64/ARM AArch64) : démarrage du système ».

Démarrage à partir d'un réseau

Vous ne pouvez démarrer un ordinateur directement depuis le réseau que s'il est pris en charge par le microprogramme de l'ordinateur. Cette méthode de démarrage nécessite qu'un serveur de démarrage fournisse les images de démarrage requises sur le réseau. Le protocole exact dépend de votre matériel. Plusieurs services, tels que TFTP et DHCP ou le démarrage PXE, sont généralement nécessaires. Si vous avez besoin d'un serveur de démarrage, consultez également la Section 10.1.3, « Installation à distance via VNC : démarrage PXE et fonction Wake on LAN (réveil à distance) ».

5.3.2 Support d'installation

Le support d'installation contient tous les paquetages et méta-informations nécessaires pour installer une instance SUSE Linux Enterprise Server. Le système d'installation doit pouvoir y accéder après le démarrage en vue de l'installation. SUSE Linux Enterprise Server permet de fournir le support d'installation au système de différentes manières.

Installation à partir d'un DVD

Toutes les données nécessaires sont fournies sur le support de démarrage. En fonction de l'installation sélectionnée, une connexion réseau ou des supports supplémentaires peuvent être nécessaires.

Installation réseau

Si vous envisagez d'installer plusieurs systèmes, il est plus facile de fournir les supports d'installation via le réseau. Il est possible d'effectuer l'installation via plusieurs protocoles courants, comme NFS, HTTP, FTP ou SMB. Pour plus d'informations sur l'exécution d'une telle installation, reportez-vous au Chapitre 10, Installation à distance.

5.4 Procédure d'installation

Cette section présente les étapes requises pour effectuer une installation complète de SUSE® Linux Enterprise Server dans le mode requis. La Partie II, « Workflow d'installation » contient une description complète de la procédure d'installation et de configuration du système avec &yast.

5.4.1 Démarrage depuis une unité locale interchangeable

Vous pouvez utiliser un lecteur de DVD-ROM et des périphériques de stockage USB pour procéder à une installation. Réglez votre ordinateur en fonction de vos besoins :

  1. Assurez-vous que l'unité est entrée comme unité amorçable dans le microprogramme.

  2. Insérez le support de démarrage dans le lecteur et lancez la procédure de démarrage.

  3. Le menu de démarrage de l'installation de SUSE Linux Enterprise Server permet de transférer différents paramètres vers le système d'installation. Reportez-vous également à la Section 10.2.2, « Utilisation des options de démarrage personnalisées ». Si vous souhaitez effectuer l'installation sur le réseau, indiquez à cet endroit la source d'installation.

  4. Si vous rencontrez des problèmes au cours de l'installation, utilisez les paramètres sans échec pour le démarrage.

5.4.2 Installation via le réseau

Un serveur d'installation est requis pour effectuer l'installation via une source réseau. La procédure d'installation du serveur est décrite au Chapitre 8, Configuration du serveur qui contient les sources d'installation.

Si vous avez un serveur SLP, sélectionnez SLP comme source d'installation dans le premier écran de démarrage. Lors de la procédure de démarrage, sélectionnez les sources d'installation disponibles à utiliser.

Si le DVD est disponible sur le réseau, utilisez-le comme source d'installation. Dans ce cas, spécifiez le paramètre install=<URL> avec des valeurs appropriées à l'invite de démarrage. Pour plus d'informations sur ce paramètre, reportez-vous à la Section 10.2.2, « Utilisation des options de démarrage personnalisées ».

5.5 Contrôle de l'installation

Vous pouvez contrôler l'installation de différentes manières. La méthode la plus souvent utilisée consiste à installer SUSE® Linux Enterprise Server à partir de la console de l'ordinateur. D'autres options sont disponibles pour différentes situations.

5.5.1 Installation sur la console de l'ordinateur

La méthode la plus simple pour installer SUSE Linux Enterprise Server est d'utiliser la console de l'ordinateur. Avec cette méthode, un programme d'installation graphique vous guide tout au long du processus d'installation. Cette méthode d'installation est décrite en détail au Chapitre 6, Installation avec YaST.

Vous pouvez tout de même effectuer l'installation sur la console sans mode graphique établi. Le programme d'installation textuel offre la même fonctionnalité que la version graphique. Pour quelques conseils sur la navigation dans ce mode, reportez-vous au Book “Administration Guide”, Chapter 5 “YaST in Text Mode”, Section 5.1 “Navigation in Modules”.

5.5.2 Installation à l'aide d'une console série

Pour cette méthode d'installation, vous avez besoin d'un deuxième ordinateur, connecté par un câble modem nul à l'ordinateur sur lequel vous installez SUSE Linux Enterprise Server. Le matériel et les microprogrammes des deux machines doivent prendre en charge la console série. Certaines implémentations de microprogrammes sont déjà configurées pour envoyer la sortie de la console de démarrage à une console série (en fournissant une arborescence de périphériques dont le chemin /chosen/stdout est défini de manière appropriée). Dans ce cas, aucune configuration supplémentaire n'est requise.

Si le microprogramme n'est pas configuré pour utiliser la console série pour la sortie de la console de démarrage, vous devez fournir le paramètre de démarrage suivant dans l'invite de démarrage du système d'installation (voir Book “Administration Guide”, Chapter 13 “The Boot Loader GRUB 2”, Section 13.2.5 “Editing menu entries during the boot procedure” pour plus de détails) : console=TTY,BAUDRATE.

BAUDRATE doit être remplacé par le débit en bauds pour l'interface. Les valeurs valides sont 115200, 38400 ou 9600. TTY doit être remplacé par le nom de l'interface. La plupart des ordinateurs comptent une ou plusieurs interfaces série. Les noms des interfaces peuvent varier en fonction du matériel:

  • ttyS0 pour APM

  • ttyAMA0 pour une architecture SBSA (Server Base System Architecture)

  • ttyPS0 pour Xilinx

Pour l'installation, vous avez besoin d'un programme de terminal tel que minicom ou screen. Pour initialiser la connexion série, lancez l'application Screen (Écran) dans une console locale en entrant la commande suivante :

screen /dev/ttyUSB0 115200

Cela signifie que l'écran reçoit les données du premier port série avec un débit de 115 200 bauds. À partir de maintenant, l'installation est semblable à l'installation en mode texte sur ce terminal.

5.5.3 Installation avec le protocole SSH

Si vous n'avez pas d'accès direct à la machine et si vous devez lancer l'installation depuis une console de gestion, vous pouvez contrôler tout le processus d'installation via le réseau. Pour ce faire, saisissez les paramètres ssh=1 et ssh.password=SECRET à l'invite de démarrage. Un daemon SSH est ensuite lancé sur le système. Vous pouvez alors vous connecter en tant qu'utilisateur root avec le mot de passe SECRET.

Pour vous connecter, utilisez ssh -X. Le transfert X via SSH est pris en charge, pour autant que vous disposiez d'un serveur X local. Dans le cas contraire, YaST fournit une interface texte via ncurses. YaST vous guide ensuite tout au long du processus d'installation. Cette procédure est décrite en détail à la Section 10.1.5, « Installation simple à distance via SSH : configuration réseau dynamique ».

Si votre réseau local ne comporte aucun serveur DHCP disponible, affectez manuellement une adresse IP au système d'installation. Pour ce faire, saisissez l'option HostIP=IPADDR à l'invite de démarrage.

5.5.4 Installation via VNC

Si vous ne pouvez pas accéder directement au système, mais que vous souhaitez effectuer une installation graphique, installez SUSE Linux Enterprise Server via VNC. Cette méthode est décrite en détail à la Section 10.3.1, « Installation VNC ».

Étant donné que des clients VNC appropriés sont également disponibles pour d'autres systèmes d'exploitation tels que Microsoft Windows et Mac OS, l'installation peut également être contrôlée depuis des ordinateurs exécutant ces systèmes d'exploitation.

5.5.5 Installation avec AutoYaST

Si vous devez installer SUSE Linux Enterprise Server sur plusieurs ordinateurs présentant une configuration matérielle similaire, il est recommandé d'effectuer les installations avec AutoYaST. Dans ce cas, installez une instance de SUSE Linux Enterprise Server, puis utilisez-la pour créer les fichiers de configuration AutoYaST nécessaires.

AutoYaST est décrit en détail au Book “AutoYaST” .

5.6 Gestion des problèmes de démarrage et d'installation

Avant la livraison, SUSE® Linux Enterprise Server est soumis à un programme de test approfondi. Malgré cela, des problèmes peuvent survenir lors du démarrage ou de l'installation.

5.6.1 Problèmes liés au démarrage

Des problèmes de démarrage peuvent empêcher le lancement du programme d'installation de YaST sur votre système. Il peut aussi arriver que votre système ne démarre pas une fois l'installation terminée.

Le système installé démarre, mais pas le support

Modifiez le microprogramme de l'ordinateur pour corriger la séquence de démarrage. Pour ce faire, reportez-vous au manuel du matériel.

L'ordinateur se bloque

Modifiez la console de votre ordinateur pour rendre les sorties du kernel visibles. Assurez-vous de vérifier les dernières sorties. Pour ce faire, appuyez sur la touche CtrlAltF10. Si vous ne parvenez pas à résoudre le problème, consultez le service de support de SUSE Linux Enterprise Server. Pour consigner tous les messages système au démarrage, utilisez une connexion série, comme décrit dans la Section 2.5, « Contrôle de l'installation ».

Disquette de démarrage

La disquette de démarrage est une solution provisoire utile si vous rencontrez des difficultés lors de la configuration d'autres options ou si vous souhaitez reporter la décision concernant le mécanisme de démarrage final. Pour plus d'informations sur la création des disquettes de démarrage, reportez-vous à Book “Administration Guide”, Chapter 13 “The Boot Loader GRUB 2” grub2-mkrescue.

5.6.2 Problèmes liés à l'installation

Si un problème inattendu survient pendant l'installation, des informations sont nécessaires pour en déterminer la cause. Suivez les instructions ci-après pour résoudre le problème :

  • Vérifiez les sorties sur les différentes consoles. Vous pouvez passer d'une console à l'autre en employant la combinaison de touches CtrlAltFn. Par exemple, pour obtenir un shell dans lequel éxécuter différentes commandes, appuyez sur CtrlAltF2.

  • Essayez de lancer l'installation avec les « Paramètres sécurisés  » (appuyez sur la touche F5 dans l'écran d'installation et sélectionnez Paramètres sécurisés). Si l'installation fonctionne normalement, il existe une incompatibilité qui entraîne l'échec d'ACPI ou d'APIC. Dans certains cas, une mise à jour du microprogramme résout ce problème.

  • Saisissez la commande dmesg -T pour vérifier les messages système sur une console sur le système d'installation.

5.6.3 Redirection de la source de démarrage vers le DVD de démarrage

Pour simplifier le processus d'installation et éviter des installations accidentelles, votre système est paramétré par défaut pour un démarrage à partir du premier disque dur sur le DVD d'installation de SUSE Linux Enterprise Server. À ce stade, un chargeur de démarrage installé prend généralement le contrôle du système. Cela signifie que le DVD de démarrage peut rester dans le lecteur lors d'une installation. Pour démarrer l'installation, choisissez une option d'installation dans le menu de démarrage du support.

Partie II Workflow d'installation

  • 6 Installation avec YaST
  • Une fois votre matériel préparé pour l'installation de SUSE® Linux Enterprise Server, comme décrit dans la Partie I, « Préparation de l'installation », et la connexion avec le système d'installation établie, l'interface de l'assistant système YaST de SUSE Linux Enterprise Server s'affiche. YaST vous guide tout au long de la procédure d'installation.

    Pendant la procédure d'installation, YaST analyse les paramètres actuels de votre système et vos composants matériels. Sur la base de cette analyse, votre système est configuré selon la méthode de base, avec prise en charge réseau (à condition qu'il puisse être configuré à l'aide de DHCP). Pour régler le système avec précision une fois l'installation terminée, démarrez YaST à partir du système installé.

  • 7 Clonage d'images de disque
  • Si SUSE Linux Enterprise Server est installé dans un environnement virtualisé, le clonage d'une installation existante peut être le moyen le plus rapide de déployer davantage de machines. SUSE Linux Enterprise Server fournit un script pour nettoyer la configuration qui est unique pour chaque install…

6 Installation avec YaST

Une fois votre matériel préparé pour l'installation de SUSE® Linux Enterprise Server, comme décrit dans la Partie I, « Préparation de l'installation », et la connexion avec le système d'installation établie, l'interface de l'assistant système YaST de SUSE Linux Enterprise Server s'affiche. YaST vous guide tout au long de la procédure d'installation.

Pendant la procédure d'installation, YaST analyse les paramètres actuels de votre système et vos composants matériels. Sur la base de cette analyse, votre système est configuré selon la méthode de base, avec prise en charge réseau (à condition qu'il puisse être configuré à l'aide de DHCP). Pour régler le système avec précision une fois l'installation terminée, démarrez YaST à partir du système installé.

6.1 Choix de la méthode d'installation

Après avoir sélectionné le support d'installation, choisissez une méthode d'installation et une option de démarrage appropriées qui correspondent à vos besoins :

Installation à partir du support (DVD, USB) de SUSE Linux Enterprise Server

Choisissez cette option si vous souhaitez effectuer une installation autonome et si vous ne désirez pas avoir recours à un réseau vous fournissant les données d'installation ou l'infrastructure de démarrage. L'installation se déroule selon la procédure décrite dans la Section 6.3, « Étapes de l'installation ».

Installation à partir d'un serveur réseau

Choisissez cette option si un serveur d'installation est disponible sur votre réseau ou si vous souhaitez utiliser un serveur externe en tant que source de vos données d'installation. Ce programme d'installation peut être configuré pour démarrer soit à partir d'un support physique (lecteur flash, CD/DVD ou disque dur), soit via un réseau utilisant PXE/BOOTP. Reportez-vous à la Section 6.2, « Démarrage du système pour l'installation » pour obtenir des informations détaillées.

Le programme d'installation configure la connexion réseau par DHCP et accède à l'emplacement de la source d'installation réseau depuis le serveur OpenSLP. Si aucun serveur DHCP n'est disponible, sélectionnez F4 Source › Configuration réseau › Manuel et indiquez les données réseau. Sur les systèmes EFI, modifiez les paramètres de démarrage du réseau, comme décrit à la Section 6.2.2.2, « Écran de démarrage sur les machines équipées de l'interface EUFI ».

Installation à partir d'un serveur SLP.  Si la configuration de votre réseau prend en charge OpenSLP et que la source d'installation du réseau a été configurée pour s'annoncer via SLP (voir Chapitre 8, Configuration du serveur qui contient les sources d'installation), démarrez le système, appuyez sur F4 dans l'écran de démarrage, puis sélectionnez SLP dans le menu. Sur les systèmes EFI, définissez le paramètre install sur install=slp:/, comme décrit à la Section 6.2.2.2, « Écran de démarrage sur les machines équipées de l'interface EUFI ».

Installation depuis une source réseau sans SLP.  Si la configuration de votre réseau ne prend pas en charge OpenSLP pour l'extraction des sources d'installation réseau, démarrez le système, puis appuyez sur F4 dans l'écran de démarrage pour sélectionner le protocole réseau souhaité (NFS, HTTP, FTP ou SMB/CIFS) et indiquez l'adresse du serveur, ainsi que le chemin du support d'installation. Sur les systèmes EFI, modifiez le paramètre de démarrage install=, comme décrit à la Section 6.2.2.2, « Écran de démarrage sur les machines équipées de l'interface EUFI ».

6.2 Démarrage du système pour l'installation

La méthode de démarrage du système utilisée pour l'installation dépend de l'architecture ; elle diffère, par exemple, selon qu'il s'agit d'un PC (AMD64/Intel 64) ou d'un macroordinateur. Si vous installez SUSE Linux Enterprise Server en tant qu'invité de machine virtuelle sur un hyperviseur Xen ou KVM, suivez les instructions relatives à l'architecture AMD64/Intel 64.

6.2.1 IBM Z : démarrage du système

Pour les plates-formes IBM Z, le système démarre (via un IPL, « Initial Program Load », autrement dit un chargement du programme initial), comme décrit à la Section 4.2.4, « Exécution d'un IPL sur le système d'installation de SUSE Linux Enterprise Server ». SUSE Linux Enterprise Server n'affiche aucun écran de démarrage sur ces systèmes. Au cours de l'installation, chargez le kernel, initrd et parmfile manuellement. YaST démarre et affiche son écran d'installation dès qu'une connexion est établie avec le système d'installation via VNC, X ou SSH. Puisqu'il n'y a aucun écran de démarrage, les paramètres du kernel ou ceux de démarrage ne peuvent pas être saisis à l'écran, ils doivent donc être spécifiés dans un fichier parmfile (reportez-vous à la Section 4.3, « Fichier parmfile : automatisation de la configuration du système »).

6.2.2 PC (AMD64/Intel 64/ARM AArch64) : démarrage du système

SUSE Linux Enterprise Server prend en charge plusieurs options de démarrage ; choisissez votre option en fonction du matériel à votre disposition et du scénario d'installation que vous préférez. Un démarrage via le support de SUSE Linux Enterprise Server est l'option la plus simple, mais des besoins spécifiques peuvent nécessiter des configurations particulières :

Tableau 6.1 : Options de démarrage

Option de démarrage

Description

DVD 

Il s'agit de l'option de démarrage la plus simple. Elle peut être utilisée si votre système comporte un lecteur DVD-ROM local pris en charge par Linux.

Disques Flash (périphérique de stockage de masse USB)

Si votre ordinateur n'est pas équipé d'un lecteur optique, vous pouvez démarrer l'image d'installation à partir d'un disque Flash. Pour créer un disque Flash amorçable, vous devez copier l'image ISO du DVD ou du mini CD sur le périphérique à l'aide de la commande dd (le disque Flash ne doit pas être monté ; toutes les données qui sont stockées sur le périphérique seront effacées) :

dd if=PATH_TO_ISO_IMAGE of=USB_STORAGE_DEVICE bs=4M
Important
Important : compatibilité

Notez que le démarrage à partir d'un périphérique de stockage de masse USB n'est pas pris en charge sur les machines UEFI et sur l'architecture POWER.

PXE ou BOOTP

Le démarrage depuis le réseau doit être pris en charge par le microprogramme ou le BIOS du système et un serveur de démarrage doit être disponible sur le réseau. Cette tâche peut également être gérée par un autre système SUSE Linux Enterprise Server. Reportez-vous au Chapitre 10, Installation à distance pour plus d'informations.

Disque dur

L'installation de SUSE Linux Enterprise Server peut également être lancée à partir du disque dur. Pour cela, copiez sur le disque dur le kernel (Linux) et le système d'installation (initrd) qui se trouvent dans le répertoire /boot/ARCHITECTURE/ du support d'installation, puis ajoutez une entrée appropriée au chargeur d'amorçage existant d'une installation précédente de SUSE Linux Enterprise Server.

Astuce
Astuce : démarrage à partir d'un DVD sur des machines UEFI

Le DVD1 peut être utilisé comme support de démarrage pour les machines équipées de UEFI (Unified Extensible Firmware Interface). Pour obtenir des informations spécifiques à ce sujet, reportez-vous à la documentation du fournisseur. Si le démarrage échoue, essayez d'activer le CSM (Compatibility Support Module) dans votre microprogramme.

Note
Note : supports d'installation des produits complémentaires

Les supports des produits complémentaires (extensions ou produits tiers) ne peuvent pas être utilisés comme supports d'installation autonomes. Ils peuvent soit être intégrés comme sources d'installation supplémentaires pendant la procédure d'installation (voir la Section 6.9, « Sélection d'extensions »), soit être installés à partir du système en cours d'exécution à l'aide du module YaST relatif aux produits complémentaires (pour plus d'informations, voir le Chapitre 14, Installation de modules, extensions et produits complémentaires tiers).

6.2.2.1 Écran de démarrage sur les ordinateurs équipés d'un BIOS traditionnel

L'écran de démarrage propose plusieurs options pour la procédure d'installation. L'option Démarrer depuis le disque dur démarre le système installé. Elle est sélectionnée par défaut, car le CD est souvent laissé dans le lecteur. Sélectionnez l'une des autres options à l'aide des touches de direction et appuyez sur Entrée pour la démarrer. Les options possibles sont :

Installation

Mode d'installation normal. Toutes les fonctions matérielles modernes sont activées. Si l'installation échoue, reportez-vous à F5 Kernel pour savoir quelles options de démarrage peuvent désactiver les fonctions susceptibles de poser problème.

Mise à niveau

Effectuez une mise à niveau du système. Pour plus d'informations, reportez-vous au Chapitre 19, Mise à niveau de SUSE Linux Enterprise.

Rescue System (Système de secours)

Lance un système Linux de base sans interface graphique. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 42 “Common problems and their solutions”, Section 42.6.2 “Using the Rescue System”.

Vérification des supports d'installation

Cette option n'est disponible que si vous effectuez une installation depuis un support créé à partir des images ISO téléchargées. Dans ce cas, il est recommandé de vérifier l'intégrité du support d'installation. Cette option démarre le système d'installation avant de vérifier automatiquement le support. Si le contrôle s'exécute avec succès, la routine d'installation normale démarre. Si un support corrompu est détecté, la routine d'installation s'interrompt.

Avertissement
Avertissement : échec de la vérification du support

Si la vérification du support échoue, cela signifie que votre support est endommagé. Ne poursuivez pas l'installation, car celle-ci peut échouer ou entraîner la perte de vos données. Remplacez le support endommagé et redémarrez le processus d'installation.

Memory Test (Test mémoire)

Teste la RAM de votre système via des répétitions de cycles de lecture et d'écriture. Le test se termine par un redémarrage. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 42 “Common problems and their solutions”, Section 42.2.4 “Fails to Boot”.

Écran de démarrage sur les ordinateurs équipés d'un BIOS traditionnel
Figure 6.1 : Écran de démarrage sur les ordinateurs équipés d'un BIOS traditionnel

Utilisez les touches de fonction affichées en bas de l'écran pour modifier la langue, la résolution de l'écran, la source d'installation ou pour ajouter un pilote supplémentaire acheté chez votre fournisseur de matériel :

F1 Aide

Permet d'obtenir une aide contextuelle sur l'élément actif de l'écran de démarrage. Utilisez les touches de direction pour naviguer, Entrée pour suivre un lien et Esc pour quitter l'écran d'aide.

F2 Langue

Sélectionnez la langue d'affichage et la disposition du clavier correspondante pour l'installation. La langue par défaut est l'anglais (américain).

F3 Mode vidéo

Permet de sélectionner divers modes d'affichage graphique pour l'installation. Par défaut, la résolution vidéo est définie automatiquement à l'aide de KMS (« Kernel Mode Setting »). Si ce paramètre ne fonctionne pas sur votre système, sélectionnez No KMS (Sans KMS) et indiquez éventuellement vga=ask sur la ligne de commande de démarrage pour être invité à indiquer la résolution vidéo. Sélectionnez le mode texte si l'installation graphique pose problème.

F4 Source

L'installation est normalement effectuée à partir du support d'installation inséré. Sélectionnez à cet endroit d'autres sources, telles que les serveurs FTP ou NFS. Si l'installation est déployée sur un réseau doté d'un serveur SLP, cette option permet de sélectionner une source d'installation disponible sur le serveur. Pour plus d'informations sur la configuration d'un serveur d'installation avec SLP, reportez-vous au Chapitre 8, Configuration du serveur qui contient les sources d'installation.

F5 Kernel

Si vous rencontrez des problèmes avec l'installation classique, ce menu vous propose de désactiver des fonctions susceptibles de poser problème. Si votre matériel ne prend pas en charge l'interface ACPI (interface avancée de configuration et de gestion de l'énergie), sélectionnez Pas d'ACPI pour effectuer une installation sans prise en charge de l'interface ACPI. Pas d'APIC local désactive la prise en charge de l'APIC (contrôleur programmable d'interruptions avancé) qui peut causer des problèmes avec certaines installations matérielles. Paramètres sécurisés démarre le système en désactivant le mode DMA (pour les lecteurs de CD/DVD-ROM), ainsi que les fonctions de gestion de l'énergie.

En cas de doute, essayez dans un premier temps les options suivantes : Installation - ACPI désactivé ou Installation - Paramètres sécurisés. Les utilisateurs expérimentés peuvent également utiliser la ligne de commande (Options de démarrage) pour entrer ou modifier les paramètres du kernel.

F6 Pilote

Appuyez sur cette touche pour indiquer au système que vous disposez d'une mise à jour de pilote facultative pour SUSE Linux Enterprise Server. Si Fichier ou URL est sélectionné, le chargement des pilotes a lieu avant le début de l'installation. Si vous sélectionnez Oui, vous êtes invité à insérer le disque de mise à jour au cours du processus d'installation.

Astuce
Astuce : obtention de disques de mise à jour de pilote

Les mises à jour des pilotes pour SUSE Linux Enterprise sont disponibles à l'adresse suivante : http://drivers.suse.com/. Ces pilotes ont été créés via le programme SolidDriver SUSE.

6.2.2.2 Écran de démarrage sur les machines équipées de l'interface EUFI

UEFI (Unified Extensible Firmware Interface) est une nouvelle norme qui remplace le BIOS traditionnel et en étend les fonctionnalités. Les implémentations les plus récentes de l'interface UEFI contiennent l'extension « Secure Boot » (Démarrage sécurisé) qui empêche le démarrage de code malveillant en autorisant uniquement l'exécution de chargeurs de démarrage signés. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 12 “UEFI (Unified Extensible Firmware Interface)”.

Le gestionnaire de démarrage GRUB 2, utilisé pour l'amorçage des machines équipées d'un BIOS traditionnel, ne prend pas en charge l'interface UEFI. Il est donc remplacé par GRUB 2 pour EFI. Si la fonction Démarrage sécurisé est activée, YaST sélectionne automatiquement GRUB 2 pour EFI pour l'installation. Du point de vue de l'administrateur et de l'utilisateur, les deux implémentations du gestionnaire de démarrage se comportent de la même manière et sont désignées sous le nom GRUB 2 dans la suite du document.

Astuce
Astuce : prise en charge par défaut de Secure Boot et UEFI

La routine d'installation de SUSE Linux Enterprise Server détecte automatiquement si la machine est équipée d'une interface UEFI. Toutes les sources d'installation prennent également en charge l'extension Secure Boot. S'il existe déjà une partition système EFI sur des ordinateurs à double amorçage (une installation Microsoft Windows 8, par exemple), elle est automatiquement détectée et utilisée. Les tables de partition sont écrites en tant que GPT sur les systèmes UEFI.

Avertissement
Avertissement : utilisation avec Secure Boot de pilotes non fournis avec SLE

L'ajout de pilotes non fournis avec SLE pendant l'installation lorsque Secure Boot est activé n'est pas pris en charge. La clé de signature utilisée pour SolidDriver/PLDP n'est pas approuvée par défaut.

Pour résoudre ce problème, vous devez ajouter les clés nécessaires à la base de données des microprogrammes via les outils de gestion des systèmes/microprogrammes avant l'installation, ou utiliser une image ISO démarrable qui enregistrera les clés requises dans la liste MOK lors du premier démarrage. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 12 “UEFI (Unified Extensible Firmware Interface)”, Section 12.1 “Secure Boot”.

L'écran de démarrage propose plusieurs options pour la procédure d'installation. Utilisez les touches de direction pour modifier l'option sélectionnée et appuyez sur Entrée pour la démarrer. Les options possibles sont :

Installation

Mode d'installation normal.

Mise à niveau

Effectuez une mise à niveau du système. Pour plus d'informations, reportez-vous au Chapitre 19, Mise à niveau de SUSE Linux Enterprise.

Rescue System (Système de secours)

Lance un système Linux de base sans interface graphique. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 42 “Common problems and their solutions”, Section 42.6.2 “Using the Rescue System”.

Vérification des supports d'installation

Cette option n'est disponible que si vous effectuez une installation depuis un support créé à partir des images ISO téléchargées. Dans ce cas, il est recommandé de vérifier l'intégrité du support d'installation. Cette option démarre le système d'installation avant de vérifier automatiquement le support. Si le contrôle s'exécute avec succès, la routine d'installation normale démarre. Si un support corrompu est détecté, la routine d'installation s'interrompt.

Écran de démarrage sur les machines équipées de l'interface EUFI
Figure 6.2 : Écran de démarrage sur les machines équipées de l'interface EUFI

GRUB 2 pour EFI sur SUSE Linux Enterprise Server ne prend pas en charge l'invite de démarrage, ni les touches de fonction pour ajouter des paramètres de démarrage. Par défaut, l'installation est lancée en anglais des États-Unis et avec le support de démarrage comme source d'installation. Une recherche DHCP est effectuée pour configurer le réseau. Pour modifier ces valeurs par défaut ou ajouter des paramètres de démarrage supplémentaires, vous devez modifier l'entrée de démarrage correspondante. Mettez-la en surbrillance à l'aide des touches de direction et appuyez ensuite sur E. Pour obtenir des conseils de modification, consultez l'aide affichée à l'écran (pour l'instant, seul le clavier anglais est disponible). L'entrée Installation se présente comme suit :

setparams 'Installation'

    set gfxpayload=keep
    echo 'Loading kernel ...'
    linuxefi /boot/x86_64/loader/linux splash=silent
    echo 'Loading initial ramdisk ...'
    initrdefi /boot/x86_64/loader/initrd

Ajoutez des paramètres à la fin de la ligne commençant par linuxefi, en les séparant par un espace. Pour démarrer l'entrée modifiée, appuyez sur F10. Si vous accédez à l'ordinateur avec une console série, appuyez sur Esc0. La liste complète des paramètres est disponible à l'adresse http://en.opensuse.org/Linuxrc. Les plus importants sont les suivants :

Tableau 6.2 : Sources d'installation

CD/DVD (par défaut)

install=cd:/

Disque dur

install=hd:/?device=sda/CHEMIN_VERS_ISO

SLP

install=slp:/

FTP

install=ftp://ftp.exemple.com/CHEMIN_VERS_ISO

HTTP

install=http://www.exemple.com/CHEMIN_VERS_ISO

NFS

install=nfs:/CHEMIN_VERS_ISO

SMB / CIFS

install=smb://CHEMIN_VERS_ISO

Tableau 6.3 : Configuration réseau

DHCP (par défaut)

netsetup=dhcp

Invite de saisie des paramètres

netsetup=hostip,netmask,gateway,nameserver

Adresse IP de l'hôte

hostip=192.168.2.100

hostip=192.168.2.100/24

Masque de réseau

netmask=255.255.255.0

Passerelle

gateway=192.168.5.1

Serveur de noms 

nameserver=192.168.1.116

nameserver=192.168.1.116,192.168.1.118

Chemin de recherche du domaine

domain=exemple.com

Tableau 6.4 : Divers

Mises à jour de pilote : invite

dud=1

Mises à jour de pilote : URL

dud=ftp://ftp.exemple.com/CHEMIN_VERS_PILOTE

dud=http://www.exemple.com/CHEMIN_VERS_PILOTE

Langue d'installation

Language=LANGUE

Les valeurs prises en charge pour LANGUE sont, entre autres, cs_CZ, de_DE, es_ES, fr_FR, ja_JP, pt_BR, pt_PT, ru_RU, zh_CN et zh_TW.

Kernel : sans ACPI

acpi=off

Kernel : pas d'APIC local

noapic

Vidéo : désactiver KMS

nomodeset

Vidéo : démarrer le programme d'installation en mode texte

Textmode=1

6.2.3 Paramètres de démarrage pour des configurations avancées

Pour configurer l'accès à un serveur SMT local ou supportconfig pour l'installation, vous pouvez spécifier des paramètres de démarrage afin de configurer ces services lors de l'installation. Cela est valable si la prise en charge IPv6 est requise en cours d'installation.

6.2.3.1 Spécification de données pour l'accès à un serveur SMT

Par défaut, les mises à jour de SUSE Linux Enterprise Server sont fournies par le SUSE Customer Center. Si votre réseau est doté d'un serveur SMT qui fournit une source de mise à jour locale, vous devez fournir l'URL de ce serveur au client. Le client et le serveur communiquent exclusivement via un protocole HTTPS. Ainsi, vous devez également saisir le chemin du certificat de serveur s'il n'a pas été généré par une autorité de certification.

Note
Note : installation non interactive uniquement

Vous ne devez renseigner des paramètres pour l'accès au serveur SMT que pour les installations non interactives. Pendant une installation interactive, les données peuvent être fournies pendant l'installation (consultez la Section 6.8, « Enregistrement auprès du SUSE Customer Center » pour plus de détails).

regurl

URL du serveur SMT. Cette URL présente un format fixe https://FQN/center/regsvc/. FQN doit être un nom d'hôte complet du serveur SMT. Exemple :

regurl=https://smt.example.com/center/regsvc/
regcert

Emplacement du certificat du serveur SMT. Spécifiez l'un des emplacements suivants :

URL

Emplacement distant (HTTP, HTTPS ou FTP) à partir duquel il est possible de télécharger le certificat. Exemple :

regcert=http://smt.example.com/smt-ca.crt
Chemin local

Chemin complet du certificat sur la machine locale. Exemple :

regcert=/data/inst/smt/smt-ca.cert
Interactif

Utilisez ask pour ouvrir un menu contextuel vous permettant d'indiquer le chemin du certificat, lors de l'installation. N'utilisez pas cette option avec AutoYaST. Exemple

regcert=ask
Désactiver l'installation du certificat

Utilisez done si le certificat doit être installé par un produit complémentaire ou si vous utilisez un certificat délivré par une autorité de certification officielle. Par exemple :

regcert=done
Avertissement
Avertissement : attention aux fautes de frappe

Assurez-vous d'entrer des valeurs correctes. Si regurl n'a pas été saisi correctement, il sera impossible d'enregistrer la source de mise à jour. Si une valeur incorrecte est saisie pour regcert, le chemin local d'accès au certificat vous sera demandé.

Si regcert n'est pas précisé, il sera défini par défaut : http://FQN/smt.crt, FQN étant le nom du serveur SMT.

6.2.3.2 Configuration d'un serveur de données alternatif pour supportconfig

Par défaut, les données rassemblées par supportconfig (reportez-vous au Book “Administration Guide”, Chapter 41 “Gathering System Information for Support” pour plus d'informations) sont envoyées au SUSE Customer Center. Il est également possible de configurer un serveur local pour qu'il collecte ces données. Si un tel serveur est disponible sur votre réseau, vous devez définir l'URL du serveur sur le client. Cette information doit être saisie à l'invite de démarrage.

supporturl URL du serveur. L'URL a le format http://FQN/Path/, où FQN est le nom d'hôte complet du serveur et Path correspond à l'emplacement sur le serveur. Par exemple :

supporturl=http://support.example.com/supportconfig/data/

6.2.3.3 Utilisation du protocole IPv6 pendant l'installation

Par défaut, vous ne pouvez assigner à votre machine que des adresses réseau IPv4. Pour activer le protocole IPv6 au cours de l'installation, entrez l'un des paramètres suivants à l'invite de démarrage :

Pour accepter IPv4 et IPv6
ipv6=1
Pour accepter uniquement IPv6
ipv6only=1

6.2.3.4 Utilisation d'un proxy pendant l'installation

Dans les réseaux appliquant l'utilisation d'un serveur proxy pour accéder à des sites Web à distance, l'enregistrement au cours de l'installation n'est possible que lors de la configuration d'un serveur proxy.

Pour utiliser un proxy au cours de l'installation, appuyez sur F4 dans l'écran de démarrage, puis définissez les paramètres obligatoires dans la boîte de dialogue du proxy HTTP. De même, vous pouvez fournir le paramètre du kernel proxy à l'invite de démarrage :

l>proxy=http://USER:PASSWORD@proxy.example.com:PORT

Il n'est pas obligatoire de fournir un nom d'UTILISATEUR ni un MOT_DE_PASSE. Si le serveur autorise les accès anonymes, les données suivantes suffisent : http://exemple.proxy.com:PORT.

6.2.3.5 Activation de la prise en charge de SELinux

L'activation de SELinux lors du lancement de l'installation permet de le configurer une fois l'installation terminée sans nécessiter de redémarrage. Utilisez les paramètres suivants :

security=selinux selinux=1

6.2.3.6 Activation de la mise à jour automatique du programme d'installation

Lors de l'installation et de la mise à niveau, YaST peut se mettre à jour lui-même, comme décrit à la Section 6.4, « Mise à jour automatique du programme d'installation », pour résoudre des bogues potentiels détectés après la publication. Le paramètre self_update peut être utilisé pour modifier le comportement de cette fonctionnalité.

Pour activer la mise à jour automatique du programme d'installation, définissez le paramètre sur 1 :

self_update=1

Pour utiliser un dépôt défini par l'utilisateur, spécifiez une URL :

self_update=https://updates.example.com/

6.2.3.7 Utilisation des atténuations d'UC

Le paramètre de démarrage mitigations permet de contrôler les options d'atténuation pour les attaques par canal auxiliaire sur les UC affectées. Les valeurs qu'il peut prendre sont les suivantes :

auto Active toutes les atténuations requises pour votre modèle d'UC, mais ne protège pas contre les attaques de threads inter-UC. Ce paramètre peut influencer les performances dans une certaine mesure, selon le workload.

nosmt Fournit l'ensemble complet d'atténuations de sécurité disponibles. Active toutes les atténuations requises pour votre modèle d'UC. En outre, il désactive le multithreading simultané (Simultaneous Multithreading, SMT) afin d'éviter les attaques par canal auxiliaire entre plusieurs threads d'UC. Ce paramètre peut avoir un impact plus important sur les performances, en fonction du workload.

off Désactive toutes les atténuations. Selon le modèle d'UC, des attaques par canal auxiliaire sont possibles. Ce paramètre n'a aucun impact sur les performances.

Chaque valeur est associée à un ensemble de paramètres spécifiques, en fonction de l'architecture d'UC, de la version du kernel et des vulnérabilités qui doivent être atténuées. Pour plus de détails, reportez-vous à la documentation du kernel.

6.3 Étapes de l'installation

L'installation interactive de SUSE Linux Enterprise Server se divise en plusieurs étapes, comme indiqué ci-dessous.

Une fois le processus d'installation lancé, SUSE Linux Enterprise Server charge et configure un système Linux de base qui permet d'exécuter la procédure d'installation. Pour afficher les messages de démarrage et les mentions de copyright lors de ce processus, appuyez sur Esc. Une fois le processus terminé, le programme d'installation YaST démarre et affiche le programme d'installation graphique.

Astuce
Astuce : installation sans souris

Si le programme d'installation ne détecte pas correctement votre souris, utilisez la touche →| (Tabulation) pour naviguer, les touches de direction pour le défilement et la touche Entrée pour confirmer une sélection. Le libellé de certains boutons ou champs de sélection comporte une lettre soulignée (mnémonique). Utilisez AltLettre en question pour sélectionner directement un bouton ou un élément au lieu d'y accéder à l'aide de la touche →|.

6.4 Mise à jour automatique du programme d'installation

Au cours du processus d'installation et de mise à niveau, YaST est en mesure de se mettre à jour lui-même pour résoudre des bogues au niveau du programme d'installation qui ont été découverts après la publication. Par défaut, cette fonctionnalité est activée. Pour la désactiver, définissez le paramètre de démarrage self_update sur 0 . Pour plus d'informations, reportez-vous à la Section 6.2.3.6, « Activation de la mise à jour automatique du programme d'installation ».

Bien que cette fonctionnalité ait été conçue pour s'exécuter sans intervention de l'utilisateur, il est utile de savoir comment elle fonctionne. Si cela ne vous intéresse pas, vous pouvez passer directement à la Section 6.5, « Langue, clavier et accord de licence » et ignorer le reste de cette section.

Astuce
Astuce : sélection de la langue

La mise à jour automatique du programme d'installation est exécutée avant l'étape de sélection de la langue. Cela signifie que les messages qui apparaissent au cours de ce processus concernant la progression de l'opération et les erreurs sont en anglais par défaut.

Pour utiliser une autre langue dans cette partie du programme d'installation, appuyez sur la touche F2 dans le menu de démarrage du DVD et sélectionnez la langue dans la liste. Vous pouvez également utiliser le paramètre de démarrage language (par exemple, language=fr_FR).

6.4.1 Processus de mise à jour automatique

Le processus peut être décomposé en deux parties différentes :

  1. Détermination de l'emplacement du dépôt de mise à jour.

  2. Téléchargement et application des mises à jour au système d'installation.

6.4.1.1 Détermination de l'emplacement du dépôt de mise à jour

Les mises à jour automatiques du programme d'installation sont distribuées sous la forme de paquetages RPM réguliers par le biais d'un dépôt dédié, de sorte que la première étape consiste à trouver l'URL du dépôt.

Important
Important : uniquement le dépôt de mise à jour automatique du programme d'installation

Quelles que soient les options suivantes que vous utilisez, seule l'URL du dépôt de mise à jour automatique du programme d'installation est attendue, par exemple :

self_update=https://www.example.com/my_installer_updates/

Ne fournissez pas l'URL d'un autre dépôt, par exemple celle du dépôt de mise à jour du logiciel.

YaST essaie les sources d'informations suivantes :

  1. Le paramètre de démarrage self_update. (Pour plus de détails, reportez-vous à la Section 6.2.3.6, « Activation de la mise à jour automatique du programme d'installation ».) Si vous spécifiez une URL, elle prévaudra sur toute autre méthode.

  2. L'élément de profil /general/self_update_url si vous utilisez AutoYaST.

  3. Un serveur d'enregistrement. YaST interroge le serveur d'enregistrement de l'URL. Le serveur à utiliser est déterminé dans l'ordre suivant :

    1. Évaluation du paramètre de démarrage regurl (Section 6.2.3.1, « Spécification de données pour l'accès à un serveur SMT »).

    2. Évaluation de l'élément de profil /suse_register/reg_server si vous utilisez AutoYaST.

    3. Recherche SLP. Si un serveur SLP est détecté, YaST vous demande s'il doit être utilisé, car aucune authentification n'est appliquée et tout utilisateur du réseau local peut annoncer un serveur d'enregistrement.

    4. Interrogation du SUSE Customer Center.

  4. Si aucune des précédentes tentatives n'a fonctionné, le système utilise l'URL de secours (définie sur le support d'installation).

6.4.1.2 Téléchargement et application des mises à jour

Lorsque le dépôt de mise à jour est déterminé, YaST vérifie si une mise à jour est disponible. Si c'est le cas, toutes les mises à jour sont téléchargées et appliquées au système d'installation.

Enfin, YaST redémarre pour charger la nouvelle version et l'écran de bienvenue s'affiche. Si aucune mise à jour n'est disponible, l'installation continuera sans redémarrer YaST.

Note
Note : intégrité de la mise à jour

Les signatures des mises à jour sont vérifiées afin de garantir l'identité de l'auteur et l'intégrité. Si une signature est manquante ou non valide, le système vous demande si vous souhaitez appliquer la mise à jour.

6.4.2 mise en réseau au cours de la mise à jour automatique

Pour télécharger les mises à jour du programme d'installation, YaST a besoin d'un accès réseau. Par défaut, il tente d'utiliser le protocole DHCP sur toutes les interfaces réseau. Si le réseau comporte un serveur DHCP, cela fonctionne automatiquement.

Si vous avez besoin d'une configuration d'adresse IP statique, vous pouvez utiliser l'argument de démarrage ifcfg. Pour plus de détails, consultez la documentation de linuxrc à l'adresse https://en.opensuse.org/Linuxrc.

6.4.3 Dépôts de mise à jour automatique personnalisés

YaST peut utiliser un dépôt défini par l'utilisateur au lieu du dépôt officiel. Pour ce faire, une URL doit être spécifiée par le biais de l'option de démarrage self_update. Tenez toutefois compte des points suivants :

  • Seuls les dépôts HTTP/HTTPS et FTP sont pris en charge.

  • Seuls les dépôts RPM-MD sont pris en charge (requis par SMT).

  • Les paquetages ne sont pas installés selon le processus habituel : ils sont uniquement décompressés et aucun script n'est exécuté.

  • Aucune vérification de dépendance n'est effectuée. Les paquetages sont installés dans l'ordre alphabétique.

  • Les fichiers des paquetages remplacent les fichiers du support d'installation d'origine. Cela signifie que les paquetages de mise à jour ne contiennent pas tous les fichiers, mais uniquement ceux qui ont changé. Les fichiers inchangés sont omis de manière à économiser de la mémoire et de la bande passante.

Note
Note : un seul dépôt

Actuellement, il n'est pas possible d'utiliser plusieurs dépôts comme sources pour les mises à jour automatiques du programme d'installation.

6.5 Langue, clavier et accord de licence

Commencez l'installation de SUSE Linux Enterprise Server par le choix de votre langue. La modification de la langue a pour conséquence la présélection de la disposition du clavier correspondante. Vous pouvez remplacer cette disposition de clavier en en sélectionnant une autre dans le menu déroulant. La langue choisie détermine également le fuseau horaire à utiliser pour l'horloge système. Ce paramètre pourra être modifié ultérieurement sur le système installé, comme décrit au Chapitre 17, Modification des paramètres de langue et de pays avec YaST.

Lisez attentivement l'accord de licence affiché sous la sélection de la langue et du clavier. Cliquez sur Traductions de la licence pour accéder aux traductions de la licence. Si vous acceptez les termes contractuels, cochez J'accepte les conditions de la licence, puis cliquez sur Suivant pour poursuivre l'installation. Si vous n'acceptez pas l'accord de licence, vous ne pourrez pas installer SUSE Linux Enterprise Server ; cliquez sur Interrompre pour mettre fin à l'installation.

Langue, clavier et accord de licence
Figure 6.3 : Langue, clavier et accord de licence

6.6 IBM Z : activation du disque

Lors de l'installation sur les plates-formes IBM Z, la boîte de dialogue de sélection de la langue est suivie d'une boîte de dialogue permettant de configurer les disques durs connectés. Sélectionnez DASD, Disques SCSI Fibre Channel connectés (zFCP) ou iSCSI pour l'installation de SUSE Linux Enterprise Server. Les boutons de configuration DASD et zFCP ne sont disponibles que si les périphériques correspondants sont connectés. Pour plus d'informations sur la configuration de disques iSCSI, reportez-vous au Book “Storage Administration Guide”, Chapter 14 “Mass Storage over IP Networks: iSCSI”, Section 14.3 “Configuring iSCSI Initiator”.

Vous pouvez également Modifier la configuration réseau dans cet écran en ouvrant la boîte de dialogue Paramètres réseau. Sélectionnez une interface réseau dans la liste et cliquez ensuite sur Modifier pour en modifier les paramètres. Utilisez les onglets pour configurer les paramètres DNS et de routage. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 17 “Basic Networking”, Section 17.4 “Configuring a Network Connection with YaST”.

Activation du disque
Figure 6.4 : Activation du disque

6.6.1 Configuration des disques DASD

Après avoir sélectionné Configurer les disques DASD, une vue d'ensemble liste tous les DASD disponibles. Pour obtenir une image claire des périphériques disponibles, utilisez la zone de texte située au-dessus de la liste pour spécifier la plage des canaux à afficher. Pour filtrer la liste selon cette plage, sélectionnez Filtre.

Sélection d'un DASD
Figure 6.5 : IBM Z : sélection d'un DASD

Spécifiez les DASD à utiliser pour l'installation en sélectionnant les entrées correspondantes dans la liste. Cliquez sur Sélectionner tout pour sélectionner tous les disques DASD affichés. Activez les disques DASD sélectionnés et mettez-les à disposition en vue de l'installation en cliquant sur Procéder à l'action › Activer. Pour formater les disques DASD, sélectionnez Procéder à l'action › Formater. Vous pouvez également utiliser le partitionneur de YaST ultérieurement, comme décrit à la Section 12.1, « Utilisation de l'outil de partitionnement de YaST ».

6.6.2 Configuration des disques zFCP

Pour utiliser des disques zFCP dans le cadre de l'installation de SUSE Linux Enterprise Server, sélectionnez Configurer des disques zFCP dans la boîte de dialogue de sélection. Cette option ouvre une boîte de dialogue répertoriant les disques ZFCP disponibles sur le système. Dans cette boîte de dialogue, sélectionnez Ajouter pour ouvrir une autre boîte de dialogue dans laquelle entrer les paramètres zFCP.

Pour mettre à disposition un disque zFCP pour l'installation de SUSE Linux Enterprise Server, choisissez un Numéro de canal disponible dans la liste déroulante. Obtenir des WWPN (identifiant unique du port) et Obtenir des LUN (identifiant d'unité logique) génèrent des listes avec les WWPN et FCP-LUN disponibles parmi lesquels choisir. L'analyse automatique des LUN fonctionne uniquement lorsque NPIV est activé.

Une fois que vous avez terminé, quittez la boîte de dialogue zFCP en cliquant sur Suivant et la boîte de dialogue de configuration générale de disque dur en cliquant sur Terminer pour passer au reste de la configuration.

6.7 Paramètres réseau

Après avoir démarré dans l'installation, la routine d'installation est configurée. Au cours de cette opération, une tentative de configuration d'au moins une interface réseau avec DHCP est effectuée. Si cette tentative échoue, la boîte de dialogue Paramètres réseau s'ouvre. Sélectionnez une interface réseau dans la liste et cliquez ensuite sur Modifier pour en modifier les paramètres. Utilisez les onglets pour configurer les paramètres DNS et de routage. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 17 “Basic Networking”, Section 17.4 “Configuring a Network Connection with YaST”. Sur IBM Z, cette boîte de dialogue ne s'ouvre pas automatiquement. Vous pouvez l'ouvrir au cours de l'étape Activation du disque.

Si le protocole DHCP a été configuré correctement au cours de l'étape d'installation, vous pouvez également accéder à cette boîte de dialogue en cliquant sur Configuration réseau à l'étape Enregistrement auprès du SUSE Customer Center. Cela vous permet de modifier les paramètres fournis automatiquement.

Note
Note : interface réseau configurée via linuxrc

Si au moins une interface réseau est configurée via linuxrc, la configuration automatique DHCP est désactivée et la configuration de linuxrc est importée et utilisée.

Paramètres réseau
Figure 6.6 : Paramètres réseau
Astuce
Astuce : accès au stockage réseau ou au système RAID local

Pour accéder à un SAN ou un système RAID local lors de l'installation, vous pouvez utiliser le client de ligne de commande libstorage :

  1. Basculez vers une console à l'aide de la combinaison de touches CtrlAltF2.

  2. Installez l'extension libstoragemgmt en exécutant extend libstoragemgmt.

  3. Vous avez à présent accès à la commande lsmcli. Pour plus d'informations, exécutez lsmcli --help.

  4. Pour retourner dans le programme d'installation, appuyez sur AltF7.

Sont pris en charge tous les fournisseurs SAN compatibles SMI-S, ainsi que Netapp Ontap et LSI MegaRAID.

6.8 Enregistrement auprès du SUSE Customer Center

Pour obtenir un support technique et les mises à jour des produits, vous devez enregistrer et activer vos produits auprès du SUSE Customer Center. L'enregistrement de SUSE Linux Enterprise Server vous octroie désormais un accès immédiat au dépôt des mises à jour. Cela vous permet d'installer le système avec les mises à jour et les correctifs les plus récents. Si vous êtes hors ligne ou si vous souhaitez ignorer cette étape, sélectionnez Ignorer l'enregistrement. Par la suite, vous pourrez enregistrer votre système à tout moment à partir du système installé.

Note
Note : configuration réseau

Après avoir démarré dans l'installation, la routine d'installation est configurée. Au cours de cette opération, une tentative de configuration de toutes les interfaces réseau avec DHCP est effectuée. Si le protocole DHCP n'est pas disponible ou si vous souhaitez modifier la configuration réseau, cliquez sur Configuration réseau dans le coin supérieur droit de l'écran Enregistrement auprès du SUSE Customer Center. Le module Paramètres réseau de YaST s'ouvre. Reportez-vous au Book “Administration Guide”, Chapter 17 “Basic Networking”, Section 17.4 “Configuring a Network Connection with YaST” pour plus d'informations.

Enregistrement sur le SUSE Customer Center
Figure 6.7 : Enregistrement auprès du SUSE Customer Center

Pour enregistrer votre système, indiquez l'Adresse électronique associée au compte SUSE que vous ou votre entreprise utilisez pour gérer les abonnements. Si vous ne disposez pas encore de compte SUSE, rendez-vous sur la page d'accueil du SUSE Customer Center (https://scc.suse.com/) pour en créer un.

Entrez le Code d'enregistrement que vous avez reçu avec votre exemplaire de SUSE Linux Enterprise Server. YaST peut également lire les codes d'enregistrement à partir d'un périphérique de stockage USB, tel qu'un disque Flash. Pour plus de détails, reportez-vous à la Section 6.8.1, « Chargement des codes d'enregistrement à partir du périphérique de stockage USB ».

Appuyez sur Suivant pour lancer la procédure d'enregistrement. Si un ou plusieurs serveurs d'enregistrement locaux sont disponibles sur votre réseau, vous pouvez en sélectionner un dans la liste. Par défaut, SUSE Linux Enterprise Server est enregistré auprès du SUSE Customer Center SUSE. Si votre serveur d'enregistrement local n'a pas été découvert automatiquement, sélectionnez Annuler, puis Enregistrer le système via le serveur SMT local et entrez l'URL de ce dernier. Redémarrez l'enregistrement en cliquant de nouveau sur Suivant.

Au cours de l'enregistrement, les dépôts de mises à jour en ligne sont ajoutés à la configuration de votre installation. Une fois l'opération terminée, vous pouvez choisir d'installer les versions de paquetage les plus récentes disponibles à partir de ces dépôts. Vous aurez ainsi la garantie que SUSE Linux Enterprise Server dispose des mises à jour de sécurité les plus récentes. Si vous cliquez sur Non, tous les paquetages sont installés à partir du support d'installation. Cliquez ensuite sur Suivant.

Si le système a bien été enregistré pendant l'installation, YaST désactive les dépôts du support d'installation local (tel qu'un CD/DVD ou des disques Flash) une fois l'installation terminée. Cela évite des problèmes si la source d'installation n'est plus disponible et vous permet de toujours obtenir les mises à jour les plus récentes à partir des dépôts en ligne.

Astuce
Astuce : notes de version

À partir de maintenant, les notes de version peuvent être consultées sur n'importe quel écran au cours du processus d'installation en sélectionnant Notes de version.

6.8.1 Chargement des codes d'enregistrement à partir du périphérique de stockage USB

Pour faciliter l'enregistrement, vous pouvez également stocker les codes d'enregistrement sur un périphérique de stockage USB, tel qu'un disque Flash. YaST préremplit automatiquement la zone de texte correspondante. Cela est particulièrement utile lors du test de l'installation ou si vous devez enregistrer un grand nombre de systèmes ou extensions.

Note
Note : limites

Pour l'instant, les disques Flash sont analysé uniquement lors d'une installation ou d'une mise à niveau, pas lors de l'enregistrement d'un système en cours d'exécution.

Créez un fichier nommé regcodes.txt ou regcodes.xml sur le disque USB. Si les deux fichiers sont présents, le fichier XML est prioritaire.

Dans ce fichier, identifiez le produit avec le nom renvoyé par la commande rypper search --type product et assignez-lui un code d'enregistrement comme suit :

Exemple 6.1 : regcodes.txt
SLES    cc36aae1
SLED    309105d4

sle-we  5eedd26a
sle-live-patching 8c541494
Exemple 6.2 : regcodes.xml
<?xml version="1.0"?>
<profile xmlns="http://www.suse.com/1.0/yast2ns"
 xmlns:config="http://www.suse.com/1.0/configns">
  <suse_register>
    <addons config:type="list">
      <addon>
<name>SLES</name>
<reg_code>cc36aae1</reg_code>
      </addon>
      <addon>
<name>SLED</name>
<reg_code>309105d4</reg_code>
      </addon>
      <addon>
<name>sle-we</name>
<reg_code>5eedd26a</reg_code>
      </addon>
      <addon>
<name>sle-live-patching</name>
<reg_code>8c541494</reg_code>
      </addon>
    </addons>
  </suse_register>
</profile>

Notez que SLES et SLED ne sont pas des extensions, mais les répertorier en tant que produits complémentaires permet de combiner plusieurs codes d'enregistrement de produit de base dans un fichier unique. Pour plus de détails, reportez-vous au Book “AutoYaST”, Chapter 4 “Configuration and Installation Options”, Section 4.3.1 “Extensions”.

6.9 Sélection d'extensions

Si l'enregistrement de votre système s'est déroulé correctement au cours de l'étape précédente, la liste des extensions et des modules disponibles pour SUSE Linux Enterprise Server s'affiche. Dans le cas contraire, cette étape de configuration est ignorée. Il est également possible d'ajouter des modules et extensions à partir du système installé, reportez-vous au Chapitre 14, Installation de modules, extensions et produits complémentaires tiers pour plus de détails.

La liste contient des modules gratuits pour SUSE Linux Enterprise Server, tels que le SDK SUSE Linux Enterprise, et des extensions qui nécessitent une clé d'enregistrement payante. Cliquez sur une entrée pour en afficher la description. Sélectionnez un module ou une extension à installer en cochant la case correspondante. Son dépôt est alors ajouté à votre installation à partir du serveur SUSE Customer Center ; aucune autre source d'installation n'est requise. Par ailleurs, le modèle d'installation du module ou de l'extension est ajouté à l'installation par défaut afin d'être installé automatiquement.

La quantité de modules et d'extensions disponibles dépend du serveur d'enregistrement. Il se peut qu'un serveur d'enregistrement local ne propose que des dépôts de mises à jour sans aucune extension supplémentaire.

Astuce
Astuce : modules

Les modules sont des composants de SUSE Linux Enterprise Server bénéficiant d'une prise en charge complète, avec un cycle de vie différent. Ils présentent une étendue clairement définie et sont distribués uniquement via un canal en ligne. L'enregistrement sur le SUSE Customer Center constitue une condition préalable pour pouvoir s'abonner à ces canaux.

Astuce
Astuce : SUSE Linux Enterprise Desktop 

À partir de SUSE Linux Enterprise 12, SUSE Linux Enterprise Desktop n'est plus seulement disponible comme produit distinct, mais aussi en tant qu'extension de poste de travail pour SUSE Linux Enterprise Server. Si vous vous enregistrez auprès du SUSE Customer Center, l'extension SUSE Linux Enterprise Workstation est proposée à des fins d'installation. Son installation nécessite une clé d'enregistrement valide.

Sélection des extensions
Figure 6.8 : Sélection d'extensions

Cliquez sur Suivant pour ouvrir la boîte de dialogue Produit complémentaire, dans laquelle vous pouvez spécifier des sources de produits complémentaires non disponibles sur le serveur d'enregistrement.

Si vous ne souhaitez pas installer de produits complémentaires, cliquez sur Suivant. Dans le cas contraire, cochez la case Je souhaite installer un produit complémentaire. Sélectionnez le type de support parmi les options proposées : CD, DVD, Disque dur, Stockage de masse USB, Répertoire local ou Image ISO locale. Si l'accès au réseau a été configuré, vous avez également le choix parmi des sources distantes supplémentaires, telles que HTTP, SLP, FTP, etc. Une autre solution consiste à indiquer directement une URL. Cochez Télécharger les fichiers de description du dépôt pour télécharger directement les fichiers décrivant le dépôt. Si cette option n'est pas activée, les fichiers seront téléchargés après le lancement de l'installation. Continuez en cliquant sur Suivant et insérez un CD ou DVD si nécessaire.

Selon le contenu du produit complémentaire, vous devrez peut-être accepter des accords de licence supplémentaires. Si vous avez choisi un produit complémentaire qui nécessite une clé d'enregistrement, vous êtes invité à la saisir sur la page Codes d'enregistrement des extensions et modules. Cliquez ensuite sur Suivant.

Produit complémentaire
Figure 6.9 : Produit complémentaire
Astuce
Astuce : erreur « Pas de clé d'enregistrement »

Si vous avez choisi, dans la boîte de dialogue Sélection d'extensions, un produit pour lequel vous ne disposez pas d'une clé d'enregistrement valide, cliquez sur Précédent jusqu'à ce que la boîte de dialogue Sélection d'extensions soit affichée. Désélectionnez le module ou l'extension, puis cliquez sur Suivant. Les modules et extensions peuvent également être installés ultérieurement comme décrit au Chapitre 14, Installation de modules, extensions et produits complémentaires tiers.

6.10 Rôle système

SUSE Linux Enterprise Server prend en charge une vaste gamme de fonctionnalités. Pour simplifier l'installation, YaST propose des cas d'utilisation prédéfinis qui ajustent le système à installer afin qu'il soit adapté au scénario choisi. Actuellement, cette opération affecte le jeu de paquetages et le modèle de partitionnement suggéré.

Choisissez le rôle système qui répond le mieux à vos besoins :

Système par défaut

Choisissez ce scénario lors d'une installation sur une machine réelle ou sur un invité entièrement virtualisé.

Hôte de virtualisation KVM

Sélectionnez ce scénario lors d'une installation sur une machine qui doit servir d'hôte KVM pouvant exécuter d'autres machines virtuelles.

Hôte de virtualisation XEN

Sélectionnez ce scénario lors d'une installation sur une machine qui doit servir d'hôte Xen pouvant exécuter d'autres machines virtuelles.

Sélection d'un rôle système
Figure 6.10 : Sélection d'un rôle système

6.11 Partitionnement proposé

Définissez une configuration de partition pour SUSE Linux Enterprise Server au cours de cette étape. Selon le rôle système, le programme d'installation crée une proposition pour l'un des disques disponibles. Toutes les propositions contiennent une partition racine mise en forme avec Btrfs (avec les instantanés activés) et une partition d'échange. Si vous avez choisi le rôle système Système par défaut à l'étape précédente, une partition privée mise en forme avec XFS sera également créée. Sur les disques durs d'une taille inférieure à 20 Go, la proposition ne comprend pas de partition de démarrage distincte. Si une ou plusieurs partitions d'échange ont été détectées sur les disques durs disponibles, elles sont utilisées (au lieu d'en proposer une nouvelle). Plusieurs options vous sont proposées :

Suivant

Pour accepter la proposition sans y apporter de modifications, cliquez sur Suivant afin de poursuivre le workflow d'installation.

Modifier les paramètres de la proposition

Pour adapter la proposition, sélectionnez Modifier les paramètres de la proposition. La boîte de dialogue contextuelle vous permet de basculer vers une proposition basée sur LVM ou une proposition basée sur LVM chiffrée. Vous pouvez également ajuster les systèmes de fichiers pour les partitions proposées, créer une partition privée distincte et agrandir la partition d'échange (pour activer la mise en veille sur le disque, par exemple).

Si le format du système de fichiers racine est Btrfs, vous pouvez égalementdésactiver les instantanés Btrfs ici.

Créer la configuration de la partition

Utilisez cette option pour déplacer la proposition décrite ci-dessous vers un autre disque. Sélectionnez un disque dans la liste. Si le disque dur choisi ne contient encore aucune partition, toute sa capacité est utilisée pour la proposition. Dans le cas contraire, vous pouvez choisir la ou les partitions à utiliser. L'option Modifier les paramètres de la proposition vous permet de régler la proposition avec précision.

Partitionneur en mode expert

Pour créer une configuration de partition personnalisée, sélectionnez Partitionneur en mode expert. Le partitionneur en mode expert s'ouvre. Il affiche la configuration de partition en cours pour tous les disques durs, y compris la proposition suggérée par le programme d'installation. Vous pouvez à présent Ajouter, Modifier, Redimensionner ou Supprimer des partitions.

Cet outil vous permet également de configurer des volumes logiques (LVM), de configurer l'assignation de volumes RAID logiciels et de périphériques (DM), de coder des partitions, de monter des partages NFS et de gérer des volumes tmpfs. Pour affiner les paramètres, tels que la gestion des instantanés et des sous-volumes pour chaque partition Btrfs, sélectionnez Btrfs. Pour en savoir plus sur le partitionnement personnalisé et sur la configuration des fonctionnalités avancées, reportez-vous à la Section 12.1, « Utilisation de l'outil de partitionnement de YaST ».

Avertissement
Avertissement : partitionnement personnalisé sur des machines UEFI

Une machine UEFI nécessite une partition système EFI qui doit être montée sur /boot/efi. Cette partition doit être formatée avec le système de fichiers FAT.

Si votre système comporte déjà une partition système EFI (issue d'une installation antérieure de Windows, par exemple), vous pouvez l'utiliser en la montant sur /boot/efi sans la formater.

Avertissement
Avertissement : partitionnement personnalisé et Snapper

Par défaut, SUSE Linux Enterprise Server est configuré pour prendre en charge les instantanés, ce qui permet de restaurer les paramètres initiaux du système en cas de besoin. SUSE Linux Enterprise Server utilise Snapper avec Btrfs pour cette fonction. Reportez-vous au Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper” pour obtenir des informations détaillées.

Pour pouvoir créer des instantanés système qui permettent des retours à l'état initial, la plupart des répertoires système doivent être montés sur une seule partition. Reportez-vous au Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper”, Section 7.1 “Default Setup” pour plus d'informations. Les répertoires /usr et /var sont également inclus. Seuls les répertoires qui sont exclus des instantanés (voir Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper”, Section 7.1.2 “Directories That Are Excluded from Snapshots” pour en obtenir la liste) peuvent se trouver sur des partitions distinctes. Cette liste comprend notamment /usr/local, /var/log et /tmp.

Si vous ne prévoyez pas d'utiliser Snapper pour les retours à l'état initial du système, les restrictions de partitionnement mentionnées ci-dessus ne s'appliquent pas.

Important
Important : Btrfs sur une partition racine chiffrée

La configuration par défaut du partitionnement suggère une partition racine de type Btrfs et /boot comme répertoire. Pour chiffrer la partition racine, assurez-vous d'utiliser le type de table de partitions GPT au lieu du type MSDOS par défaut. Dans le cas contraire, le chargeur d'amorçage GRUB2 risque de ne pas disposer de suffisamment d'espace pour celui nécessaire à la deuxième étape.

Note
Note : IBM Z : utilisation de minidisques dans z/VM

Si SUSE Linux Enterprise Server est installé sur des minidisques dans z/VM, qui résident sur le même disque physique, le chemin d'accès des minidisques (/dev/disk/by-id/) n'est pas unique, car il représente l'ID du disque physique. Ainsi, si deux minidisques ou plus sont sur le même disque physique, ils auront tous le même ID.

Pour éviter les problèmes relatifs au montage des minidisques, montez-les toujours par chemin ou par UUID.

Avertissement
Avertissement : IBM Z : système de fichiers racine LVM

Si vous configurez le système avec un système de fichiers racine sur LVM ou une matrice logicielle RAID, vous devez placer /boot sur une partition non-LVM ou non-RAID distincte pour que le système puisse démarrer. La taille recommandée est de 500 Mo pour ce type de partition ; le système de fichiers recommandé est Ext4.

Note
Note : volumes RAID logiciels pris en charge

L'installation sur des volumes RAID logiciels existants est prise en charge pour les volumes DDF (Disk Data Format) et IMSM (Intel Matrix Storage Manager), au même titre que le démarrage à partir de ces volumes. IMSM est également connu sous les noms suivants :

  • Intel Rapid Storage Technology

  • Intel Matrix Storage Technology

  • Intel Application Accelerator / Intel Application Accelerator RAID Edition

Note
Note : points de montage des périphériques FCoE et iSCSI

Les périphériques FCoE et iSCSI apparaissent de manière asynchrone lors du processus de démarrage. Tandis que initrd garantit la configuration adéquate de ces périphériques pour le système de fichiers racine, il n'existe aucune garantie de ce type pour d'autres systèmes de fichiers ou points de montage tels que /usr. Par conséquent, les points de montage de système comme /usr ou /var ne sont pas pris en charge. Pour utiliser ces appareils, assurez-vous que la synchronisation est correcte entre les services et appareils respectifs.

Partitionnement
Figure 6.11 : Partitioning (Partitionnement)

6.12 Horloge et fuseau horaire

Dans cette boîte de dialogue, sélectionnez votre région et votre fuseau horaire. Ces deux paramètres sont prédéfinis en fonction de la langue d'installation. Pour les modifier, utilisez la carte ou les listes déroulantes Région et Fuseau horaire. Si vous choisissez d'utiliser la carte, placez le curseur de la souris près de votre pays et cliquez pour faire un zoom. Choisissez maintenant votre pays ou région en cliquant dessus. Cliquez avec le bouton droit pour faire un zoom arrière.

Pour configurer l'horloge, choisissez si l'Horloge matérielle [est] définie sur UTC ou non. Si un autre système d'exploitation est exécuté sur votre machine, par exemple Microsoft Windows, il est probable que votre système utilise plutôt l'heure locale. Si Linux est exécuté sur votre machine, définissez l'horloge matérielle sur UTC et demandez que le changement entre heure standard et heure d'été se fasse automatiquement.

Important
Important : réglage de l'horloge matérielle sur UTC

Le passage de l'heure standard à l'heure d'été (et inversement) ne peut être effectué automatiquement que si l'horloge matérielle (horloge CMOS) est réglée sur UTC. Cela s'applique également si vous utilisez la synchronisation horaire automatique avec NTP. En effet, la synchronisation automatique n'est effectuée que si la différence d'heure entre l'horloge matérielle et l'horloge système est inférieure à 15 minutes.

Comme une heure système erronée peut engendrer des problèmes sérieux (sauvegardes manquées, messages perdus, erreurs de montage sur les systèmes de fichiers distants, etc.), il est fortement recommandé de toujours régler l'horloge matérielle sur UTC.

Horloge et fuseau horaire
Figure 6.12 : Horloge et fuseau horaire

POWER, AMD/Intel Si un réseau est déjà configuré, vous pouvez configurer la synchronisation horaire à l'aide d'un serveur NTP. Cliquez sur Autres paramètres pour modifier les paramètres NTP ou pour régler l'heure Manuellement. Pour plus d'informations sur la configuration du service NTP, reportez-vous au Book “Administration Guide”, Chapter 26 “Time Synchronization with NTP”. Lorsque vous avez terminé, cliquez sur Accepter pour continuer l'installation.

POWER, AMD/Intel Dans le cadre d'une exécution dans laquelle NTP n'est pas configuré, pensez à définir le paramètre SYSTOHC=no (variable sysconfig) afin d'éviter d'enregistrer une heure non synchronisée dans l'horloge matérielle.

Note
Note : impossible de modifier l'heure sur IBM Z

Puisque le système d'exploitation n'est pas autorisé à modifier directement la date et l'heure, l'option Autres paramètres n'est pas disponible sur IBM Z.

6.13 Création d'un utilisateur

Vous pouvez créer un utilisateur local au cours de cette étape. Après avoir saisi le prénom et le nom, vous pouvez soit accepter la proposition, soit spécifier un nouveau Nom d'utilisateur à utiliser pour la connexion. N'utilisez que des lettres minuscules (a-z), des chiffres (0-9) et les caractères . (point), - (tiret) et _ (caractère de soulignement). Les caractères spéciaux, trémas et caractères accentués ne sont pas autorisés.

Pour finir, entrez un mot de passe pour l'utilisateur. Saisissez-le une seconde fois pour confirmer (et vous assurer que vous n'avez pas commis d'erreur de frappe). Afin d'assurer une sécurité optimale, le mot de passe doit contenir au moins six caractères et être composé de lettres majuscules et minuscules, de chiffres et de caractères spéciaux (ASCII 7 bits). Les umlauts et les caractères accentués ne sont pas autorisés. Les mots de passe que vous saisissez sont vérifiés afin de s'assurer qu'ils apportent une sécurité suffisante. Si vous choisissez un mot de passe facile à deviner, comme un mot du dictionnaire ou un nom, un avertissement s'affiche. Pour une question de sécurité, il est fortement conseillé d'utiliser des mots de passe compliqués.

Important
Important : nom d'utilisateur et mot de passe

Mémorisez votre nom d'utilisateur et votre mot de passe, car tous deux vous seront demandés chaque fois que vous vous connecterez au système.

Si vous installez SUSE Linux Enterprise Server sur une machine avec une ou plusieurs installations Linux existantes, YaST vous permet d'importer des données utilisateur telles que des noms d'utilisateur et des mots de passe. Sélectionnez Importer les données utilisateur à partir d'une installation précédente, puis Sélectionner des utilisateurs pour l'importation.

Si vous ne souhaitez pas configurer d'utilisateurs locaux (lors de la configuration d'un client sur un réseau pourvu d'une authentification centralisée des utilisateurs, par exemple), ignorez cette étape en sélectionnant Suivant et en acceptant l'avertissement. L'authentification des utilisateurs réseau pourra être configurée ultérieurement sur le système installé ; pour plus d'informations à ce sujet, reportez-vous au Chapitre 16, Gestion des utilisateurs avec YaST.

Création d'un utilisateur
Figure 6.13 : Création d'un utilisateur

Vous disposez de deux possibilités supplémentaires :

Utiliser ce mot de passe pour l'administrateur système

Si cette option est sélectionnée, le mot de passe saisi pour l'utilisateur est également utilisé pour l'administrateur système root. Cette option convient pour les machines ou postes de travail autonomes situés dans un réseau domestique administré par un seul utilisateur. Si cette option n'est pas sélectionnée, vous êtes invité à saisir un mot de passe administrateur au cours de l'étape suivante de la procédure d'installation (voir la Section 6.14, « Mot de passe de l'administrateur système root »).

Connexion automatique

Cette option connecte automatiquement l'utilisateur actuel au système lors du démarrage. Cela est surtout utile si l'ordinateur ne sert qu'à un seul utilisateur. Pour que la connexion automatique fonctionne, cette option doit être activée de façon explicite.

6.13.1 Paramètres pour experts

Cliquez sur Modifier dans la boîte de dialogue de création d'un utilisateur pour importer des utilisateurs d'une installation précédente (le cas échéant). Dans cette boîte de dialogue, modifiez aussi le type de codage du mot de passe.

La méthode d'authentification par défaut est Local (/etc/passwd). Si une version antérieure de SUSE Linux Enterprise Server ou un autre système utilisant /etc/passwd est détecté, vous pouvez importer des utilisateurs locaux. Pour cela, cochez la case Lire les données utilisateurs à partir d'une installation précédente, puis cliquez sur Choisir. Dans la boîte de dialogue suivante, sélectionnez les utilisateurs à importer et terminez l'opération en cliquant sur OK.

Par défaut, les mots de passe sont codés à l'aide de la fonction de hachage SHA-512. Il est déconseillé de changer de méthode, sauf si cela s'avère nécessaire pour des raisons de compatibilité.

6.14 Mot de passe de l'administrateur système root

Si vous n'avez pas sélectionné l'option Utiliser ce mot de passe pour l'administrateur du système au cours de l'étape précédente, vous êtes invité à saisir un mot de passe pour l'administrateur système root. Dans le cas contraire, cette étape de configuration est ignorée.

root est le nom du superutilisateur ou de l'administrateur du système. Contrairement aux utilisateurs ordinaires, root a des droits illimités pour la modification de la configuration du système, l'installation des programmes et la configuration du nouveau matériel. Si des utilisateurs oublient leur mot de passe ou rencontrent d'autres difficultés avec leur système, root peut les aider. Le compte root ne doit être utilisé que pour l'administration du système, la maintenance et les réparations. Se connecter en tant que root pour les tâches quotidiennes présente certains risques. Une seule erreur peut, en effet, provoquer la perte irrémédiable de fichiers système.

À des fins de vérification, le mot de passe root doit être saisi deux fois. N'oubliez pas le mot de passe root. Une fois défini, ce mot de passe ne peut pas être récupéré.

Mot de passe de l'administrateur système root
Figure 6.14 : Mot de passe de l'administrateur système root
Astuce
Astuce : mots de passe et disposition du clavier

Il est conseillé de n'utiliser que les caractères disponibles sur un clavier anglais. En cas d'erreur système ou s'il s'avère nécessaire de démarrer le système en mode de secours, il se peut qu'un clavier localisé ne soit pas disponible.

Le mot de passe root pourra être modifié à tout moment sur le système installé. Pour ce faire, exécutez YaST, puis sélectionnez Sécurité et Utilisateurs › Gestion des groupes et des utilisateurs.

Important
Important : utilisateur root

L'utilisateur root possède toutes les permissions requises pour apporter des modifications au système. Le mot de passe root est requis pour effectuer ce type d'opérations. Aucune tâche administrative n'est possible sans ce mot de passe.

6.15 Paramètres d'installation

Lors de la dernière étape avant l'installation, vous pouvez modifier les paramètres proposés par le programme d'installation. Pour modifier les propositions, cliquez sur le titre approprié. Après avoir modifié un paramètre, vous revenez systématiquement à la fenêtre Paramètres d'installation, laquelle est mise à jour en conséquence.

Paramètres d'installation
Figure 6.15 : Paramètres d'installation

6.15.1 Logiciel

SUSE Linux Enterprise Server comporte plusieurs modèles de logiciels correspondant à divers types d'applications. Cliquez sur Logiciel pour afficher l'écran Tâches système et sélection de logiciels dans lequel vous pouvez modifier la sélection du modèle suivant vos besoins. Sélectionnez un modèle dans la liste. La description correspondante s'affiche alors dans la partie droite de la fenêtre. Chaque modèle contient plusieurs paquetages logiciels nécessaires pour des fonctions spécifiques (serveur Web et LAMP ou serveur d'impression, par exemple). Pour une sélection plus détaillée des paquetages logiciels à installer, sélectionnez Détails afin de basculer vers le gestionnaire de logiciels de YaST.

Vous pouvez également installer des paquetages logiciels supplémentaires ou en supprimer de votre système quand vous le souhaitez grâce au gestionnaire de logiciels de YaST. Pour plus d'informations, reportez-vous au Chapitre 13, Installation et suppression de logiciels.

Tâches système et sélection de logiciels
Figure 6.16 : Tâches système et sélection de logiciels
Note
Note : environnement de bureau graphique

Par défaut, SUSE Linux Enterprise Server est installé avec X Window et l'environnement de bureau GNOME. Si vous n'avez pas besoin de X Window, désélectionnez les deux modèles correspondants sur l'écran Tâches système et sélection de logiciels. Vous pouvez également installer le gestionnaire de fenêtres léger IceWM à la place de GNOME. Sélectionnez Détails dans l'écran Tâches système et sélection de logiciels et recherchez icewm.

Astuce
Astuce : IBM Z : prise en charge de la cryptographie matérielle

La pile de cryptographie matérielle n'est pas installée par défaut. Pour l'installer, sélectionnez System z HW crypto support (System z : prise en charge du codage matériel) dans l'écran Tâches système et sélection de logiciels.

Astuce
Astuce : ajout de langues secondaires

La langue sélectionnée lors de la première étape de l'installation est utilisée comme langue principale (par défaut) pour le système. Vous pouvez ajouter des langues secondaires à partir de la boîte de dialogue Logiciel en sélectionnant Détails › Afficher › Langues.

6.15.2 Démarrage

Le programme d'installation propose une configuration de démarrage pour votre système. Les autres systèmes d'exploitation de votre ordinateur, comme Microsoft Windows ou d'autres installations Linux, sont détectés et ajoutés automatiquement au chargeur de démarrage. Cependant, SUSE Linux Enterprise Server démarre par défaut. Vous pouvez normalement adopter les réglages proposés sans modification. Si une configuration personnalisée est nécessaire, modifiez les paramètres proposés suivant vos besoins. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 13 “The Boot Loader GRUB 2”, Section 13.3 “Configuring the Boot Loader with YaST”.

Important
Important : RAID 1 logiciel

Le démarrage d'une configuration dans laquelle /boot réside sur un périphérique RAID 1 logiciel est pris en charge, mais nécessite d'installer le chargeur d'amorçage dans le MBR (Emplacement du chargeur d'amorçage › Amorcer à partir du secteur d'amorçage principal). Le répertoire /boot n'est pas pris en charge sur des périphériques RAID logiciels dont le niveau n'est pas RAID 1. Reportez-vous également au Book “Storage Administration Guide”, Chapter 8 “Configuring Software RAID for the Root Partition”.

6.15.3 Sécurité

Les atténuations d'UC font référence aux paramètres de la ligne de commande de démarrage du kernel pour les atténuations logicielles déployées afin d'empêcher les attaques d'UC par canal auxiliaire. Cliquez sur l'entrée en surbrillance pour choisir une autre option. Pour plus de détails, consultez le Book “Administration Guide”, Chapter 13 “The Boot Loader GRUB 2” CPU Mitigations (« Guide d'AutoYaST », chapitre 4 « Options de configuration et d'installation », Section 4.10 « Mise à niveau »).

Par défaut, SuSEfirewall2 est activé sur toutes les interfaces réseau configurées. Pour désactiver complètement le pare-feu sur cet ordinateur, cliquez sur Désactiver (déconseillé).

Note
Note : paramètres de pare-feu

Si le pare-feu est activé, toutes les interfaces sont configurées de manière à figurer dans la « Zone externe » (où tous les ports sont fermés par défaut), ce qui garantit un maximum de sécurité. Le seul port que vous pouvez ouvrir au cours de l'installation est le port 22 (SSH), afin d'autoriser l'accès distant. Tous les autres services qui nécessitent un accès réseau (tels que FTP, Samba, Serveur Web, etc.) ne fonctionneront qu'une fois les paramètres du pare-feu correctement configurés. Reportez-vous au Book “Security and Hardening Guide”, Chapter 16 “Masquerading and Firewalls” pour plus d'informations.

Pour activer l'accès distant via Secure Shell (SSH), assurez-vous que l'option Service SSH est activée et que le Port SSH est ouvert.

Astuce
Astuce : clés d'hôte SSH existantes

Si vous installez SUSE Linux Enterprise Server sur un ordinateur comportant des installations Linux existantes, la procédure d'installation importe une clé d'hôte SSH. Par défaut, elle choisit la clé d'hôte avec l'heure d'accès la plus récente. Voir également Section 6.15.7, « Importation des clés d'hôte SSH et de la configuration ».

Si vous effectuez une administration à distance via VNC, vous pouvez également déterminer si la machine doit être accessible via VNC après l'installation. Notez que lors de l'activation de VNC, vous devez également définir Default systemd Target (Cible systemd par défaut) sur graphique.

6.15.4 Kdump

Kdump vous permet d'enregistrer un dump du kernel et analyser ce qui s'est passé (en cas de problème). Utilisez cette boîte de dialogue pour activer et configurer Kdump. Pour plus d'informations, reportez-vous au Book “System Analysis and Tuning Guide”, Chapter 17 “Kexec and Kdump”.

6.15.5 IBM Z : placement des périphériques sur liste noire

Pour économiser de la mémoire, tous les canaux des périphériques qui ne sont pas utilisés sont, par défaut, repris sur une liste noire (chaque canal qui n'est pas placé dans une liste noire occupe environ 50 Ko de mémoire). Pour configurer du matériel supplémentaire sur le système installé à l'aide des canaux placés en liste noire, exécutez le module YaST approprié afin d'activer d'abord les canaux correspondants.

Pour désactiver le placement des canaux en liste noire, cliquez sur Désactiver.

6.15.6 Cible systemd par défaut

SUSE Linux Enterprise Server peut démarrer dans deux cibles différentes (connues précédemment sous le nom de « runlevels »). La cible graphique lance un gestionnaire d'affichage, tandis que la cible multi-utilisateur démarre l'interface de ligne de commande.

La cible par défaut est graphique. Si vous n'avez pas installé les modèles X Window System, vous devez définir la cible sur multi-utilisateur. Si le système doit être accessible via VNC, vous devez choisir l'option graphique.

6.15.7 Importation des clés d'hôte SSH et de la configuration

Si une installation existante de Linux a été détectée sur votre ordinateur, YaST importe la clé d'hôte SSH la plus récente dans /etc/ssh par défaut, éventuellement avec d'autres fichiers inclus dans le répertoire. Cela permet de réutiliser l'identité SSH de l'installation existante, afin d'éviter l'avertissement REMOTE HOST IDENTIFICATION HAS CHANGED (L'IDENTIFICATION DE L'HÔTE DISTANT A ÉTÉ MODIFIÉE) lors de la première connexion. Notez que cet élément ne figure pas dans le résumé de l'installation si YaST n'a pas découvert d'autres installations.

Importation des clés d'hôte SSH et de la configuration
Figure 6.17 : Importation des clés d'hôte SSH et de la configuration
I would like to import SSH keys from a previous install (J'aimerais importer les clés SSH à partir d'une précédente installation)

Sélectionnez cette option si vous souhaitez importer la clé d'hôte SSH et éventuellement la configuration d'un système installé. Vous pouvez sélectionner l'installation à partir de laquelle effectuer l'importation dans la liste d'option ci-dessous.

Import SSH Configuration (Importer la configuration SSH)

Activez cette option pour copier d'autres fichiers contenus dans /etc/ssh vers le système installé, en plus des clés d'hôte.

6.15.8 Informations système

Cet écran répertorie toutes les informations matérielles que le programme d'installation a pu obtenir au sujet de votre ordinateur. La détection du matériel est lancée lors de l'ouverture initiale. Selon votre système, cela peut prendre quelques minutes. Pour plus d'informations sur un élément donné, sélectionnez cet élément dans la liste et cliquez sur Détails. Cliquez sur Save to File (Enregistrer dans un fichier) pour enregistrer une liste détaillée sur un système de fichiers local ou sur un périphérique amovible.

Les utilisateurs expérimentés peuvent également modifier la Configuration d'ID PCI et les paramètres du kernel en sélectionnant Paramètres du kernel. Un écran contenant deux onglets est alors affiché.

Configuration des ID PCI

Chaque pilote de kernel contient une liste d'ID de tous les périphériques qu'il prend en charge. Si un nouveau périphérique ne se trouve dans aucune base de données du pilote, le périphérique est considéré comme non pris en charge, même s'il peut être utilisé par un pilote existant. Vous pouvez ajouter des ID PCI ici. Cette opération est toutefois réservée aux utilisateurs expérimentés.

Pour ajouter un ID, cliquez sur Ajouter, puis indiquez si les données doivent être saisies Manuellement ou sélectionnées dans une liste. Entrez les données requises. SysFS Dir est le nom du répertoire provenant de /sys/bus/pci/drivers ; s'il est vide, driver est utilisé. Les entrées existantes peuvent être gérées à l'aide des options Modifier et Supprimer.

Paramètres du kernel

Vous pouvez modifier le Planificateur d'E/S global à cet endroit. Si l'option Non configuré est sélectionnée, le paramètre par défaut de l'architecture correspondante est utilisé. Vous pourrez également modifier ce paramètre ultérieurement à partir du système installé. Pour plus d'informations sur le réglage des E/S, reportez-vous au Book “System Analysis and Tuning Guide”, Chapter 12 “Tuning I/O Performance”.

Vous pouvez également activer l'option Enable SysRq Keys (Activer les clés SysRq) ici. Ces clés vous permettent également d'émettre des commandes de base (telles qu'un redémarrage du système ou une écriture de dumps de kernel) en cas de crash système. Il est conseillé d'activer ces clés dans le cadre du développement de kernel. Reportez-vous au chapitre https://www.kernel.org/doc/html/latest/admin-guide/sysrq.html pour obtenir des informations détaillées.

6.16 Réalisation de l'installation

Après avoir configuré tous les paramètres d'installation, cliquez sur Installer dans la fenêtre Paramètres d'installation pour commencer l'installation. Des logiciels peuvent nécessiter une confirmation de licence. Si votre sélection de logiciels en inclut, les boîtes de dialogue de confirmation de licence s'affichent. Cliquez sur Accepter pour installer le paquetage logiciel. Si vous n'acceptez pas les conditions d'utilisation de la licence, cliquez sur Je refuse et le paquetage logiciel ne sera pas installé. Dans la boîte de dialogue suivante, confirmez l'installation en cliquant de nouveau sur Installer.

L'installation dure généralement entre 15 et 30 minutes, selon les performances de votre système et les logiciels sélectionnés. Après avoir préparé le disque dur, enregistré et restauré les paramètres utilisateurs, l'installation logicielle commence. Au cours de cette procédure, un diaporama vous présente les fonctionnalités de SUSE Linux Enterprise Server. Sélectionnez Détails pour basculer vers le journal d'installation ou Notes de version pour lire des informations importantes et à jour qui n'étaient pas disponibles au moment de l'impression des manuels.

Une fois l'installation du logiciel terminée, le système redémarre dans la nouvelle installation, où vous pouvez vous connecter. Pour personnaliser la configuration du système ou installer des paquetages supplémentaires, démarrez YaST.

Note
Note : installation en une étape

À partir de la version 12 de SUSE Linux Enterprise Server, l'installation, la configuration de base du système ainsi que la configuration du réseau s'effectuent en une seule étape. Après avoir redémarré le système installé, vous pouvez vous connecter et commencer à utiliser le système. Si vous souhaitez adapter la configuration, configurer des services ou installer des logiciels supplémentaires, démarrez YaST.

6.16.1 IBM Z : initialisation IPL du système installé

YaST redémarre généralement sur le système installé sur la plate-forme IBM Z. Il existe toutefois des exceptions : les installations dans lesquelles le chargeur de démarrage est situé sur un périphérique FCP, dans des environnements avec LPAR sur une machine dont la version est antérieure à z196 ou dont la version de z/VM est antérieure à la version 5.4. Dans ces cas-là, le chargeur de démarrage est écrit sur une partition distincte, montée en tant que /boot/zipl/.

Si un redémarrage automatique n'est pas possible, YaST ouvre une boîte de dialogue contenant des informations sur le périphérique à partir duquel un IPL doit être effectué. Acceptez l'option d'arrêt et effectuez un IPL après cet arrêt. La procédure varie selon le type d'installation :

Installation LPAR

Dans la console HMC d'IBM Z, sélectionnez Charger, Effacer, puis entrez l'adresse de chargement (l'adresse du périphérique contenant le répertoire /boot/zipl avec le chargeur de démarrage). Si vous utilisez un disque zFCP comme périphérique de démarrage, sélectionnez Load from SCSI (Charger depuis SCSI) et indiquez l'adresse de chargement de votre adaptateur FCP, du WWPN et du LUN du périphérique de démarrage. À présent, démarrez le processus de chargement.

Installation z/VM

Connectez-vous à la machine virtuelle invitée (voir Exemple 4.1, « Configuration d'un répertoire z/VM » pour la configuration) en tant que LINUX1 et effectuez la procédure IPL sur le système installé :

IPL 151 CLEAR

151 est un exemple d'adresse du périphérique de démarrage DASD. Remplacez cette valeur par la véritable adresse.

Si vous utilisez un disque ZFCP comme périphérique de démarrage, indiquez le WWPN et le LUN zFCP du périphérique en question avant d'initialiser l'IPL. La longueur du paramètre est limitée à huit caractères. Les numéros plus longs doivent être séparés par des espaces :

SET LOADDEV PORT 50050763 00C590A9 LUN 50010000 00000000

Enfin, initialisez l'IPL :

IPL FC00

FC00 est un exemple d'adresse de l'adaptateur zFCP. Remplacez cette valeur par l'adresse correcte.

Installation invité KVM

Une fois l'installation terminée, la machine virtuelle s'arrête. À ce stade, connectez-vous à l'hôte KVM, modifiez le fichier de description de la machine virtuelle, puis redémarrez-la pour exécuter un IPL sur le système installé :

  1. Connectez-vous à l'hôte KVM.

  2. Modifiez le fichier XML de domaine en exécutant la commande

    virsh edit s12-1

    et supprimez les lignes suivantes :

      <!-- Boot kernel - remove 3 lines after successfull installation -->
      <kernel>/var/lib/libvirt/images/s12-kernel.boot</kernel>
      <initrd>/var/lib/libvirt/images/s12-initrd.boot</initrd>
      <cmdline>linuxrcstderr=/dev/console</cmdline>
  3. Redémarrez l'invité de machine virtuelle pour exécuter un IPL sur le système installé :

    virsh start s12-1 --console
Note
Note : le paramètre cio_ignore est désactivé pour les installations KVM

Le paramètre de kernel cio_ignore empêche le kernel de rechercher tous les périphériques matériels disponibles. Toutefois, pour les invités KVM, l'hyperviseur veille déjà à fournir un accès uniquement aux périphériques adéquats. Par conséquent, cio_ignoreest désactivé par défaut lors de l'installation d'un invité KVM (en revanche, pour les installations z/VM et LPAR, il est activé par défaut).

6.16.2 IBM Z : connexion au système installé

Après avoir exécuté un IPL sur le système, établissez une connexion via VNC, SSH ou X pour vous y connecter. Il est conseillé d'utiliser VNC ou SSH. Pour personnaliser la configuration du système ou installer des paquetages supplémentaires, démarrez YaST.

6.16.2.1 Utilisation de VNC pour se connecter

Un message du terminal 3270 vous demande de vous connecter au système Linux en utilisant un client VNC. Toutefois, ce message passe facilement inaperçu, car il est mélangé à des messages de kernel et le processus de terminal peut se terminer avant que vous n'ayez reçu le message. Si rien ne se produit pendant cinq minutes, tentez d'initialiser une connexion au système Linux en utilisant une visionneuse VNC.

6.16.2.2 Utilisation de SSH pour se connecter

Un message du terminal 3270 vous demande de vous connecter au système Linux en utilisant un client SSH. Toutefois, ce message passe facilement inaperçu, car il est mélangé à des messages de kernel et le processus de terminal peut se terminer avant que vous n'ayez pu en avoir connaissance.

Une fois le message affiché, utilisez SSH pour vous connecter au système Linux en tant que root. Si la connexion est refusée ou si elle a expiré, attendez l'expiration du timeout de connexion, puis réessayez (ce délai dépend des paramètres du serveur).

6.16.2.3 Utilisation de X pour se connecter

Lors de l'initialisation IPL du système installé, assurez-vous que le serveur X utilisé pour la première phase de l'installation est prêt et toujours disponible avant de démarrer depuis le DASD. YaST s'ouvre sur ce serveur X pour terminer l'installation. Des complications peuvent survenir si le système est démarré mais qu'il ne peut pas se connecter au serveur X dans les délais.

7 Clonage d'images de disque

Si SUSE Linux Enterprise Server est installé dans un environnement virtualisé, le clonage d'une installation existante peut être le moyen le plus rapide de déployer davantage de machines. SUSE Linux Enterprise Server fournit un script pour nettoyer la configuration qui est unique pour chaque installation. Avec l'introduction de systemd, des identificateurs système uniques sont utilisés et définis dans différents fichiers et emplacements. Par conséquent, le clonage n'est plus la méthode recommandée pour créer des images système. Les images peuvent être créées avec KIWI : reportez-vous à l'adresse https://doc.opensuse.org/projects/kiwi/doc/.

Pour cloner des disques de machines, reportez-vous à la documentation de votre environnement de virtualisation.

7.1 Nettoyage des identificateurs système uniques

Avertissement
Avertissement : perte de configuration importante

L'exécution de la procédure suivante supprime définitivement les données de configuration importantes du système. Si le système source pour le clone est utilisé en production, exécutez le script de nettoyage sur l'image clonée.

Pour nettoyer tous les identificateurs système uniques, exécutez la procédure suivante avant ou après le clonage d'une image de disque. En cas d'exécution sur le clone, cette procédure doit être exécutée sur chaque clone. Par conséquent, nous vous recommandons de créer une image de référence qui n'est pas utilisée en production et sert uniquement de source pour les nouveaux clones. L'image de référence est déjà nettoyée et les clones peuvent être utilisés immédiatement.

La commande clone-master-clean-up par exemple supprime les éléments suivants :

  • Fichiers d'échange

  • Dépôts Zypper

  • Clés d'hôte et de client SSH

  • Répertoires temporaires, tels que /tmp/*

  • Données postfix

  • Script de pare-feu HANA

  • Journal systemd

  1. Utilisez zypper pour installer clone-master-clean-up :

    root # zypper install clone-master-clean-up
  2. Configurez le comportement de clone-master-clean-up en modifiant /etc/sysconfig/clone-master-clean-up. Ce fichier de configuration définit si les utilisateurs avec un UID supérieur à 1 000, les fichiers /etc/sudoers, les dépôts Zypper et les instantanés Btrfs doivent être supprimés.

  3. Supprimez la configuration existante et les identificateurs uniques en exécutant le script suivant :

    root # clone-master-clean-up

Partie III Configuration d'un serveur d'installation

  • 8 Configuration du serveur qui contient les sources d'installation
  • SUSE® Linux Enterprise Server peut être installé de différentes manières. Outre l'installation classique à partir d'un support abordée au Chapitre 6, Installation avec YaST, vous avez le choix entre plusieurs approches réseau ; vous pouvez même envisager une installation sans surveillance de SUSE Li…

  • 9 Préparation du démarrage du système cible
  • SUSE® Linux Enterprise Server peut être installé de différentes manières. Outre l'installation classique à partir d'un support abordée au Chapitre 6, Installation avec YaST, vous avez le choix entre plusieurs approches réseau ; vous pouvez même envisager une installation entièrement automatique de S…

8 Configuration du serveur qui contient les sources d'installation

SUSE® Linux Enterprise Server peut être installé de différentes manières. Outre l'installation classique à partir d'un support abordée au Chapitre 6, Installation avec YaST, vous avez le choix entre plusieurs approches réseau ; vous pouvez même envisager une installation sans surveillance de SUSE Linux Enterprise Server.

Chaque méthode est présentée par le biais de deux petites listes de contrôle : une liste des conditions préalables et une description de la procédure de base. Des informations supplémentaires vous sont ensuite fournies pour toutes les techniques utilisées dans ces scénarios d'installation.

Note
Note : terminologie

Dans les sections suivantes, le système destiné à héberger votre nouvelle installation SUSE Linux Enterprise Server est désigné sous les termes de système cible ou cible d'installation. Le terme dépôt (anciennement appelé « source d'installation ») désigne toutes les sources de données d'installation. Il s'agit notamment des supports physiques, tels que les CD et DVD, et des serveurs réseau qui transfèrent les données d'installation sur votre réseau.

En fonction du système d'exploitation exécuté sur la machine à utiliser comme source d'installation réseau pour SUSE Linux Enterprise Server, plusieurs options sont disponibles pour la configuration du serveur. La méthode la plus simple pour configurer un serveur d'installation consiste à utiliser YaST sous SUSE Linux Enterprise Server ou openSUSE.

Astuce
Astuce : système d'exploitation du serveur d'installation

Vous pouvez même utiliser une machine Microsoft Windows comme serveur d'installation pour le déploiement de Linux. Reportez-vous à la Section 8.5, « Gestion d'un dépôt SMB » pour plus d'informations.

8.1 Configuration d'un serveur d'installation à l'aide de YaST

YaST fournit un outil graphique qui permet de créer des dépôts réseau. Il prend en charge les serveurs d'installation réseau HTTP, FTP et NFS.

  1. Connectez-vous en tant qu'utilisateur root à la machine qui doit jouer le rôle de serveur d'installation.

  2. Sélectionnez YaST › Divers › Serveur d'installation.

  3. Sélectionnez le type de dépôt (HTTP, FTP ou NFS). Le service sélectionné est lancé automatiquement à chaque démarrage du système. Si un service du type sélectionné est déjà en cours d'exécution sur votre système et si vous souhaitez le configurer manuellement, désactivez la fonction de configuration automatique du service de serveur en sélectionnant Ne configurer aucun des services réseau. Dans les deux cas, définissez le répertoire du serveur dans lequel placer les données d'installation.

  4. Configurez le type de dépôt requis. Cette étape concerne la configuration automatique des services de serveur. Elle est ignorée lorsque la configuration automatique est désactivée.

    Définissez un alias pour le répertoire racine du serveur FTP ou HTTP sur lequel les données d'installation doivent figurer. Par la suite, le dépôt sera situé sous ftp://IP-serveur/Alias/Nom (FTP) ou sous http://IP-serveur/Alias/Nom (HTTP). Nom désigne le nom du dépôt, dont la définition s'effectue à l'étape suivante. Si vous avez sélectionné NFS à l'étape précédente, définissez des caractères joker et des options d'exportation. Le serveur NFS sera accessible sous nfs://IP-serveur/Nom. Pour plus d'informations sur le serveur NFS et les exportations, reportez-vous au Book “Administration Guide”, Chapter 29 “Sharing File Systems with NFS”.

    Astuce
    Astuce : paramètres de pare-feu

    Assurez-vous que les paramètres du pare-feu de votre système serveur autorisent le trafic au niveau des ports pour HTTP, NFS et FTP. Dans le cas contraire, activez Ouvrir port dans pare-feu ou sélectionnez d'abord Détails du pare-feu.

  5. Configurez le dépôt. Avant la copie des supports d'installation vers leur destination, définissez le nom du dépôt (choisissez plutôt une abréviation du produit et de la version facile à mémoriser). YaST permet de fournir des images ISO des supports au lieu de copies des DVD d'installation. Pour ce faire, sélectionnez la case à cocher correspondante et indiquez le chemin du répertoire sous lequel trouver les fichiers ISO localement. En fonction du produit à distribuer à l'aide de ce serveur d'installation, vous devrez peut-être ajouter d'autres supports, tels que des DVD de Service Pack comme dépôts supplémentaires. Pour annoncer votre serveur d'installation sur le réseau via OpenSLP, sélectionnez l'option correspondante.

    Astuce
    Astuce : annonce du dépôt

    Pensez à annoncer votre dépôt via OpenSLP si la configuration du réseau prend en charge cette option. Cela vous évite d'entrer le chemin d'installation réseau sur chaque machine cible. Les systèmes cibles sont simplement démarrés à l'aide de l'option de démarrage SLP ; ils trouveront le dépôt réseau sans qu'aucune autre opération de configuration ne soit nécessaire. Pour plus d'informations sur cette option, reportez-vous à la Section 10.2, « Démarrage du système cible pour l'installation ».

  6. Configurez des dépôts supplémentaires. YaST suit une convention de dénomination spécifique pour configurer des dépôts de CD de produit complémentaire ou de Service Pack. La configuration est acceptée uniquement si le nom de dépôt des CD de produit complémentaire commence par le nom de dépôt du support d'installation. En d'autres termes, si vous choisissez SLES12SP1 comme nom de dépôt pour DVD 1, sélectionnez SLES12SP1addon comme nom de dépôt pour DVD2. Il en va de même pour les CD de SDK.

  7. Téléchargez les données d'installation. La copie des supports d'installation constitue l'étape la plus longue dans la configuration d'un serveur d'installation. Insérez les supports dans l'ordre demandé par YaST et attendez la fin de la procédure de copie. Lorsque les sources ont été entièrement copiées, revenez à l'aperçu des dépôts existants et fermez la configuration en sélectionnant Terminer.

    Le serveur d'installation est désormais entièrement configuré et prêt à fonctionner. Il démarre automatiquement en même temps que le système. Aucune autre intervention n'est nécessaire. Si vous avez désactivé à l'aide de YaST la configuration automatique du service réseau sélectionné lors de la première étape, il suffit de configurer et de démarrer manuellement ce service.

Pour désactiver un dépôt, sélectionnez le dépôt à supprimer, puis sélectionnez Supprimer. Les données de l'installation sont supprimées du système. Pour désactiver le service réseau, utilisez le module YaST correspondant.

Si votre serveur d'installation doit fournir les données d'installation de plusieurs produits de cette version, démarrez le module YaST relatif aux serveurs d'installation et sélectionnez Ajouter dans l'aperçu des dépôts existants pour configurer le nouveau dépôt.

8.2 Configuration manuelle d'un dépôt NFS

La configuration d'une source NFS en vue de l'installation s'effectue en deux étapes. Dans un premier temps, créez l'arborescence qui contient les données d'installation et copiez les supports d'installation vers cette arborescence. Exportez ensuite le répertoire qui contient les données d'installation vers le réseau.

Pour créer un répertoire qui contient les données d'installation, procédez de la façon suivante :

  1. Connectez-vous en tant qu'utilisateur root.

  2. Créez un répertoire destiné à contenir les données d'installation et accédez à ce répertoire. Par exemple :

    root # mkdir /srv/install/PRODUCT/PRODUCTVERSION
    root # cd /srv/install/PRODUCT/PRODUCTVERSION

    Remplacez PRODUCT par l'abréviation du nom du produit et PRODUCTVERSION par une chaîne qui contient le nom et la version du produit.

  3. Pour chaque DVD contenu dans le kit de supports, exécutez les commandes suivantes :

    1. Copiez tout le contenu du DVD d'installation vers le répertoire du serveur d'installation :

      root # cp -a /media/PATH_TO_YOUR_DVD_DRIVE .

      Remplacez PATH_TO_YOUR_DVD_DRIVE (CHEMIN_PILOTE_DVD) par le chemin réel qui permet d'accéder au lecteur de DVD. En fonction du type de lecteur utilisé sur le système, il peut s'agir de cdrom, cdrecorder, dvd ou dvdrecorder.

    2. Renommez le répertoire en incluant le numéro du DVD :

      root # mv PATH_TO_YOUR_DVD_DRIVE DVDX

      Remplacez X par le numéro réel de votre DVD.

Sous SUSE Linux Enterprise Server, vous pouvez exporter le dépôt avec NFS à l'aide de YaST. Procédez de la façon suivante :

  1. Connectez-vous en tant qu'utilisateur root.

  2. Sélectionnez YaST › Services réseau › Serveur NFS.

  3. Cliquez sur Démarrer et Ouvrir port dans pare-feu, puis cliquez sur Suivant.

  4. Sélectionnez Ajouter un répertoire et recherchez le répertoire contenant les sources d'installation (ici, il s'agit du répertoire PRODUCTVERSION).

  5. Sélectionnez Ajouter hôte et entrez les noms d'hôte des machines vers lesquelles exporter les données d'installation. Au lieu d'indiquer les noms d'hôte, vous pouvez utiliser des caractères joker, des plages d'adresses réseau ou le nom de domaine de votre réseau. Entrez les options d'exportation appropriées ou laissez celles par défaut ; ces dernières fonctionnent correctement dans la plupart des configurations. Pour plus d'informations sur la syntaxe utilisée lors de l'exportation des partages NFS, reportez-vous à la page de manuel consacrée à l'exportation.

  6. Cliquez sur Terminer. Le serveur NFS qui héberge le dépôt SUSE Linux Enterprise Server est démarré et intégré automatiquement au processus d'amorçage.

Si vous préférez exporter manuellement le dépôt via NFS au lieu d'utiliser le module YaST relatif aux serveurs NFS, procédez comme suit :

  1. Connectez-vous en tant qu'utilisateur root.

  2. Ouvrez le fichier /etc/exports et entrez la ligne de commande suivante :

    /PRODUCTVERSION *(ro,root_squash,sync)

    Cette commande permet d'exporter le répertoire /PRODUCTVERSION vers tout hôte membre de ce réseau ou capable de se connecter à ce serveur. Pour limiter l'accès à ce serveur, remplacez le caractère joker générique * par des masques de réseau ou des noms de domaine. Pour plus d'informations, reportez-vous à la page de manuel consacrée à l'exportation. Enregistrez et quittez ce fichier de configuration.

  3. Pour ajouter le service NFS à la liste des serveurs démarrés au cours du démarrage du système, exécutez les commandes suivantes :

    root # systemctl enable nfsserver
  4. Démarrez le serveur NFS avec la commande systemctl start nfsserver. Si vous devez modifier la configuration de votre serveur NFS par la suite, modifiez le fichier de configuration et redémarrez le daemon NFS à l'aide de la commande systemctl restart nfsserver.service.

L'annonce du serveur NFS via OpenSLP permet de communiquer l'adresse de ce serveur à tous les clients du réseau.

  1. Connectez-vous en tant qu'utilisateur root.

  2. Créez le fichier de configuration /etc/slp.reg.d/install.suse.nfs.reg avec les lignes suivantes :

    # Register the NFS Installation Server
    service:install.suse:nfs://$HOSTNAME/PATH_TO_REPOSITORY/DVD1,en,65535
    description=NFS Repository

    Remplacez PATH_TO_REPOSITORY (CHEMIN_DÉPÔT) par le chemin réel de la source d'installation sur votre serveur.

  3. Démarrez le daemon OpenSLP en exécutant la commande systemctl start slpd.

Pour plus d'informations sur OpenSLP, reportez-vous à la documentation relative au paquetage, située dans /usr/share/doc/packages/openslp/, ou le Book “Administration Guide”, Chapter 32 “SLP”. Pour plus d'informations sur NFS, reportez-vous au Book “Administration Guide”, Chapter 29 “Sharing File Systems with NFS”.

8.3 Configuration manuelle d'un dépôt FTP

La création d'un dépôt FTP est très similaire à celle d'un dépôt NFS. Un dépôt FTP peut également être annoncé sur le réseau à l'aide d'OpenSLP.

  1. Créez un répertoire qui contient les sources d'installation, comme décrit à la Section 8.2, « Configuration manuelle d'un dépôt NFS ».

  2. Configurez le serveur FTP pour distribuer le contenu de votre répertoire d'installation :

    1. Connectez-vous en tant qu'utilisateur root et installez le paquetage vsftpd à l'aide du gestionnaire de logiciels YaST.

    2. Entrez dans le répertoire racine du serveur FTP :

      root # cd /srv/ftp
    3. Créez un sous-répertoire qui contient les sources d'installation dans le répertoire racine FTP :

      root # mkdir REPOSITORY

      Remplacez REPOSITORY (DÉPÔT) par le nom du produit.

    4. Montez le contenu du référentiel d'installation dans l'environnement racine modifié du serveur FTP :

      root # mount --bind PATH_TO_REPOSITORY /srv/ftp/REPOSITORY

      Remplacez les variables PATH_TO_REPOSITORY (CHEMIN_DÉPÔT) et REPOSITORY (DÉPÔT) par des valeurs adaptées à votre configuration. Pour que ces modifications soient permanentes, ajoutez-les au fichier /etc/fstab.

    5. Démarrez vsftpd à l'aide de vsftpd.

  3. Annoncez le dépôt via OpenSLP si votre configuration réseau prend en charge cette opération :

    1. Créez le fichier de configuration /etc/slp.reg.d/install.suse.ftp.reg avec les lignes suivantes :

      # Register the FTP Installation Server
      service:install.suse:ftp://$HOSTNAME/REPOSITORY/DVD1,en,65535
      description=FTP Repository

      Remplacez REPOSITORY (DÉPÔT) par le nom réel du répertoire de dépôt sur votre serveur. La ligne service: doit être entrée sous forme de ligne continue.

    2. Démarrez le daemon OpenSLP en exécutant la commande systemctl start slpd.

Astuce
Astuce : configuration d'un serveur FTP avec YaST

Si vous préférez utiliser YaST plutôt que de configurer manuellement le serveur d'installation FTP, reportez-vous au Book “Administration Guide”, Chapter 34 “Setting Up an FTP Server with YaST” pour plus d'informations sur l'utilisation du module YaST relatif aux serveurs FTP.

8.4 Configuration manuelle d'un dépôt HTTP

La création d'un dépôt HTTP est très similaire à celle d'un dépôt NFS. Un dépôt HTTP peut également être annoncé sur le réseau à l'aide d'OpenSLP.

  1. Créez un répertoire qui contient les sources d'installation en suivant la procédure décrite à la Section 8.2, « Configuration manuelle d'un dépôt NFS ».

  2. Configurez le serveur HTTP pour distribuer le contenu de votre répertoire d'installation :

    1. Installez le serveur Web Apache conformément à la description proposée dans le Book “Administration Guide”, Chapter 33 “The Apache HTTP Server”, Section 33.1.2 “Installation”.

    2. Accédez au répertoire racine du serveur HTTP (/srv/www/htdocs) et créez un sous-répertoire qui contiendra les sources d'installation :

      root # mkdir REPOSITORY

      Remplacez REPOSITORY (DÉPÔT) par le nom du produit.

    3. Créez un lien symbolique à partir de l'emplacement des sources d'installation vers le répertoire racine du serveur Web (/srv/www/htdocs) :

      root # ln -s /PATH_TO_REPOSITORY/srv/www/htdocs/REPOSITORY
    4. Modifiez le fichier de configuration du serveur HTTP (/etc/apache2/default-server.conf) de manière à ce qu'il suive les liens symboliques. Remplacez la ligne suivante :

      Options None

      par

      Options Indexes FollowSymLinks
    5. Rechargez la configuration du serveur HTTP à l'aide de la commande systemctl reload apache2.

  3. Annoncez le dépôt via OpenSLP si votre configuration réseau prend en charge cette opération :

    1. Créez le fichier de configuration /etc/slp.reg.d/install.suse.http.reg avec les lignes suivantes :

      # Register the HTTP Installation Server
      service:install.suse:http://$HOSTNAME/REPOSITORY/DVD1/,en,65535
      description=HTTP Repository

      Remplacez REPOSITORY (DÉPÔT) par le chemin réel du dépôt sur votre serveur. La ligne service: doit être entrée sous forme de ligne continue.

    2. Démarrez le daemon OpenSLP en exécutant la commande systemctl start slpd.

8.5 Gestion d'un dépôt SMB

À l'aide du protocole SMB, vous pouvez importer les sources d'installation depuis un serveur Microsoft Windows et démarrer le déploiement Linux sans même disposer d'une machine Linux.

Pour configurer un partage Windows exporté sur lequel réside votre dépôt SUSE Linux Enterprise Server, procédez comme suit :

  1. Connectez-vous à votre machine Windows.

  2. Créez un répertoire qui contiendra l'intégralité de l'arborescence d'installation et nommez-le INSTALL, par exemple.

  3. Exportez ce partage en suivant la procédure décrite dans votre documentation Windows.

  4. Accédez à ce partage et créez un sous-répertoire nommé PRODUCT. Remplacez PRODUCT par le nom réel du produit.

  5. Accédez au répertoire INSTALL/PRODUCT et copiez chaque DVD dans un répertoire distinct ; DVD1 et DVD2, par exemple.

Pour utiliser un partage monté SMB comme dépôt, procédez comme suit :

  1. Démarrez la cible d'installation.

  2. Sélectionnez Installation.

  3. Appuyez sur la touche F4 pour sélectionner le dépôt.

  4. Sélectionnez SMB, puis saisissez le nom ou l'adresse IP de la machine Windows, le nom du partage (INSTALL/PRODUCT/DVD1 dans cet exemple), le nom d'utilisateur et le mot de passe. La syntaxe ressemble à ceci :

    smb://workdomain;user:password@server/INSTALL/DVD1

    Après avoir appuyé sur Entrée, YaST démarre. Vous pouvez alors effectuer l'installation.

8.6 Utilisation d'images ISO du support d'installation sur le serveur

Plutôt que de copier manuellement les supports physiques dans votre répertoire serveur, vous pouvez monter les images ISO du support d'installation sur votre serveur d'installation, puis les utiliser comme dépôt. Pour configurer un serveur HTTP, NFS ou FTP qui utilise des images ISO à la place des copies de support, procédez de la façon suivante :

  1. Téléchargez les images ISO et enregistrez-les sur la machine à utiliser comme serveur d'installation.

  2. Connectez-vous en tant qu'utilisateur root.

  3. Choisissez et créez un emplacement approprié pour stocker les données d'installation, comme décrit à la Section 8.2, « Configuration manuelle d'un dépôt NFS », à la Section 8.3, « Configuration manuelle d'un dépôt FTP » ou à la Section 8.4, « Configuration manuelle d'un dépôt HTTP ».

  4. Créez des sous-répertoires pour chaque DVD.

  5. Pour monter et décompresser chaque image ISO à son emplacement final, exécutez la commande suivante :

    root # mount -o loop PATH_TO_ISO PATH_TO_REPOSITORY/PRODUCT/MEDIUMX

    Remplacez PATH_TO_ISO (CHEMIN_VERS_ISO) par le chemin de votre copie locale de l'image ISO, PATH_TO_REPOSITORY (CHEMIN_VERS_DÉPÔT) par le répertoire source de votre serveur, PRODUCT (PRODUIT) par le nom du produit et MEDIUMX par le type (CD ou DVD) et le nombre de supports que vous utilisez.

  6. Procédez de même pour monter toutes les images ISO nécessaires à votre produit.

  7. Démarrez votre serveur d'installation comme d'habitude, en suivant la procédure décrite à la Section 8.2, « Configuration manuelle d'un dépôt NFS », à la Section 8.3, « Configuration manuelle d'un dépôt FTP » ou à la Section 8.4, « Configuration manuelle d'un dépôt HTTP ».

Pour monter automatiquement les images ISO lors du démarrage, ajoutez les entrées correspondantes dans /etc/fstab. Dans le cas ci-dessus, l'entrée ressemblerait à l'exemple suivant :

PATH_TO_ISO PATH_TO_REPOSITORY/PRODUCTMEDIUM auto loop

9 Préparation du démarrage du système cible

SUSE® Linux Enterprise Server peut être installé de différentes manières. Outre l'installation classique à partir d'un support abordée au Chapitre 6, Installation avec YaST, vous avez le choix entre plusieurs approches réseau ; vous pouvez même envisager une installation entièrement automatique de SUSE Linux Enterprise Server.

Les exemples utilisent NFS pour traiter les données d'installation. Si vous souhaitez utiliser FTP, SMB ou HTTP, reportez-vous au Chapitre 8, Configuration du serveur qui contient les sources d'installation.

Note
Note : terminologie

Dans les sections suivantes, le système destiné à héberger votre nouvelle installation SUSE Linux Enterprise Server est désigné sous les termes de système cible ou cible d'installation. Le terme dépôt (anciennement appelé « source d'installation ») désigne toutes les sources de données d'installation. Il s'agit notamment des supports physiques, tels que les CD et DVD, et des serveurs réseau qui transfèrent les données d'installation sur votre réseau.

Cette section expose les tâches de configuration nécessaires pour les scénarios de démarrage complexes. Elle contient des exemples de configuration « prêts à l'emploi » pour le protocole DHCP, le démarrage PXE, le protocole TFTP et la fonction Wake on LAN.

Les exemples supposent que les serveurs DHCP, TFTP et NFS résident sur la même machine ayant pour adresse IP 192.168.1.1. Tous les services peuvent résider sur des ordinateurs différents sans problème. Veillez à modifier les adresses IP en fonction de vos besoins.

9.1 Configuration d'un serveur DHCP

En plus de fournir une allocation automatique d'adresses à vos clients réseau, le serveur DHCP annonce l'adresse IP du serveur TFTP et le fichier qui doit être extrait par les routines d'installation sur la machine cible. Le fichier à charger dépend de l'architecture de la machine cible et de l'utilisation éventuelle du démarrage BIOS ou UEFI hérité.

  1. Connectez-vous en tant qu'utilisateur root à la machine qui héberge le serveur DHCP.

  2. Activez le serveur DHCP en exécutant la commande systemctl enable dhcpd.

  3. Ajoutez les lignes suivantes à la configuration de sous-réseau du fichier de configuration du serveur DHCP, situé dans /etc/dhcpd.conf :

    # The following lines are optional
    option domain-name "my.lab";
    option domain-name-servers 192.168.1.1;
    option routers 192.168.1.1;
    option ntp-servers 192.168.1.1;
    ddns-update-style none;
    default-lease-time 3600;
    
    # The following lines are required
    option arch code 93 = unsigned integer 16; # RFC4578
    subnet 192.168.1.0 netmask 255.255.255.0 {
     next-server 192.168.1.1;
     range 192.168.1.100 192.168.1.199;
     default-lease-time 3600;
     max-lease-time 3600;
     if option arch = 00:07 or option arch = 00:09 {
       filename "/EFI/x86/grub.efi";
     }
     else if option arch = 00:0b {
       filename "/EFI/aarch64/bootaa64.efi";
     }
     else  {
       filename "/BIOS/x86/pxelinux.0";
     }
    }

    Cet exemple de configuration utilise le sous-réseau 192.168.1.0/24 avec DHCP, DNS et la passerelle sur le serveur avec l'adresse IP 192.168.1.1. Assurez-vous que toutes les adresses IP utilisées sont modifiées en fonction de votre topologie de réseau. Pour plus d'informations sur les options disponibles dansdhcpd.conf, reportez-vous à la page de manuel dhcpd.conf.

  4. Redémarrez le serveur DHCP en exécutant la commande systemctl restart dhcpd.

Si vous avez l'intention d'utiliser le protocole SSH pour le contrôle distant d'une installation PXE et Wake on LAN, indiquez l'adresse IP que le protocole DHCP doit fournir à la cible d'installation. Pour ce faire, modifiez la configuration DHCP mentionnée ci-dessus, conformément à l'exemple suivant :

group {
 host test {
   hardware ethernet MAC_ADDRESS;
   fixed-address IP_ADDRESS;
   }
}

L'instruction d'hôte présente le nom d'hôte de la cible d'installation. Pour lier le nom d'hôte et l'adresse IP à un hôte, vous devez connaître et indiquer l'adresse matérielle (MAC) du système. Remplacez toutes les variables utilisées dans cet exemple par les valeurs réelles qui correspondent à votre environnement.

Une fois le serveur DHCP redémarré, une adresse IP statique est fournie à l'hôte spécifié ; vous pouvez ainsi vous connecter au système via la fonctionnalité SSH.

9.2 Configuration d'un serveur TFTP

Si vous utilisez une installation basée sur SUSE, vous pouvez utiliser YaST pour configurer un serveur TFTP. Sinon, configurez-le manuellement. Le serveur TFTP fournit l'image de démarrage au système cible dès que ce dernier a démarré et a envoyé une requête à ce sujet.

9.2.1 Configuration d'un serveur TFTP à l'aide de YaST

  1. Connectez-vous en tant qu'utilisateur root.

  2. Sélectionnez YaST › Services réseau › Serveur TFTP et installez le paquetage demandé.

  3. Cliquez sur Activer pour vous assurer que le serveur est démarré et inclus dans les routines de démarrage. Aucune autre action de votre part n'est nécessaire pour garantir cette opération. xinetd démarre tftpd au moment du démarrage.

  4. Cliquez sur Ouvrir port dans pare-feu pour ouvrir le port approprié dans le pare-feu exécuté sur votre machine. Si aucun pare-feu n'est en cours d'exécution sur votre serveur, cette option n'est pas disponible.

  5. Cliquez sur Parcourir pour rechercher le répertoire de l'image de démarrage. Le répertoire par défaut /srv/tftpboot est créé et sélectionné automatiquement.

  6. Cliquez sur Terminer pour appliquer vos paramètres et démarrer le serveur.

9.2.2 Configuration manuelle d'un serveur TFTP

  1. Loguez-vous en tant qu'utilisateur root, et installez les paquetages tftp et xinetd.

  2. Modifiez la configuration de xinetd sous /etc/xinetd.d pour vous assurer que le serveur TFTP se lance au démarrage :

    1. S'il n'existe pas, créez dans ce répertoire un fichier nommé tftp, à l'aide de la commande touch tftp. Exécutez ensuite chmod 755 tftp.

    2. Ouvrez le fichier tftp et ajoutez les lignes suivantes :

      service tftp
      {
              socket_type            = dgram
              protocol               = udp
              wait                   = yes
              user                   = root
              server                 = /usr/sbin/in.tftpd
              server_args            = -s /srv/tftpboot
              disable                = no
      }
    3. Enregistrez le fichier et redémarrez xinetd en exécutant systemctl restart xinetd.

9.3 Installation des fichiers sur le serveur TFTP

Les procédures suivantes décrivent comment préparer le serveur pour les machines cibles avec UEFI et BIOS sur des architectures x86 32 et 64 bits. La structure préparée est déjà compatible avec les systèmes AArch64.

9.3.1 Préparation de la structure

Dans cette procédure, remplacez OS_VERSION (VERSION_OS) et SP_VERSION (VERSION_SP) par la version du système d'exploitation et la version du Service Pack utilisées. Utilisez, par exemple, sles12 et sp5.

  1. Créez une structure à l'emplacement /srv/tftpboot pour prendre en charge les différentes options.

    root # mkdir -p /srv/tftpboot/BIOS/x86
    root # mkdir -p /srv/tftpboot/EFI/x86/boot
    root # mkdir -p /srv/tftpboot/EFI/aarch64/boot
    root # mkdir -p /srv/install/x86/OS_VERSION/SP_VERSION/cd1
    root # mkdir -p /srv/install/aarch64/OS_VERSION/SP_VERSION/cd1
  2. Téléchargez les images ISO DVD de SUSE Linux Enterprise Server 12 SP5 à partir du site Web SUSE pour toutes les architectures dont vous avez besoin.

  3. Montez les fichiers ISO comme décrit à la Section 8.6, « Utilisation d'images ISO du support d'installation sur le serveur ». Pour que les fichiers soient disponibles après un redémarrage, créez une entrée dans /etc/fstab. Pour une installation standard, seul le DVD 1 est requis.

    root # mount -o loop PATH_TO_ISO /srv/install/ARCH/OS_VERSION/SP_VERSION/cd1/

    Répétez cette étape pour toutes les architectures requises et remplacez ARCH par x86 ou aarch64 et PATH_TO_ISO (CHEMIN_VERS_ISO) par le chemin d'accès au fichier ISO correspondant.

  4. Copiez les fichiers kernel, initrd et message requis pour qu'UEFI et x86 BIOS démarrent à l'emplacement approprié.

    root # cd /srv/install/x86/OS_version/SP_version/cd1/boot/x86_64/loader/
    root # cp -a linux initrd message /srv/tftpboot/BIOS/x86/
  5. Assurez-vous que le chemin /srv/install est disponible via NFS. Pour plus de détails, reportez-vous à la Section 8.2, « Configuration manuelle d'un dépôt NFS ».

9.3.2 Fichiers BIOS pour x86

  1. Copiez pxelinux.0 dans le dossier TFTP et préparez un sous-dossier pour le fichier de configuration.

    root # cp /usr/share/syslinux/pxelinux.0 /srv/tftpboot/BIOS/x86/
    root # mkdir /srv/tftpboot/BIOS/x86/pxelinux.cfg
  2. Créez le fichier /srv/tftpboot/BIOS/x86/pxelinux.cfg/default et ajoutez les lignes suivantes :

    default install
    
    # hard disk
    label harddisk
     localboot -2
    # install
    label install
     kernel linux
     append initrd=initrd install=nfs://192.168.1.1:/srv/install/x86/OS_version/SP_version/cd1
    
    display message
    implicit 0
    prompt 1
    timeout 5
  3. Modifiez le fichier /srv/tftpboot/BIOS/x86/message pour qu'il soit conforme au fichier default que vous venez de modifier.

    Welcome to the Installer Environment!
    
    To start the installation enter 'install' and press <return>.
    
    Available boot options:
     harddisk   - Boot from Hard Disk (this is default)
     install    - Installation

9.3.3 Fichiers UEFI pour x86

Dans cette procédure, remplacez OS_version et SP_version par la version du système d'exploitation et la version du Service Pack utilisées. Utilisez, par exemple, sles12 et sp5.

  1. Copiez tous les fichiers grub2 requis pour le démarrage d'UEFI.

    root # cd /srv/install/x86/OS_version/SP_version/cd1/EFI/BOOT
    root # cp -a bootx64.efi grub.efi MokManager.efi /srv/tftpboot/EFI/x86/
  2. Copiez les fichiers kernel et initrd dans la structure de répertoires.

    root # cd /srv/install/x86/OS_version/SP_version/cd1/boot/x86_64/loader/
    root # cp -a linux initrd /srv/tftpboot/EFI/x86/boot
  3. Créez le fichier /srv/tftpboot/EFI/x86/grub.cfg en incluant au moins le contenu suivant :

    set timeout=5
    menuentry 'Install OS_version SP_version for x86_64' {
      linuxefi /EFI/x86/boot/linux \
       install=nfs://192.168.1.1/srv/install/x86/OS_version/SP_version/cd1
      initrdefi /EFI/x86/boot/initrd
    }

9.3.4 Fichiers UEFI pour AArch64

Dans cette procédure, remplacez OS_version et SP_version par la version du système d'exploitation et la version du Service Pack utilisées. Utilisez, par exemple, sles12 et sp5.

  1. Cette opération est relativement similaire à celle réalisée dans l'environnement EFI x86_64. Commencez par copier les fichiers nécessaires au démarrage d'UEFI dans un environnement grub2-efi.

    root # cd /srv/install/aarch64/OS_version/SP_version/cd1/EFI/BOOT
    root # cp -a bootaa64.efi /srv/tftpboot/EFI/aarch64/
  2. Copiez les fichiers kernel et initrd dans la structure de répertoires.

    root # cd /srv/install/aarch64/OS_version/SP_version/cd1/boot/aarch64
    root # cp -a linux initrd /srv/tftpboot/EFI/aarch64/boot
  3. Créez à présent le fichier /srv/tftpboot/EFI/grub.cfg et ajoutez le contenu suivant :

    menuentry 'Install OS_version SP_version' {
      linux /EFI/aarch64/boot/linux network=1 usessh=1 sshpassword="suse" \
       install=nfs://192.168.1.1:/srv/install/aarch64/OS_version/SP_version/cd1 \
       console=ttyAMA0,115200n8
      initrd /EFI/aarch64/boot/initrd
    }

    Cet ajout au fichier de configuration contient quelques autres options pour activer la console série et autoriser l'installation via SSH, ce qui est utile pour les systèmes ne disposant pas d'une interface de console KVM standard. Vous remarquerez qu'il est configuré pour une plate-forme ARM spécifique.

9.4 Options de configuration PXELINUX

Les options répertoriées à cet endroit constituent un sous-ensemble de toutes les options disponibles pour le fichier de configuration PXELINUX.

APPEND OPTIONS

Ajoute une ou plusieurs options à la ligne de commande du kernel. Celles-ci sont ajoutées pour les démarrages automatique et manuel. Les options sont ajoutées en tout début de ligne de commande du kernel ; en règle générale, elles peuvent être remplacées par les options de kernel entrées de manière explicite.

APPEND -

N'ajoute rien. APPEND suivi d'un seul tiret, utilisé comme argument dans une section LABEL peut servir à remplacer un APPEND global.

DEFAULT OPTIONS_KERNEL...

Définit la ligne de commande de kernel par défaut. Si PXELINUX démarre automatiquement, il agit comme si les entrées qui figurent après DEFAULT avaient été saisies à l'invite de démarrage, et ce à une exception près : l'option auto est ajoutée automatiquement, ce qui indique un démarrage automatique.

Si aucun fichier de configuration n'existe ou si aucune entrée DEFAULT n'est définie dans le fichier de configuration, la valeur par défaut est le nom de kernel « linux » sans la moindre option.

IFAPPEND FLAG

Ajoute une option spécifique à la ligne de commande du kernel en fonction de la valeur FLAG. L'option IFAPPEND est disponible uniquement sur PXELINUX. FLAG attend une valeur, décrite dans le Tableau 9.1, « Options de ligne de commande de kernel générées et ajoutées en provenance de IFAPPEND » :

Tableau 9.1 : Options de ligne de commande de kernel générées et ajoutées en provenance de IFAPPEND

Argument

Ligne de commande de kernel générée/Description

1

ip=CLIENT_IP:BOOT_SERVER_IP:GW_IP:NETMASK

Les marques de réservation sont remplacées en fonction de l'entrée du serveur de démarrage PXE ou DHCP/BOOTP.

Notez que cette option ne remplace par l'exécution d'un client DHCP sur le système démarré. En l'absence de renouvellements réguliers, le bail obtenu par le BIOS PXE arrive à expiration, ce qui permet au serveur DHCP de réutiliser l'adresse IP.

2

BOOTIF=MAC_ADDRESS_OF_BOOT_INTERFACE

Cette option se révèle particulièrement utile pour éviter les timeouts lorsque le serveur d'installation sonde les interfaces LAN les unes après les autres jusqu'à ce qu'il obtienne une réponse d'un serveur DHCP. Cette option permet à un programme initrd de déterminer l'interface à partir de laquelle le système a démarré. linuxrc lit cette option et utilise cette interface réseau.

4

SYSUUID=SYSTEM_UUID

Ajoute des UUID en hexadécimales minuscules ; voir /usr/share/doc/packages/syslinux/pxelinux.txt

LABEL LABEL KERNEL IMAGE APPEND OPTIONS...

Indique que si LABEL est spécifié comme kernel à démarrer, PXELINUX doit démarrer à la place IMAGE et les options APPEND spécifiées doivent être utilisées plutôt que celles renseignées dans la section principale du fichier (avant la première commande LABEL). La valeur par défaut de la variable IMAGE est identique à celle de LABEL ; si aucune option APPEND n'est fournie, l'entrée globale (le cas échéant) est utilisée par défaut. Vous pouvez utiliser jusqu'à 128 entrées LABEL.

PXELINUX utilise la syntaxe suivante :

label MYLABEL
  kernel MYKERNEL
  append MYOPTIONS

Les libellés sont tronqués comme s'il s'agissait de noms de fichiers et ils doivent être uniques après cette opération. Par exemple, les deux libellés « v2.6.30 » et « v2.6.31 » ne pourraient pas être différenciés sous PXELINUX car, une fois tronqués, ils portent tous deux le même nom de fichier DOS.

Le kernel ne doit pas nécessairement être un kernel Linux. Il peut également s'agir d'un secteur de démarrage ou d'un fichier COMBOOT.

LOCALBOOT TYPE

Sous PXELINUX, si vous remplacez une option KERNEL par LOCALBOOT 0, vous appelez ce libellé précis, et entraînez le démarrage du disque local et non du kernel.

Argument

Description

0

Effectue un démarrage normal.

4

Effectue un démarrage local avec le pilote UNDI (Universal Network Driver Interface - Interface de pilote réseau universelle) qui réside toujours en mémoire.

5

Effectue un démarrage local avec l'intégralité de la pile PXE, y compris le pilote UNDI, qui réside toujours en mémoire.

Aucune autre valeur n'est définie. Si vous ne savez pas à quoi correspondent les piles UNDI et PXE, indiquez 0.

TIMEOUT TIME-OUT

Indique la durée d'attente (en 1/10e de seconde) dans l'invite de démarrage, avant que le démarrage automatique soit lancé. Le timeout est annulé dès que l'utilisateur commence à saisir des données ; le système considère que l'utilisateur va terminer la commande initiée. Un timeout de zéro désactive entièrement le timeout (il s'agit également de la valeur par défaut). La valeur maximale de timeout est 35 996 (un peu moins d'une heure).

PROMPT val_drapeau

Si l'option val_drapeau a pour valeur 0, l'invite de démarrage apparaît uniquement si vous appuyez sur la touche Maj ou Alt, ou si Verr. maj ou Arrêt défil est défini (option par défaut). Si val_drapeau a la valeur 1, cet argument affiche toujours l'invite de démarrage.

F2  FILENAME
F1  FILENAME
..etc...
F9  FILENAME
F10 FILENAME

Affiche le fichier indiqué à l'écran lorsque vous appuyez sur une touche de fonction à l'invite de démarrage. Cette option peut être utilisée pour implémenter l'aide en ligne sur le pré-lancement (normalement pour les options de ligne de commande du kernel). Afin d'assurer une compatibilité avec les versions antérieures, vous pouvez également utiliser la touche F10 à la place de F0. Il n'y a actuellement aucun moyen de lier les noms de fichiers aux touches F11 et F12.

9.5 Préparation du système cible pour le démarrage PXE

Préparez le BIOS du système pour le démarrage de l'environnement PXE en incluant l'option PXE dans l'ordre de démarrage du BIOS.

Avertissement
Avertissement : ordre de démarrage du BIOS

Ne placez pas l'option PXE avant l'option de démarrage du disque dur dans le BIOS. Le système essaierait sinon de se réinstaller chaque fois que vous le démarrez.

9.6 Préparation du système cible pour la fonction Wake on LAN (réveil à distance)

Pour la fonction Wake on LAN (WOL), vous devez activer l'option BIOS appropriée avant d'effectuer l'installation. Notez également l'adresse MAC du système cible. Ces informations sont nécessaires pour lancer la fonction Wake on LAN.

9.7 Wake on LAN

La fonction Wake on LAN permet à une machine d'être activée par un paquet réseau spécial qui contient l'adresse MAC de la machine. Comme chaque machine au monde dispose d'un identificateur MAC unique, vous ne risquez pas d'activer par erreur la mauvaise machine.

Important
Important : réveil à distance sur différents segments du réseau

Si la machine de contrôle n'est pas située sur le même segment réseau que la cible d'installation à réveiller, vous devez configurer les requêtes WOL afin qu'elles soient envoyées en mode multidiffusion ou contrôler à distance une machine de ce segment réseau afin qu'il joue le rôle de l'expéditeur de ces requêtes.

Les utilisateurs de SUSE Linux Enterprise Server peuvent utiliser un module YaST nommé WOL pour configurer facilement la fonction Wake on LAN. Les utilisateurs d'autres versions de systèmes d'exploitation basés sur SUSE Linux peut utiliser un outil de ligne de commande.

9.8 Wake on LAN (réveil à distance) avec YaST

  1. Connectez-vous en tant qu'utilisateur root.

  2. Sélectionnez YaST › Services réseau › WOL.

  3. Cliquez sur Ajouter, puis entrez le nom d'hôte et l'adresse MAC du système cible.

  4. Pour activer cette machine, sélectionnez l'entrée appropriée et cliquez sur Réveiller.

9.9 Démarrage à partir du CD ou d'une clé USB au lieu de PXE

Vous pouvez également utiliser un CD, un DVD ou une clé USB avec une petite image système au lieu de démarrer via PXE. Le chargement des fichiers nécessaires commencera via NFS lorsque les fichiers kernel et initrd seront chargés. Une image de démarrage peut être créée avec mksusecd. Cela peut être utile si la machine cible ne prend pas en charge le démarrage PXE.

Installez-le à l'aide de la commande zypper sudo dans mksusecd. Pour créer une image ISO de démarrage, utilisez la commande suivante :

tux > mksusecd --create image.iso \
--net=nfs://192.168.1.1:/srv/install/ARCH/OS_VERSION/SP_VERSION/cd1  \
/srv/tftpboot/EFI/ARCH/boot

Remplacez ARCH par le dossier correspondant à l'architecture du système cible. Remplacez également OS_version (VERSION_SE) et SP_version (Version_SP) en fonction de vos chemins comme indiqué à la Section 9.3, « Installation des fichiers sur le serveur TFTP ».

Au lieu d'utiliser un serveur NFS pour l'option --net, vous pouvez aussi utiliser un dépôt HTTP, par exemple le dépôt openSUSE :

tux > mksusecd --create image.iso \
--net=http://download.opensuse.org/tumbleweed/repo/oss/suse \
/srv/tftpboot/EFI/ARCH/boot

Le fichier image.iso peut être écrit sur un DVD ou un CD ou à l'aide de dd sur une clé USB :

root # dd if=image.iso of=/dev/USB_DEVICE

Remplacez USB_DEVICE (PÉRIPHÉRIQUE_USB) par le nom de périphérique de votre clé USB. Vérifiez bien le nom du périphérique pour être certain de ne pas détruire accidentellement les données présentes sur une autre unité.

Partie IV Installation à distance

  • 10 Installation à distance
  • SUSE® Linux Enterprise Server peut être installé de différentes manières. Outre l'installation classique du support traitée au Chapitre 6, Installation avec YaST, vous pouvez choisir entre différentes approches réseau, ou même opter pour une installation sans surveillance de SUSE Linux Enterprise Se…

10 Installation à distance

SUSE® Linux Enterprise Server peut être installé de différentes manières. Outre l'installation classique du support traitée au Chapitre 6, Installation avec YaST, vous pouvez choisir entre différentes approches réseau, ou même opter pour une installation sans surveillance de SUSE Linux Enterprise Server.

Chaque méthode est présentée par le biais de deux petites listes de contrôle : une liste des conditions préalables et une description de la procédure de base. Des informations supplémentaires vous sont ensuite fournies pour toutes les techniques utilisées dans ces scénarios d'installation.

Note
Note : terminologie

Dans les sections suivantes, le système destiné à héberger votre nouvelle installation SUSE Linux Enterprise Server est désigné sous les termes de système cible ou cible d'installation. Le terme dépôt (anciennement appelé « source d'installation ») désigne toutes les sources de données d'installation. Il s'agit notamment des supports physiques, tels que les CD et DVD, et des serveurs réseau qui transfèrent les données d'installation sur votre réseau.

10.1 Scénarios d'installation à distance

Cette section présente les scénarios d'installation à distance les plus courants. Pour chaque scénario, vérifiez soigneusement la liste des conditions préalables et suivez la procédure correspondante. Si vous avez besoin d'instructions détaillées pour une étape précise, cliquez sur les liens fournis à cet effet.

10.1.1 Installation à distance simple via VNC : configuration réseau statique

Ce type d'installation nécessite toujours un certain niveau d'accès physique au système cible pour démarrer l'installation. L'installation est contrôlée par un poste de travail distant qui utilise VNC pour se connecter au programme d'installation. Une intervention de l'utilisateur est nécessaire, comme pour l'installation manuelle décrite dans le Chapitre 6, Installation avec YaST.

Pour ce type d'installation, assurez-vous de respecter les exigences suivantes :

  • Un dépôt distant ou local :

    • Dépôt distant : NFS, HTTP, FTP, TFTP ou SMB avec une connexion réseau opérationnelle.

    • Dépôt local : par exemple, un DVD.

  • Système cible avec connexion réseau établie.

  • Système de contrôle doté d'une connexion réseau opérationnelle et d'un logiciel de visualisation VNC.

  • Support de démarrage physique (CD, DVD ou lecteur flash ) pour le démarrage du système cible.

  • Adresses IP statiques valides affectées au dépôt et au système de contrôle.

  • Adresse IP statique valide à affecter au système cible.

Pour effectuer ce type d'installation, procédez de la façon suivante :

  1. Configurez le dépôt conformément à la description indiquée au Chapitre 8, Configuration du serveur qui contient les sources d'installation. Choisissez un serveur réseau NFS, HTTP, FTP ou TFTP. Pour un dépôt SMB, reportez-vous à la Section 8.5, « Gestion d'un dépôt SMB ».

  2. Démarrez le système cible en utilisant le DVD 1 du kit de supports de SUSE Linux Enterprise Server.

  3. Lorsque l'écran de démarrage du système cible apparaît, utilisez l'invite de saisie des options de démarrage pour définir les options VNC appropriées et l'adresse du dépôt. Cette opération est décrite en détail à la Section 10.2, « Démarrage du système cible pour l'installation ».

    Le système cible démarre dans un environnement texte, qui indique l'adresse réseau et le numéro d'affichage grâce auxquels toute application de visualisation VNC ou tout navigateur peut contacter l'environnement d'installation graphique. Les installations VNC s'annoncent sur OpenSLP de manière autonome si les paramètres de pare-feu les autorisent. L'outil slptool permet de les rechercher comme le décrit la Procédure 10.1, « Localisation des installations VNC via OpenSLP ».

  4. Sur le poste de travail de contrôle, ouvrez une application de visualisation VNC ou un navigateur Web et connectez-vous au système cible, comme décrit à la Section 10.3.1, « Installation VNC ».

  5. Effectuez l'installation en suivant la procédure décrite au Chapitre 6, Installation avec YaST. Pour la dernière partie de l'installation, reconnectez-vous au système cible après son redémarrage.

  6. Achevez l'installation.

10.1.2 Installation à distance simple via VNC : configuration réseau dynamique

Ce type d'installation nécessite toujours un certain niveau d'accès physique au système cible pour démarrer l'installation. La configuration du réseau s'effectue via DHCP. L'installation est contrôlée à partir d'un poste de travail distant à l'aide de VNC, mais la configuration nécessite une intervention de l'utilisateur.

Pour ce type d'installation, assurez-vous de respecter les exigences suivantes :

  • Dépôt distant : NFS, HTTP, FTP ou SMB avec connexion réseau établie.

  • Système cible avec connexion réseau établie.

  • Système de contrôle doté d'une connexion réseau opérationnelle et d'un logiciel de visualisation VNC.

  • Démarrez le système cible en utilisant le DVD 1 du kit de supports de SUSE Linux Enterprise Server.

  • Serveur DHCP en cours d'exécution qui fournit des adresses IP.

Pour effectuer ce type d'installation, procédez de la façon suivante :

  1. Configurez le dépôt conformément à la description indiquée au Chapitre 8, Configuration du serveur qui contient les sources d'installation. Choisissez un serveur réseau NFS, HTTP ou FTP. Pour un dépôt SMB, reportez-vous à la Section 8.5, « Gestion d'un dépôt SMB ».

  2. Démarrez le système cible en utilisant le DVD 1 du kit de supports de SUSE Linux Enterprise Server.

  3. Lorsque l'écran de démarrage du système cible apparaît, utilisez l'invite de saisie des options de démarrage pour définir les options VNC appropriées et l'adresse du dépôt. Cette opération est décrite en détail à la Section 10.2, « Démarrage du système cible pour l'installation ».

    Le système cible démarre dans un environnement texte, qui indique l'adresse réseau et le numéro d'affichage grâce auxquels toute application de visualisation VNC ou tout navigateur peut contacter l'environnement d'installation graphique. Les installations VNC s'annoncent sur OpenSLP de manière autonome si les paramètres de pare-feu les autorisent. L'outil slptool permet de les rechercher comme le décrit la Procédure 10.1, « Localisation des installations VNC via OpenSLP ».

  4. Sur le poste de travail de contrôle, ouvrez une application de visualisation VNC ou un navigateur Web et connectez-vous au système cible, comme décrit à la Section 10.3.1, « Installation VNC ».

  5. Effectuez l'installation en suivant la procédure décrite au Chapitre 6, Installation avec YaST. Pour la dernière partie de l'installation, reconnectez-vous au système cible après son redémarrage.

  6. Achevez l'installation.

10.1.3 Installation à distance via VNC : démarrage PXE et fonction Wake on LAN (réveil à distance)

Ce type d'installation est entièrement automatique. La machine cible est démarrée et lancée à distance. L'intervention de l'utilisateur n'est nécessaire que pour l'installation réelle. Cette approche est adaptée aux opérations de déploiement sur plusieurs sites.

Pour effectuer ce type d'installation, assurez-vous de respecter les contraintes suivantes :

  • Dépôt distant : NFS, HTTP, FTP ou SMB avec connexion réseau établie.

  • Serveur TFTP.

  • Serveur DHCP en cours d'exécution pour votre réseau.

  • Système cible, branché et connecté au réseau, compatible avec le démarrage PXE, la prise en charge réseau et la fonction Wake on LAN.

  • Système de contrôle doté d'une connexion réseau opérationnelle et d'un logiciel de visualisation VNC.

Pour effectuer ce type d'installation, procédez de la façon suivante :

  1. Configurez le dépôt conformément à la description indiquée au Chapitre 8, Configuration du serveur qui contient les sources d'installation. Choisissez un serveur réseau NFS, HTTP ou FTP, ou configurez un dépôt SMB en suivant la procédure décrite à la Section 8.5, « Gestion d'un dépôt SMB ».

  2. Configurez un serveur TFTP de manière à ce qu'il contienne une image de démarrage qui peut être extraite par le système cible. Cela est décrit à la Section 9.2, « Configuration d'un serveur TFTP ».

  3. Configurez un serveur DHCP de manière à fournir des adresses IP à toutes les machines et indiquez l'emplacement du serveur TFTP au système cible. Cela est décrit à la Section 9.1, « Configuration d'un serveur DHCP ».

  4. Préparez le système cible pour le démarrage PXE. Cette opération est décrite plus en détail à la Section 9.5, « Préparation du système cible pour le démarrage PXE ».

  5. Lancez le processus de démarrage du système cible à l'aide de la fonction Wake on LAN. Cela est décrit à la Section 9.7, « Wake on LAN ».

  6. Sur le poste de travail de contrôle, ouvrez une application de visualisation VNC ou un navigateur Web et connectez-vous au système cible, comme décrit à la Section 10.3.1, « Installation VNC ».

  7. Effectuez l'installation en suivant la procédure décrite au Chapitre 6, Installation avec YaST. Pour la dernière partie de l'installation, reconnectez-vous au système cible après son redémarrage.

  8. Achevez l'installation.

10.1.4 Installation à distance simple via SSH : configuration réseau statique

Ce type d'installation nécessite toujours un certain niveau d'accès physique au système cible pour démarrer l'installation et déterminer l'adresse IP de la cible d'installation. L'installation même est entièrement contrôlée à partir d'un poste de travail distant qui utilise le protocole SSH pour se connecter au programme d'installation. Une intervention de l'utilisateur est nécessaire, comme pour l'installation standard décrite dans le Chapitre 6, Installation avec YaST.

Pour ce type d'installation, assurez-vous de respecter les exigences suivantes :

  • Dépôt distant : NFS, HTTP, FTP ou SMB avec connexion réseau établie.

  • Système cible avec connexion réseau établie.

  • Système de contrôle doté d'une connexion réseau établie et d'un logiciel client SSH fonctionnel.

  • Démarrez le système cible en utilisant le DVD 1 du kit de supports de SUSE Linux Enterprise Server.

  • Adresses IP statiques valides affectées au dépôt et au système de contrôle.

  • Adresse IP statique valide à affecter au système cible.

Pour effectuer ce type d'installation, procédez de la façon suivante :

  1. Configurez le dépôt conformément à la description indiquée au Chapitre 8, Configuration du serveur qui contient les sources d'installation. Choisissez un serveur réseau NFS, HTTP ou FTP. Pour un dépôt SMB, reportez-vous à la Section 8.5, « Gestion d'un dépôt SMB ».

  2. Démarrez le système cible en utilisant le DVD 1 du kit de supports de SUSE Linux Enterprise Server.

  3. Lorsque l'écran de démarrage du système cible apparaît, utilisez l'invite de saisie des options de démarrage pour définir les paramètres adaptés à la connexion réseau, l'adresse du dépôt et l'activation de la fonctionnalité SSH. Cette opération est décrite en détail à la Section 10.2.2, « Utilisation des options de démarrage personnalisées ».

    Le système cible démarre dans un environnement texte, qui indique l'adresse réseau grâce à laquelle tout client SSH peut contacter l'environnement d'installation graphique.

  4. Sur le poste de travail de contrôle, ouvrez une fenêtre de terminal et connectez-vous au système cible, comme décrit à la Section 10.3.2.2, « Connexion au programme d'installation ».

  5. Effectuez l'installation en suivant la procédure décrite au Chapitre 6, Installation avec YaST. Pour la dernière partie de l'installation, reconnectez-vous au système cible après son redémarrage.

  6. Achevez l'installation.

10.1.5 Installation simple à distance via SSH : configuration réseau dynamique

Ce type d'installation nécessite toujours un certain niveau d'accès physique au système cible pour démarrer l'installation et déterminer l'adresse IP de la cible d'installation. L'installation est contrôlée à partir d'un poste de travail distant à l'aide de SSH, mais la configuration nécessite une intervention de l'utilisateur.

Note
Note : évitez les pertes de connexion après la deuxième étape (installation).

Dans la boîte de dialogue des paramètres réseau, cochez la case Méthode traditionnelle avec ifup et évitez NetworkManager, faute de quoi vous perdrez la connexion SSH au cours de l'installation. Une fois l'installation terminée, réinitialisez les paramètres sur Utilisateur contrôlé par NetworkManager.

Pour ce type d'installation, assurez-vous de respecter les exigences suivantes :

  • Un dépôt distant ou local :

    • Dépôt distant : NFS, HTTP, FTP, TFTP ou SMB avec une connexion réseau opérationnelle.

    • Dépôt local : par exemple, un DVD.

  • Système cible avec connexion réseau établie.

  • Système de contrôle doté d'une connexion réseau établie et d'un logiciel client SSH fonctionnel.

  • Support de démarrage physique (CD, DVD ou lecteur flash ) pour le démarrage du système cible.

  • Serveur DHCP en cours d'exécution qui fournit des adresses IP.

Pour effectuer ce type d'installation, procédez de la façon suivante :

  1. Configurez la source du dépôt en suivant la procédure décrite au Chapitre 8, Configuration du serveur qui contient les sources d'installation. Choisissez un serveur réseau NFS, HTTP ou FTP. Pour un dépôt SMB, reportez-vous à la Section 8.5, « Gestion d'un dépôt SMB ».

  2. Démarrez le système cible en utilisant le DVD 1 du kit de supports de SUSE Linux Enterprise Server.

  3. Lorsque l'écran de démarrage du système cible apparaît, utilisez l'invite de saisie des options de démarrage pour transmettre les paramètres adaptés à la connexion réseau, l'emplacement de la source d'installation et l'activation de la fonctionnalité SSH. Pour obtenir des instructions détaillées sur l'utilisation de ces paramètres, reportez-vous à la Section 10.2.2, « Utilisation des options de démarrage personnalisées ».

    Le système cible démarre dans un environnement texte, qui vous indique l'adresse réseau grâce à laquelle tout client SSH peut contacter l'environnement d'installation graphique.

  4. Sur le poste de travail de contrôle, ouvrez une fenêtre de terminal et connectez-vous au système cible, comme décrit à la Section 10.3.2.2, « Connexion au programme d'installation ».

  5. Effectuez l'installation en suivant la procédure décrite au Chapitre 6, Installation avec YaST. Pour la dernière partie de l'installation, reconnectez-vous au système cible après son redémarrage.

  6. Achevez l'installation.

10.1.6 Installation à distance via SSH : démarrage PXE et fonction Wake on LAN (réveil à distance)

Ce type d'installation est entièrement automatique. La machine cible est démarrée et lancée à distance.

Pour effectuer ce type d'installation, assurez-vous de respecter les contraintes suivantes :

  • Dépôt distant : NFS, HTTP, FTP ou SMB avec connexion réseau établie.

  • Serveur TFTP.

  • Serveur DHCP en cours d'exécution pour votre réseau. Ce serveur doit fournir une adresse IP statique à l'hôte à installer.

  • Système cible, branché et connecté au réseau, compatible avec le démarrage PXE, la prise en charge réseau et la fonction Wake on LAN.

  • système de contrôle doté d'une connexion réseau établie et d'un logiciel client SSH.

Pour effectuer ce type d'installation, procédez de la façon suivante :

  1. Configurez le dépôt conformément à la description indiquée au Chapitre 8, Configuration du serveur qui contient les sources d'installation. Choisissez un serveur réseau NFS, HTTP ou FTP. Pour la configuration d'un dépôt SMB, reportez-vous à la Section 8.5, « Gestion d'un dépôt SMB ».

  2. Configurez un serveur TFTP de manière à ce qu'il contienne une image de démarrage qui peut être extraite par le système cible. Cela est décrit à la Section 9.2, « Configuration d'un serveur TFTP ».

  3. Configurez un serveur DHCP de manière à fournir des adresses IP à toutes les machines et indiquez l'emplacement du serveur TFTP au système cible. Cela est décrit à la Section 9.1, « Configuration d'un serveur DHCP ».

  4. Préparez le système cible pour le démarrage PXE. Cette opération est décrite plus en détail à la Section 9.5, « Préparation du système cible pour le démarrage PXE ».

  5. Lancez le processus de démarrage du système cible à l'aide de la fonction Wake on LAN. Cela est décrit à la Section 9.7, « Wake on LAN ».

  6. Sur le poste de travail de contrôle, démarrez un client SSH et connectez-vous au système cible, comme décrit à la Section 10.3.2, « Installation SSH ».

  7. Effectuez l'installation en suivant la procédure décrite au Chapitre 6, Installation avec YaST. Pour la dernière partie de l'installation, reconnectez-vous au système cible après son redémarrage.

  8. Achevez l'installation.

10.2 Démarrage du système cible pour l'installation

Il existe deux manières de personnaliser le processus de démarrage pour l'installation, en plus de celles exposées à la Section 9.7, « Wake on LAN » et à la Section 9.3.1, « Préparation de la structure ». Une première méthode consiste à utiliser les options de démarrage et les touches de fonction par défaut. L'autre méthode implique d'utiliser l'invite des options de démarrage dans l'écran de démarrage de l'installation pour spécifier les options de démarrage souhaitées dont le kernel d'installation peut avoir besoin pour le matériel spécifique.

10.2.1 Utilisation des options de démarrage par défaut

Les options de démarrage sont décrites en détail dans le Chapitre 6, Installation avec YaST. Généralement, en sélectionnant l'option Installation, le processus de démarrage de l'installation s'amorce.

En cas de problème, utilisez l'option Installation - ACPI désactivé ou Installation - Paramètres sécurisés. Pour plus d'informations sur le dépannage du processus d'installation, reportez-vous au Book “Administration Guide”, Chapter 42 “Common problems and their solutions”, Section 42.2 “Installation Problems”.

La barre de menus située au bas de l'écran propose certaines fonctionnalités avancées indispensables dans certaines configurations. À l'aide des touches de fonction (F1 ... F12), vous pouvez indiquer des options supplémentaires à transmettre aux routines d'installation ; vous n'avez, pour cela, pas besoin de connaître la syntaxe précise de ces paramètres (voir le Section 10.2.2, « Utilisation des options de démarrage personnalisées »). La Section 6.2.2.1, « Écran de démarrage sur les ordinateurs équipés d'un BIOS traditionnel » fournit une description détaillée des touches de fonction disponibles.

10.2.2 Utilisation des options de démarrage personnalisées

L'utilisation de l'ensemble approprié d'options de démarrage simplifie la procédure d'installation. De nombreux paramètres peuvent également être configurés ultérieurement à l'aide des routines linuxrc, mais l'utilisation des options de démarrage s'avère plus simple. Dans certaines configurations automatisées, les options de démarrage peuvent être fournies par initrd ou un fichier info.

Le tableau suivant répertorie tous les scénarios d'installation mentionnés dans ce chapitre, et indique les paramètres requis pour le démarrage et les options associées. Ajoutez-les tous dans l'ordre dans lequel ils apparaissent dans ce tableau pour obtenir une chaîne d'options de démarrage à transmettre aux routines d'installation. Par exemple (toutes sur une seule ligne) :

install=XXX netdevice=XXX hostip=XXX netmask=XXX vnc=XXX VNCPassword=XXX

Remplacez toutes les valeurs XXX de cette commande par les valeurs adaptées à votre configuration.

Chapitre 6, Installation avec YaST

Paramètres nécessaires pour le démarrage.  Aucune

Options de démarrage.  Aucune n'est nécessaire

Section 10.1.1, « Installation à distance simple via VNC : configuration réseau statique »
Paramètres nécessaires pour le démarrage
  • Emplacement du serveur d'installation

  • Périphérique réseau

  • Adresse IP

  • Masque de réseau

  • Passerelle

  • Fonctionnalité VNC

  • Mot de passe VNC

Options de démarrage
  • install=(nfs,http,​ftp,smb)://CHEMIN_SUPPORT_INSTALLATION

  • netdevice=PÉRIPHÉRIQUE_RÉSEAU (nécessaire seulement si plusieurs périphériques réseau sont disponibles)

  • hostip=ADRESSE_IP

  • netmask=MASQUE_RÉSEAU

  • gateway=PASSERELLE_IP

  • vnc=1

  • VNCPassword=MOT_DE_PASSE

Section 10.1.2, « Installation à distance simple via VNC : configuration réseau dynamique »
Paramètres nécessaires pour le démarrage
  • Emplacement du serveur d'installation

  • Fonctionnalité VNC

  • Mot de passe VNC

Options de démarrage
  • install=(nfs,http,​ftp,smb)://CHEMIN_SUPPORT_INSTALLATION

  • vnc=1

  • VNCPassword=MOT_DE_PASSE

Section 10.1.3, « Installation à distance via VNC : démarrage PXE et fonction Wake on LAN (réveil à distance) »
Paramètres nécessaires pour le démarrage
  • Emplacement du serveur d'installation

  • Emplacement du serveur TFTP

  • Fonctionnalité VNC

  • Mot de passe VNC

Options de démarrage.  Ne s'applique pas ; processus géré par PXE et DHCP

Section 10.1.4, « Installation à distance simple via SSH : configuration réseau statique »
Paramètres nécessaires pour le démarrage
  • Emplacement du serveur d'installation

  • Périphérique réseau

  • Adresse IP

  • Masque de réseau

  • Passerelle

  • Fonctionnalité SSH

  • Mot de passe SSH

Options de démarrage
  • install=(nfs,http,​ftp,smb)://CHEMIN_SUPPORT_INSTALLATION

  • netdevice=PÉRIPHÉRIQUE_RÉSEAU (nécessaire seulement si plusieurs périphériques réseau sont disponibles)

  • hostip=ADRESSE_IP

  • netmask=MASQUE_RÉSEAU

  • gateway=PASSERELLE_IP

  • ssh=1

  • ssh.password=PASSWORD

Section 10.1.5, « Installation simple à distance via SSH : configuration réseau dynamique »
Paramètres nécessaires pour le démarrage
  • Emplacement du serveur d'installation

  • Fonctionnalité SSH

  • Mot de passe SSH

Options de démarrage
  • install=(nfs,http,​ftp,smb)://CHEMIN_SUPPORT_INSTALLATION

  • ssh=1

  • ssh.password=PASSWORD

Section 10.1.6, « Installation à distance via SSH : démarrage PXE et fonction Wake on LAN (réveil à distance) »
  • Emplacement du serveur d'installation

  • Emplacement du serveur TFTP

  • Fonctionnalité SSH

  • Mot de passe SSH

Options de démarrage.  Ne s'applique pas ; processus géré par PXE et DHCP

Astuce
Astuce : informations complémentaires concernant les options de démarrage linuxrc

Vous trouverez plus d'informations sur les options de démarrage linuxrc utilisées pour le démarrage d'un système Linux à l'adresse http://en.opensuse.org/SDB:Linuxrc.

10.2.2.1 Installation de produits complémentaires et de mises à jour de pilote

SUSE Linux Enterprise Server prend en charge l'installation de produits complémentaires offrant des extensions (SUSE Linux Enterprise High Availability Extension, par exemple), des produits tiers, ainsi que des pilotes ou des logiciels supplémentaires. Pour installer automatiquement un produit complémentaire lors du déploiement de SUSE Linux Enterprise Server à distance, spécifiez le paramètre addon=REPOSITORY.

REPOSITORY doit être un dépôt hébergé pouvant être lu par YaST (YaST2 ou YUM (rpm-md)). Pour l'heure, les images ISO ne sont pas prises en charge.

Astuce
Astuce : mises à jour de pilote

Les mises à jour de pilote sont disponibles à l'adresse suivante : http://drivers.suse.com/. Toutes les mises à jour de pilote ne sont pas fournies sous la forme de dépôts ; certaines d'entre elles ne sont disponibles que sous la forme d'images ISO et, par conséquent, ne peuvent pas être installées avec le paramètre addon. Les instructions d'installation de mises à jour de pilote au moyen d'une image ISO sont disponibles à l'adresse http://drivers.suse.com/doc/SolidDriver/Driver_Kits.html.

10.3 Surveillance du processus d'installation

Vous disposez de plusieurs options pour surveiller à distance le processus d'installation. Si vous avez indiqué les options de démarrage correctes lors du démarrage de l'installation, vous pouvez utiliser VNC ou SSH pour contrôler l'installation et la configuration du système à partir d'un poste de travail distant.

10.3.1 Installation VNC

À l'aide d'un logiciel de visualisation VNC, vous pouvez contrôler à distance l'installation de SUSE Linux Enterprise Server à partir de presque n'importe quel système d'exploitation. Cette section vous explique comment effectuer une configuration à l'aide d'une application de visualisation VNC ou d'un navigateur Web.

10.3.1.1 Préparation de l'installation VNC

Pour activer VNC sur la cible d'installation, spécifiez les options de démarrage appropriées lors du démarrage initial pour l'installation (voir Section 10.2.2, « Utilisation des options de démarrage personnalisées »). Le système cible démarre dans un environnement texte et attend qu'un client VNC se connecte au programme d'installation.

Le programme d'installation annonce l'adresse IP et le numéro d'affichage nécessaires à l'établissement d'une connexion pour l'installation. Si vous disposez d'un accès physique au système cible, ces informations sont fournies juste après le démarrage du système en vue de l'installation. Entrez ces informations à l'invite du logiciel client VNC et fournissez votre mot de passe VNC.

La cible d'installation s'annonçant via OpenSLP, vous pouvez récupérer les informations relatives à l'adresse de la cible d'installation par le biais d'un navigateur SLP ; aucun contact physique avec l'installation n'est alors nécessaire, dans la mesure où votre configuration réseau et toutes les machines qui y figurent prennent en charge OpenSLP :

Procédure 10.1 : Localisation des installations VNC via OpenSLP
  1. Pour obtenir une liste complète des services proposant VNC, entrez la commande slptool findsrvtypes | grep vnc. Les cibles d'installation de VNC doivent être disponibles sous un service intitulé YaST.installation.suse.

  2. Exécutez la commande slptool findsrvs YaST.installation.suse pour obtenir une liste des installations disponibles. Utilisez l'adresse IP et le port (généralement 5901) fourni avec votre logiciel de visualisation VNC.

10.3.1.2 Connexion au programme d'installation

Pour vous connecter à un serveur VNC (la cible d'installation dans le cas présent), démarrez une application de visionneuse VNC indépendante sur un système d'exploitation de votre choix.

À l'aide de VNC, vous pouvez contrôler l'installation d'un système Linux à partir de tout autre système d'exploitation (notamment d'autres versions de Linux, Windows ou Mac OS).

Sur une machine Linux, assurez-vous que le paquetage tightvnc est installé. Sur une machine Windows, installez le port Windows de cette application ; il est disponible sur la page d'accueil de TightVNC (http://www.tightvnc.com/download.html).

Pour vous connecter au programme d'installation qui s'exécute sur la machine cible, procédez de la façon suivante :

  1. Démarrez la visionneuse VNC.

  2. Entrez l'adresse IP et le numéro d'affichage de la cible d'installation, tels qu'ils sont fournis par le navigateur SLP ou le programme d'installation :

    IP_ADDRESS:DISPLAY_NUMBER

    Une fenêtre apparaît sur votre bureau ; elle affiche les écrans YaST de la même manière que pour une installation locale standard.

10.3.2 Installation SSH

Grâce à SSH, vous pouvez contrôler à distance l'installation de votre machine Linux à l'aide du logiciel client SSH.

10.3.2.1 Préparation de l'installation SSH

Hormis l'installation du paquetage logiciel requis (OpenSSH pour Linux et PuTTY pour Windows), vous devez spécifier les options de démarrage correspondantes afin d'activer SSH pour l'installation. Reportez-vous à la Section 10.2.2, « Utilisation des options de démarrage personnalisées » pour plus d'informations. OpenSSH est installé par défaut sur tout système d'exploitation SUSE Linux.

10.3.2.2 Connexion au programme d'installation

  1. Récupérez l'adresse IP de la cible d'installation. Si vous disposez d'un accès physique à la machine cible, utilisez l'adresse IP que la routine d'installation fournit dans la console après le démarrage initial. Prenez sinon l'adresse IP qui a été attribuée à cet hôte précis lors de la configuration du serveur DHCP.

  2. Sur la ligne de commande, entrez la commande suivante :

    ssh -X root@
    ip_address_of_target

    Remplacez IP_ADDRESS_OF_TARGET (ADRESSE_IP_CIBLE) par l'adresse IP réelle de la cible d'installation.

  3. Lorsque vous êtes invité à saisir un nom d'utilisateur, entrez root.

  4. Lorsque vous y êtes invité, entrez le mot de passe qui a été défini avec l'option de démarrage SSH. Une fois l'authentification réussie, une invite de ligne de commande pour la cible d'installation apparaît.

  5. Entrez yast pour lancer le programme d'installation. Une fenêtre apparaît ; elle affiche les écrans YaST standard, tels qu'ils sont décrits dans le Chapitre 6, Installation avec YaST.

Partie V Configuration initiale du système

  • 11 Configuration des composants matériels avec YaST
  • YaST vous permet de configurer des éléments matériels tels que de l'équipement audio, la disposition du clavier système ou encore des imprimantes.

  • 12 Configuration avancée des disques
  • Les configurations système élaborées nécessitent de configurer les disques d'une certaine manière. Toutes les tâches de partitionnement courantes peuvent être effectuées avec YaST. Pour obtenir une dénomination persistante avec les périphériques de bloc, utilisez les périphériques situés sous/dev/di…

  • 13 Installation et suppression de logiciels
  • Utilisez l'outil de gestion des logiciels de YaST pour rechercher les composants logiciels à ajouter ou à supprimer. YaST résout toutes les dépendances. Pour installer des paquetages non livrés avec le support d'installation, ajoutez des dépôts de logiciels à votre configuration et laissez YaST les gérer. Maintenez votre système à jour en gérant les mises à jour de logiciels à l'aide de l'applet de mise à jour.

  • 14 Installation de modules, extensions et produits complémentaires tiers
  • Les modules et les extensions ajoutent des parties ou des fonctionnalités au système. Les modules sont des composants SUSE Linux Enterprise Server bénéficiant d'une prise en charge complète, avec un cycle de vie et un planning de mise à jour différents. Il s'agit d'un ensemble de paquetages, qui ont une étendue clairement définie et sont fournis via un canal en ligne uniquement.

    Les extensions telles que Workstation Extension ou High Availability Extension ajoutent des fonctionnalités supplémentaires au système et nécessitent une clé d'enregistrement pouvant être payante. Les extensions sont distribuées par le biais d'un canal en ligne ou d'un support physique. L'enregistrement auprès du SUSE Customer Center ou d'un serveur d'enregistrement local est une condition préalable pour s'abonner aux canaux en ligne. Le concentrateur de paquetages (Section 14.6, « SUSE Package Hub ») et le SDK SUSE (Section 14.5, « Kit SDK SUSE 12 SP5 ») sont des exceptions qui ne nécessitent pas une clé d'enregistrement et ne sont pas couverts par des accords de support SUSE.

    La liste des extensions et des modules pour votre produit est accessible après avoir enregistré votre système auprès du SUSE Customer Center ou d'un serveur d'enregistrement local. Si vous avez ignoré l'étape d'enregistrement, vous pourrez enregistrer votre système ultérieurement en utilisant le module Configuration de SUSE Customer Center de YaST. Pour plus d'informations, reportez-vous à la Section 20.8, « Enregistrement de votre système ».

    Certains produits complémentaires sont également fournis par des tiers ; ainsi, certains matériels exigent des pilotes binaires uniquement pour fonctionner correctement. Si cela concerne votre matériel, reportez-vous aux notes de version pour obtenir plus d'informations sur la disponibilité des pilotes binaires pour votre système. Les notes de version sont disponibles sur le site http://www.suse.com/releasenotes/, auprès de YaST ou dans le dossier /usr/share/doc/release-notes/ sur votre système installé.

  • 15 Installation de plusieurs versions du kernel
  • SUSE Linux Enterprise Server prend en charge l'installation parallèle de plusieurs versions du kernel. Lorsque vous installez un deuxième kernel, une entrée de démarrage et un fichier initrd sont automatiquement créés. Aucune autre configuration manuelle n'est donc requise. Lorsque vous redémarrez la machine, le nouveau kernel est disponible sous la forme d'une option de démarrage supplémentaire.

    Cette fonctionnalité vous permet de tester les mises à jour de kernel en toute sécurité, tout en ayant la possibilité de revenir au kernel opérationnel précédent. Pour ce faire, n'utilisez pas les outils de mise à jour (tels que YaST Online Update ou l'applet de mise à jour), mais suivez la procédure décrite dans ce chapitre.

  • 16 Gestion des utilisateurs avec YaST
  • Lors de l'installation, vous pouvez avoir créé un utilisateur local pour votre système. Le module Gestion des utilisateurs et des groupes de YaST vous permet d'ajouter davantage d'utilisateurs ou de modifier des utilisateurs existants. Il vous permet également de configurer votre système afin d'auth…

  • 17 Modification des paramètres de langue et de pays avec YaST
  • Si vous travaillez dans différents pays ou dans un environnement multilingue, votre ordinateur nécessite une configuration spécifique. SUSE® Linux Enterprise Server peut gérer différents paramètres locaux en parallèle. Un paramètre local est un ensemble de paramètres qui définit les paramètres de la…

11 Configuration des composants matériels avec YaST

YaST vous permet de configurer des éléments matériels tels que de l'équipement audio, la disposition du clavier système ou encore des imprimantes.

Note
Note : paramètres de la carte graphique, du moniteur, de la souris et du clavier

La carte graphique, le moniteur, la souris et le clavier peuvent être configurés avec des outils GNOME.

11.1 Configuration de la disposition de votre clavier système

Le module Configuration du clavier système de YaST vous permet de définir la disposition par défaut pour ce système (cette disposition est également utilisée pour la console). Les utilisateurs peuvent modifier la disposition du clavier dans leurs sessions X à l'aide des outils du bureau.

  1. Ouvrez la boîte de dialogue Configuration du clavier système de YaST en cliquant sur Matériel › Configuration du clavier système dans YaST. Vous pouvez également démarrer le module en saisissant sudo yast2 keyboard sur la ligne de commande.

  2. Sélectionnez la Configuration de clavier de votre choix dans la liste.

  3. Vous pouvez éventuellement définir le taux de répétition ou de délai du clavier dans les Paramètres avancés.

  4. Vous pouvez essayer les paramètres sélectionnés dans la zone de texte Test.

  5. Si le résultat est conforme à vos attentes, confirmez vos modifications et fermez la boîte de dialogue. Les paramètres sont écrits dans /etc/sysconfig/keyboard.

11.2 Configuration des cartes son

YaST détecte automatiquement la plupart des cartes son et les configure avec les valeurs appropriées. Pour modifier les paramètres par défaut ou si vous devez configurer une carte son qui n'a pas pu être configurée automatiquement, utilisez le module YaST relatif au son. Ce module vous permet également de configurer des cartes son supplémentaires ou de modifier leur ordre.

Pour démarrer le module de son, lancez YaST, puis cliquez sur Matériel › Son. Vous pouvez également ouvrir directement la boîte de dialogue Configuration du son à partir d'une ligne de commande en exécutant la commande yast2 sound & en tant qu'utilisateur root.

Image

La boîte de dialogue affiche toutes les cartes son détectées.

Procédure 11.1 : Configuration des cartes son

Si vous avez ajouté une nouvelle carte son ou si YaST n'a pas réussi à configurer automatiquement une carte son existante, suivez la procédure ci-après. Pour configurer une nouvelle carte son, vous devez connaître le fournisseur de votre carte et son modèle. En cas de doute, reportez-vous à la documentation de votre carte son pour obtenir les informations requises. Pour accéder à une liste de référence répertoriant les cartes son prises en charge par ALSA avec leur module de son correspondant, visitez le site http://www.alsa-project.org/main/index.php/Matrix:Main.

Pendant la configuration, vous pouvez choisir parmi les options de configuration suivantes :

Configuration automatique rapide

Vous n'avez pas besoin d'exécuter la procédure suivante ; la carte son est configurée automatiquement. Vous pouvez définir le volume ou toutes les options que vous souhaitez modifier ultérieurement.

Configuration normale

Permet de régler le volume de sortie et de tester le son pendant la configuration.

Configuration avancée avec possibilité de changer les options

Pour les utilisateurs avancés uniquement. Permet de personnaliser tous les paramètres de la carte son.

Important
Important : configuration avancée

Utilisez cette option uniquement si vous savez exactement ce que vous faites. Sinon, ne modifiez pas les paramètres et utilisez les options de configuration normale ou automatique.

  1. Démarrez le module YaST relatif au son.

  2. Pour configurer une carte son détectée mais non configurée, sélectionnez l'entrée correspondante dans la liste, puis cliquez sur Modifier.

    Pour configurer une nouvelle carte son, cliquez sur Ajouter. Sélectionnez le fournisseur et le modèle de votre carte son, puis cliquez sur Suivant.

  3. Sélectionnez l'une des options de configuration, puis cliquez sur Suivant.

  4. Si vous avez choisi Configuration normale, vous pouvez maintenant tester la configuration du son et régler le volume. Commencez aux alentours de 10 % pour éviter d'endommager vos haut-parleurs ou vos tympans.

  5. Une fois toutes les options définies selon votre choix, cliquez sur suivant.

    La boîte de dialogue Configuration du son affiche la carte son qui vient d'être configurée ou modifiée.

  6. Pour supprimer la configuration d'une carte son que vous n'utilisez plus, sélectionnez l'entrée correspondante, puis cliquez sur Supprimer.

  7. Cliquez sur OK pour enregistrer les modifications et quitter le module YaST relatif au son.

Procédure 11.2 : Modification des configurations de cartes son
  1. Pour modifier la configuration d'une carte son individuelle (pour les utilisateurs avancés uniquement), sélectionnez l'entrée de la carte son dans la boîte de dialogue Configuration du son, puis cliquez sur Modifier.

    Vous accédez ainsi à la section Options avancées de la carte son dans laquelle vous pouvez configurer plusieurs paramètres. Pour plus d'informations, cliquez sur Aide.

  2. Pour régler le volume d'une carte son déjà configurée ou pour tester la carte son, sélectionnez l'entrée correspondante dans la boîte de dialogue Configuration du son, puis cliquez sur Autre. Sélectionnez l'option de menu correspondante.

    Note
    Note : console de mixage YaST

    Les paramètres de la console de mixage YaST proposent uniquement des options de base. Celles-ci sont conçues à des fins de dépannage (par exemple si un son de test n'est pas audible). Accédez aux paramètres de la console de mixage YaST depuis Autre › Volume. Pour un usage quotidien ou pour définir plus précisément les options de son, utilisez l'applet du mélangeur fourni par votre ordinateur ou l'outil de ligne de commande alsasound.

  3. Pour la lecture des fichiers MIDI, sélectionnez Autre › Démarrer le séquenceur.

  4. Lorsqu'une carte son prise en charge est détectée, vous pouvez installer SoundFonts pour la lecture de fichiers MIDI :

    1. Insérez le CD-ROM du pilote d'origine dans votre lecteur de CD ou de DVD.

    2. Sélectionnez Autre › Installer les fontes sonores pour copier SF2 SoundFonts™ sur votre disque dur. Les fontes sonores sont enregistrées dans le répertoire /usr/share/sfbank/creative/.

  5. Si vous avez configuré plusieurs cartes son sur votre système, vous pouvez modifier l'ordre de vos cartes. Pour configurer une carte son en tant que périphérique principal, sélectionnez la carte dans la section Configuration du son, puis cliquez sur Autre › Définir comme carte primaire. Le périphérique audio ayant l'index 0 est le périphérique par défaut utilisé par le système et les applications.

  6. Par défaut, SUSE Linux Enterprise Server utilise le système audio PulseAudio. Il s'agit d'une couche d'abstraction qui permet de mélanger plusieurs flux audio en contournant les éventuelles restrictions matérielles. Pour activer ou désactiver le système audio PulseAudio, cliquez sur Autre › Configuration PulseAudio. S'il est activé, la daemon PulseAudio est utilisé pour lire les sons. Désactivez la prise en charge PulseAudio pour utiliser une alternative à l'échelle du système.

Le volume et la configuration de toutes les cartes son s'enregistrent lorsque vous cliquez sur OK et que vous quittez le module YaST relatif au son. Les paramètres du mélangeur sont enregistrés dans le fichier /etc/asound.state. Les données de configuration ALSA sont annexées à la fin du fichier /etc/modprobe.d/sound et écrites sur /etc/sysconfig/sound.

11.3 Configuration d'une imprimante

YaST peut être utilisé pour configurer une imprimante locale reliée à votre machine via un port USB et pour configurer les impressions avec des imprimantes réseau. Il est également possible de partager des imprimantes sur le réseau. Pour plus d'informations sur l'impression (informations générales, détails techniques et dépannage), reportez-vous au Book “Administration Guide”, Chapter 18 “Printer Operation”.

Dans YaST, cliquez sur Matériel › Imprimante pour lancer le module relatif aux imprimantes. La vue Configurations d'imprimantes s'ouvre par défaut en affichant la liste de toutes les imprimantes disponibles et configurées. Cette vue est particulièrement utile en cas d'accès à un grand nombre d'imprimantes via le réseau. Elle permet également d'imprimer une page de test et de configurer des imprimantes.

Note
Note : démarrage de CUPS

Pour pouvoir imprimer à partir de votre système, CUPS doit être en cours d'exécution. S'il ne l'est pas, vous êtes invité à le démarrer. Répondez Oui, faute de quoi vous ne pourrez pas configurer l'impression. Si CUPS n'est pas lancé au moment du démarrage, vous serez également invité à activer cette fonction. Il est recommandé de répondre Oui, faute de quoi vous devrez démarrer CUPS manuellement après chaque redémarrage.

11.3.1 Configuration des imprimantes

En général, une imprimante USB est détectée automatiquement. Si ce n'est pas le cas, deux explications sont possibles :

  • L'imprimante USB est hors tension.

  • La communication entre l'imprimante et l'ordinateur est impossible. Vérifiez le câblage et les fiches pour vous assurer que l'imprimante est correctement connectée. Si tel est le cas, le problème n'est peut-être pas lié à l'imprimante, mais plutôt au port USB.

La configuration d'une imprimante s'effectue en trois étapes. Commencez par spécifier le type de connexion, puis choisissez un pilote et nommez la file d'attente d'impression pour cette configuration.

Pour de nombreux modèles d'imprimantes, plusieurs pilotes sont disponibles. Lors de la configuration de l'imprimante, YaST utilise par défaut les pilotes marqués comme recommandés. Il n'est généralement pas nécessaire de modifier le pilote. Toutefois, si vous souhaitez qu'une imprimante couleur imprime uniquement en noir et blanc, vous pouvez utiliser un pilote qui ne prend pas en charge l'impression couleur, par exemple. Si vous rencontrez des problèmes de performances avec une imprimante PostScript lors de l'impression de graphiques, essayez de passer d'un pilote PostScript à un pilote PCL (si votre imprimante prend en charge PCL).

Si aucun pilote n'est répertorié pour votre imprimante, essayez de sélectionner un pilote générique avec une langue standard appropriée dans la liste. Reportez-vous à la documentation de votre imprimante pour déterminer le langage (ensemble de commandes contrôlant l'imprimante) pris en charge par votre imprimante. Si cela ne fonctionne pas, reportez-vous à la Section 11.3.1.1, « Ajout de pilotes avec YaST » pour trouver une autre solution.

Une imprimante n'est jamais utilisée directement, mais toujours via une file d'attente d'impression. Cette file d'attente garantit que les travaux simultanés peuvent être mis en attente et traités les uns après les autres. Chaque file d'attente d'impression est assignée à un pilote spécifique et l'imprimante peut comporter plusieurs files d'attente. Cela permet de configurer une seconde file d'attente sur une imprimante couleur qui imprime uniquement en noir et blanc, par exemple. Pour plus d'informations sur les files d'attente d'impression, reportez-vous au Book “Administration Guide”, Chapter 18 “Printer Operation”, Section 18.1 “The CUPS Workflow”.

Procédure 11.3 : Ajout d'une nouvelle imprimante
  1. Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel › Imprimante.

  2. Cliquez sur Ajouter dans l'écran Configurations d'imprimantes .

  3. Si votre imprimante figure déjà sous Spécifier la connexion, passez à l'étape suivante. Sinon, sélectionnez Détecter plus d'éléments ou lancez l'assistant de connexion.

  4. Entrez le nom du fournisseur et du modèle dans la zone de texte située sous Rechercher et assigner un pilote, puis cliquez sur Rechercher.

  5. Sélectionnez un pilote qui correspond à votre imprimante. Il est recommandé de sélectionner le premier pilote de la liste. Si aucun pilote approprié n'est affiché :

    1. Vérifiez votre terme de recherche.

    2. Élargissez votre recherche en cliquant sur Trouver plus d'éléments.

    3. Ajoutez un pilote selon la procédure décrite dans la Section 11.3.1.1, « Ajout de pilotes avec YaST ».

  6. Spécifiez le paramètre Taille du papier par défaut.

  7. Dans le champ Définir un nom arbitraire, entrez un nom unique pour la file d'attente d'impression.

  8. L'imprimante est désormais configurée avec les paramètres par défaut et prête à l'emploi. Cliquez sur OK pour revenir à la vue Configurations d'imprimantes. L'imprimante qui vient d'être configurée apparaît désormais dans la liste des imprimantes.

11.3.1.1 Ajout de pilotes avec YaST

Tous les pilotes d'imprimante disponibles pour SUSE Linux Enterprise Server ne sont pas installés par défaut. Si lors de l'ajout d'une nouvelle imprimante, aucun pilote approprié n'est disponible dans la boîte de dialogue Rechercher et assigner un pilote, installez un paquetage de pilotes pour vos imprimantes :

Procédure 11.4 : Installation de paquetages de pilotes supplémentaires
  1. Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel › Imprimante.

  2. Cliquez sur Ajouter dans l'écran Configurations d'imprimantes.

  3. Cliquez sur Driver Packages (Paquetages de pilote) dans la section Find and Assign a Driver (Trouver et assigner un pilote).

  4. Sélectionnez un ou plusieurs paquetages de pilotes appropriés dans la liste. Ne spécifiez pas le chemin d'un fichier de description d'imprimante.

  5. Cliquez sur OK et confirmez l'installation du paquetage.

  6. Pour utiliser ces pilotes directement, suivez la Procédure 11.3, « Ajout d'une nouvelle imprimante ».

Les imprimantes PostScript ne nécessitent pas de logiciel de pilote d'imprimante. Elles ont uniquement besoin d'un fichier PPD (PostScript Printer Description) qui correspond au modèle particulier. Les fichiers PPD sont fournis par le fabricant de l'imprimante.

Si lors de l'ajout d'une imprimante PostScript, aucun fichier PPD approprié n'est disponible dans la boîte de dialogue Rechercher et assigner un pilote, installez un fichier PPD pour votre imprimante :

Plusieurs sources de fichiers PPD sont disponibles. Essayez d'abord les paquetages de pilotes supplémentaires fournis avec SUSE Linux Enterprise Server, mais qui ne sont pas installés par défaut (voir les instructions d'installation ci-dessous). S'ils ne contiennent pas de pilotes appropriés pour votre imprimante, procurez-vous les fichiers PPD directement auprès de votre fournisseur d'imprimantes ou sur le CD de pilotes d'une imprimante PostScript. Pour plus de détails, reportez-vous au Book “Administration Guide”, Chapter 18 “Printer Operation”, Section 18.8.2 “No Suitable PPD File Available for a PostScript Printer”. Vous pouvez également accéder aux fichiers PPD à l'adresse http://www.linuxfoundation.org/collaborate/workgroups/openprinting/database/databaseintro, la « base de données d'imprimantes OpenPrinting.org ». Lorsque vous téléchargez des fichiers PPD à partir du site OpenPrinting, n'oubliez pas qu'ils affichent toujours l'état du dernier support Linux, qui ne correspond pas forcément à celui de SUSE Linux Enterprise Server.

Procédure 11.5 : Ajout d'un fichier PPD pour des imprimantes PostScript
  1. Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel › Imprimante.

  2. Cliquez sur Ajouter dans l'écran Configurations d'imprimantes.

  3. Cliquez sur Driver Packages (Paquetages de pilote) dans la section Find and Assign a Driver (Trouver et assigner un pilote).

  4. Entrez le chemin complet du fichier PPD dans la zone de texte située sous Rendre un fichier de description d'imprimante disponible.

  5. Cliquez sur OK pour revenir à l'écran Ajouter une nouvelle imprimante.

  6. Pour utiliser directement ce fichier PPD, suivez la Procédure 11.3, « Ajout d'une nouvelle imprimante ».

11.3.1.2 Modification d'une configuration d'imprimante locale

En éditant la configuration existante d'une imprimante, vous pouvez modifier des paramètres de base tels que le type de connexion et le pilote. Il est également possible d'ajuster les paramètres par défaut tels que le format du papier, la résolution, la source du média, etc. Vous pouvez modifier les identifiants de l'imprimante en changeant la description ou l'emplacement de l'imprimante.

  1. Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel › Imprimante.

  2. Dans l'écran Configurations d'imprimantes, sélectionnez une configuration d'imprimante locale dans la liste, puis cliquez sur Modifier.

  3. Modifiez le type de connexion ou le pilote, conformément à la Procédure 11.3, « Ajout d'une nouvelle imprimante ». Cela ne devrait être nécessaire que si vous rencontrez des problèmes avec la configuration actuelle.

  4. Vous pouvez également définir cette imprimante comme celle par défaut en cochant la case Imprimante par défaut.

  5. Modifiez les paramètres par défaut en cliquant sur Toutes les options du pilote actuel. Pour modifier un paramètre, développez la liste des options en cliquant sur le signe +. Modifiez le paramètre par défaut en cliquant sur une option. Cliquez sur OK pour appliquer vos modifications.

11.3.2 Configuration de l'impression via le réseau avec YaST

Les imprimantes réseau ne sont pas détectées automatiquement. Elles doivent être configurées manuellement à l'aide du module YaST relatif aux imprimantes. En fonction de votre configuration réseau, vous pouvez imprimer sur un serveur d'impression (CUPS, LPD, SMB ou IPX) ou directement sur une imprimante réseau (via TCP de préférence). Accédez à la vue de configuration réseau en sélectionnant Imprimer par le réseau dans le volet gauche du module YaST relatif aux imprimantes.

11.3.2.1 Utilisation de CUPS

Dans un environnement Linux, CUPS est généralement utilisé pour imprimer via le réseau. La configuration la plus simple consiste à imprimer via un seul serveur CUPS auquel tous les clients peuvent accéder directement. L'impression via plusieurs serveurs CUPS nécessite l'exécution du daemon CUPS local qui communique avec les serveurs CUPS distants.

Important
Important : navigation dans les files d'attente d'impression réseau

Les serveurs CUPS publient leurs files d'attente d'impression sur le réseau via le protocole de navigation traditionnel CUPS ou Bonjour/DND-SD. Les clients doivent pouvoir parcourir ces listes afin que les utilisateurs puissent sélectionner des imprimantes spécifiques auxquelles envoyer leurs travaux d'impression. Pour pouvoir naviguer dans les files d'attente d'impression réseau, le service cups-browsed fournit par le paquetage cups-filters-cups-browsed doit s'exécuter sur tous les clients qui impriment via les serveurs CUPS. cups-browsed est démarré automatiquement lors de la configuration de l'impression réseau avec YaST.

Si la navigation ne fonctionne pas après avoir démarré cups-browsed, les serveurs CUPS annoncent probablement les files d'attente d'impression réseau via Bonjour/DND-SD. Dans ce cas, vous devez également installer le paquetage avahi et démarrer le service associé en exécutant la commande sudo systemctl start avahi-daemon sur tous les clients.

Procédure 11.6 : Impression via un seul serveur CUPS
  1. Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel › Imprimante.

  2. Ouvrez l'écran Imprimer via le réseau à partir du volet gauche.

  3. Sélectionnez Do All Your Printing Directly via One Single CUPS Server (Tout imprimer directement via un seul serveur CUPS) et spécifiez le nom ou l'adresse IP du serveur.

  4. Cliquez sur Tester le serveur pour vous assurer que vous avez sélectionné le nom ou l'adresse IP appropriée.

  5. Cliquez sur OK pour revenir à l'écran Configurations d'imprimantes. Toutes les imprimantes disponibles via le serveur CUPS sont désormais répertoriées.

Procédure 11.7 : Impression via plusieurs serveurs CUPS
  1. Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel › Imprimante.

  2. Ouvrez l'écran Imprimer via le réseau à partir du volet gauche.

  3. Cochez la case Accepter les annonces d'imprimantes depuis les serveurs CUPS.

  4. Spécifiez les serveurs que vous souhaitez utiliser sous Paramètres généraux. Vous pouvez accepter les connexions de tous les réseaux disponibles ou de certains hôtes spécifiques. Si vous choisissez la dernière option, vous devez spécifier les noms d'hôte ou les adresses IP.

  5. Confirmez en cliquant sur OK, puis sur Oui lorsque vous êtes invité à démarrer un serveur CUPS local. Une fois le serveur démarré, YaST revient à l'écran Configurations d'imprimantes. Cliquez sur Rafraîchir la liste pour afficher les imprimantes détectées à partir de maintenant. Cliquez de nouveau sur ce bouton si d'autres imprimantes supplémentaires sont disponibles.

11.3.2.2 Utilisation de serveurs d'impression autres que CUPS

Si votre réseau offre des services d'impression via des serveurs autres que CUPS, lancez le module YaST relatif aux imprimantes en cliquant sur Matériel › Imprimante, puis ouvrez l'écran Imprimer par le réseau à partir du volet gauche. Démarrez l'Assistant de connexion et sélectionnez le Type de connexion approprié. Demandez à votre administrateur réseau des détails sur la configuration d'une imprimante réseau dans votre environnement.

11.3.3 Partage des imprimantes sur le réseau

Les imprimantes gérées par un daemon CUPS local peuvent être partagées sur le réseau, transformant ainsi votre machine en serveur CUPS. Généralement, vous partagez une imprimante en activant le « mode de navigation » CUPS. Si la navigation est activée, les files d'attente d'impression locale sont mises à disposition sur le réseau pour écouter les daemons CUPS distants. Il est également possible de configurer un serveur CUPS dédié qui gère toutes les files d'attente d'impression et auquel les clients distants peuvent accéder directement. Dans ce cas, il n'est pas nécessaire d'activer la navigation.

Procédure 11.8 : Partage des imprimantes
  1. Démarrez le module YaST relatif aux imprimantes en cliquant sur Matériel › Imprimante.

  2. Ouvrez l'écran Partager les imprimantes dans le volet gauche.

  3. Sélectionnez Autoriser l'accès distant. Sélectionnez également Pour les ordinateurs dans le réseau local et activez le mode de navigation en sélectionnant également Publier les imprimantes par défaut dans le réseau local.

  4. Cliquez sur OK pour redémarrer le serveur CUPS et revenir à l'écran Configurations d'imprimantes.

  5. Pour plus d'informations sur les paramètres de CUPS et du pare-feu, visitez le site http://en.opensuse.org/SDB:CUPS_and_SANE_Firewall_settings.

12 Configuration avancée des disques

Les configurations système élaborées nécessitent de configurer les disques d'une certaine manière. Toutes les tâches de partitionnement courantes peuvent être effectuées avec YaST. Pour obtenir une dénomination persistante avec les périphériques de bloc, utilisez les périphériques situés sous/dev/disk/by-id ou /dev/disk/by-uuid. Conçu pour être bien plus flexible que le partitionnement physique utilisé dans les configurations standard, le modèle LVM (Logical Volume Management - Gestion des volumes logiques) est un modèle de partition de disque. La fonction d'instantané permet de sauvegarder les données en toute simplicité. Le réseau RAID (Redundant Array of Independent Disks - Réseau redondant de disques indépendants) offre une intégrité, des performances et une tolérance aux pannes accrues des données. SUSE Linux Enterprise Server (SLES) prend également en charge l'option Multipath I/O (voir le Book “Storage Administration Guide”, Chapter 17 “Managing multipath I/O for devices” pour plus de détails). Il est également possible d'utiliser iSCSI comme disque en réseau (pour plus d'informations sur iSCSI, voir le Book “Storage Administration Guide”, Chapter 14 “Mass Storage over IP Networks: iSCSI”).

12.1 Utilisation de l'outil de partitionnement de YaST

Le partitionneur en mode expert, illustré à la Figure 12.1, « Outil de partitionnement de YaST », permet de modifier manuellement le partitionnement d'un ou de plusieurs disques durs. Vous pouvez ajouter, supprimer, redimensionner et modifier les partitions ou accéder à la configuration logicielle RAID et LVM.

Avertissement
Avertissement : repartitionnement du système en cours d'exécution

S'il est possible de repartitionner un système en cours d'exécution, le risque de commettre une erreur qui engendrerait une perte de données est très important. Évitez de repartitionner un système installé et si vous devez vraiment le faire, sauvegardez par avance toutes vos données.

Outil de partitionnement de YaST
Figure 12.1 : Outil de partitionnement de YaST
Astuce
Astuce : IBM Z : noms des périphériques

IBM Z reconnaît uniquement les disques durs DASD et SCSI. Les disques durs IDE ne sont pas pris en charge. Pour cette raison, ces périphériques apparaissent dans la table de partition au format de fichier dasda ou sda pour le premier périphérique reconnu.

Toutes les partitions existantes ou proposées de tous les disques durs connectés sont affichées dans la liste de l'Espace de stockage disponible de la boîte de dialogue Partitionnement en mode expert de YaST. Les disques durs complets sont répertoriés sous forme de périphériques sans numéros, tels que /dev/sda (ou /dev/dasda). Les partitions sont répertoriées comme des parties de ces périphériques, par exemple /dev/sda1 (ou /dev/dasda1, respectivement). La taille, le type, l'état de codage, le système de fichiers et le point de montage des disques durs et de leurs partitions sont également affichés. Le point de montage indique l'emplacement où la partition apparaît dans l'arborescence du système de fichiers Linux.

La vue système sur la gauche propose plusieurs vues fonctionnelles. Utilisez ces vues pour collecter des informations sur les configurations de stockage existantes, pour configurer des fonctions (comme RAID, Gestion des volumes, Fichiers de codage) ou pour afficher des systèmes de fichiers avec des fonctionnalités supplémentaires comme BTRFS, NFS ou TMPFS.

Si vous ouvrez cette boîte de dialogue au cours de l'installation, l'espace disque libre est également répertorié et automatiquement sélectionné. Pour fournir plus d'espace disque à SUSE® Linux Enterprise Server, libérez l'espace requis en commençant au bas de la liste et en remontant progressivement (c'est à dire de la dernière partition d'un disque vers la première).

12.1.1 Types de partitions

Astuce
Astuce : IBM Z : disques durs

Sur les plates-formes IBM Z , SUSE Linux Enterprise Server prend en charge les disques durs SCSI et les périphériques de stockage à accès direct (DASD). Si les disques SCSI peuvent être partitionnés comme indiqué ci-dessous, les DASD ne peuvent pas avoir plus de trois entrées de partition dans leurs tables de partition.

Chaque disque dur possède une table de partition pouvant accepter quatre entrées. Chaque entrée d'une table de partition correspond à une partition principale ou à une partition étendue. Une seule entrée de partition étendue est cependant autorisée.

Une partition principale se compose simplement d'une plage de cylindres continue (zones de disque physiques) affectée à un système d'exploitation en particulier. Si vous n'utilisez que des partitions principales, vous serez limité à quatre partitions par disque dur. En effet, la table de partition ne permet pas d'en définir davantage. On utilise donc également des partitions étendues. Ces dernières constituent également des plages de cylindres de disques continues, mais elles ont la particularité de pouvoir être subdivisées en partitions logiques. Les partitions logiques ne nécessitent pas d'entrées dans la table de partition. En d'autres termes, une partition étendue est un conteneur de partitions logiques.

Si vous avez besoin de plus de quatre partitions, créez une partition étendue en guise de quatrième partition (ou avant). Cette partition étendue doit couvrir l'intégralité de la plage restante de cylindres libres. Vous pouvez ensuite créer plusieurs partitions logiques au sein de cette partition étendue. Le nombre maximum de partitions logiques est 63, quel que soit le type de disque. Le type de partition utilisé pour Linux n'a aucune importance. Les partitions principale et logique fonctionnent normalement.

Astuce
Astuce : table de partitions GPT

Si vous devez créer plus de 4 partitions principales sur un disque dur, vous devrez utiliser le type de partition GPT. Ce type de partition supprime la restriction du nombre de partitions principales et prend également en charge les partitions supérieures à 2 To.

Pour utiliser GPT, exécutez l'outil de partitionnement YaST, cliquez sur le nom du disque approprié dans la Vue système, puis sélectionnez Expert › Créer une nouvelle table de partition › GPT.

12.1.2 Création d'une partition

Pour créer une partition, sélectionnez Disques durs, puis un disque dur avec de l'espace disponible. La modification peut être effectuée dans l'onglet Partitions :

  1. Sélectionnez Ajouter et spécifiez le type de partition (principale ou étendue). Créez jusqu'à quatre partitions principales ou jusqu'à trois partitions principales et une partition étendue. Vous pouvez créer plusieurs partitions logiques au sein de la partition étendue (reportez-vous à la Section 12.1.1, « Types de partitions »).

  2. Spécifiez la taille de la nouvelle partition. Vous pouvez choisir d'occuper tout l'espace disque non partitionné ou de spécifier une taille personnalisée.

  3. Sélectionnez le système de fichiers à utiliser et un point de montage. YaST propose un point de montage pour chaque partition créée. Pour utiliser une méthode de montage différente, comme le montage par étiquette, sélectionnez Options Fstab. Pour plus d'informations sur les systèmes de fichiers pris en charge, consultez la section root.

  4. Indiquez des options de système de fichiers supplémentaires si votre configuration l'exige. Cette étape est nécessaire si vous avez besoin de noms de périphériques permanents, par exemple. Pour plus de détails sur les options disponibles, reportez-vous à la Section 12.1.3, « Modification d'une partition ».

  5. Cliquez sur Terminer pour appliquer la configuration du partitionnement et quitter le module.

    Si vous avez créé la partition lors de l'installation, vous revenez à l'écran de présentation de l'installation.

12.1.2.1 Partitionnement Btrfs

Le système de fichiers par défaut pour la partition racine est Btrfs (pour plus d'informations sur Btrfs, voir Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper” et Book “Storage Administration Guide”, Chapter 1 “Overview of File Systems in Linux”). Le système de fichiers racine est le sous-volume par défaut et il n'est pas répertorié dans la liste des sous-volumes créés. En tant que sous-volume Btrfs par défaut, il peut être monté comme système de fichiers normal.

Important
Important : Btrfs sur une partition racine chiffrée

La configuration par défaut du partitionnement suggère une partition racine de type Btrfs et /boot comme répertoire. Pour chiffrer la partition racine, assurez-vous d'utiliser le type de table de partitions GPT au lieu du type MSDOS par défaut. Dans le cas contraire, le chargeur d'amorçage GRUB2 risque de ne pas disposer de suffisamment d'espace pour celui nécessaire à la deuxième étape.

Il est possible de créer des instantanés de sous-volumes Btrfs, manuellement ou automatiquement, selon les événements système. Par exemple, lorsque vous modifiez le système de fichiers, zypper appelle la commande snapper afin de créer des instantanés avant et après le changement. Cela se révèle particulièrement utile si la modification effectuée par zypper ne vous convient pas et si vous souhaitez revenir à l'état précédent. Étant donné que snapper appelé par zypper crée des instantanés du système de fichiers racine par défaut, il est judicieux d'exclure des répertoires spécifiques des instantanés. C'est la raison pour laquelle YaST propose de créer les sous-volumes distincts suivants :

/boot/grub2/i386-pc, /boot/grub2/x86_64-efi, /boot/grub2/powerpc-ieee1275, /boot/grub2/s390x-emu

Un retour à l'état initial de la configuration du chargeur de démarrage n'est pas pris en charge. Les répertoires ci-dessus sont spécifiques à l'architecture. Les deux premiers répertoires sont présents sur les machines AMD64/Intel 64, les deux derniers respectivement sur IBM POWER et IBM Z.

/home

Si le répertoire /home ne réside pas sur une partition distincte, il est exclu pour éviter les pertes de données lors des retours à l'état initial.

/opt, /var/opt

Les produits tiers sont généralement installés sous /opt. Ce répertoire est exclu pour éviter la désinstallation de ces applications lors des retours à l'état initial.

/srv

Contient des données pour les serveurs Web et FTP. Il est exclu pour éviter les pertes de données lors des retours à l'état initial.

/tmp, /var/tmp, /var/cache, /var/crash

Tous les répertoires contenant des fichiers temporaires et des caches sont exclus des instantanés.

/usr/local

Ce répertoire est utilisé lors de l'installation manuelle de logiciels. Il est exclu pour éviter la désinstallation de ces applications lors des retours à l'état initial.

/var/lib/libvirt/images

Emplacement par défaut des images de machine virtuelle gérées avec libvirt. Exclus pour veiller à ce que les images de machine virtuelle ne soient pas remplacées par d'anciennes versions lors d'un retour à l'état initial. Par défaut, ce sous-volume est créé avec l'option no copy on write.

/var/lib/mailman, /var/spool

Les répertoires contenant des messages électroniques ou des files d'attente sont exclus pour éviter la perte de ces messages après un retour à l'état initial.

/var/lib/named

Contient les données de la zone pour le serveur DNS. Exclus des instantanés pour garantir le bon fonctionnement d'un serveur de noms après un retour à l'état initial.

/var/lib/mariadb, /var/lib/mysql, /var/lib/pgqsl

Ces répertoires contiennent des données d'une base de données. Par défaut, ces sous-volumes sont créés avec l'option no copy on write.

/var/log

Emplacement du fichier journal. Exclus des instantanés pour permettre l'analyse des fichiers journaux après le retour à l'état initial d'un système endommagé. Par défaut, l'emplacement /var/log a l'ensemble d'attributs No_COW, qui désactive la fonctionnalité de copie pour écriture, ce qui améliore les performances et réduit le nombre de blocs en double. Effectuez une vérification avec lsattr :

tux > lsattr -l /var/
/var/log      No_COW
Astuce
Astuce : taille de la partition Btrfs

Étant donné que les instantanés enregistrés nécessitent davantage d'espace disque, il est recommandé de réserver suffisamment d'espace pour Btrfs. La taille suggérée pour une partition Btrfs racine avec les sous-volumes proposés est de 20 Go.

12.1.2.1.1 Gestion de sous-volumes Btrfs à l'aide de YaST

Les sous-volumes d'une partition Btrfs peuvent désormais être gérés avec le module Partitionnement en mode expert de YaST. Vous pouvez ajouter de nouveaux sous-volumes ou des sous-volumes existants.

Procédure 12.1 : Sous-volumes Btrfs avec YaST
  1. Démarrez le module Partitionnement en mode expert de YaST à l'aide de Système › Partitionneur.

  2. Sélectionnez Btrfs dans le volet Vue système de gauche.

  3. Sélectionnez la partition Btrfs dont vous souhaitez gérer les sous-volumes et cliquez ensuite sur Modifier.

  4. Cliquez sur Traitement du sous-volume. La liste de tous les sous-volumes existants de la partition Btrfs sélectionnée est alors affichée. Vous remarquerez plusieurs entrées @/.snapshots/xyz/snapshot ; chacun de ces sous-volumes appartient à un seul instantané existant.

  5. Procédez comme suit selon que vous souhaitez ajouter ou supprimer des sous-volumes :

    1. Pour supprimer un sous-volume, sélectionnez-le dans la liste des Sous-volumes existants, puis cliquez sur Supprimer.

    2. Pour ajouter un nouveau sous-volume, entrez son nom dans la zone de texte Nouveau sous-volume, puis cliquez sur Ajouter un nouvel élément.

      Sous-volumes Btrfs dans le partitionneur YaST
      Figure 12.2 : Sous-volumes Btrfs dans le partitionneur YaST
  6. Confirmez en sélectionnant OK et Terminer.

  7. Pour quitter le partitionneur, cliquez sur Terminer.

12.1.3 Modification d'une partition

Lorsque vous créez une nouvelle partition ou que vous modifiez une partition existante, vous pouvez définir différents paramètres. Pour les nouvelles partitions, les paramètres par défaut définis par YaST sont généralement suffisants et ne nécessitent aucune modification. Pour modifier manuellement la configuration de votre partition, procédez de la façon suivante :

  1. Sélectionnez la partition.

  2. Cliquez sur Éditer pour modifier la partition et fixer les paramètres :

    ID du système de fichiers

    Même si vous ne souhaitez pas formater la partition à ce stade, affectez-lui un ID de système de fichiers pour vous assurer qu'elle est correctement enregistrée. Les valeurs types sont Linux, Linux swap, Linux LVM et Linux RAID.

    Système de fichiers

    Pour modifier le système de fichiers de la partition, cliquez sur Formater la partition et sélectionnez le type de système de fichiers dans la liste Système de fichiers.

    SUSE Linux Enterprise Server prend en charge plusieurs types de systèmes de fichiers. Btrfs est le système de fichiers Linux privilégié pour la partition racine en raison de ses fonctionnalités avancées. Il prend en charge la fonctionnalité de copie sur écriture, la création d'instantanés, la distribution multi-périphérique, les sous-volumes et autres techniques utiles. XFS, Ext3 et JFS sont des systèmes de fichiers de journalisation. Ces systèmes de fichiers peuvent restaurer le système très rapidement après un crash système en utilisant les processus d'écriture consignés en cours de fonctionnement. Ext2 n'est pas un système de fichiers de journalisation, mais convient pour les partitions plus petites car il requiert peu d'espace disque pour la gestion.

    Le système de fichiers par défaut pour la partition racine est Btrfs. Ce système est XFS pour les partitions supplémentaires.

    Swap est un format spécial permettant d'utiliser la partition comme mémoire virtuelle. Créez une partition Swap d'au moins 256 Mo. Toutefois, si vous utilisez tout votre espace d'échange, pensez à ajouter plus de mémoire sur votre système plutôt que davantage d'espace d'échange.

    Avertissement
    Avertissement : changement du système de fichiers

    Le changement de système de fichiers et le reformatage de partitions effacent irrémédiablement toutes les données de la partition.

    Pour plus de détails sur les différents systèmes de fichiers, reportez-vous au Storage Administration Guide (Guide d'administration du stockage).

    Codage du périphérique

    Si vous activez le codage, toutes les données seront écrites sur le disque dur sous forme codée. Cela accroît la sécurité des données sensibles, mais ralentit le système en raison du temps requis par le codage. Pour plus d'informations sur le codage des systèmes de fichiers, reportez-vous au Book “Security and Hardening Guide”, Chapter 12 “Encrypting Partitions and Files”.

    Point de montage

    Définissez le répertoire au niveau duquel la partition doit être montée dans l'arborescence du système de fichiers. Sélectionnez l'une des propositions de YaST ou entrez un autre nom.

    Options Fstab

    Définissez les divers paramètres compris dans le fichier d'administration du système de fichiers global (/etc/fstab). Les paramètres par défaut doivent convenir à la plupart des configurations. Vous pouvez, par exemple, modifier l'identification du système de fichiers et passer d'un nom de périphérique à une étiquette de volume. Pour l'étiquette de volume, vous pouvez utiliser tous les caractères à l'exception de la barre oblique (/) et de l'espace.

    Pour obtenir des noms de périphériques permanents, utilisez l'option de montage Device ID , UUID (Identifiant unique universel) ou LABEL. Dans SUSE Linux Enterprise Server, les noms de périphérique permanents sont activés par défaut.

    Note
    Note : IBM Z : montage par chemin

    Sur les plates-formes IBM Z, le montage par ID est problématique en cas de copie disque à disque à des fins de clonage. Pour ces plates-formes, les périphériques sont donc, par défaut, montés par chemin à l'emplacement /etc/fstab.

    Si vous préférez monter la partition par son étiquette, vous devez en définir une dans l'entrée de texte Étiquette de volume. Vous pouvez, par exemple, utiliser l'étiquette de partition HOME pour une partition à monter sur /home.

    Si vous prévoyez d'utiliser des quotas sur le système de fichiers, utilisez l'option de montage Activer la prise en charge des quotas. Vous devez activer cette option pour pouvoir définir des quotas utilisateur dans le module YaST Gestion des utilisateurs. Pour plus d'informations sur la configuration des quotas utilisateurs, reportez-vous à la Section 16.3.4, « Gestion des quotas ».

  3. Sélectionnez Terminer pour enregistrer les modifications.

Note
Note : redimensionnement des systèmes de fichiers

Pour redimensionner un système de fichiers existant, sélectionnez la partition et cliquez sur Redimensionner. Souvenez-vous qu'il est impossible de redimensionner une partition déjà montée. Pour redimensionner une partition, vous devez la démonter avant d'exécuter l'outil de partitionnement.

12.1.4 Options avancées

Après avoir sélectionné un disque dur (comme sda) dans le volet Vue système, vous pouvez accéder au menu Expert en bas à droite de la fenêtre Partitionnement en mode expert. Le menu contient les options suivantes :

Créer une nouvelle table de partition

Cette option permet de créer une nouvelle table de partition sur le périphérique sélectionné.

Avertissement
Avertissement : création d'une nouvelle table de partition

La création d'une nouvelle table de partition sur un périphérique supprime définitivement toutes les partitions et leurs données du périphérique.

Cloner ce disque

Cette option vous permet de cloner la disposition de la partition du périphérique (et non les données) sur d'autres disques disponibles.

12.1.5 Options avancées

Après avoir sélectionné le nom d'hôte de l'ordinateur (niveau supérieur de l'arborescence dans le volet Vue Système), vous pouvez accéder au menu Configurer situé dans la partie inférieure droite de la fenêtre Partitionneur en mode expert. Le menu contient les options suivantes :

Configurer iSCSI

Pour accéder à SCSI sur les périphériques de bloc IP, vous devez d'abord configurer iSCSI. Cela entraîne l'affichage de périphériques disponibles supplémentaires dans la liste de la partition principale.

Configurer multipath

Cette option permet de configurer l'amélioration multipath vers les périphériques de stockage de masse pris en charge.

12.1.6 Autres conseils de partitionnement

Cette section présente quelques conseils et astuces sur le partitionnement qui vous aideront à prendre les bonnes décisions lors de la configuration de votre système.

Astuce
Astuce : Nombre de cylindres

Des outils de partition différents peuvent compter les cylindres d'une partition en commençant par 0 ou par 1. Pour calculer le nombre de cylindres, calculez la différence entre le dernier et le premier numéros de cylindre, puis ajoutez 1.

12.1.6.1 Utilisation d'espace d'échange (swap)

L'espace d'échange (swap) est utilisé pour augmenter la mémoire physique disponible. Ainsi, il est possible d'utiliser davantage de mémoire que la mémoire physique RAM disponible. Jusqu'à la version 2.4.10, le système de gestion de la mémoire des kernels exigeait de l'espace d'échange pour des raisons de sécurité. Si vous n'aviez pas deux fois plus d'espace d'échange que de RAM, les performances du système en pâtissaient. Ces limitations ne sont plus d'actualité.

Linux utilise une page appelée « La moins récemment utilisée » (LRU) pour sélectionner les pages à déplacer de la mémoire vers le disque. Par conséquent, les applications en cours d'exécution disposent de plus de mémoire disponible et la mise en cache fonctionne mieux.

Si une application tente d'allouer autant de mémoire qu'elle peut en obtenir, des problèmes d'espace d'échange surviendront. Il existe trois cas principaux :

Système sans espace d'échange

L'application se dote de toute la mémoire qui peut être libérée. Tous les caches sont libérés, donc toutes les autres applications en cours d'exécution sont ralenties. Après quelques minutes, le mécanisme OOM Killer (qui supprime les processus utilisant trop de mémoire) du kernel s'active et supprime le processus.

Système avec espace d'échange moyen (128 à 512 Mo)

Le système est d'abord ralenti, comme un système sans espace d'échange. Une fois que toute la RAM physique a été utilisée, il passe sur l'espace d'échange. À ce moment, le système est très lent et il est impossible d'exécuter des commandes à distance. Il reste dans cet état pendant 10 à 15 minutes (selon la vitesse des disques durs qui exécutent l'espace mémoire d'échange) jusqu'à ce que l'outil OOM Killer du kernel résolve le problème. Vous aurez besoin d'une quantité relativement importante d'espace d'échange si l'ordinateur doit effectuer une « Hibernation » (sauvegarde du contenu de la mémoire vive sur le disque dur). Dans ce cas, l'espace d'échange doit être assez important pour contenir les données de la mémoire (512 Mo à 1 Go).

Système avec grand espace de swap (plusieurs gigaoctets)

Dans ce cas, il est préférable de ne pas avoir d'application non contrôlée qui effectue frénétiquement des échanges. Si ce problème survient, le système mettra plusieurs heures à retrouver son état normal. D'autres processus risquent de subir des défaillances et délais d'attente importants, donc de quitter le système dans un état non défini, même si le processus défectueux est arrêté. Dans ce cas, éteignez, puis rallumez la machine et essayez de la faire fonctionner à nouveau. Un grand volume d'espace d'échange est inutile, sauf si une application nécessite cette configuration. Les applications concernées (notamment les bases de données ou les programmes de manipulation d'images) bénéficient souvent d'une option qui permet d'utiliser directement l'espace de disque dur dont elles ont besoin. Il est recommandé de tirer parti de cette option plutôt que d'utiliser beaucoup d'espace d'échange.

Si votre système est sous contrôle mais s'il a besoin de plus d'espace d'échange après quelque temps, vous pouvez augmenter l'espace d'échange en ligne. Si vous avez préparé une partition pour l'espace d'échange, ajoutez-la à l'aide de YaST. Si vous ne disposez d'aucune partition disponible, vous pouvez également utiliser un fichier d'échange pour augmenter l'espace d'échange. Ces fichiers sont généralement plus lents que les partitions, mais par rapport à la mémoire RAM physique, ces deux types d'éléments sont lents et la différence est négligeable.

Procédure 12.2 : Ajout manuel d'un fichier d'échange

Pour ajouter un fichier d'échange sur un système en cours d'exécution, procédez de la façon suivante :

  1. Créez un fichier vide sur votre système. Par exemple, si vous souhaitez ajouter à /var/lib/swap/swapfile un fichier d'échange de 128 Mo, utilisez les commandes suivantes :

    mkdir -p /var/lib/swap
    dd if=/dev/zero of=/var/lib/swap/swapfile bs=1M count=128
  2. Initialisez ce fichier d'échange grâce à la commande suivante :

    mkswap /var/lib/swap/swapfile
    Note
    Note : UUID modifié pour les partitions d'échange lors de leur mise en forme à l'aide de mkswap

    Si possible, évitez de reformater les partitions d'échange existantes avec mkswap. Le reformatage avec mkswap modifie la valeur UUID de la partition d'échange. Vous pouvez reformater via YaST (mettra à jour/etc/fstab) ou ajuster l'emplacement /etc/fstab manuellement.

  3. Activez le fichier d'échange grâce à la commande :

    swapon /var/lib/swap/swapfile

    Pour désactiver ce fichier d'échange, utilisez la commande suivante :

    swapoff /var/lib/swap/swapfile
  4. Vérifiez les espaces d'échange disponibles actuellement grâce à la commande :

    cat /proc/swaps

    À ce stade, il ne s'agit que d'espace d'échange temporaire. Après le prochain redémarrage, il ne sera plus utilisé.

  5. Pour activer ce fichier d'échange de façon permanente, ajoutez à /etc/fstab la ligne suivante :

    /var/lib/swap/swapfile swap swap defaults 0 0

12.1.7 Partitionnement et LVM

Depuis le partitionneur expert, accédez à la configuration LVM en cliquant sur l'option Gestion du volume dans le volet Vue Système. Cependant, si une configuration LVM fonctionnelle existe déjà sur votre système, celle-ci s'active automatiquement dès que vous entrez pour la première fois en mode de configuration LVM au cours d'une session. Dans ce cas, aucun disque contenant une partition (appartenant à un groupe de volumes activé) ne peut être repartitionné. En effet, le kernel Linux ne peut pas lire la table de partition modifiée d'un disque dur si une partition du disque est en cours d'utilisation. Si vous disposez déjà d'une configuration LVM fonctionnelle sur votre système, aucun repartitionnement physique ne devrait être nécessaire. Modifiez plutôt la configuration des volumes logiques.

Au début de chaque volume physique, des informations sur le volume sont écrites dans la partition. Pour réutiliser une partition de ce type avec un gestionnaire différent de LVM, il est conseillé de supprimer le début de ce volume. Par exemple, avec le groupe de volumes system et le volume physique /dev/sda2, utilisez la commande dd if=/dev/zero of=/dev/sda2 bs=512 count=1.

Avertissement
Avertissement : système de fichiers pour le démarrage

Le système de fichiers utilisé pour le démarrage (système de fichiers root ou /boot) ne doit pas être stocké sur un volume logique LVM. Stockez-le plutôt sur une partition physique normale.

Pour plus de détails sur LVM, reportez-vous au Book “Storage Administration Guide”.

12.2 Configuration de LVM

Cette section explique les étapes spécifiques à effectuer lors de la configuration de LVM. Si vous avez besoin d'informations sur le Gestionnaire de volumes logiques en général, reportez-vous au Book “Storage Administration Guide”, Chapter 5 “LVM Configuration”, Section 5.1 “Understanding the Logical Volume Manager”.

Avertissement
Avertissement : sauvegarde des données

L'utilisation de LVM peut induire une augmentation des risques, notamment en ce qui concerne la perte de données. Mais les risques comprennent également le crash des applications, les pannes de courant ou les commandes défectueuses. Aussi, avant d'implémenter LVM ou de reconfigurer des volumes, enregistrez vos données. Ne travaillez jamais sans avoir au préalable fait une sauvegarde.

12.2.1 Configuration de LVM avec YaST

Pour configurer LVM avec YaST, utilisez le partitionnement en mode expert de YaST (voir Section 12.1, « Utilisation de l'outil de partitionnement de YaST ») dans Gestion du volume du volet Vue système. L'outil de partitionnement en mode expert permet de modifier et de supprimer des partitions existantes, mais également d'en créer de nouvelles, destinées à être utilisées avec LVM. La première tâche à accomplir consiste à créer des PV qui fournissent de l'espace à un groupe de volumes :

  1. Sélectionnez un disque dur dans Disques durs.

  2. Placez-vous sur l'onglet Partitions.

  3. Cliquez sur Ajouter et indiquez la taille du PV souhaitée sur le disque.

  4. Cliquez sur Ne pas formater la partition et remplacez l'ID du système de fichiers par 0x8E Linux LVM. Ne montez pas cette partition.

  5. Répétez cette procédure jusqu'à ce que vous ayez défini tous les volumes physiques souhaités sur les disques disponibles.

12.2.1.1 Création de groupes de volumes

Si votre système ne comprend aucun groupe de volumes, vous devrez en ajouter un (reportez-vous à la Figure 12.3, « Création d'un groupe de volumes »). Il est possible de créer des groupes supplémentaires en cliquant sur l'option Gestion du volume du volet Vue système, puis sur Ajouter un groupe de volumes. En règle générale, un seul groupe de volumes suffit.

  1. Entrez un nom pour le VG, par exemple système.

  2. Sélectionnez la Taille des étendues physiques souhaitée. Cette valeur définit la taille d'un bloc physique dans un groupe de volumes. Tout l'espace disque d'un groupe de volumes est géré par l'intermédiaire de blocs de cette taille.

  3. Ajoutez les PV préparés au VG en sélectionnant le périphérique, puis en cliquant sur Ajouter. Vous pouvez sélectionner plusieurs périphériques à la fois. Pour ce faire, appuyez sur Ctrl tout en sélectionnant les périphériques.

  4. Sélectionnez Terminer pour que le groupe de volumes soit disponible lors des prochaines étapes de la configuration.

Création d'un groupe de volumes
Figure 12.3 : Création d'un groupe de volumes

Si plusieurs groupes de volumes sont définis et si vous souhaitez ajouter ou supprimer des PV, sélectionnez le groupe de volumes dans la liste Gestion du volume, puis cliquez sur Redimensionner. Le fenêtre suivante permet d'ajouter ou de supprimer des PV dans le groupe de volumes sélectionné.

12.2.1.2 Configuration des volumes logiques

Une fois le groupe de volumes peuplé de volumes physiques, définissez les volumes logiques que le système d'exploitation doit utiliser dans la boîte de dialogue suivante. Choisissez le groupe de volumes actuel et accédez à l'onglet Volumes logiques. Utilisez les options Ajouter, Modifier, Redimensionner et Supprimer des volumes logiques si nécessaire, jusqu'à épuisement de l'espace du groupe de volumes. Assignez au moins un LV à chaque groupe de volumes.

Gestion des volumes logiques
Figure 12.4 : Gestion des volumes logiques

Cliquez sur Ajouter et placez-vous sur la fenêtre contextuelle qui s'ouvre (elle ressemble à un assistant) :

  1. Entrez le nom du LV. Pour une partition à monter dans /home, vous pouvez utiliser un nom tel que HOME.

  2. Sélectionnez le type du volume logique. Il peut s'agir de Volume normal, Pool à allocation dynamique ou Volume à allocation dynamique. Notez que vous devez d'abord créer un pool à allocation dynamique, lequel peut stocker des volumes à allocation dynamique. L'allocation fine et dynamique présente un avantage de taille : la somme totale de tous les volumes à allocation dynamique stockés dans un pool de ce type peut, en effet, dépasser la taille du pool proprement dit.

  3. Sélectionnez la taille et le nombre de segments du LV. Si vous n'avez qu'un seul PV, il est inutile de sélectionner plusieurs segments.

  4. Choisissez le système de fichiers à utiliser sur le volume logique, ainsi que le point de montage.

L'utilisation de segments permet de distribuer le flux de données du LV parmi plusieurs PV (segmentation). Toutefois, la segmentation d'un volume ne peut être exécutée que sur des PV différents, chacun d'entre eux disposant au moins de l'espace du volume. Le nombre maximum de blocs est égal au nombre de PV, avec le bloc 1 signifiant « pas de segmentation ». La segmentation n'est utile que si les PV se trouvent sur différents disques durs, faute de quoi les performances risquent de s'affaiblir.

Avertissement
Avertissement : segmentation

À ce stade, YaST ne peut pas vérifier l'exactitude de vos entrées relatives à la segmentation. Toute erreur à ce stade ne sera visible qu'au moment de l'implémentation de LVM sur le disque.

Si vous avez déjà configuré LVM sur votre système, vous pouvez également utiliser les volumes logiques existants. Avant de poursuivre, assignez à ces volumes logiques les points de montage appropriés. Cliquez sur Terminer pour revenir au partitionnement en mode expert de YaST et terminer vos opérations grâce à cet outil.

12.3 Configuration de Soft RAID avec YaST

Cette section décrit les opérations requises pour créer et configurer les différents types de RAID. Si vous avez besoin d'informations de base sur RAID, reportez-vous au Book “Storage Administration Guide”, Chapter 7 “Software RAID Configuration”, Section 7.1 “Understanding RAID Levels”.

12.3.1 Configuration de Soft RAID avec YaST

Pour configurer RAID avec YaST, utilisez l'outil de partitionnement en mode expert de YaST, décrit à la Section 12.1, « Utilisation de l'outil de partitionnement de YaST ». Cet outil de partitionnement permet de modifier et de supprimer des partitions existantes, et d'en créer de nouvelles pour les utiliser avec Soft RAID :

  1. Sélectionnez un disque dur dans Disques durs.

  2. Placez-vous sur l'onglet Partitions.

  3. Cliquez sur Ajouter et indiquez la taille de la partition RAID souhaitée sur ce disque.

  4. Cliquez sur Ne pas formater la partition et remplacez l'ID du système de fichiers par 0xFD Linux RAID. Ne montez pas cette partition.

  5. Répétez cette procédure jusqu'à ce que vous ayez défini tous les volumes physiques souhaités sur les disques disponibles.

Pour RAID 0 et RAID 1, au moins deux partitions sont nécessaires ; pour RAID 1, vous devez même en avoir exactement deux, pas plus. Si vous utilisez RAID 5, vous devez disposez d'au moins trois partitions, et pour RAID 6 et RAID 10, il vous en faut au minimum quatre. Il est recommandé d'utiliser des partitions de même taille. Les partitions RAID doivent être situées sur des disques durs différents afin de diminuer le risque de perte de données au cas où l'une des partitions serait défectueuse (RAID 1 et 5) et afin d'optimiser les performances de RAID 0. Après avoir créé toutes les partitions à utiliser avec RAID, cliquez sur RAID › Ajouter un RAID pour démarrer la configuration de RAID.

Dans la boîte de dialogue suivante, choisissez entre les niveaux RAID 0, 1, 5, 6 ou 10. Sélectionnez ensuite toutes les partitions de type « Linux RAID » ou « Linux native »que doit utiliser le système RAID. Aucune partition d'échange ou DOS n'est affichée.

Astuce
Astuce : classement des disques

Dans le cas des types RAID où l'ordre des disques ajoutés a de l'importance, vous pouvez marquer chaque disque avec une lettre comprise entre A et E. Cliquez sur le bouton Classer, sélectionnez le disque et cliquez ensuite sur les boutons Classe X, où X correspond à la lettre que vous souhaitez assigner au disque. Utilisez cette méthode pour assigner tous les disques RAID disponibles, puis confirmez en cliquant sur OK. Vous pouvez facilement trier les disques classés à l'aide des boutons Triés ou Intercalés, ou encore ajouter un modèle à partir d'un fichier texte à l'aide de l'option Fichier de modèle.

Partitions RAID
Figure 12.5 : Partitions RAID

Pour ajouter une partition non assignée au volume RAID sélectionné, cliquez d'abord sur la partition, puis sur Ajouter. Assignez toutes les partitions réservées pour RAID. Sinon, l'espace de ces partitions reste inutilisé. Après avoir assigné toutes les partitions, cliquez sur Suivant pour sélectionner les Options RAID disponibles.

Au cours de dernière étape, définissez le système de fichiers à utiliser, le chiffrement et le point de montage du volume RAID. Une fois la configuration terminée (cliquez sur Terminer), vous pouvez voir le périphérique /dev/md0, ainsi que les autres, signalés par RAID dans le programme de partitionnement en mode expert.

12.3.2 Dépannage

Reportez-vous au fichier /proc/mdstat pour savoir si une partition RAID a été endommagée. En cas de défaillance système, arrêtez votre système Linux et remplacez le disque dur défectueux par un nouveau disque partitionné de la même manière. Redémarrez ensuite votre système et entrez la commande mdadm /dev/mdX --add /dev/sdX. Remplacez « X » par vos identificateurs de périphérique. Cette commande intègre automatiquement le nouveau disque dur sur le système RAID et le reconstruit complètement.

Bien que vous puissiez accéder à toutes les données lors de la reconstruction, vous rencontrerez peut-être des problèmes de performances jusqu'à ce que le RAID soit complètement reconstruit.

12.3.3 Complément d'informations

Vous trouverez des instructions de configuration, ainsi que d'autres détails sur Soft RAID, dans les HOWTO (Guides pratiques) à l'adresse suivante :

Des listes de diffusion concernant Linux RAID sont disponibles, notamment à l'adresse http://marc.info/?l=linux-raid.

13 Installation et suppression de logiciels

Utilisez l'outil de gestion des logiciels de YaST pour rechercher les composants logiciels à ajouter ou à supprimer. YaST résout toutes les dépendances. Pour installer des paquetages non livrés avec le support d'installation, ajoutez des dépôts de logiciels à votre configuration et laissez YaST les gérer. Maintenez votre système à jour en gérant les mises à jour de logiciels à l'aide de l'applet de mise à jour.

Modifiez la collection de logiciels de votre système via le gestionnaire de logiciels YaST. Ce module YaST est disponible en deux variantes : une variante graphique pour X Window et une variante texte à utiliser sur la ligne de commande. La variante graphique est décrite ici. Pour plus d'informations sur la variante texte de Yast, consultez le Book “Administration Guide”, Chapter 5 “YaST in Text Mode”.

Note
Note : confirmation et vérification des modifications

Lors de l'installation, de la mise à jour ou de la suppression de paquetages, les modifications apportées au gestionnaire de logiciels ne sont appliquées qu'une fois que vous avez cliqué sur Accepter ou Appliquer. YaST conserve une liste répertoriant toutes les actions, qui vous permet de vérifier et de modifier vos changements avant de les appliquer au système.

13.1 Définition des termes utilisés

Dépôt

Répertoire local ou distant contenant des paquetages logiciels et des informations supplémentaires sur ces paquetages (métadonnées de paquetage).

(Dépôt) Alias/Nom de dépôt

Nom court donné à un dépôt (appelé Alias dans Zypper et Nom de dépôt dans YaST). Il peut être choisi par l'utilisateur lors de l'ajout d'un dépôt ; il doit être unique.

Fichiers de description du dépôt

Chaque dépôt fournit des fichiers décrivant le contenu du dépôt (noms des paquetage, versions, etc.). Ces fichiers de description du dépôt sont téléchargés dans un cache local utilisé par YaST.

Produit

Représente un produit complet, par exemple SUSE® Linux Enterprise Server.

Modèle

Un modèle est un groupe de paquetages installable et ayant un rôle spécifique. Par exemple, le modèle Ordinateur portable contient tous les paquetages nécessaires dans un environnement d'informatique mobile. Les modèles définissent des dépendances de paquetages (comme les paquetages requis ou recommandés) et sont fournis avec une présélection de paquetages marqués en vue d'une installation. Ceci garantit que les paquetages les plus importants nécessaires dans un but spécifique sont disponibles sur votre système après l'installation du modèle. Si nécessaire, vous pouvez sélectionner ou désélectionner manuellement des paquetages dans un modèle.

Paquetage

Un paquetage est un fichier compressé au format rpm qui contient les fichiers d'un programme particulier.

Correctif

Un correctif comporte un ou plusieurs paquetages et peut être appliqué via des deltarpm. Il peut également introduire des dépendances dans les paquetages qui ne sont pas encore installés.

Correctif

Terme générique désignant un produit, un modèle, un logiciel ou un correctif. Les types les plus utilisés sont le logiciel ou le correctif.

deltarpm

Un deltarpm se compose uniquement des différentiels binaires compris entre deux versions définies d'un paquetage. Il a donc la taille de téléchargement la plus petite. Avant son installation, l'intégralité du paquetage RPM est reconstruit sur la machine locale.

Dépendances des paquetages

Certains paquetages, comme les bibliothèques partagées, dépendent d'autres paquetages. En d'autres termes, un paquetage peut nécessiter la présence d'autres paquetages. Si les paquetages requis ne sont pas disponibles, le paquetage ne peut pas être installé. En plus des dépendances (exigences de paquetages) obligatoires, certains paquetages recommandent la présence d'autres paquetages. Ces paquetages recommandés ne sont installés que s'ils sont actuellement disponibles. Dans le cas contraire, ils sont ignorés et le paquetage qui les recommande est installé malgré tout.

13.2 Enregistrement d'un système installé

Si vous avez ignoré l'enregistrement lors de l'installation ou si vous souhaitez réenregistrer votre système, vous pouvez enregistrer le système à tout moment à l'aide du module YaST Enregistrement du produit ou de l'outil de ligne de commande SUSEConnect.

13.2.1 Enregistrement avec YaST

Pour enregistrer le système, démarrez YaST et accédez à Logiciels, puis Enregistrement du produit.

Par défaut, le système est enregistré auprès du Novell SUSE Customer Center. Si votre entreprise propose des serveurs d'enregistrement locaux, vous pouvez en choisir un dans la liste des serveurs détectés automatiquement ou fournir l'URL manuellement.

13.2.2 Enregistrement avec SUSEConnect

Pour vous enregistrer à partir de la ligne de commande, utilisez la commande

tux > sudo SUSEConnect -r REGISTRATION_CODE -e EMAIL_ADDRESS

Remplacez REGISTRATION_CODE (CODE_ENREGISTREMENT) par le code d'enregistrement que vous avez reçu avec votre exemplaire de SUSE Linux Enterprise Server. Remplacez EMAIL_ADDRESS (ADRESSE_ÉLECTRONIQUE) par l'adresse électronique associée au compte SUSE que vous ou votre entreprise utilisez pour gérer les abonnements.

Pour effectuer l'enregistrement sur un serveur d'enregistrement local, fournissez également l'URL du serveur :

tux > sudo SUSEConnect -r REGISTRATION_CODE -e EMAIL_ADDRESS --url "URL"

13.3 Utilisation du gestionnaire de logiciels de YaST

Démarrez le gestionnaire de logiciels à partir du Centre de contrôle YaST en sélectionnant Logiciel › Gestion des logiciels.

Image

13.3.2 Installation et suppression des paquetages ou des modèles

Certains paquetages, comme les bibliothèques partagées, dépendent d'autres paquetages. Par ailleurs, certains paquetages ne peuvent pas coexister avec d'autres sur le système. Si possible, YaST résout automatiquement ces dépendances ou ces conflits. Si votre choix entraîne un conflit de dépendances qui ne peut être résolu automatiquement, vous devez le résoudre manuellement en suivant la procédure décrite dans la Section 13.3.4, « Contrôle des dépendances logicielles ».

Note
Note : suppression de paquetages

Lors de la suppression de paquetages, YaST supprime par défaut les paquetages sélectionnés uniquement. Si vous souhaitez que YaST supprime également tous les autres paquetages devenus inutiles après la suppression du paquetage spécifié, sélectionnez Options › Nettoyer lors de la suppression des paquetages dans le menu principal.

  1. Recherchez les paquetages conformément à la procédure décrite dans la Section 13.3.1, « Vues de recherche de paquetages ou de modèles ».

  2. Les paquetages trouvés s'affichent dans le volet droit. Pour installer ou supprimer un paquetage, cliquez dessus avec le bouton droit de la souris et sélectionnez Installer ou Supprimer. Si l'option appropriée n'est pas disponible, vérifiez l'état du paquetage marqué par le symbole situé en regard de son nom. Appuyez sur MajF1 pour obtenir de l'aide.

    Astuce
    Astuce : application d'une action sur tous les paquetages répertoriés

    Pour appliquer une action sur tous les paquetages répertoriés dans le volet droit, accédez au menu principal et choisissez une action dans Paquetage › Tout dans cette liste.

  3. Pour installer un modèle, cliquez avec le bouton droit de la souris sur son nom et sélectionnez Installer.

  4. Il est impossible de supprimer un modèle en tant que tel. Sélectionnez plutôt les paquetages d'un modèle à supprimer et marquez-les pour suppression.

  5. Pour sélectionner davantage de paquetages, répétez les étapes ci-dessus.

  6. Avant d'appliquer vos modifications, vous pouvez les vérifier ou les modifier en cliquant sur Afficher › Résumé de l'installation. Tous les paquetages qui changeront d'état sont affichés par défaut.

  7. Pour restaurer l'état d'un paquetage, cliquez dessus avec le bouton droit de la souris et sélectionnez l'une des entrées suivantes : Conserver si sa suppression ou sa mise à jour a été programmée ou Ne pas installer si son installation a été programmée. Pour abandonner toutes les modifications et quitter le gestionnaire de logiciels, cliquez sur Annuler et Abandonner.

  8. Lorsque vous avez terminé, cliquez sur Accepter pour appliquer vos modifications.

  9. Si YaST a trouvé des dépendances sur d'autres paquetages, une liste des paquetages ayant été choisis pour l'installation, la mise à jour ou la suppression s'affiche. Cliquez sur Continuer pour les accepter.

    Une fois que les paquetages sélectionnés sont installés, mis à jour ou supprimés, le gestionnaire de logiciels YaST termine le processus automatiquement.

Note
Note : installation des paquetages sources

Actuellement, le gestionnaire de logiciels YaST ne permet pas l'installation de paquetages sources. Pour y parvenir, utilisez l'outil de la ligne de commande zypper. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 6 “Managing Software with Command Line Tools”, Section 6.1.2.5 “Installing or Downloading Source Packages”.

13.3.3 Mise à jour des paquetages

Au lieu de mettre à jour des paquetages individuels, vous pouvez également mettre à jour tous les paquetages installés ou tous les paquetages provenant d'un dépôt spécifique. En cas de mise à jour de masse des paquetages, les points suivants sont généralement pris en compte :

  • Priorités des dépôts fournissant le paquetage

  • Architecture du paquetage (par exemple, AMD64/Intel 64)

  • Numéro de version du paquetage

  • Fournisseur du paquetage

Le point le plus important pour le choix des candidats à la mise à jour dépend de l'option de mise à jour que vous avez sélectionnée.

  1. Pour mettre à jour tous les paquetages installés vers la dernière version, sélectionnez Paquetage › Tous les paquetages › Mettre à jour si une nouvelle version est disponible dans le menu principal.

    Tous les dépôts sont sélectionnés en tant que candidats potentiels à la mise à jour conformément à la stratégie suivante : YaST commence par essayer de limiter la recherche aux paquetages ayant la même architecture et le même fournisseur que le paquetage installé. Si la recherche propose des résultats, le « meilleur » candidat à la mise à jour est sélectionné conformément au processus ci-dessous. Toutefois, si aucun paquetage comparable du même fournisseur n'est trouvé, la recherche est élargie à tous les paquetages ayant la même architecture. Si aucun paquetage correspondant n'est trouvé, tous les paquetages sont considérés et le « meilleur » candidat à la mise à jour est sélectionné en fonction des critères suivants :

    1. Priorité du dépôt : privilégiez le paquetage provenant du dépôt ayant la priorité la plus élevée.

    2. Si plusieurs paquetages sont sélectionnés, choisissez celui présentant la « meilleure » architecture (meilleur choix : faire correspondre l'architecture avec celle du paquetage installé).

    Si le paquetage trouvé dispose d'un numéro de version supérieur à celui du paquetage installé, ce dernier sera mis à jour et remplacé par le candidat à la mise à jour sélectionné.

    Cette option tente d'éviter les modifications au niveau de l'architecture et du fournisseur pour les paquetages installés, mais il arrive qu'elles soient tolérées.

    Note
    Note : mise à jour inconditionnelle

    Si vous sélectionnez Paquetage › Tous les paquetages › Mise à jour inconditionnelle, les mêmes critères s'appliquent, mais le paquetage candidat est installé de façon inconditionnelle. Cette option peut donc entraîner des mises à niveau vers des versions antérieures de certains paquetages.

  2. Pour s'assurer que le paquetage prévu pour une mise à jour de masse provient d'un dépôt spécifique, procédez comme suit :

    1. Sélectionnez le dépôt à partir duquel vous souhaitez procéder à la mise à jour conformément à la procédure décrite dans la Section 13.3.1, « Vues de recherche de paquetages ou de modèles » .

    2. À droite de la fenêtre, cliquez sur Basculer les paquetages système vers les versions dans ce dépôt. Ceci permet explicitement à YaST de modifier le fournisseur du paquetage lors du remplacement des paquetages.

      Lorsque vous cliquez sur Accepter, tous les paquetages installés seront remplacés par des paquetages dérivés de ce dépôt, le cas échéant. Ceci peut entraîner des changements au niveau du fournisseur et de l'architecture, voire la mise à niveau vers une version antérieure de certains paquetages.

    3. Pour éviter ceci, cliquez sur Annuler le basculement des paquetages du système vers les versions dans ce dépôt. Notez que vous ne pourrez plus annuler après avoir cliqué sur le bouton Accepter.

  3. Avant d'appliquer vos modifications, vous pouvez les vérifier ou les modifier en cliquant sur Afficher › Résumé de l'installation. Tous les paquetages qui changeront d'état sont affichés par défaut.

  4. Si toutes les options sont définies conformément à vos besoins, confirmez vos modifications en cliquant sur Accepter pour lancer la mise à jour de masse.

13.3.4 Contrôle des dépendances logicielles

La plupart des paquetages dépendent d'autres paquetages. Par exemple, si un paquetage utilise une bibliothèque partagée, il dépend alors du paquetage fournissant cette bibliothèque. Par ailleurs, certains paquetages ne peuvent pas coexister sous peine d'engendrer un conflit (par exemple, vous pouvez installer un seul agent de transfert de messages électroniques : Sendmail ou Postfix). Lors de l'installation ou de la suppression d'un logiciel, le gestionnaire de logiciels s'assure que tous les conflits ou dépendances sont résolus pour garantir l'intégrité du système.

S'il n'existe qu'une solution permettant de résoudre une dépendance ou un conflit, ces derniers sont résolus automatiquement. Les solutions multiples entraînent toujours un conflit qui nécessite une résolution manuelle. Si la résolution du conflit implique un changement de fournisseur ou d'architecture, elle doit également être exécutée manuellement. Lorsque vous cliquez sur Accepter pour appliquer les modifications dans le gestionnaire de logiciels, vous obtenez un aperçu de toutes les actions déclenchées par le résolveur automatique que vous devrez confirmer.

Par défaut, les dépendances sont automatiquement contrôlées. Un contrôle est exécuté à chaque fois que l'état d'un paquetage change (par exemple, lors de la définition d'un paquetage en vue de son installation ou de sa suppression). En général, cette opération est utile mais peut vite devenir fastidieuse lors de la résolution manuelle d'un conflit de dépendances. Pour désactiver cette fonction, accédez au menu principal et désélectionnez Dépendances › Vérification automatique. Pour exécuter un contrôle de dépendance manuel, sélectionnez Dépendances › Vérifier maintenant. Une vérification de cohérence est effectuée à chaque fois que vous confirmez votre sélection avec Accepter.

Pour vérifier les dépendances d'un paquetage, cliquez dessus avec le bouton droit de la souris, puis sélectionnez Afficher les informations sur le solutionneur. Une carte des dépendances s'affiche. Les paquetages déjà installés s'affichent dans un cadre vert.

Note
Note : résolution manuelle des conflits de paquetages

Si vous n'êtes pas un utilisateur expérimenté, il est recommandé de suivre les suggestions de YaST relatives au traitement des conflits de paquetages pour pouvoir les résoudre. Gardez à l'esprit que toute modification peut déclencher d'autres conflits. Vous pouvez donc rapidement faire face à une accumulation de conflits. Dans de telles circonstances, annulez le gestionnaire de logiciels, abandonnez toutes vos modifications, puis redémarrez.

Gestion d'un conflit dans le gestionnaire de logiciels
Figure 13.1 : Gestion d'un conflit dans le gestionnaire de logiciels

13.3.4.1 Gestion des recommandations de paquetage

Outre les fortes dépendances matérielles requises pour exécuter un programme (par exemple une bibliothèque), un paquetage peut également avoir des dépendances dites « faibles », qui ajoutent par exemple une fonctionnalité supplémentaire ou des traductions. Ces dépendances faibles sont appelées recommandations de paquetage.

La façon de traiter ces recommandations a quelque peu changé depuis l'arrivée de SUSE Linux Enterprise Server 12 SP1. Rien ne change lors de l'installation d'un nouveau paquetage. Les paquetages recommandés sont toujours installés par défaut.

Avant SUSE Linux Enterprise Server 12 SP1, les recommandations manquantes pour les paquetages déjà installés étaient installées automatiquement. Désormais, ces paquetages ne seront plus installés automatiquement. Pour revenir à l'ancienne configuration par défaut, indiquez PKGMGR_REEVALUATE_RECOMMENDED="yes" dans /etc/sysconfig/yast2. Pour installer toutes les recommandations manquantes pour les paquetages déjà installés, démarrez YaST › Gestionnaire de logiciels et sélectionnez Extras › Installer tous les paquetages recommandés correspondants.

Pour désactiver l'installation des paquetages recommandés lors de l'installation de nouveaux paquetages, désactivez Dépendances › Installer les paquetages recommandés dans le gestionnaire de logiciels YaST. Si vous utilisez l'outil de ligne de commande Zypper pour installer des paquetages, utilisez l'option --no-recommends.

13.4 Gestion des services et des dépôts de logiciels

Pour installer un logiciel tiers, ajoutez des dépôts de logiciels supplémentaires à votre système. Par défaut, les dépôts de produit tels que le DVD de SUSE Linux Enterprise Server 12 SP5 et le dépôt de mise à jour correspondant, sont automatiquement configurés une fois le système enregistré. Pour plus d'informations sur l'enregistrement, reportez-vous à la Section 6.8, « Enregistrement auprès du SUSE Customer Center » ou à la Section 20.8, « Enregistrement de votre système ». En fonction du produit initialement sélectionné, un autre dépôt contenant des traductions, des dictionnaires, etc. peut également être configuré.

Pour gérer les dépôts, lancez YaST et sélectionnez Logiciel › Dépôts de logiciels. La boîte de dialogue Dépôts de logiciels configurés s'ouvre. Vous pouvez gérer ici les abonnements aux services en modifiant la vue dans le coin droit de la boîte de dialogue et en la définissant sur Tous les services. Dans ce contexte, un service est un service d'index de dépôts (RIS - Repository Index Service) qui peut contenir un ou plusieurs dépôts de logiciels. Un tel service peut être modifié de façon dynamique par son administrateur ou son fournisseur.

Chaque dépôt fournit des fichiers décrivant le contenu du dépôt (noms des paquetage, versions, etc.). Ces fichiers de description du dépôt sont téléchargés dans un cache local utilisé par YaST. Pour garantir leur intégrité, les dépôts de logiciels peuvent être signés avec la clé GPG du mainteneur des dépôts. À chaque fois que vous ajoutez un nouveau dépôt, YaST vous propose d'importer sa clé.

Avertissement
Avertissement : approbation des sources de logiciels externes

Avant d'ajouter des dépôts de logiciels externes à votre liste de dépôts, assurez-vous qu'ils sont approuvés. SUSE n'est pas responsable en cas d'éventuels problèmes résultant de l'installation de logiciels à partir de dépôts tiers.

13.4.1 Ajout de dépôts de logiciels

Vous pouvez ajouter des dépôts à partir d'un DVD/CD, de périphériques de stockage de masse amovibles (tels que des disques flash) ou encore d'une image ISO, d'un répertoire local ou d'une source réseau.

Pour ajouter des dépôts depuis la boîte de dialogue Dépôts de logiciels configurés dans YaST, procédez comme suit :

  1. Cliquez sur Ajouter.

  2. Sélectionnez l'une des options de la boîte de dialogue :

    Ajout d'un dépôt de logiciels
    Figure 13.2 : Ajout d'un dépôt de logiciels
    • Pour analyser le réseau à la recherche des serveurs d'installation qui annoncent leurs services via SLP, sélectionnez Analyser avec SLP et cliquez ensuite sur Suivant.

    • Pour ajouter un dépôt à partir d'un support amovible, sélectionnez l'option appropriée et insérez le support ou connectez le périphérique USB à la machine. Cliquez sur Suivant pour démarrer l'installation.

    • Pour la majorité des dépôts, vous êtes invité à indiquer le chemin d'accès (ou URL) au support après avoir sélectionné l'option appropriée et cliqué sur Suivant. Vous n'êtes pas obligé d'indiquer un Nom de dépôt. Si aucun nom n'est renseigné, YaST utilise l'URL ou le nom du produit.

    L'option Télécharger les fichiers de description du dépôt est activée par défaut. Si vous désactivez cette option, YaST téléchargera automatiquement les fichiers ultérieurement, si cela s'avère nécessaire.

  3. En fonction du dépôt que vous avez ajouté, vous pouvez être invité à importer la clé GPG de l'espace de stockage ou à accepter une licence.

    Une fois les messages confirmés, YaST télécharge et analyse les métadonnées. Le logiciel ajoute alors le dépôt à la liste des Dépôts configurés.

  4. Au besoin, définissez les Propriétés du dépôt en suivant la procédure décrite à la Section 13.4.2, « Gestion des propriétés des dépôts ».

  5. Cliquez sur OK pour confirmer vos modifications et fermer la boîte de dialogue de configuration.

  6. Une fois le dépôt ajouté, le gestionnaire de logiciels démarre et vous pouvez installer des paquetages à partir de cette source. Pour plus d'informations, reportez-vous au Chapitre 13, Installation et suppression de logiciels.

13.4.2 Gestion des propriétés des dépôts

L'aperçu Dépôts de logiciels configurés des Dépôts de logiciels vous permet de modifier les propriétés des dépôts suivantes :

État

L'état du dépôt peut être Activé ou Désactivé. Les paquetages que vous pouvez installer ne proviennent que des dépôts activés. Pour désactiver temporairement un dépôt, sélectionnez-le et désélectionnez l'option Activer. Vous pouvez également double-cliquer sur le nom d'un dépôt pour changer son état. Pour supprimer totalement un dépôt, cliquez sur Supprimer.

Rafraîchir

Lors du rafraîchissement d'un dépôt, la description de son contenu (noms des paquetages, versions, etc.) est téléchargée dans un cache local utilisé par YaST. Il suffit d'effectuer cette manipulation une fois pour les dépôts statiques, comme les CD ou les DVD, alors que les dépôts dont le contenu est souvent modifié doivent être rafraîchis fréquemment. La façon la plus simple de conserver le cache d'un dépôt à jour consiste à sélectionner Rafraîchir automatiquement. Pour exécuter un rafraîchissement manuel, cliquez sur Rafraîchir, puis sélectionnez l'une des options.

Conserver les paquetages téléchargés

Les paquetages des dépôts distants sont téléchargés avant d'être installés. Ils sont supprimés par défaut en cas d'installation réussie. L'activation de l'option Conserver les paquetages téléchargés permet d'empêcher la suppression des paquetages téléchargés. L'emplacement de téléchargement est configuré dans /etc/zypp/zypp.conf. Il s'agit par défaut du dossier /var/cache/zypp/packages.

Priorité

La priorité d'un dépôt est une valeur comprise entre 1 et 200, avec 1 correspondant à la priorité la plus élevée et 200, la plus faible. Tout nouveau dépôt ajouté avec YaST est associé par défaut à une priorité de 99. Si vous n'accordez pas d'importance à la valeur de la priorité d'un dépôt spécifique, vous pouvez également la définir sur 0 pour lui attribuer la priorité par défaut (99). Si un paquetage est disponible dans plusieurs dépôts, le dépôt ayant la plus haute priorité est prioritaire. Ceci est utile si vous souhaitez éviter de télécharger des paquetages inutiles depuis Internet en attribuant à un dépôt local (un DVD par exemple) une priorité plus élevée.

Important
Important : priorité par rapport à la version

Le dépôt ayant la plus haute priorité est prioritaire dans tous les cas. Ainsi, assurez-vous que le dépôt de mise à jour a toujours la priorité la plus élevée, faute de quoi vous risquez d'installer une version obsolète qui ne sera pas mise à jour avant la prochaine mise à jour en ligne.

Nom et URL

Pour modifier le nom ou l'URL d'un dépôt, sélectionnez-le dans la liste, puis cliquez sur Modifier.

13.4.3 Gestion des clés de dépôts

Pour garantir leur intégrité, les dépôts de logiciels peuvent être signés avec la clé GPG du mainteneur des dépôts. À chaque fois que vous ajoutez un nouveau dépôt, YaST vous propose d'importer sa clé. Vérifiez-la comme toutes les autres clés GPG et assurez-vous qu'elle ne change pas. Si vous détectez un changement de clé, il est possible que le dépôt soit à l'origine du problème. Désactivez le dépôt en tant que source d'installation jusqu'à ce que la cause du changement de clé soit identifiée.

Pour gérer toutes les clés importées, cliquez sur Clés GPG dans la boîte de dialogue Dépôts de logiciels configurés. Sélectionnez une entrée pour afficher les principales priorités en bas de la fenêtre. Cliquez sur Ajouter, Modifier ou Supprimer pour ajouter, modifier ou supprimer des clés.

13.5 Maintien du système à jour

SUSE propose en permanence des correctifs de sécurité logiciels pour votre produit. Vous pouvez les installer à l'aide du YaST Online Update. Des fonctionnalités avancées sont également proposées pour personnaliser l'installation de correctifs.

Le bureau GNOME s'accompagne également d'un outil permettant d'installer des correctifs, ainsi que des mises à jour de paquetages déjà installés. Contrairement à un Correctif, une mise à jour de paquetage est liée à un seul paquetage et en fournit une version plus récente. L'outil GNOME vous permet d'installer des correctifs et des mises à jour de paquetage en quelques clics, comme décrit à la Section 13.5.2, « Installation de correctifs et de mises à jour de paquetage ».

13.5.1 Programme de mise à jour de logiciels GNOME

Lorsque de nouveaux correctifs ou mises à jour de paquetage sont disponibles, GNOME affiche une notification à ce sujet dans la partie inférieure du bureau (ou sur l'écran verrouillé).

Notification de mise à jour sur l'écran de verrouillage de GNOME
Figure 13.3 : Notification de mise à jour sur l'écran de verrouillage de GNOME

13.5.2 Installation de correctifs et de mises à jour de paquetage

Lorsque de nouveaux correctifs ou mises à jour de paquetage sont disponibles, GNOME affiche une notification à ce sujet dans la partie inférieure du bureau (ou sur l'écran verrouillé).

Notification de mise à jour sur le bureau de GNOME
Figure 13.4 : Notification de mise à jour sur le bureau de GNOME
  1. Pour installer des correctifs et des mises à jour, cliquez sur Install updates (Installer les mises à jour) dans le message de notification. La visionneuse de mise à jour de GNOME s'ouvre. Vous pouvez également ouvrir cette visionneuse en cliquant sur Applications › Outils système › Mise à jour de logiciels ou en appuyant sur la touche AltF2 et en entrant ensuite gpk-update-viewer.

  2. Toutes les Mises à jour de sécurité et Mises à jour importantes sont présélectionnées. Il est vivement recommandé d'installer ces correctifs. D'autres mises à jour peuvent être sélectionnées en cochant les cases correspondantes. Cliquez sur le titre d'un correctif ou d'une mise à jour de paquetage pour obtenir des informations détaillées à son sujet.

  3. Cliquez sur Installer les mises à jour pour lancer l'installation. Le système vous invite à saisir le mot de passe de l'utilisateur root.

  4. Entrez le mot de passe root dans la boîte de dialogue d'authentification et continuez la procédure.

Visionneuse de mise à jour de GNOME
Figure 13.5 : Visionneuse de mise à jour de GNOME

13.5.3 Configuration du programme de mise à jour de logiciels de GNOME

Pour configurer les notifications, sélectionnez Applications › Paramètres système › Notification › Mise à jour de logiciels et réglez les paramètres souhaités.

Pour configurer la fréquence de vérification des mises à jour ou pour activer ou désactiver des dépôts, sélectionnez Applications  › Outils de systèmes › Paramètres › Paramètres logiciels. Les onglets de la boîte de dialogue de configuration vous permettent de modifier les paramètres suivants :

Paramètres de mise à jour
Vérifier la présence de mises à jour

Définissez la fréquence de vérification des mises à jour : Toutes les heures, Journalière, Hebdomadaire ou Jamais.

Vérification de l'existence de mises à niveau importantes

Définissez la fréquence de vérification des mises à niveau importantes : Journalière, Hebdomadaire ou Jamais.

Vérifier les mises à jour en cas d'utilisation d'une large bande mobile

Cette option de configuration n'est disponible que sur les ordinateurs portables. Elle est désactivée par défaut.

Check for updates on battery power (Vérifier les mises à jour en cas d'utilisation de la batterie)

Cette option de configuration n'est disponible que sur les ordinateurs portables. Elle est désactivée par défaut.

Sources de logiciels
Référentiels

Affiche la liste des dépôts dans lesquels les mises à jour de paquetage ou correctifs disponibles seront recherchés. Vous pouvez activer ou désactiver certains dépôts.

Important
Important : faites en sorte que le dépôt de mise à jour reste activé

Pour être informé de la disponibilité de tout correctif ayant trait à la sécurité, faites en sorte que le dépôt Updates relatif à votre produit reste activé.

Des options supplémentaires sont configurables via gconf-editor : apps › gnome-packagekit.

14 Installation de modules, extensions et produits complémentaires tiers

Les modules et les extensions ajoutent des parties ou des fonctionnalités au système. Les modules sont des composants SUSE Linux Enterprise Server bénéficiant d'une prise en charge complète, avec un cycle de vie et un planning de mise à jour différents. Il s'agit d'un ensemble de paquetages, qui ont une étendue clairement définie et sont fournis via un canal en ligne uniquement.

Les extensions telles que Workstation Extension ou High Availability Extension ajoutent des fonctionnalités supplémentaires au système et nécessitent une clé d'enregistrement pouvant être payante. Les extensions sont distribuées par le biais d'un canal en ligne ou d'un support physique. L'enregistrement auprès du SUSE Customer Center ou d'un serveur d'enregistrement local est une condition préalable pour s'abonner aux canaux en ligne. Le concentrateur de paquetages (Section 14.6, « SUSE Package Hub ») et le SDK SUSE (Section 14.5, « Kit SDK SUSE 12 SP5 ») sont des exceptions qui ne nécessitent pas une clé d'enregistrement et ne sont pas couverts par des accords de support SUSE.

La liste des extensions et des modules pour votre produit est accessible après avoir enregistré votre système auprès du SUSE Customer Center ou d'un serveur d'enregistrement local. Si vous avez ignoré l'étape d'enregistrement, vous pourrez enregistrer votre système ultérieurement en utilisant le module Configuration de SUSE Customer Center de YaST. Pour plus d'informations, reportez-vous à la Section 20.8, « Enregistrement de votre système ».

Certains produits complémentaires sont également fournis par des tiers ; ainsi, certains matériels exigent des pilotes binaires uniquement pour fonctionner correctement. Si cela concerne votre matériel, reportez-vous aux notes de version pour obtenir plus d'informations sur la disponibilité des pilotes binaires pour votre système. Les notes de version sont disponibles sur le site http://www.suse.com/releasenotes/, auprès de YaST ou dans le dossier /usr/share/doc/release-notes/ sur votre système installé.

14.1 Liste des modules facultatifs

Outre le système d'exploitation du serveur de base, SUSE Linux Enterprise Server 12 propose des modules facultatifs inclus dans l'abonnement. Chaque module a un cycle de vie différent. Cette approche offre une intégration plus rapide avec les mises à jour en amont. Voici une liste de tous les modules facultatifs avec une brève description :

Kit de développement logiciel

Il s'agit du kit de développement logiciel (Software Development Kit, SDK) de la gamme de produits SUSE Linux Enterprise. Cette extension gratuite s'adresse aux partenaires et clients qui travaillent avec SUSE Linux Enterprise Server, Desktop et les produits dérivés.

Pour plus d'informations sur le SDK SUSE, reportez-vous à la Section 14.5, « Kit SDK SUSE 12 SP5 ».

Package Hub

SUSE Package Hub permet d'accéder à des paquetages gérés par la communauté et conçus pour s'exécuter sous SUSE Linux Enterprise Server. Compilés à partir des mêmes sources que celles utilisées dans les distributions openSUSE, ces paquetages de qualité fournissent des logiciels supplémentaires à ceux disponibles dans SUSE Linux Enterprise Server.

Pour plus d'informations sur SUSE Package Hub, reportez-vous à la Section 14.6, « SUSE Package Hub ».

Module Advanced Systems Management

Ce module est constitué de trois composants destinés à aider les administrateurs système à automatiser des tâches dans le centre de données et le cloud : les outils de gestion de la configuration « CFEngine » et « Puppet », ainsi que la nouvelle infrastructure « Machinery ». Machinery est une boîte à outils de gestion des systèmes permettant d'inspecter les systèmes à distance, de stocker leur description système et de créer des images système à déployer au sein des centres de données et des clouds.

Pour plus d'informations sur le projet Machinery, reportez-vous à l'adresse http://machinery-project.org/.

Module Containers (Conteneurs)

Ce module contient plusieurs paquetages relatifs aux conteneurs et aux outils associés, notamment Docker Open Source Engine et des images préalablement mises en paquetage pour SUSE Linux Enterprise Server 11 et SUSE Linux Enterprise Server 12.

Module HPC

Le module HPC fournit un ensemble sélectionné d'outils et de composants utilisés dans les environnements HPC (High Performance Computing, calcul haute performance). Pour répondre à l'évolution des besoins des clients en matière de prise en charge des technologies HPC de pointe à la fois au niveau matériel et logiciel, ce module fournit des composants logiciels fréquemment mis à jour vers les dernières versions disponibles. La sélection des composants logiciels a été inspirée par (mais sans s'y limiter) ce qui est fourni dans le cadre du projet de communauté OpenHPC à l'adresse http://openhpc.community/.

Module Legacy

Le module Legacy vous aide à migrer des applications à partir de systèmes plus anciens vers SUSE Linux Enterprise Server 12. Pour les entreprises migrant d'UNIX vers Linux, ce module peut être essentiel. De nombreuses applications plus anciennes nécessitent des paquetages qui ne sont plus disponibles avec la dernière version de SUSE Linux Enterprise Server. Ce module fournit ces paquetages. Il comprend des paquetages tels que sendmail, syslog-ng, IBM Java6 et plusieurs bibliothèques (par exemple, openssl-0.9.8).

Module Public Cloud (Cloud public)

Le module Public Cloud est une collection d'outils pour créer et gérer des images de cloud public à partir de la ligne de commande. Lorsque vous créez vos propres images avec KIWI ou SUSE Studio, elles contiennent un code d'initialisation spécifique pour le cloud cible.

Le module Public Cloud contient quatre modèles :

  • Amazon–Web–Services (aws–cli, cloud–init)

  • Microsoft–Azure (WALinuxAgent)

  • Google–Cloud–Platform (gcimagebundle, google–api–python–client, google–cloud–sdk, google–daemon, google–startup–scripts)

  • OpenStack (OpenStack–heat–cfntools, cloud–init)

Module SUSE Cloud Application Platform Tools

Le module SUSE Cloud Application Platform Tools est un ensemble d'outils qui vous permet d'interagir avec le produit SUSE Cloud Application Platform lui-même, notamment en fournissant le client de la ligne de commande.

Le module a un cycle de vie différent de celui de SUSE Linux Enterprise Server. Reportez-vous aux Notes de version pour plus de détails.

Module Toolchain

Ce module offre aux développeurs de logiciels une chaîne d'outils actuelle composée de GNU Compiler Collection (GCC) et des paquetages associés, ainsi que des applications mises à jour, des améliorations, de nouvelles normes et des fonctions matérielles supplémentaire. Il permet aux développeurs de logiciels de tirer avantage des nouvelles fonctions de la version la plus récente de GCC ; il améliore la prise en charge des langues, de la plupart des modifications C++14, ainsi que de Fortran 2008 et 2015, et offre de nombreuses optimisations. Pour plus de détails, reportez-vous à la section https://gcc.gnu.org/gcc-5/changes.html.

Module Web and Scripting

Le module Web and Scripting propose un ensemble complet de langages de script, de structures et d'outils connexes pour aider les développeurs et les administrateurs système à accélérer la création d'applications Web stables et modernes. Le module comprend les versions récentes de langages dynamiques, tels que PHP et Python. Si vous envisagez d'exécuter un serveur Web ou des applications hôtes qui possèdent des portails Web ou exigent des scripts côté serveur, le module Web and Scripting est indispensable.

14.2 Liste des extensions disponibles

Les extensions fournissent des fonctionnalités avancées pour des tâches telles que l'application de correctifs à chaud et la mise en grappe haute disponibilité pour SUSE Linux Enterprise Server. Elles sont proposées sous forme d'abonnements et nécessitent une clé d'enregistrement payante. En règle générale, les extensions ont leurs propres de notes de version qui sont disponibles à l'adresse https://www.suse.com/releasenotes.

High Availability

SUSE Linux Enterprise High Availability fournit des technologies de mise en grappe haute disponibilité Open Source matures et leaders du secteur, à la fois faciles à configurer et à utiliser. Cette extension peut être déployée dans des environnements physiques et/ou virtuels, et peut regrouper des serveurs physiques, des serveurs virtuels ou n'importe quelle combinaison des deux pour répondre aux besoins de votre entreprise.

La prise en charge de la haute disponibilité est incluse dans les abonnements pour SUSE Linux Enterprise Server for SAP Applications et SUSE Linux Enterprise Server for High performance Computing, et est également disponible sous forme d'extension pour SUSE Linux Enterprise Server.

GEO Clustering for High Availability

Geo Clustering for SUSE Linux Enterprise High Availability Extension est un système de haute disponibilité Open Source de pointe conçu pour gérer les serveurs de clusters dans les centres de données partout dans le monde.

Live Patching

Avec SUSE Linux Enterprise Live Patching, vous pouvez appliquer des correctifs de kernel essentiels sans arrêter votre système, ce qui réduit le besoin de temps hors service planifiés et augmente la disponibilité des services.

Extension Workstation

L'extension Workstation étend les fonctionnalités de SUSE Linux Enterprise Server avec des paquetages de SUSE Linux Enterprise Desktop, tels que des bibliothèques et des applications de bureau supplémentaires. Elle permet de combiner les deux produits pour créer un poste de travail aux fonctionnalités complètes.

Serveur SUSE Manager

SUSE Manager vous permet de gérer efficacement des systèmes Linux physiques, virtuels et basés sur le cloud. Il fournit des fonctionnalités automatisées et économiques de gestion de la configuration, des logiciels et des ressources, ainsi que de provisioning des systèmes.

Proxy SUSE Manager

Les proxys SUSE Manager étendent les environnements SUSE Manager de grande taille et/ou géographiquement dispersés afin de diminuer la charge sur le serveur SUSE Manager, de réduire les besoins en bande passante et de fournir des mises à jour locales plus rapides.

SUSE OpenStack Cloud 9

SUSE OpenStack Cloud est optimisé par OpenStack, le projet communautaire d'infrastructure cloud Open Source leader, et est fourni avec SUSE Linux Enterprise Server. Le produit est entièrement intégré à l'infrastructure de prise en charge et de maintenance SUSE. Il s'agit d'une solution idéale pour les clients souhaitant déployer un cloud avec des niveaux de stabilité et de support à l'échelle de l'entreprise.

SUSE OpenStack Cloud Crowbar 9

SUSE OpenStack Cloud Crowbar est une solution logicielle Open Source qui dispose des fonctions fondamentales pour déployer et gérer une infrastructure cloud optimisée par OpenStack, le projet communautaire d'infrastructure cloud Open Source leader. Il gère les workloads et en assure le provisioning en toute transparence au sein d'un environnement cloud hétérogène de manière sécurisée, conforme et entièrement prise en charge.

14.3 Installation de modules et extensions à partir des canaux en ligne

Astuce
Astuce : SUSE Linux Enterprise Desktop 

À partir de SUSE Linux Enterprise 12, SUSE Linux Enterprise Desktop n'est plus seulement disponible comme produit distinct, mais aussi en tant qu'extension Workstation pour SUSE Linux Enterprise Server. Si vous vous enregistrez auprès du SUSE Customer Center, l'extension Workstation est proposée à des fins d'installation. Son installation nécessite une clé d'enregistrement valide.

Pour effectuer la procédure suivante, vous devez enregistrer votre système auprès de SUSE Customer Center ou d'un serveur d'enregistrement local. Lors de l'enregistrement de votre système, vous verrez une liste d'extensions et de modules immédiatement après avoir terminé l'Étape 4 de la Section 20.8, « Enregistrement de votre système ». Dans ce cas, ignorez les étapes suivantes et passez à l'Étape 2.

Note
Note : affichage des produits complémentaires déjà installés

Pour afficher les produits complémentaires déjà installés, démarrez YaST et sélectionnez Software (Logiciels) Add-Ons (Produits complémentaires).

Procédure 14.1 : Installation de produits complémentaires et extensions à partir de canaux en ligne à l'aide de YaST
  1. Démarrez YaST et sélectionnez Software (Logiciel) Add System Extensions or Modules (Ajouter des modules ou extensions système).

    YaST se connecte au serveur d'enregistrement et affiche une liste des extensions et modules disponibles.

    Note
    Note : extensions et modules disponibles

    La quantité de modules et d'extensions disponibles dépend du serveur d'enregistrement. Il se peut qu'un serveur d'enregistrement local ne propose que des dépôts de mises à jour sans aucune extension supplémentaire.

    Note
    Note : cycles de vie des modules

    Les dates de fin de cycle de vie des modules sont disponibles sur le site https://scc.suse.com/docs/lifecycle/sle/12/modules.

  2. Cliquez sur une entrée pour en afficher la description.

  3. Cochez les cases correspondant aux entrées que vous souhaitez installer.

    Installation des extensions de système
    Figure 14.1 : Installation des extensions de système
  4. Cliquez sur Suivant pour continuer.

  5. En fonction des dépôts à ajouter pour l'extension ou le module, vous pouvez être invité à importer la clé GPG du dépôt ou à accepter une licence.

    Une fois les messages confirmés, YaST télécharge et analyse les métadonnées. Les dépôts correspondant aux extensions sélectionnées sont ajoutés à votre système ; aucune source d'installation supplémentaire n'est requise.

  6. Au besoin, définissez les Propriétés du dépôt en suivant la procédure décrite à la Section 13.4.2, « Gestion des propriétés des dépôts ».

Note
Note : pour plus d'informations

Livre blanc des Modules SUSE Linux Enterprise Server 12.

14.4 Installation d'extensions et de produits complémentaires tiers à partir d'un support

En cas d'installation d'une extension ou d'un produit complémentaire à partir d'un support, vous pouvez sélectionner différents types de support : DVD/CD, périphériques de stockage de masse amovibles (comme des disques flash), une image ISO ou un répertoire local. Le support peut également être fourni par un serveur réseau ; via HTTP, FTP, NFS ou Samba, par exemple.

  1. Démarrez YaST et sélectionnez Logiciels › Produits complémentaires. Vous pouvez également démarrer le module Produits complémentaires YaST à partir de la ligne de commande en entrant la commande sudo yast2 add-on.

    La boîte de dialogue affiche un aperçu des produits complémentaires, modules et extensions déjà installés.

    Liste des produits complémentaires, modules et extensions installés
    Figure 14.2 : Liste des produits complémentaires, modules et extensions installés
  2. Sélectionnez Ajouter pour installer un nouveau produit complémentaire.

  3. Dans la boîte de dialogue Produit complémentaire, sélectionnez l'option correspondant au type de support à partir duquel vous souhaitez l'installer :

    Installation d'un produit complémentaire ou d'une extension
    Figure 14.3 : Installation d'un produit complémentaire ou d'une extension
    • Pour analyser le réseau à la recherche des serveurs d'installation qui annoncent leurs services via SLP, sélectionnez Analyser avec SLP et cliquez ensuite sur Suivant.

    • Pour ajouter un dépôt à partir d'un support amovible, sélectionnez l'option appropriée et insérez le support ou connectez le périphérique USB à la machine. Cliquez sur Suivant pour démarrer l'installation.

    • Pour la plupart des types de support, vous êtes invité à indiquer le chemin d'accès (ou URL) au support après avoir sélectionné l'option appropriée et cliqué sur Suivant. Vous n'êtes pas obligé d'indiquer un Nom de dépôt. Si aucun nom n'est renseigné, YaST utilise l'URL ou le nom du produit comme nom pour le dépôt.

    L'option Télécharger les fichiers de description du dépôt est activée par défaut. Si vous désactivez cette option, YaST téléchargera automatiquement les fichiers ultérieurement, si cela s'avère nécessaire.

  4. En fonction du dépôt que vous avez ajouté, vous pouvez être invité à importer la clé GPG de l'espace de stockage ou à accepter une licence.

    Une fois les messages confirmés, YaST télécharge et analyse les métadonnées. Le logiciel ajoute alors le dépôt à la liste des Dépôts configurés.

  5. Au besoin, définissez les Propriétés du dépôt en suivant la procédure décrite à la Section 13.4.2, « Gestion des propriétés des dépôts ».

  6. Cliquez sur OK pour confirmer vos modifications et fermer la boîte de dialogue de configuration.

  7. Après avoir ajouté avec succès le dépôt du produit complémentaire, le gestionnaire de logiciels démarre et vous pouvez installer les paquetages. Pour plus d'informations, reportez-vous au Chapitre 13, Installation et suppression de logiciels.

14.5 Kit SDK SUSE 12 SP5

Le kit de développement logiciel SUSE 12 SP5 est une extension pour SUSE Linux Enterprise 12 SP5. Il s'agit d'un ensemble d'outils permettant de développer des applications. En fait, pour fournir un système complet, le SDK SUSE 12 SP 5 inclut tous les outils Open Source utilisés pour créer le produit SUSE Linux Enterprise Server. De cette façon, si vous êtes un développeur, un éditeur de logiciels (ISV, Independent Software Vendor) ou un constructeur indépendant de matériel (IHV, Independent Hardware Vendor), vous disposez de tous les outils nécessaires pour acheminer les applications vers toutes les plates-formes prises en charge par SUSE Linux Enterprise Desktop et SUSE Linux Enterprise Server.

Le SDK SUSE ne nécessite pas de clé d'enregistrement et n'est pas couvert par les accords de support SUSE.

Le SDK SUSE contient également des environnements de développement intégrés (IDE), des débogueurs, des éditeurs de code et d'autres outils associés. Il prend en charge la plupart des langages de programmation, y compris C, C++, Java et la majorité des langages de script. Pour plus de facilité, le SDK SUSE comprend plusieurs paquetages Perl qui ne sont pas inclus dans SUSE Linux Enterprise.

L'extension SDK est disponible via un canal en ligne à partir du SUSE Customer Center. Vous pouvez également vous rendre sur le site http://download.suse.com/, rechercher SUSE Linux Enterprise Software Development Kit et le télécharger à partir de là. Reportez-vous au Chapitre 14, Installation de modules, extensions et produits complémentaires tiers pour obtenir des informations détaillées.

14.6 SUSE Package Hub

Dans la liste Available Extensions and Modules (Extensions et modules disponibles), vous trouverez SUSE Package Hub (concentrateur de paquetages SUSE). Il est disponible sans frais supplémentaires. Il fournit un grand nombre de paquetages supplémentaires mis à la disposition de la communauté pour SUSE Linux Enterprise qui peuvent être facilement installés, mais qui ne sont pas pour autant pris en charge par SUSE.

Pour plus d'informations sur SUSE Package Hub et comment y apporter votre contribution, consultez le site https://packagehub.suse.com/.

Important
Important : SUSE Package Hub non pris en charge

N'oubliez pas que les paquetages fournis dans le hub SUSE Package Hub ne sont pas officiellement pris en charge par SUSE. SUSE prend uniquement en charge l'activation du dépôt Package Hub et l'aide dans le cadre de l'installation ou du déploiement des paquetages RPM.

15 Installation de plusieurs versions du kernel

SUSE Linux Enterprise Server prend en charge l'installation parallèle de plusieurs versions du kernel. Lorsque vous installez un deuxième kernel, une entrée de démarrage et un fichier initrd sont automatiquement créés. Aucune autre configuration manuelle n'est donc requise. Lorsque vous redémarrez la machine, le nouveau kernel est disponible sous la forme d'une option de démarrage supplémentaire.

Cette fonctionnalité vous permet de tester les mises à jour de kernel en toute sécurité, tout en ayant la possibilité de revenir au kernel opérationnel précédent. Pour ce faire, n'utilisez pas les outils de mise à jour (tels que YaST Online Update ou l'applet de mise à jour), mais suivez la procédure décrite dans ce chapitre.

Avertissement
Avertissement : droit au support

Sachez que vous perdrez votre droit au support sur la machine en cas d'installation d'un kernel tiers ou auto-compilé. Seuls les kernels livrés avec SUSE Linux Enterprise Server et ceux distribués via les canaux de mise à jour officiels pour SUSE Linux Enterprise Server sont pris en charge.

Astuce
Astuce : vérification du kernel de configuration de votre chargeur de démarrage

Il est conseillé de vérifier la configuration de votre chargeur de démarrage après avoir installé un autre kernel afin de définir l'entrée de démarrage par défaut de votre choix. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 13 “The Boot Loader GRUB 2”, Section 13.3 “Configuring the Boot Loader with YaST”.

15.1 Activation et configuration de la prise en charge de plusieurs versions

L'installation de plusieurs versions d'un paquetage logiciel (prise en charge multiversion) est activée par défaut à partir de SUSE Linux Enterprise 12. Pour vérifier ce paramètre, procédez comme suit :

  1. Ouvrez /etc/zypp/zypp.conf avec l'éditeur de votre choix en tant qu'utilisateur root.

  2. Recherchez la chaîne multiversion. Si la prise en charge multiversion est activée pour tous les paquetages de kernels disposant de cette fonction, la ligne suivante s'affiche, sans commentaire :

    multiversion = provides:multiversion(kernel)
  3. Pour limiter cette prise en charge à certaines versions de kernel, ajoutez les noms de paquetage sous la forme d'une liste séparée par des virgules à l'option multiversion dans /etc/zypp/zypp.conf. Par exemple :

    multiversion = kernel-default,kernel-default-base,kernel-source
  4. Enregistrez vos modifications.

Avertissement
Avertissement : paquetages de modules de kernels (KMP)

Assurez-vous que les modules de kernels requis (KMP) proposés par les fournisseurs sont également installés pour le kernel nouvellement mis à jour. Le processus de mise à jour de kernels ne signale pas les éventuels modules de kernels manquants car les conditions liées aux paquetages sont toujours remplies par l'ancien kernel conservé sur le système.

15.1.1 Suppression automatique des kernels inutilisés

Lorsque vous testez fréquemment des nouveaux kernels sur lesquels la prise en charge de plusieurs versions est activée, il devient rapidement difficile de s'y retrouver dans le menu de démarrage. Dans la mesure où une partition /boot dispose généralement d'un espace limité, des problèmes de débordement /boot peuvent apparaître. Bien que vous puissiez supprimer manuellement les versions de kernel inutilisées à l'aide de YaST ou Zypper (comme décrit ci-dessous), vous pouvez également configurer libzypp de manière à supprimer automatiquement les kernels qui ne sont plus utilisés. Par défaut, aucun kernel n'est supprimé.

  1. Ouvrez /etc/zypp/zypp.conf avec l'éditeur de votre choix en tant qu'utilisateur root.

  2. Recherchez la chaîne multiversion.kernels et activez cette option en annulant la mise en commentaire de la ligne. Cette option adopte une liste des valeurs suivantes séparées par des virgules :

    4.4.126-48 : conserve le kernel avec le numéro de version spécifié

    latest : conserve le kernel ayant le numéro de version le plus élevé

    latest-N : conserve le kernel ayant le Nième numéro de version le plus élevé

    running : conserve le kernel en cours d'exécution

    oldest : conserve le kernel ayant le numéro de version le plus petit (celui livré initialement avec SUSE Linux Enterprise Server)

    oldest+N : conserve le kernel ayant le Nième numéro de version le plus petit

    En voici quelques exemples

    multiversion.kernels = latest,running

    Conserve le kernel le plus récent et celui en cours d'exécution. Cela équivaut à désactiver la fonction « multiversion », si ce n'est que l'ancien kernel est supprimé après le redémarrage suivant, et non immédiatement après l'installation.

    multiversion.kernels = latest,latest-1,running

    Conserve les deux derniers kernels et celui en cours d'exécution.

    multiversion.kernels = latest,running,4.4.126-48

    Conserve le dernier kernel, celui en cours d'exécution et 4.4.126-48.

    Astuce
    Astuce : maintien de l'exécution du kernel

    À moins d'utiliser une configuration spéciale, gardez toujours le kernel marqué comme en cours d'exécution (running).

    Si vous ne maintenez pas le kernel en cours d'exécution, il sera supprimé lors de sa mise à jour. Cela signifie qu'ensuite, tous les modules du kernel en cours d'exécution seront également supprimés et ne pourront plus être chargés.

    Si vous décidez de ne pas maintenir le kernel en cours d'exécution, redémarrez toujours immédiatement après une mise à niveau du kernel pour éviter des problèmes avec les modules.

15.1.2 Cas d'utilisation : suppression d'un ancien kernel uniquement après le redémarrage

Vous souhaitez être certain que l'ancien kernel ne sera supprimé qu'après avoir redémarré le système avec le nouveau kernel.

Remplacez la ligne suivante dans /etc/zypp/zypp.conf :

multiversion.kernels = latest,running

Les paramètres précédents indiquent au système de ne conserver la dernière version du kernel et celle en cours d'exécution que si elles sont différentes.

15.1.3 Cas d'utilisation : conservation des anciens kernels comme solution de secours

Vous souhaitez conserver une ou plusieurs versions de kernel afin d'en avoir un ou plusieurs « de rechange ».

Cela peut s'avérer utile si vous avez besoin de kernels à des fins de test. En cas de problème (si votre ordinateur ne démarre pas, par exemple), vous pouvez toujours utiliser une ou plusieurs versions de kernel valides connues.

Remplacez la ligne suivante dans /etc/zypp/zypp.conf :

multiversion.kernels = latest,latest-1,latest-2,running

Lorsque vous redémarrez votre système après l'installation d'un nouveau kernel, le système conserve trois kernels : le kernel actuel (configuré en tant que latest,running) et ses deux prédécesseurs immédiats (configurés en tant que latest-1 et latest-2).

15.1.4 Cas d'utilisation : conservation d'une version de kernel spécifique

Vous effectuez régulièrement des mises à jour système et installez de nouvelles versions de kernel. Toutefois, vous compilez également votre propre version du kernel et voulez être certain que le système les conserve.

Remplacez la ligne suivante dans /etc/zypp/zypp.conf :

multiversion.kernels = latest,3.12.28-4.20,running

Lorsque vous redémarrez votre système après l'installation d'un nouveau kernel, le système conserve deux kernels : le nouveau kernel qui est celui en cours d'exécution (configuré en tant que latest,running et celui compilé par vos soins (configuré en tant que 3.12.28-4.20).

15.2 Installation/suppression de plusieurs versions de kernel avec YaST

  1. Démarrez YaST et ouvrez le gestionnaire de logiciels via Logiciel › Gestion de logiciels.

  2. Dressez la liste de tous les paquetages capables de fournir plusieurs versions en sélectionnant Afficher › Groupes de paquetages › Paquetages multiversions.

    Gestionnaire de logiciels : affichage multiversion
    Figure 15.1 : Gestionnaire de logiciels : affichage multiversion
  3. Sélectionnez un paquetage et ouvrez l'onglet Version correspondant dans le volet situé en bas à gauche.

  4. Pour installer un paquetage, cliquez sur la case à cocher en regard de celui-ci. Une coche verte indique que le paquetage est sélectionné pour être installé.

    Pour supprimer un paquetage déjà installé (signalé par une coche blanche), cochez la case en regard de celui-ci jusqu'à ce qu'un X rouge indique qu'il a été sélectionné en vue de la suppression.

  5. Cliquez sur Accepter pour démarrer l'installation.

15.3 Installation/suppression de plusieurs versions de kernel avec Zypper

  1. Utilisez la commande zypper se -s 'kernel*' pour afficher la liste de tous les paquetages de kernel disponibles :

    S | Name           | Type       | Version         | Arch   | Repository
    --+----------------+------------+-----------------+--------+-------------------
    v | kernel-default | package    | 2.6.32.10-0.4.1 | x86_64 | Alternative Kernel
    i | kernel-default | package    | 2.6.32.9-0.5.1  | x86_64 | (System Packages)
      | kernel-default | srcpackage | 2.6.32.10-0.4.1 | noarch | Alternative Kernel
    i | kernel-default | package    | 2.6.32.9-0.5.1  | x86_64 | (System Packages)
    ...
  2. Indiquez la version exacte lors de l'installation :

    zypper in kernel-default-2.6.32.10-0.4.1
  3. Lorsque vous désinstallez un kernel, utilisez les commandes zypper se -si 'kernel*' pour afficher la liste de tous les kernels installés et zypper rmVERSION-NOM PAQUETAGE pour supprimer le paquetage.

16 Gestion des utilisateurs avec YaST

Lors de l'installation, vous pouvez avoir créé un utilisateur local pour votre système. Le module Gestion des utilisateurs et des groupes de YaST vous permet d'ajouter davantage d'utilisateurs ou de modifier des utilisateurs existants. Il vous permet également de configurer votre système afin d'authentifier les utilisateurs auprès d'un serveur réseau.

16.1 Boîte de dialogue Gestion des utilisateurs et des groupes

Pour gérer les utilisateurs et les groupes, démarrez YaST et cliquez sur Sécurité et Utilisateurs › Gestion des groupes et des utilisateurs. Vous pouvez également ouvrir directement la boîte de dialogue Gestion des utilisateurs et des groupes à partir d'une ligne de commande en exécutant sudo yast2 users &.

Gestion des utilisateurs et des groupes YaST
Figure 16.1 : Gestion des utilisateurs et des groupes YaST

Un ID utilisateur (UID) est attribué à chaque utilisateur à l'échelle du système. En dehors des utilisateurs qui peuvent se connecter à votre machine, il existe également plusieurs utilisateurs système destinés exclusivement à un usage interne. Chaque utilisateur est affecté à un ou plusieurs groupes. Comme pour les utilisateurs système, il existe également des groupes système destinés à un usage interne.

En fonction de l'ensemble d'utilisateurs que vous choisissez d'afficher et de modifier dans la boîte de dialogue (utilisateurs locaux, utilisateurs réseau, utilisateurs système), la fenêtre principale présente plusieurs onglets. Ces derniers vous permettent d'exécuter les tâches suivantes :

Gestion des comptes utilisateur

À partir de l'onglet Utilisateurs, vous pouvez créer, modifier, supprimer ou désactiver temporairement les comptes utilisateur, comme décrit à la Section 16.2, « Gestion des comptes utilisateur ». Pour en savoir plus sur les options avancées, telles que l'application des stratégies de mot de passe, l'utilisation de répertoires privés codés ou la gestion des quotas de disque, reportez-vous à la Section 16.3, « Options supplémentaires des comptes utilisateur ».

Modification des paramètres par défaut

Les comptes utilisateur locaux sont créés en fonction des paramètres définis dans l'onglet Paramètres par défaut pour les nouveaux utilisateurs. Pour en savoir plus sur la modification de l'affectation aux groupes et le chemin d'accès par défaut ou les autorisations d'accès aux répertoires, reportez-vous à la Section 16.4, « Modification des paramètres par défaut des utilisateurs locaux ».

Affectation des utilisateurs à des groupes

Pour savoir comment modifier l'affectation d'utilisateurs individuels à des groupes, reportez-vous à la Section 16.5, « Affectation des utilisateurs à des groupes ».

Gestion des groupes

L'onglet Groupes vous permet d'ajouter, de modifier ou de supprimer des groupes existants. Reportez-vous à la Section 16.6, « Gestion des groupes » pour obtenir des informations sur cette procédure.

Modification de la méthode d'authentification des utilisateurs

Si votre machine est connectée à un réseau fournissant des méthodes d'authentification des utilisateurs, telles que NIS ou LDAP, vous pouvez choisir parmi plusieurs méthodes d'authentification dans l'onglet Paramètres d'authentification. Pour plus d'informations, reportez-vous à la Section 16.7, « Modification de la méthode d'authentification des utilisateurs ».

Pour la gestion des utilisateurs et des groupes, la boîte de dialogue offre une fonctionnalité similaire. Vous pouvez facilement passer de la gestion des utilisateurs à celle des groupes en sélectionnant l'onglet approprié en haut de la boîte de dialogue.

Les options de filtre vous permettent de définir l'ensemble d'utilisateurs ou de groupes que vous souhaitez modifier : sous l'onglet Utilisateurs ou Groupes, cliquez sur Définir le filtre pour afficher et modifier les utilisateurs ou les groupes en fonction de certaines catégories comme Utilisateurs locaux ou Utilisateurs LDAP, par exemple (si vous faites partie d'un réseau utilisant LDAP). Les options Définir le filtre › Personnaliser le filtre vous permettent également de définir et d'utiliser un filtre personnalisé.

En fonction du filtre sélectionné, les options suivantes ne seront pas toutes accessibles dans la boîte de dialogue.

16.2 Gestion des comptes utilisateur

YaST permet de créer, de modifier, de supprimer ou de désactiver temporairement des comptes utilisateur. Ne modifiez les comptes utilisateur que si vous êtes un utilisateur expérimenté ou un administrateur.

Note
Note : modification des ID d'utilisateurs existants

La propriété des fichiers est liée à l'ID de l'utilisateur, et non à son nom. Suite à la modification d'un ID utilisateur, les fichiers du répertoire privé de l'utilisateur appliquent automatiquement cette modification. Néanmoins, après une telle modification, l'utilisateur n'est plus propriétaire des fichiers qu'il a créés ailleurs que sur le système de fichiers, sauf si la propriété de ces fichiers a été modifiée manuellement.

La section suivante explique comment définir des comptes utilisateur par défaut. Pour plus d'options, reportez-vous à la Section 16.3, « Options supplémentaires des comptes utilisateur ».

Procédure 16.1 : Ajout ou modification des comptes utilisateur
  1. Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST et cliquez sur l'onglet Utilisateurs.

  2. Sélectionnez l'option Définir le filtre pour définir l'ensemble d'utilisateurs que vous souhaitez gérer. La boîte de dialogue répertorie les utilisateurs du système et les groupes auxquels ils appartiennent.

  3. Pour modifier les options d'un utilisateur existant, sélectionnez une entrée et cliquez sur Modifier.

    Pour créer un nouveau compte utilisateur, cliquez sur Ajouter.

  4. Entrez les données de l'utilisateur appropriées dans le premier onglet, comme les paramètres Nom d'utilisateur (utilisé pour se connecter) et Mot de passe. Ces données sont suffisantes pour créer un nouvel utilisateur. Si vous cliquez sur OK maintenant, le système affectera automatiquement un ID utilisateur et définira toutes les autres valeurs en fonction des paramètres par défaut.

  5. Activez l'option Recevoir les messages du système si vous souhaitez qu'un quelconque type de notifications système soit diffusé dans la boîte aux lettres de cet utilisateur. Cette opération crée un alias de messagerie pour l'utilisateur root. L'utilisateur peut ainsi lire le message système sans devoir se connecter en tant qu'utilisateur root au préalable.

    Les messages envoyés par les services système sont stockés dans la boîte aux lettres locale /var/spool/mail/USERNAME, où USERNAME est le nom de connexion de l'utilisateur sélectionné. Pour lire les messages électroniques, vous pouvez utiliser la commande mail.

  6. Pour modifier des détails supplémentaires comme l'ID ou le chemin d'accès au répertoire privé de l'utilisateur, sélectionnez l'onglet Détails.

    Si vous devez déplacer le répertoire privé d'un utilisateur existant, entrez le chemin d'accès au nouveau répertoire privé ici et transférez le contenu du répertoire actuel à l'aide de l'option Déplacer vers un nouvel emplacement. Faute de quoi, le nouveau répertoire ne contiendra aucune donnée existante.

  7. Pour obliger les utilisateurs à modifier régulièrement leur mot de passe ou définir d'autres options de mot de passe, sélectionnez Paramètres du mot de passe et modifiez les options. Pour plus d'informations, reportez-vous à la Section 16.3.2, « Applications des stratégies de mot de passe ».

  8. Une fois toutes les options modifiées, cliquez sur OK.

  9. Cliquez sur OK pour fermer la boîte de dialogue de gestion et enregistrer les modifications. Un utilisateur qui vient d'être ajouté peut désormais se connecter au système à l'aide du nom de connexion et du mot de passe que vous avez créés.

    Pour enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des utilisateurs et des groupes, vous pouvez également cliquer sur Options avancées › Écrire les modifications maintenant.

Astuce
Astuce : concordance des ID utilisateur

Pour un nouvel utilisateur (local) d'ordinateur portable qui doit également s'intégrer à un environnement réseau dans lequel il possède déjà un ID utilisateur, il est utile de faire correspondre l'ID utilisateur (local) avec celui du réseau. Cela garantit que la propriété des fichiers créés par l'utilisateur « hors ligne » est identique à la propriété des fichiers qui auraient été créés directement sur le réseau.

Procédure 16.2 : Désactivation ou suppression de comptes utilisateur
  1. Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST et cliquez sur l'onglet Utilisateurs.

  2. Pour désactiver temporairement un compte utilisateur sans le supprimer, sélectionnez l'utilisateur dans la liste, puis cliquez sur Modifier. Activez l'option Désactiver le compte de connexion de l'utilisateur. L'utilisateur ne peut pas se connecter à votre machine tant que vous n'avez pas réactivé le compte.

  3. Pour supprimer un compte utilisateur, sélectionnez un utilisateur dans la liste, puis cliquez sur Supprimer. Choisissez si vous souhaitez également supprimer le répertoire privé de cet utilisateur ou si vous préférez conserver les données qu'il contient.

16.3 Options supplémentaires des comptes utilisateur

En plus des paramètres d'un compte utilisateur par défaut, SUSE® Linux Enterprise Server propose des options supplémentaires, telles que l'application de stratégies de mot de passe, l'utilisation de répertoires privés codés ou la définition de quotas de disque pour les utilisateurs et les groupes.

16.3.1 Connexion automatique et connexion sans mot de passe

Si vous utilisez un environnement de bureau GNOME, vous pouvez configurer une connexion automatique (Auto Login) pour un utilisateur spécifique, ainsi qu'une Connexion sans mot de passe pour tous les utilisateurs. La fonction de connexion automatique connecte automatiquement l'utilisateur à l'environnement du bureau au démarrage de l'ordinateur. Cette fonctionnalité ne peut être activée que pour un utilisateur à la fois. Avec la connexion sans mot de passe, tous les utilisateurs peuvent se connecter au système après avoir saisi leur nom d'utilisateur dans le gestionnaire de connexion.

Avertissement
Avertissement : risque lié à la sécurité

L'activation des options Connexion automatique ou Connexion sans mot de passe sur une machine à laquelle plusieurs personnes peuvent accéder présente un risque de sécurité. Si les utilisateurs n'ont pas besoin de s'authentifier, ils pourront accéder à votre système et à vos données. Si votre système contient des données confidentielles, n'utilisez pas cette fonctionnalité.

Pour activer les options de connexion automatique ou de connexion sans mot de passe, accédez à la section Gestion des utilisateurs et des groupes dans YaST, puis sélectionnez Expert Options (Options avancées) Login Settings (Paramètres de login).

16.3.2 Applications des stratégies de mot de passe

Sur tout système comportant plusieurs utilisateurs, il est judicieux d'appliquer au moins des stratégies de base en matière de sécurité des mots de passe. Les utilisateurs doivent modifier leurs mots de passe régulièrement et utiliser des mots de passe forts qui ne peuvent pas être exploités facilement. Pour les utilisateurs locaux, procédez comme suit :

Procédure 16.3 : Configuration des paramètres de mot de passe
  1. Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST, puis sélectionnez l'onglet Utilisateurs.

  2. Sélectionnez l'utilisateur pour lequel vous souhaitez modifier les options du mot de passe, puis cliquez sur Modifier.

  3. Sélectionnez l'onglet Paramètres du mot de passe. La modification du dernier mot de passe de l'utilisateur s'affiche sur l'onglet.

  4. Pour que l'utilisateur modifie son mot de passe à sa prochaine connexion, sélectionnez Forcer la modification du mot de passe.

  5. Pour obliger les utilisateurs à modifier leur mot de passe, renseignez les paramètres Durée maximale d'un mot de passe (en jours) et Durée minimale d'un mot de passe (en jours).

  6. Pour rappeler à l'utilisateur de modifier son mot de passe avant qu'il n'expire, définissez un nombre comme Délai de publication d'un avertissement (en jours) avant l'expiration d'un mot de passe.

  7. Pour limiter la période durant laquelle l'utilisateur peut continuer de se connecter après l'expiration de son mot de passe, modifiez la valeur du paramètre Délai (en jours) pendant lequel la connexion est encore utilisable après l'expiration du mot de passe.

  8. Vous pouvez également spécifier une date d'expiration particulière pour le compte. Renseignez le paramètre Date d'expiration au format AAAA-MM-JJ. Notez que ce paramètre n'est pas lié au mot de passe, mais plutôt au compte proprement dit.

  9. Pour plus d'informations sur les options et les valeurs par défaut, cliquez sur Aide.

  10. Cliquez sur OK pour appliquer vos modifications.

16.3.3 Gestion des répertoires privés codés

Pour protéger les données des répertoires privés contre le vol et la suppression du disque dur, vous pouvez créer des répertoires privés codés pour les utilisateurs. Ceux-ci sont codés avec LUKS (Linux Unified Key Setup), qui génère une image et une clé d'image pour l'utilisateur. La clé d'image est protégée par le mot de passe de connexion de l'utilisateur. Lorsque l'utilisateur se connecte au système, son répertoire privé codé est monté et l'utilisateur peut accéder à son contenu.

YaST vous permet de créer des répertoires privés codés pour les utilisateurs nouveaux et existants. Pour coder ou modifier les répertoires privés codés d'utilisateurs existants, vous devez connaître leur mot de passe de connexion actuel. Par défaut, toutes les données des utilisateurs existants sont copiées sur le nouveau répertoire privé codé, mais ne sont pas supprimées du répertoire non codé.

Avertissement
Avertissement : restrictions de sécurité

Le codage du répertoire privé d'un utilisateur n'offre pas une sécurité élevée par rapport aux autres utilisateurs. Si un niveau de sécurité élevé est requis, le système ne doit pas être physiquement partagé.

Pour plus d'informations sur les répertoires privés codés et les actions à entreprendre pour augmenter la sécurité, reportez-vous au Book “Security and Hardening Guide”, Chapter 12 “Encrypting Partitions and Files”, Section 12.2 “Using Encrypted Home Directories”.

Procédure 16.4 : Création de répertoires privés codés
  1. Ouvrez la boîte de dialogue Gestion des groupes et des utilisateurs dans YaST, puis cliquez sur l'onglet Utilisateurs.

  2. Pour coder le répertoire privé d'un utilisateur existant, sélectionnez l'utilisateur, puis cliquez sur Modifier.

    Vous pouvez également cliquer sur Ajouter pour créer un nouveau compte utilisateur et entrer les données de l'utilisateur appropriées dans le premier onglet.

  3. Dans l'onglet Détails, sélectionnez Utiliser un répertoire personnel codé. L'option Taille du répertoire en Mo vous permet de spécifier la taille du fichier image codé à créer pour cet utilisateur.

    Image
  4. Cliquez sur OK pour appliquer vos paramètres.

  5. Entrez le mot de passe actuel de connexion de l'utilisateur si YaST vous y invite.

  6. Cliquez sur OK pour fermer la boîte de dialogue de gestion et enregistrer les modifications.

    Pour enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des utilisateurs et des groupes, vous pouvez également cliquer sur Options avancées › Écrire les modifications maintenant.

Procédure 16.5 : Modification ou désactivation des répertoires privés codés

Évidemment, vous pouvez également désactiver le codage d'un répertoire privé ou modifier la taille du fichier image à tout moment.

  1. Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST, puis sélectionnez la vue Utilisateurs.

  2. Sélectionnez un utilisateur dans la liste, puis cliquez sur Modifier.

  3. Pour désactiver le chiffrement, accédez à l'onglet Détails et désactivez l'option Use Encrypted Home Directory (Utiliser un répertoire personnel chiffré).

    Si vous souhaitez agrandir ou diminuer la taille du fichier image codé pour cet utilisateur, modifiez le paramètre Taille du répertoire en Mo.

  4. Cliquez sur OK pour appliquer vos paramètres.

  5. Entrez le mot de passe actuel de connexion de l'utilisateur si YaST vous y invite.

  6. Cliquez sur OK pour fermer la boîte de dialogue de gestion et enregistrer les modifications.

    Pour enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des utilisateurs et des groupes, vous pouvez également cliquer sur Options avancées › Écrire les modifications maintenant.

16.3.4 Gestion des quotas

Pour éviter l'épuisement des capacités du système sans notification, les administrateurs peuvent définir des quotas pour les utilisateurs et les groupes. Les quotas peuvent être définis pour un ou plusieurs systèmes de fichiers et restreindre la quantité d'espace disque pouvant être utilisée et le nombre d'inodes (index nodes - nœuds d'index) pouvant être créés ici. Les inodes sont des structures de données sur un système de fichiers qui stockent des informations de base sur un fichier ordinaire, un répertoire ou un autre objet du système de fichiers. Ils stockent tous les attributs d'un objet du système de fichiers (comme la propriété des utilisateurs et des groupes, les autorisations de lecture, d'écriture ou d'exécution), à l'exception du nom et du contenu du fichier.

SUSE Linux Enterprise Server permet l'utilisation de quotas souples et stricts. En outre, il est possible de définir des intervalles bonus qui permettent aux utilisateurs ou aux groupes de dépasser temporairement leur quota, sous certaines limites.

Quotas souples

Définit un niveau d'avertissement qui, lorsqu'il est atteint, avertit les utilisateurs qu'ils approchent de la limite. Les administrateurs invitent les utilisateurs à nettoyer et à réduire leurs données sur la partition. La limite de quota souple est généralement inférieure à la limite de quota ferme.

Quota ferme

Définit la limite à partir de laquelle les demandes d'écriture sont refusées. Lorsque le quota ferme est atteint, plus aucune donnée supplémentaire ne peut être stockée et les applications peuvent se bloquer.

Période bonus

Définit l'intervalle de temps entre le dépassement des quotas souples et l'envoi d'un avertissement. Elle est généralement définie sur une valeur relativement faible : une ou plusieurs heures.

Procédure 16.6 : Activation de la prise en charge des quotas pour une partition

Pour configurer des quotas pour certains utilisateurs et groupes, vous devez commencer par activer la prise en charge des quotas pour la partition concernée dans l'outil de partitionnement en mode expert de YaST.

Note
Note : quotas pour les partitions Btrfs

Les quotas des partitions Btrfs sont traités différemment. Pour plus d'informations, reportez-vous au Book “Storage Administration Guide”, Chapter 1 “Overview of File Systems in Linux”, Section 1.2.5 “Btrfs Quota Support for Subvolumes”.

  1. Dans YaST, sélectionnez Système › Partitionneur, puis cliquez sur Oui pour poursuivre.

  2. Dans le Partitionneur en mode expert, sélectionnez la partition pour laquelle vous souhaitez activer les quotas, puis cliquez sur Modifier.

  3. Cliquez surOptions Fstab et activez l'option Activer la prise en charge des quotas. Si le paquetage quota n'est pas déjà installé, il le sera une fois que vous aurez confirmé le message approprié en cliquant sur Oui.

  4. Confirmez vos modifications et quittez le Partitionneur en mode expert.

  5. Vérifiez que le service quotaon est en cours d'exécution en entrant la commande suivante :

    systemctl status quotaon

    Il doit être marqué comme étant actif (active). À défaut, démarrez-le à l'aide de la commande systemctl start quotaon.

Procédure 16.7 : Définition de quotas pour les utilisateurs et les groupes

Vous pouvez désormais définir des quotas souples ou stricts pour des utilisateurs ou des groupes spécifiques, ainsi que des délais sous forme d'intervalles bonus.

  1. Dans la section Gestion des utilisateurs et des groupes de YaST, sélectionnez l'utilisateur ou le groupe pour lequel vous souhaitez définir les quotas, puis cliquez sur Modifier.

  2. Dans l'onglet Plug-ins, sélectionnez l'entrée Gérer les quotas des utilisateurs, puis cliquez sur Lancer pour ouvrir la boîte de dialogue Configuration des quotas.

  3. Dans Système de fichiers, sélectionnez la partition à laquelle vous souhaitez appliquer le quota.

    Image
  4. Sous Limites de taille, limitez la quantité d'espace disque. Entrez le nombre de blocs de 1 Go que l'utilisateur ou le groupe peut avoir sur cette partition. Spécifiez une valeur pour les champs Limite douce et Limite dure.

  5. Par ailleurs, vous pouvez limiter le nombre d'inodes que l'utilisateur ou le groupe peut avoir sur cette partition. Sous Limites I-nodes, entrez les valeurs des champs Limite douce et Limite dure.

  6. Vous ne pouvez définir des intervalles bonus que si l'utilisateur ou le groupe a déjà dépassé la limite douce de taille ou d'inodes spécifiée. Dans le cas contraire, les zones de texte relatives au délai ne seront pas activées. Spécifiez le délai pendant lequel l'utilisateur ou le groupe est autorisé à dépasser les limites définies ci-dessus.

  7. Cliquez sur OK pour confirmer vos paramètres.

  8. Cliquez sur OK pour fermer la boîte de dialogue de gestion et enregistrer les modifications.

    Pour enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des utilisateurs et des groupes, vous pouvez également cliquer sur Options avancées › Écrire les modifications maintenant.

SUSE Linux Enterprise Server fournit également des outils de ligne de commande comme repquota ou warnquota. Les administrateurs système peuvent utiliser ces outils pour contrôler l'utilisation du disque ou envoyer des notifications par courrier électronique aux utilisateurs dépassant leur quota. À l'aide de quota_nld, les administrateurs peuvent également transmettre à D-BUS les messages du kernel relatifs aux quotas dépassés. Pour plus d'informations, reportez-vous aux pages du manuel repquota, warnquota et quota_nld.

16.4 Modification des paramètres par défaut des utilisateurs locaux

Lorsque vous créez de nouveaux utilisateurs locaux, certains paramètres par défaut sont utilisés par YaST. Ces paramètres incluent par exemple le groupe principal et les groupes secondaires auxquels appartient l'utilisateur ou les autorisations d'accès au répertoire privé de l'utilisateur. Vous pouvez modifier ces paramètres par défaut selon vos besoins :

  1. Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST et sélectionnez l'onglet Paramètres par défaut pour les nouveaux utilisateurs.

  2. Pour modifier le groupe principal auquel les nouveaux utilisateurs doivent automatiquement appartenir, sélectionnez un autre groupe dans Groupe par défaut.

  3. Pour modifier les groupes secondaires des nouveaux utilisateurs, ajoutez ou changez les groupes dans Groupes secondaires. Les noms des groupes doivent être séparés par des virgules.

  4. Si vous ne voulez pas utiliser /home/USERNAME comme chemin d'accès par défaut aux répertoires personnels des nouveaux utilisateurs, modifiez le paramètre Path Prefix for Home Directory (Préfixe du chemin d'accès pour le répertoire personnel).

  5. Pour modifier les répertoires privés récemment créés, changez la valeur umask dans Umask pour le répertoire privé. Pour plus d'informations sur la valeur umask, reportez-vous au Book “Security and Hardening Guide”, Chapter 11 “Access Control Lists in Linux” et à la page de manuel umask.

  6. Pour obtenir des informations sur les options individuelles, cliquez sur Aide.

  7. Cliquez sur OK pour appliquer vos modifications.

16.5 Affectation des utilisateurs à des groupes

Les utilisateurs locaux sont affectés à plusieurs groupes en fonction des paramètres par défaut accessibles depuis la boîte de dialogue Gestion des utilisateurs et des groupes, dans l'onglet Paramètres par défaut pour les nouveaux utilisateurs. La section suivante explique comment modifier l'affectation d'un utilisateur individuel à un groupe. Si vous devez modifier les affectations aux groupes par défaut pour les nouveaux utilisateurs, reportez-vous à la Section 16.4, « Modification des paramètres par défaut des utilisateurs locaux ».

Procédure 16.8 : Modification de l'affectation d'un utilisateur à un groupe
  1. Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST et cliquez sur l'onglet Utilisateurs. Il répertorie les utilisateurs et les groupes auxquels les utilisateurs appartiennent.

  2. Cliquez sur Modifier et sélectionnez l'onglet Détails.

  3. Pour modifier le groupe principal auquel l'utilisateur appartient, cliquez sur Groupe par défaut et sélectionnez le groupe dans la liste.

  4. Pour affecter l'utilisateur à des groupes secondaires supplémentaires, cochez les cases correspondantes dans la liste Groupes supplémentaires.

  5. Cliquez sur OK pour appliquer vos modifications.

  6. Cliquez sur OK pour fermer la boîte de dialogue de gestion et enregistrer les modifications.

    Pour enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des utilisateurs et des groupes, vous pouvez également cliquer sur Options avancées › Écrire les modifications maintenant.

16.6 Gestion des groupes

Avec YaST, vous pouvez également ajouter, modifier ou supprimer des groupes en toute simplicité.

Procédure 16.9 : Création et modification de groupes
  1. Ouvrez la boîte de dialogue Gestion des groupes et des utilisateurs dans YaST, puis cliquez sur l'onglet Groupes.

  2. L'option Définir le filtre permet de définir l'ensemble de groupes que vous souhaitez gérer. La boîte de dialogue répertorie les groupes contenus sur le système.

  3. Pour créer un nouveau groupe, cliquez sur Ajouter.

  4. Pour modifier un groupe existant, sélectionnez-le et cliquez sur Modifier.

  5. Vous pouvez entrer ou modifier les données dans la boîte de dialogue suivante. La liste de droite présente un aperçu de tous les utilisateurs et utilisateurs système disponibles qui peuvent être membres du groupe.

    Image
  6. Pour ajouter des utilisateurs existants au nouveau groupe, sélectionnez-les dans la liste Membres du groupe en cochant la case correspondante. Décochez la case pour les supprimer du groupe.

  7. Cliquez sur OK pour appliquer vos modifications.

  8. Cliquez sur OK pour fermer la boîte de dialogue de gestion et enregistrer les modifications.

    Pour enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des utilisateurs et des groupes, vous pouvez également cliquer sur Options avancées › Écrire les modifications maintenant.

Pour pouvoir supprimer un groupe, celui-ci ne doit contenir aucun membre. Pour supprimer un groupe, sélectionnez-le dans la liste, puis cliquez sur Supprimer. Cliquez sur OK pour fermer la boîte de dialogue de gestion et enregistrer les modifications. Pour enregistrer toutes les modifications sans quitter la boîte de dialogue Gestion des utilisateurs et des groupes, vous pouvez également cliquer sur Options avancées › Écrire les modifications maintenant.

16.7 Modification de la méthode d'authentification des utilisateurs

Si votre machine est connectée à un réseau, vous pouvez modifier la méthode d'authentification. Les options suivantes sont disponibles :

NIS

Les utilisateurs sont gérés de façon centralisée sur un serveur NIS, pour tous les systèmes membres du réseau. Pour plus de détails, reportez-vous au Book “Security and Hardening Guide”, Chapter 3 “Using NIS”.

SSSD

Le service System Security Services Daemon (SSSD) peut localement mettre en cache les données utilisateur, puis autoriser les utilisateurs à utiliser les données même si le service d'annuaire réel est (temporairement) inaccessible. Pour plus de détails, reportez-vous au Book “Security and Hardening Guide”, Chapter 4 “Setting Up Authentication Servers and Clients Using YaST”, Section 4.3 “SSSD”.

Samba

L'authentification SMB est souvent employée dans les réseaux mixtes Linux et Windows. Pour plus de détails, reportez-vous au Book “Administration Guide”, Chapter 30 “Samba”.

Pour modifier la méthode d'authentification, procédez comme suit :

  1. Ouvrez la boîte de dialogue Gestion des utilisateurs et des groupes dans YaST.

  2. Cliquez sur l'onglet Paramètres d'authentification pour afficher un aperçu des méthodes d'authentification disponibles et des paramètres actuels.

  3. Pour changer de méthode d'authentification, cliquez sur Configurer et sélectionnez la méthode d'authentification que vous souhaitez modifier. Cela vous permet d'accéder directement aux modules YaST relatifs à la configuration des clients. Pour plus d'informations sur la configuration du client approprié, reportez-vous aux sections suivantes :

    NIS : Book “Security and Hardening Guide”, Chapter 3 “Using NIS”, Section 3.2 “Configuring NIS Clients”

    LDAP : Book “Security and Hardening Guide”, Chapter 4 “Setting Up Authentication Servers and Clients Using YaST”, Section 4.2 “Configuring an Authentication Client with YaST”

    Samba : Book “Administration Guide”, Chapter 30 “Samba”, Section 30.5.1 “Configuring a Samba Client with YaST”

  4. Après avoir accepté la configuration, revenez à l'aperçu Gestion des utilisateurs et des groupes.

  5. Cliquez sur OK pour fermer la boîte de dialogue de gestion.

17 Modification des paramètres de langue et de pays avec YaST

Si vous travaillez dans différents pays ou dans un environnement multilingue, votre ordinateur nécessite une configuration spécifique. SUSE® Linux Enterprise Server peut gérer différents paramètres locaux en parallèle. Un paramètre local est un ensemble de paramètres qui définit les paramètres de langue et de pays utilisés dans l'interface utilisateur.

La langue principale du système a été sélectionnée au cours de l'installation et les paramètres du clavier et du fuseau horaire ont été modifiés. Toutefois, vous pouvez installer des langues supplémentaires sur votre système et déterminer les langues installées à utiliser par défaut.

Pour ce faire, utilisez le module YaST relatif aux langues, comme indiqué à la Section 17.1, « Modification de la langue du système ». Installez des langues secondaires pour obtenir des localisations facultatives si vous devez démarrer des applications ou des bureaux dans des langues autres que la langue principale.

En dehors de cela, le module YaST relatif au fuseau horaire vous permet de régler les paramètres de pays et de fuseau de votre ordinateur de façon appropriée. Il permet également de synchroniser l'horloge de votre système par rapport au serveur horaire. Pour plus d'informations, reportez-vous à la Section 17.2, « Modifications des paramètres du pays et de l'heure ».

17.1 Modification de la langue du système

Selon la façon dont vous utilisez votre bureau et si vous souhaitez faire basculer l'intégralité du système vers une autre langue, ou uniquement l'environnement du bureau, plusieurs possibilités s'offrent à vous :

Modification globale de la langue du système

Procédez comme indiqué à la Section 17.1.1, « Modification des langues système avec YaST » et à la Section 17.1.2, « Modification de la langue système par défaut » pour installer des paquetages localisés supplémentaires avec YaST et définir la langue par défaut. Les modifications seront prises en compte lors de votre prochaine connexion. Pour vous assurer que les modifications ont été appliquées dans tout le système, redémarrez ce dernier ou fermez, puis redémarrez tous les services, applications et programmes en cours d'exécution.

Modification de la langue du bureau uniquement

Si vous avez déjà installé les paquetages de langue souhaités pour votre environnement de bureau avec YaST, comme décrit ci-dessous, vous pouvez changer la langue de votre bureau à l'aide du centre de contrôle du bureau. Après le redémarrage du serveur X, l'ensemble du bureau s'affiche dans la nouvelle langue. Les applications qui ne font pas partie de l'environnement de votre bureau ne sont pas affectées par cette modification et peuvent toujours apparaître dans la langue définie dans YaST.

Modification temporaire de la langue dans une seule application

Vous pouvez définir une seule application dans une autre langue (qui a déjà été installée avec YaST). Pour ce faire, démarrez l'application depuis la ligne de commande en spécifiant le code de langue, comme décrit dans la Section 17.1.3, « Changement de langue pour les applications Standard X et GNOME ».

17.1.1 Modification des langues système avec YaST

YaST distingue deux catégories de langues :

Langue principale

La langue principale définie dans YaST s'applique à l'ensemble du système, y compris YaST et l'environnement de bureau. Cette langue est utilisée lorsqu'elle est disponible, sauf si vous spécifiez une autre langue.

Langues secondaires

Installez des langues secondaires pour transformer votre système en système multilingue. Les langues secondaires installées peuvent être sélectionnées manuellement pour une situation spécifique. Vous pouvez ainsi utiliser une langue secondaire pour démarrer une application dans une certaine langue, par exemple pour effectuer du traitement de texte dans cette langue.

Avant d'installer des langues supplémentaires, déterminez celle qui sera utilisée par défaut par le système (langue principale).

Pour accéder au module YaST relatif aux langues, démarrez YaST et cliquez sur Système › Langue. Vous pouvez également ouvrir directement la boîte de dialogue Langues à partir d'une ligne de commande en exécutant sudo yast2 language &.

Image
Procédure 17.1 : Installation de langues supplémentaires

Lors de l'installation de langues supplémentaires, YaST permet également de définir des paramètres locaux différents pour l'utilisateur root (voir Étape 4). L'option Paramètres locaux pour l'utilisateur root détermine la façon dont les variables locales (LC_*) du fichier /etc/sysconfig/language sont définies pour l'utilisateur root. Vous pouvez soit les définir sur le même paramètre local que pour les utilisateurs normaux, et aucune modification de langue ne les affectera, soit définir uniquement la variable RC_LC_CTYPE sur les mêmes valeurs que pour les utilisateurs normaux. Cette variable définit l'emplacement des appels de fonction spécifiques aux langues.

  1. Pour ajouter des langues dans le module YaST relatif aux langues, sélectionnez les Langues secondaires que vous souhaitez installer.

  2. Pour définir une langue en tant que langue par défaut, définissez-la en tant que Langue principale.

  3. En outre, adaptez le clavier pour la nouvelle langue principale, ainsi que le fuseau horaire, le cas échéant.

    Astuce
    Astuce : paramètres avancés

    Pour accéder aux options avancées du clavier ou du fuseau horaire, sélectionnez Matériel › Configuration du clavier système ou Système › Date et heure dans YaST pour ouvrir les boîtes de dialogue correspondantes. Pour plus d'informations, reportez-vous à la Section 11.1, « Configuration de la disposition de votre clavier système » et à la Section 17.2, « Modifications des paramètres du pays et de l'heure ».

  4. Pour modifier les paramètres de langue spécifiques à l'utilisateur root, cliquez sur Détails.

    1. Définissez Paramètres locaux pour l'utilisateur root sur la valeur souhaitée. Pour plus d'informations, cliquez sur Aide.

    2. Décidez si vous souhaitez ou non Utiliser le codage UTF-8 pour l'utilisateur root.

  5. Si votre paramètre local n'a pas été inclus dans la liste des langues principales disponibles, essayez de le spécifier à l'aide de l'option Paramètre local détaillé. Toutefois, certaines localisations peuvent être incomplètes.

  6. Confirmez vos modifications en cliquant sur OK dans les boîtes de dialogue. Si vous avez sélectionné des langues secondaires, YaST installe les paquetages logiciels localisés des langues supplémentaires.

Votre système est désormais multilingue. Cependant, pour démarrer une application dans une langue autre que la langue principale, vous devez définir explicitement la langue souhaitée, comme expliqué dans la Section 17.1.3, « Changement de langue pour les applications Standard X et GNOME ».

17.1.2 Modification de la langue système par défaut

  1. Pour modifier globalement la langue système par défaut, démarrez le module YaST relatif aux langues.

  2. Sélectionnez la langue de votre choix en tant que Langue principale.

    Important
    Important : suppression des anciennes langues système

    Si vous basculez vers une autre langue principale, les paquetages logiciels localisés de l'ancienne langue principale seront supprimés du système. Pour modifier la langue du système par défaut tout en conservant l'ancienne langue principale en tant que langue supplémentaire, ajoutez-la en tant que Langue secondaire en cochant la case correspondante.

  3. Modifiez les options du clavier et du fuseau horaire si nécessaire.

  4. Confirmez vos modifications en cliquant sur OK.

  5. Une fois que YaST a appliqué les modifications, redémarrez les sessions X en cours (par exemple, en vous déconnectant, puis en vous reconnectant) pour que YaST et les applications du bureau s'affichent dans la nouvelle langue.

17.1.3 Changement de langue pour les applications Standard X et GNOME

Après avoir installé la langue de votre choix avec YaST, vous pouvez exécuter une application dans une autre langue.

Lancez l'application en utilisant la commande suivante :

LANG=LANGUAGE application

Par exemple, pour démarrer f-spot en allemand, exécutez LANG=de_DE f-spot. Pour les autres langues, utilisez le code de langue approprié. Pour obtenir une liste de tous les codes de langues disponibles, exécutez la commande locale -av.

17.2 Modifications des paramètres du pays et de l'heure

À l'aide du module YaST relatif à la date et à l'heure, réglez la date, l'heure et les informations du fuseau horaire de votre système en fonction de la région dans laquelle vous travaillez. Pour accéder au module YaST, démarrez YaST et cliquez sur Système › Date et heure. Vous pouvez également ouvrir directement la boîte de dialogue Horloge et fuseau horaire à partir d'une ligne de commande en exécutant la commande sudo yast2 timezone &.

Image

Commencez par sélectionner une région générale, comme l'Europe. Sélectionnez le pays dans lequel vous travaillez, par exemple, l'Allemagne.

En fonction des systèmes d'exploitation exécutés sur votre poste de travail, réglez les paramètres de l'horloge matérielle de façon appropriée :

  • Si un autre système d'exploitation est exécuté sur votre machine, par exemple Microsoft Windows*, il est probable que votre système utilise l'heure locale plutôt que l'heure UTC. Si tel est le cas, désactivez Horloge matérielle définie sur UTC.

  • Si seul Linux est exécuté sur votre machine, définissez l'horloge matérielle sur UTC et demandez que le changement entre heure standard et heure d'été se fasse automatiquement.

Important
Important : réglage de l'horloge matérielle sur UTC

Le passage de l'heure standard à l'heure d'été (et inversement) ne peut être effectué automatiquement que si l'horloge matérielle (horloge CMOS) est réglée sur UTC. Cela s'applique également si vous utilisez la synchronisation horaire automatique avec NTP. En effet, la synchronisation automatique n'est effectuée que si la différence d'heure entre l'horloge matérielle et l'horloge système est inférieure à 15 minutes.

Étant donné qu'une heure incorrecte sur le système peut provoquer de sérieux problèmes (sauvegardes non effectuées, perte de messages électroniques, échecs de montage sur des systèmes de fichiers distants, etc.), il est vivement conseillé de toujours régler l'horloge matérielle sur UTC.

Vous pouvez modifier la date et l'heure manuellement ou opter pour la synchronisation de votre machine avec un serveur NTP, en permanence ou simplement pour régler votre horloge matérielle.

Procédure 17.2 : Réglage manuel de la date et de l'heure
  1. Dans le module YaST relatif au fuseau horaire, cliquez sur Autres paramètres pour régler la date et l'heure.

  2. Sélectionnez Manuellement et saisissez les valeurs de date et d'heure.

  3. Confirmez vos modifications.

Procédure 17.3 : Définition de la date et de l'heure avec un serveur NTP
  1. Cliquez sur Autres paramètres pour régler la date et l'heure.

  2. Sélectionnez Synchroniser avec le serveur NTP.

  3. Entrez l'adresse d'un serveur NTP si elle n'est pas prédéfinie.

    Image
  4. Cliquez sur Synchroniser maintenant pour que l'heure de votre système soit correctement définie.

  5. Pour utiliser NTP en permanence, cochez la case Sauvegarder la configuration NTP.

  6. Le bouton Configurer vous permet d'accéder à la configuration avancée du serveur NTP. Pour plus de détails, reportez-vous au Book “Administration Guide”, Chapter 26 “Time Synchronization with NTP”, Section 26.1 “Configuring an NTP Client with YaST”.

  7. Confirmez vos modifications.

Partie VI Mise à jour et mise à niveau de SUSE Linux Enterprise

  • 18 Cycle de vie et support
  • Ce chapitre fournit des informations générales sur la terminologie, les versions de Service Pack et les cycles de vie des produits SUSE, ainsi que sur les stratégies de mise à niveau recommandées.

  • 19 Mise à niveau de SUSE Linux Enterprise
  • SUSE® Linux Enterprise (SLE) permet de mettre à niveau un système existant vers la nouvelle version. Aucune installation nouvelle n'est requise. Les données existantes, telles que les répertoires privés et de données, ainsi que la configuration du système, sont conservées. Vous pouvez effectuer la mise à jour à partir d'un lecteur de CD ou de DVD local ou à partir d'une source d'installation réseau centrale.

    Ce chapitre explique comment effectuer une mise à niveau manuelle de votre système SUSE Linux Enterprise, que ce soit à partir d'un DVD, du réseau, d'un processus automatisé ou de SUSE Manager.

  • 20 Mise à niveau en mode hors ligne
  • Ce chapitre décrit la procédure de mise à niveau d'une installation SUSE Linux Enterprise existante à l'aide de YaST, qui est démarré à partir d'un support d'installation. Le programme d'installation de YaST peut, par exemple, être démarré à partir d'un DVD, du réseau ou du disque dur qui héberge le système.

  • 21 Mise à niveau en ligne
  • SUSE offre un outil graphique intuitif et un outil de ligne de commande simple pour effectuer la mise à niveau d'un système en cours d'exécution vers un nouveau Service Pack. Ces outils permettent un « retour à l'état initial » des Service Packs et bien plus encore. Ce chapitre explique comment effectuer une mise à niveau de Service Pack étape par étape à l'aide de ces outils.

  • 22 Code source du rétroportage
  • SUSE fait un usage intensif du rétroportage, par exemple, pour la migration des fonctions et correctifs logiciels actuels vers les paquetages publiés de SUSE Linux Enterprise. Les informations de ce chapitre expliquent en quoi comparer les numéros de version peut s'avérer trompeur dans le cadre de l'évaluation des fonctionnalités et de la sécurité des paquetages logiciels SUSE Linux Enterprise. Ce chapitre explique également comment SUSE préserve la sécurité des logiciels système et vous permet de disposer en permanence de la version la plus récente, tout en gérant la compatibilité de vos applications en plus des produits SUSE Linux Enterprise. Vous découvrirez également comment vérifier les solutions proposées réellement par le logiciel SUSE Linux Enterprise pour remédier aux problèmes de sécurité publics, ou encore comment vérifier l'état actuel de vos logiciels.

18 Cycle de vie et support

Ce chapitre fournit des informations générales sur la terminologie, les versions de Service Pack et les cycles de vie des produits SUSE, ainsi que sur les stratégies de mise à niveau recommandées.

18.1 Terminologie

Différents termes sont employés dans cette section. Afin de bien comprendre les informations, lisez les définitions ci-après :

Rétroportage

Le rétroportage consiste à adapter une modification développée pour une nouvelle version d'un logiciel afin d'en faire bénéficier une version plus ancienne. Le cas le plus courant porte sur la correction des failles de sécurité dans les composants logiciels plus anciens. En règle générale, le rétroportage fait également partie d'un modèle de maintenance visant à fournir des améliorations ou (plus rarement) de nouvelles fonctionnalités.

deltarpm

Un deltarpm se compose uniquement des différentiels binaires compris entre deux versions définies d'un paquetage. Il a donc la taille de téléchargement la plus petite. Avant son installation, l'intégralité du paquetage RPM est reconstruit sur la machine locale.

Downstream (En aval)

Ce terme est une métaphore utilisée pour qualifier le développement de logiciels dans le monde Open Source (à comparer à Upstream (En amont). Le terme Downstream désigne des personnes ou des entreprises, telles que SUSE, qui intègrent le code source (en amont) dans d'autres logiciels afin de créer une distribution qui sera ensuite utilisée par des utilisateurs finaux. Le flux logiciel s'écoule donc des développeurs vers les utilisateurs finaux en passant pas les intégrateurs.

Extensions, Produits complémentaires

Les extensions et produits complémentaires tiers apportent une plus-value au produit SUSE Linux Enterprise Server ou des fonctionnalités supplémentaires. Ils sont fournis par SUSE et ses partenaires, et sont enregistrés et installés en plus du produit de base SUSE Linux Enterprise Server.

LTSS

LTSS est l'abréviation de Long Term Service Pack Support, qui est disponible en tant qu'extension de SUSE Linux Enterprise Server.

Version majeure, Version de disponibilité générale (GA)

La version majeure de SUSE Linux Enterprise (ou de tout produit logiciel) est une nouvelle version qui offre de nouveaux outils et fonctionnalités, met hors service les anciens composants obsolètes et s'accompagne de modifications non rétrocompatibles. Par exemple, SUSE Linux Enterprise 11 ou 12 sont des versions majeures.

Migration

Méthode qui consiste à mettre à jour un Service Pack (SP) en utilisant les outils de mise à jour en ligne ou un support d'installation pour installer les correctifs correspondants. Elle met à jour tous les paquetages du système installé vers l'état le plus récent.

Cibles de migration

Ensemble de produits compatibles vers lequel un système peut être migré. Il contient la version des produits/extensions et l'URL du dépôt. Les cibles de migration peuvent évoluer au fil du temps et dépendent des extensions installées. Plusieurs cibles de migration peuvent être sélectionnées, par exemple SLE 12 SP2 et SES2 ou SLE 12 SP2 et SES3.

modules

Les modules sont des composants de SUSE Linux Enterprise Server bénéficiant d'une prise en charge complète, avec un cycle de vie différent. Ils présentent une étendue clairement définie et sont distribués uniquement via un canal en ligne. Vous devez être enregistré auprès du SUSE Customer Center, SMT (Subscription Management Tool) ou SUSE Manager pour pouvoir vous abonner à ces canaux.

Paquetage

Un paquetage est un fichier compressé au format rpm qui contient tous les fichiers d'un programme donné, y compris les composants en option tels que la configuration, des exemples et la documentation.

Correctif

Un correctif comporte un ou plusieurs paquetages et peut être appliqué via des deltarpm. Il peut également introduire des dépendances dans les paquetages qui ne sont pas encore installés.

Service packs (SP)

Compile plusieurs correctifs en une forme facile à installer ou à déployer. Les service packs sont numérotés et contiennent généralement des correctifs de sécurité, des mises à jour, des mises à niveau ou des améliorations de programmes.

Upstream (En amont)

Ce terme est une métaphore utilisée pour qualifier le développement de logiciels dans le monde Open Source (à comparer à Downstream). Le terme upstream désigne le projet d'origine, auteur ou mainteneur d'un logiciel distribué comme code source. Les commentaires, correctifs, améliorations de fonctionnalités ou autres optimisations en provenance des utilisateurs finaux ou des contributeurs parviennent aux développeurs en amont. C'est à eux que revient la décision d'intégrer ou de rejeter la requête.

Si les membres du projet décident d'intégrer la requête, elle s'affiche dans les versions plus récentes du logiciel. Une requête acceptée profite à toutes les parties concernées.

Le rejet d'une requête peut être motivé par plusieurs raisons. Elle n'est pas conforme aux directives du projet, elle n'est pas valide, elle a déjà été intégrée, elle n'est pas conforme à l'intérêt du projet ou ne figure pas sur sa feuille de route. Une requête rejetée rend plus difficile la tâche des développeurs en amont, dans la mesure où ils doivent synchroniser leurs correctifs avec le code en amont. On évite généralement de recourir à cette méthode. Cependant, elle s'avère parfois nécessaire.

Mise à jour

L'installation d'une nouvelle version mineure plus récente d'un paquetage, qui contient généralement la sécurité et corrections de bogues.

Mise à niveau

Installation d'une version plus récente (majeure) d'un paquetage ou d'une distribution qui offre de nouvelles fonctionnalités.

18.2 Cycle de vie d'un produit

SUSE applique les cycles de vie suivants à ses produits :

  • SUSE Linux Enterprise Server présente un cycle de vie de 13 ans, soit 10 ans de support général et 3 ans de support étendu.

  • SUSE Linux Enterprise Desktop présente un cycle de vie de 10 ans, soit 7 ans de support général et 3 ans de support étendu.

  • Des versions majeures sont publiées tous les 4 ans. Des service packs sont disponibles tous les 12 à 14 mois.

SUSE prend en charge les Service Packs antérieurs pendant une période de 6 mois après la sortie du nouveau Service Pack. La Figure 18.1, « Versions majeures et Service Packs » illustre certains aspects mentionnés.

Versions majeures et Service Packs
Figure 18.1 : Versions majeures et Service Packs

Si vous avez besoin de plus de temps pour concevoir, valider et tester vos plans de mise à niveau, le support à long terme des service packs vous offre une extension de support de 12 à 36 mois supplémentaires, par incréments de 12 mois, ce qui vous garantit un support total de 2 à 5 ans quel que soit le service pack (voir Figure 18.2, « Support à long terme au niveau des service packs »).

Support à long terme au niveau des service packs
Figure 18.2 : Support à long terme au niveau des service packs

Pour plus d'informations, consultez l'adresse https://www.suse.com/products/long-term-service-pack-support/.

Pour les cycles de vie de tous les produits, reportez-vous à l'adresse https://www.suse.com/lifecycle/.

18.3 Cycles de vie des modules

Avec SUSE Linux Enterprise 12, SUSE introduit une création de paquetages modulaire. Les modules sont des ensembles distincts de paquetages regroupés au sein de leur propre canal de maintenance et mis à jour indépendamment des cycles de vie des Service Packs. Vous pouvez ainsi obtenir en temps opportun un accès aisé aux dernières technologies dans des domaines où l'innovation se produit à un rythme rapide. Pour plus d'informations sur les cycles de vie des modules, reportez-vous à l'adresse https://scc.suse.com/docs/lifecycle/sle/12/modules.

18.4 Génération du rapport périodique de cycle de vie

SUSE Linux Enterprise Server peut rechercher régulièrement les changements d'état de prise en charge de tous les produits installés et envoyer le rapport par courrier électronique en cas de modifications. Pour générer le rapport, vous devez installer zypper-lifecycle-plugin avec zypper in zypper-lifecycle-plugin.

Activez la génération du rapport sur votre système avec la commande systemctl :

root # systemctl enable lifecycle-report

Le destinataire et l'objet du message électronique de rapport, ainsi que la période pour la génération du rapport peuvent être configurés dans le fichier /etc/sysconfig/lifecycle-report avec n'importe quel éditeur de texte. Les paramètres MAIL_TO et MAIL_SUBJ définissent le destinataire et l'objet, tandis que DAYS définit l'intervalle auquel le rapport est généré.

Le rapport affiche les modifications de l'état de prise en charge après le changement, et non pas à l'avance. Si le changement se produit juste après la génération du dernier rapport, cela peut prendre jusqu'à 14 jours avant que vous en soyez averti. Tenez-en compte lors de la définition de l'option DAYS. Modifiez les entrées de configuration suivantes pour répondre à vos besoins :

MAIL_TO='root@localhost'
MAIL_SUBJ='Lifecycle report'
DAYS=14

Le rapport le plus récent est disponible dans le fichier /var/lib/lifecycle/report. Celui-ci contient deux sections : la première informe de la fin de la prise en charge de produits utilisés ; la deuxième répertorie les paquetages avec leur date de fin de prise en charge et la disponibilité de mises à jour.

18.5 Niveaux de support

Les niveaux de support étendu sont valables entre la dixième année et la treizième année. Ces niveaux de support proposent des diagnostics permanents de niveau technique L3 et des résolutions réactives des bogues critiques. Ces niveaux de support vous permettent de recevoir des mises à jour contre les exploits racines facilement exploitables dans le kernel et d'autres exploits racines directement exécutables sans intervention de l'utilisateur. Ils prennent également en charge les workloads, les piles logicielles et le matériel existants avec une liste d'exclusion de paquetages limitée. Voir Tableau 18.1, « Mises à jour de sécurité et résolution des bogues » pour découvrir une présentation.

Tableau 18.1 : Mises à jour de sécurité et résolution des bogues
 

Support étendu pour les Service Packs les plus récents

Support général pour les Service Packs précédents, avec LTSS

Support étendu avec LTSS

Fonctionnalité

Années 1 à 5

Années 6 et 7

Années 8 à 10

Années 4 à 10

Années 10 à 13

Services techniques

Oui

Oui

Oui

Oui

Oui

Accès aux correctifs

Oui

Oui

Oui

Oui

Oui

Accès à la documentation et à la base de connaissances

Oui

Oui

Oui

Oui

Oui

Support des piles et workloads existants

Oui

Oui

Oui

Oui

Oui

Support des nouveaux déploiements

Oui

Oui

Limité (sur la base des demandes des partenaires et des clients)

Limité (sur la base des demandes des partenaires et des clients)

Non

Demandes d'amélioration

Oui

Limité (sur la base des demandes des partenaires et des clients)

Limité (sur la base des demandes des partenaires et des clients)

Non

Non

Activation et optimisation du matériel

Oui

Limité (sur la base des demandes des partenaires et des clients)

Limité (sur la base des demandes des partenaires et des clients)

Non

Non

Mises à jour de pilotes via le programme SUSE SolidDriver (précédemment PLDP)

Oui

Oui

Limité (sur la base des demandes des partenaires et des clients)

Limité (sur la base des demandes des partenaires et des clients)

Non

Rétroportage des correctifs des Service Packs récents

Oui

Oui

Limité (sur la base des demandes des partenaires et des clients)

S/O

S/O

Mises à jour de sécurité critiques

Oui

Oui

Oui

Oui

Oui

Résolution des défauts

Oui

Oui

Limité (défauts de niveaux de gravité 1 et 2 uniquement)

Limité (défauts de niveaux de gravité 1 et 2 uniquement)

Limité (défauts de niveaux de gravité 1 et 2 uniquement)

18.6 Modèle de dépôt

La disposition des dépôts correspond aux cycles de vie des produits. Les sections suivantes contiennent une liste de tous les dépôts pertinents.

Description des dépôts requis
Mises à jour

Mises à jour de maintenance dans le dépôt Noyau ou Pool correspondant.

Pool

Contient tous les RPM binaires du support d'installation, ainsi que des informations de modèle et des métadonnées d'état du support.

Description des dépôts facultatifs
Debuginfo-Pool, Debuginfo-Updates

Ces dépôts comprennent du contenu statique. Parmi ces deux dépôts, seul Debuginfo-Updates reçoit des mises à jour. Activez ces dépôts si vous devez installer des bibliothèques avec des informations de débogage en cas de problème.

Note
Note : Origine des paquetages pour SUSE Linux Enterprise 12 et versions ultérieures

Avec la mise à jour vers SUSE Linux Enterprise 12, seuls deux dépôts sont disponibles : SLES12-GA-Pool et SLES12-GA-Updates. Les éventuels dépôts précédents provenant de SUSE Linux Enterprise 11 ne sont plus visibles.

18.6.1 Dépôts requis pour SUSE Linux Enterprise Server

SLES 12
SLES12-GA-Pool
SLES12-GA-Updates
SLES 12 SP1
SLES12-SP1-Pool
SLES12-SP1-Updates
SLES 12 SP2
SLES12-SP2-Pool
SLES12-SP2-Updates
SLES 12 SP3
SLES12-SP3-Pool
SLES12-SP3-Updates
SLES 12 SP4
SLES12-SP4-Pool
SLES12-SP4-Updates
SLES 12 SP5
SLES12-SP5-Pool
SLES12-SP5-Updates

18.6.2 Dépôts facultatifs pour SUSE Linux Enterprise Server

SLES 12
SLES12-GA-Debuginfo-Core
SLES12-GA-Debuginfo-Updates
SLES 12 SP1
SLES12-SP1-Debuginfo-Core
SLES12-SP1-Debuginfo-Updates
SLES 12 SP2
SLES12-SP2-Debuginfo-Core
SLES12-SP2-Debuginfo-Updates
SLES 12 SP3
SLES12-SP3-Debuginfo-Core
SLES12-SP3-Debuginfo-Updates
SLES 12 SP4
SLES12-SP4-Debuginfo-Core
SLES12-SP4-Debuginfo-Updates
SLES 12 SP5
SLES12-SP5-Debuginfo-Core
SLES12-SP5-Debuginfo-Updates

18.6.3 Dépôts spécifiques au module pour SUSE Linux Enterprise Server

La liste suivante contient uniquement les principaux dépôts pour chaque module, mais pas les dépôts Debuginfo ou Source.

Modules disponibles pour SLES 12 GA/SP1/SP2/SP3/SP4/SP5
  • Module Advanced Systems Management : CFEngine, Puppet et l'outil Machinery

    SLE-Module-Adv-Systems-Management12-Pool
    SLE-Module-Adv-Systems-Management12-Updates
  • Module Certifications : paquetages spécifiques à la certification FIPS 140-2 (non disponibles sous AArch64 et POWER)

    SLE-Module-Certifications12-Pool
    SLE-Module-Certifications12-Updates
  • Module Containers : Docker Open Source Engine, outils, images mises au préalable en paquetage

    SLE-Module-Containers12-Pool
    SLE-Module-Containers12-Updates
  • Module Anciennes applications : Sendmail, ancienne pile IMAP, ancien Java, etc. (non disponible sur AArch64)

    SLE-Module-Legacy12-Pool
    SLE-Module-Legacy12-Updates
  • Module Cloud public : code d'initialisation de cloud public et outils

    SLE-Module-Public-Cloud12-Pool
    SLE-Module-Public-Cloud12-Updates
  • Module Toolchain : GCC (GNU Compiler Collection)

    SLE-Module-Toolchain12-Pool
    SLE-Module-Toolchain12-Updates
  • Module Web et de script : PHP, Python, Ruby on Rails

    SLE-Module-Web-Scripting12-Pool
    SLE-Module-Web-Scripting12-Updates
Modules disponibles pour SLES 12 SP2/SP3/SP4/SP5
  • Module HPC : outils et bibliothèques liés à l'informatique hautes performances (High Performance Computing)

    SLE-Module-HPC12-Pool
    SLE-Module-HPC12-Updates

18.6.4 Dépôts requis pour SUSE Linux Enterprise Desktop

SLED 12
SLED12-GA-Pool
SLED12-GA-Updates
SLED 12 SP1
SLED12-SP1-Pool
SLED12-SP1-Updates
SLED 12 SP2
SLED12-SP2-Pool
SLED12-SP2-Updates
SLED 12 SP3
SLED12-SP3-Pool
SLED12-SP3-Updates
SLED 12 SP4
SLED12-SP4-Pool
SLED12-SP4-Updates
SLED 12 SP5
SLED12-SP5-Pool
SLED12-SP5-Updates

18.6.5 Dépôts facultatifs pour SUSE Enterprise Linux Desktop

SLED 12
SLED12-GA-Debuginfo-Core
SLED12-GA-Debuginfo-Updates
SLED 12 SP1
SLED12-SP1-Debuginfo-Core
SLED12-SP1-Debuginfo-Updates
SLED 12 SP2
SLED12-SP2-Debuginfo-Core
SLED12-SP2-Debuginfo-Updates
SLED 12 SP3
SLED12-SP3-Debuginfo-Core
SLED12-SP3-Debuginfo-Updates
SLED 12 SP4
SLED12-SP4-Debuginfo-Core
SLED12-SP4-Debuginfo-Updates
SLED 12 SP5
SLED12-SP5-Debuginfo-Core
SLED12-SP5-Debuginfo-Updates

18.6.6 Enregistrement et annulation des enregistrements des dépôts avec SUSEConnect

Lors de votre inscription, le système reçoit des dépôts de la part du SUSE Customer Center (consultez la page https://scc.suse.com/) ou d'un proxy d'enregistrement local tel que SMT. Les noms de dépôts pointent vers des URI spécifiques du SUSE Customer Center. Pour répertorier tous les dépôts disponibles sur votre système, utilisez zypper comme suit :

root # zypper repos -u

Vous obtenez alors la liste de tous les dépôts disponibles sur votre système. L'alias et le nom sont indiqués pour chaque dépôt. Vous pouvez également savoir si le dépôt est activé et s'il sera rafraîchi. L'option -u vous permet, en outre, de connaître l'URI d'origine.

Pour enregistrer votre machine, exécutez SUSEConnect, par exemple comme suit :

root # SUSEConnect -r REGCODE

Si vous voulez annuler l'enregistrement de votre machine, à partir du SP1, vous pouvez aussi utiliser SUSEConnect :

root # SUSEConnect --de-register

Pour vérifier quels produits sont installés localement ainsi que leur statut, utilisez la commande suivante :

root # SUSEConnect -s

19 Mise à niveau de SUSE Linux Enterprise

SUSE® Linux Enterprise (SLE) permet de mettre à niveau un système existant vers la nouvelle version. Aucune installation nouvelle n'est requise. Les données existantes, telles que les répertoires privés et de données, ainsi que la configuration du système, sont conservées. Vous pouvez effectuer la mise à jour à partir d'un lecteur de CD ou de DVD local ou à partir d'une source d'installation réseau centrale.

Ce chapitre explique comment effectuer une mise à niveau manuelle de votre système SUSE Linux Enterprise, que ce soit à partir d'un DVD, du réseau, d'un processus automatisé ou de SUSE Manager.

19.1 Chemins de mise à niveau pris en charge vers SLE 12 SP5

Aperçu des chemins de mise à niveau pris en charge
Figure 19.1 : Aperçu des chemins de mise à niveau pris en charge
Important
Important : les mises à niveau entre architectures ne sont pas prises en charge

Les mises à niveau entre architectures, comme une mise à niveau depuis une version 32 bits de SUSE Linux Enterprise Server vers la version 64 bits, ou d'un format Big Endian vers un mode Little Endian, ne sont pas prises en charge !

En particulier, la mise à niveau de SLE 2 sur POWER (Big Endian) vers SLE 12 SP1 sur POWER (nouveauté : Little Endian) n'est pas prise en charge.

De plus, étant donné que SUSE Linux Enterprise 12 est une version exclusivement 64 bits, les mises à niveau à partir d'un système SUSE Linux Enterprise 11 32 bits vers SUSE Linux Enterprise 12 ou version ultérieure ne sont pas prises en charge.

Pour effectuer une mise à niveau entre architectures, vous devez procéder à une nouvelle installation.

Note
Note : omission de Service Packs

Le chemin le plus sûr pour la mise à niveau consiste à progresser étape par étape et à installer consécutivement tous les Service Packs. Dans certains cas, il est toutefois envisageable d'ignorer 1 ou 2 Service Packs. Pour plus d'informations, reportez-vous à la section Chemins de mise à niveau pris en charge par version et à la Figure 19.1, « Aperçu des chemins de mise à niveau pris en charge ». Il est cependant recommandé de ne pas ignorer de Service Pack.

Note
Note : mise à niveau vers des versions majeures

Nous vous recommandons d'effectuer une nouvelle installation lors de la mise à niveau vers une nouvelle version majeure.

Chemins de mise à niveau pris en charge par version
Mise à niveau à partir de SUSE Linux Enterprise 10 (tout Service Pack)

Aucun chemin de migration direct vers SUSE Linux Enterprise 12 n'est pris en charge. Il est recommandé dans ce cas d'effectuer une nouvelle installation.

Mise à niveau de SUSE Linux Enterprise 11 GA / SP1 / SP2 / SP3

Aucun chemin de migration direct vers SUSE Linux Enterprise 12 n'est pris en charge. Avant de pouvoir passer à SLE 12 SP5, vous devez au minimum disposer de SLE 11 SP4.

Si vous ne pouvez pas effectuer une nouvelle installation, commencez par mettre à niveau le Service Pack SLE 11 installé vers SLE 11 SP4. Ces étapes sont décrites dans le Guide de déploiement de SUSE Linux Enterprise 11 : https://documentation.suse.com/sles-11/ .

Mise à niveau à partir de SUSE Linux Enterprise 11 SP4

La mise à niveau de SLE 11 SP5 vers SLE 12 SP4 est uniquement prise en charge via une mise à niveau hors ligne. Reportez-vous au Chapitre 20, Mise à niveau en mode hors ligne (« Guide d'administration », chapitre 12 « Chargeur de démarrage GRUB 2 ») pour obtenir des informations détaillées.

Mise à niveau de SUSE Linux Enterprise 12 GA/SP1/SP2 vers SP5

Les mises à niveau directes de SLE 12 GA, SP1 ou SP2 vers SP5 ne sont pas prises en charge. Effectuez d'abord une mise à niveau vers SLE 12 SP3 ou SP4.

Mise à niveau de SUSE Linux Enterprise 12 SP3/SP4 vers SP5

La mise à niveau de SUSE Linux Enterprise 12 SP3 ou SP4 vers SP5 est prise en charge.

Mise à niveau de SUSE Linux Enterprise 12 LTSS GA/SP1 vers SP5

Les mises à niveau directes de SUSE Linux Enterprise 12 LTSS GA ou SP1 vers SP5 ne sont pas prises en charge. Commencez par une mise à niveau vers SLE 12 LTSS SP2.

Mise à niveau de SUSE Linux Enterprise 12 LTSS SP2/SP3/SP4 vers SP5

La mise à niveau de SUSE Linux Enterprise 12 LTSS SP2, SP3 ou SP4 vers SP5 est prise en charge.

19.2 Mise à niveau en ligne et hors ligne

SUSE prend en charge deux méthodes différentes de mise à niveau et de migration. Pour plus d'informations sur la terminologie, reportez‑vous à la Section 18.1, « Terminologie ». Les méthodes existantes sont les suivantes :

En ligne

Toutes les mises à niveau exécutées à partir du système en cours d'exécution sont considérées comme étant en ligne. Exemples : connexion par le biais du SUSE Customer Center, de Subscription Management Tool (SMT), de SUSE Manager à l'aide de Zypper ou de YaST.

Lors de la migration entre des Service Packs de la même version majeure, suivez les instructions de la Section 21.4, « Mise à niveau à l'aide de l'outil de migration en ligne (YaST) » ou de la Section 21.5, « Mise à niveau avec zypper ».

Hors ligne

Les méthodes hors ligne démarrent généralement un autre système d'exploitation à partir duquel la version de SLE installée est mise à niveau. Exemples : DVD, disque flash, image ISO, AutoYaST, « RPM simple » ou démarrage PXE.

Important
Important : clients SUSE Manager

Si votre machine est gérée par SUSE Manager, la procédure de mise à niveau doit être démarrée dans l'interface de gestion. Pour plus de détails, reportez-vous à la Section 20.6, « Mise à jour via SUSE Manager ».

19.3 Préparation du système

Avant de lancer la procédure de mise à niveau, assurez-vous que votre système est prêt. Cette préparation implique notamment la sauvegarde des données et la consultation des notes de version.

19.3.1 Assurez-vous que le système est à jour

La mise à niveau du système est prise en charge uniquement à partir du niveau de correctif le plus récent. Assurez-vous que les dernières mises à jour système sont installées, en exécutant le correctif zypper ou en démarrant le module YaST Online Update.

19.3.2 Lecture des notes de version

Les notes de version contiennent des informations supplémentaires sur les modifications apportées depuis la version précédente de SUSE Linux Enterprise Server. Consultez les notes de version pour vérifier les aspects suivants :

  • Votre matériel doit tenir compte de certaines considérations spéciales;

  • Les paquetages logiciels utilisés ont été considérablement modifiés;

  • Des précautions spéciales sont nécessaires pour votre installation.

Les notes de version incluent également des informations de dernière minute qui, faute de temps, n'ont pas pu être intégrées au manuel. Elles contiennent également des notes concernant les problèmes connus.

Si vous omettez d'installer un ou plusieurs Service Packs, consultez néanmoins les notes de version de ces Service Packs ignorés. Les notes de version contiennent généralement uniquement les changements effectués entre deux versions successives. Vous risquez de manquer des changements importants si vous lisez uniquement les notes de version actuelles.

Les notes de version sont disponibles en local dans le répertoire /usr/share/doc/release-notes ou en ligne à l'adresse https://www.suse.com/releasenotes/.

19.3.3 Exécution d'une sauvegarde

Avant de procéder à la mise à jour, copiez les fichiers de configuration existants sur un support distinct (comme un périphérique à bande, un disque dur amovible, etc.) pour sauvegarder les données. Cela concerne principalement les fichiers stockés dans le répertoire /etc, ainsi que certains répertoires et fichiers sous /var et /opt. Vous pouvez également écrire les données de l'utilisateur de /home (les répertoires HOME) dans un support de sauvegarde. Sauvegardez ces données en tant que root. Seul l'utilisateur root a des droits de lecture sur tous les fichiers locaux.

Si vous avez sélectionné Mettre à jour un système existant comme mode d'installation dans YaST, vous pouvez choisir d'effectuer une sauvegarde (système) ultérieurement. Vous pouvez inclure tous les fichiers modifiés, ainsi que ceux issus du répertoire /etc/sysconfig. Il ne s'agit toutefois pas d'une sauvegarde complète, dans la mesure où il manque tous les autres répertoires importants mentionnés ci-dessus. Recherchez la sauvegarde dans le répertoire /var/adm/backup.

19.3.3.1 Liste des paquetages et dépôts installés

Il est souvent utile de disposer d'une liste des paquetages installés, par exemple pour effectuer une nouvelle installation d'une nouvelle version majeure de SLE ou pour revenir à l'ancienne version.

N'oubliez pas que les paquetages installés ou dépôts utilisés ne sont pas tous disponibles dans les versions plus récentes de SUSE Linux Enterprise. Certains ont parfois été renommés et d'autres remplacés. Il se peut aussi que certains paquetages restent disponibles pour des raisons d'héritage, mais qu'un autre paquetage soit utilisé par défaut. Par conséquent, une modification manuelle des fichiers peut s'avérer nécessaire. Elle peut être réalisée avec n'importe quel éditeur de texte.

Créez un fichier nommé repositories.bak contenant une liste de tous les dépôts utilisés :

root # zypper lr -e repositories.bak

Créez un fichier nommé installed-software.bak contenant une liste de tous les paquetages utilisés :

root # rpm -qa --queryformat '%{NAME}\n' > installed-software.bak

Sauvegardez les fichiers. Les dépôts et paquetages installés peuvent être restaurés à l'aide des commandes suivantes :

root # zypper ar repositories.bak
root # zypper install $(cat installed-software.bak)
Note
Note : augmentation du nombre de paquetages en cas de mise à jour vers une nouvelle version majeure

Un système mis à niveau vers une nouvelle version majeure (SLE X+1) peut contenir plus de paquetages que le système initial (SLE X). Il en contient aussi davantage qu'une nouvelle installation de SLE X+1 avec la même sélection de modèle. Il existe plusieurs raisons à cela :

  • Les paquetages ont été divisés pour permettre une sélection plus rigoureuse de l'ensemble. Par exemple, 37 paquetages texlive dans SLE 11 ont été divisés en 422 paquetages dans SLE 12.

  • Lorsqu'un paquetage a été divisé en plusieurs autres, tous les nouveaux paquetages sont installés de manière à conserver les mêmes fonctionnalités que la version précédente en cas de mise à niveau. Toutefois, la nouvelle configuration par défaut pour une nouvelle installation de SLE X+1 ne consiste pas forcément à installer tous les paquetages.

  • Les paquetages hérités de SLE X peuvent être conservés pour des raisons de compatibilité.

  • Les dépendances de paquetages et l'étendue des modèles peuvent avoir changé.

19.3.4 Migration de votre base de données MySQL

À partir de la version 12 de SUSE Linux Enterprise, SUSE est passé de MySQL à MariaDB. Avant de lancer une mise à niveau, il est vivement recommandé de sauvegarder votre base de données.

Pour effectuer la migration de la base de données, procédez comme suit :

  1. Connectez-vous à votre machine SUSE Linux Enterprise 11.

  2. Créer un fichier de vidage :

    root # mysqldump -u root -p --all-databases > mysql_backup.sql

    Par défaut, mysqldump ne vide pas la base de données INFORMATION_SCHEMA ni performance_schema. Pour plus d'informations, consultez la page https://dev.mysql.com/doc/refman/5.5/en/mysqldump.html.

  3. Enregistrez votre fichier de vidage, le fichier de configuration /etc/my.cnf ainsi que le répertoire /etc/mysql/ pour le consulter ultérieurement (PAS le répertoire d'installation) dans un endroit sûr.

  4. Effectuez la mise à niveau. Après la mise à niveau, votre ancien fichier de configuration /etc/my.cnf reste inchangé. La nouvelle configuration est disponible dans le fichier /etc/my.cnf.rpmnew.

  5. Configurez votre base de données MariaDB selon vos besoins. N'utilisez PAS les anciens répertoire et fichier de configuration. Vous pouvez toutefois les adapter et vous en servir ultérieurement comme références.

  6. Assurez-vous que vous démarrez le serveur MariaDB :

    root # systemctl start mysql

    Si vous voulez lancer le serveur MariaDB à chaque démarrage, activez ce service :

    root # systemctl enable mysql
  7. Vérifiez que MariaDB s'exécute correctement en vous connectant à la base de données :

    root # mysql -u root -p

19.3.5 Migration de votre base de données PostgreSQL

Une version plus récente de la base de données PostgreSQL est fournie en tant que mise à jour de maintenance. En raison du travail de migration requis pour la base de données, le processus de mise à niveau n'est pas automatique. De ce fait, le passage d'une version à l'autre doit être effectué manuellement.

La migration est exécutée à l'aide de la commande pg_upgrade. Elle constitue une méthode qui diffère du vidage et du rechargement classique. Par rapport à la méthode de « vidage et rechargement », la migration effectuée par le biais de la commande pg_upgrade est plus rapide.

Les fichiers programmes de chaque version PostgreSQL sont stockés dans des répertoires différents selon la version, par exemple, dans /usr/lib/postgresql96/ pour la version 9.6 et dans /usr/lib/postgresql10/ pour la version 10. Notez que la stratégie de contrôle des versions de PostgreSQL a changé entre les versions majeures 9.6 et 10. Pour plus de détails, consultez l'adresse https://www.postgresql.org/support/versioning/.

Important
Important : mise à niveau à partir de SLE 11

Lors de la mise à niveau à partir de SLE 11, postgresql94 sera désinstallé et ne pourra plus être utilisé pour la migration de la base de données vers une version ultérieure de PostgreSQL. Par conséquent, veillez à migrer la base de données PostgreSQL avant de mettre à niveau votre système.

La procédure ci-dessous décrit la migration de la base de données de la version 9.6 vers la version 10. Lorsque vous utilisez une version différente comme source ou comme cible, remplacez les numéros de version en conséquence.

Pour effectuer la migration de la base de données, procédez comme suit :

  1. Assurez-vous que les conditions préalables suivantes sont remplies :

    • Si ce n'est déjà fait, mettez à niveau les paquetages de l'ancienne version de PostgreSQL vers la version la plus récente par le biais d'une mise à jour de maintenance.

    • Créez une sauvegarde de votre base de données existante.

    • Installez les paquetages de la nouvelle version majeure de PostgreSQL. Pour SLE12 SP5, cela implique d'installer postgresql10-server et tous les paquetages dont il dépend.

    • Installez le paquetage postgresql10-contrib qui contient la commande pg_upgrade.

    • Assurez-vous que vous disposez de suffisamment d'espace disponible dans la zone de stockage des données PostgreSQL, par défaut /var/lib/pgsql/data. Si l'espace risque d'être insuffisant, essayez de réduire la taille à l'aide de la commande SQL suivante sur chaque base de données (cette opération risque d'être très longue) :

      VACUUM FULL
  2. Arrêtez le serveur PostgreSQL avec une des commandes suivantes :

    root # /usr/sbin/rcpostgresql stop

    ou

    root # systemctl stop postgresql.service

    (Selon la version SLE que vous utilisez comme version de départ pour la mise à niveau).

  3. Renommez votre ancien répertoire de données :

    root # mv /var/lib/pgsql/data /var/lib/pgsql/data.old
  4. Initialisez votre nouvelle instance de base de données, soit manuellement avec initdb, soit en démarrant et arrêtant PostgreSQL, qui le fera automatiquement :

    root # /usr/sbin/rcpostgresql start
    root # /usr/sbin/rcpostgresql stop

    ou

    root # systemctl start postgresql.service
    root # systemctl stop postgresql.service

    (Selon la version SLE que vous utilisez comme version de départ pour la mise à niveau).

  5. Si vous avez modifié les fichiers de configuration dans l'ancienne version, pensez à transférer ces modifications vers les nouveaux fichiers de configuration. Cela peut concerner les fichiers postgresql.auto.conf, postgresql.conf, pg_hba.conf et pg_ident.conf. Les anciennes versions de ces fichiers se trouvent dans /var/lib/pgsql/data.old/ ; les nouvelles versions sont disponibles dans /var/lib/pgsql/data.

    Notez qu'il est déconseillé de vous contenter de copier les anciens fichiers de configuration, car cela peut écraser de nouvelles options, de nouvelles valeurs par défaut et des commentaires modifiés.

  6. Démarrez le processus de migration en tant qu'utilisateur postgres :

    root # su - postgres
    postgres > pg_upgrade \
       --old-datadir "/var/lib/pgsql/data.old" \
       --new-datadir "/var/lib/pgsql/data" \
       --old-bindir "/usr/lib/postgresql96/bin/" \
       --new-bindir "/usr/lib/postgresql10/bin/"
  7. Démarrez votre nouvelle instance de base de données avec l'une des commandes suivantes :

    root # /usr/sbin/rcpostgresql start

    ou

    root # systemctl start postgresql.service

    (Selon la version SLE que vous utilisez comme version de départ pour la mise à niveau).

  8. Vérifiez si la migration a réussi. L'étendue du test dépend de votre cas d'utilisation. Il n'existe pas d'outil général permettant d'automatiser cette étape.

  9. Supprimez les anciens paquetages PostgreSQL et votre ancien répertoire de données :

    root # zypper search -s postgresql96 | xargs zypper rm -u
    root # rm -rf /var/lib/pgsql/data.old

19.3.6 Création de certificats de serveur non-MD5 pour les applications Java

Au cours de la mise à jour du SP1 vers SP2, les certificats basés sur MD5 ont été désactivés dans le cadre d'un correctif de sécurité. Si vous disposez de certificats créés à l'aide de l'algorithme MD5, recréez vos certificats en procédant comme suit :

  1. Ouvrez un terminal et connectez-vous en tant qu'utilisateur root.

  2. Créez une clé privée :

    root # openssl genrsa -out server.key 1024

    si vous souhaitez une clé renforcée, remplacez 1024 par un nombre plus élevé, par exemple 4096.

  3. Créez une requête de signature de certificat (CSR) :

    root # openssl req -new -key server.key -out server.csr
  4. Auto-signez le certificat :

    root # openssl x509 -req -days 365 -in server.csr -signkey server.key -out server.crt
  5. Créez le fichier PEM :

    root # cat server.key server.crt > server.pem
  6. Placez les fichiers server.crt, server.csr, server.key et server.pem dans les répertoires respectifs contenant les clés. Pour Tomcat, il s'agit par exemple du répertoire /etc/tomcat/ssl/.

19.3.7 Arrêt des invités de machine virtuelle

Si votre machine fait office de serveur hôte de machine virtuelle pour KVM ou Xen, veillez à arrêter correctement tous les invités de machine virtuelle actifs avant de procéder à la mise à jour. Dans le cas contraire, l'accès aux invités peut s'avérer impossible après la mise à jour.

19.3.8 Ajustement de la configuration du client SMT

Si la machine que vous souhaitez mettre à niveau est enregistrée comme client auprès d'un serveur SMT, procédez comme suit :

Vérifiez si la version du script clientSetup4SMT.sh sur votre hôte est à jour. Le fichier clientSetup4SMT.sh des anciennes versions de SMT ne peut pas gérer les clients SMT 12. Si vous appliquez régulièrement des correctifs logiciels à votre serveur SMT, la dernière version du fichier clientSetup4SMT.sh est toujours disponible à l'emplacement <NOM_HÔTE_SMT>/repo/tools/clientSetup4SMT.sh.

En cas d'échec de la mise à niveau de votre machine vers une version supérieure de SUSE Linux Enterprise Server, annulez l'enregistrement de la machine auprès du serveur SMT, comme décrit à la Procédure 19.1. Ensuite, redémarrez le processus de mise à niveau.

Procédure 19.1 : annulation de l'enregistrement d'un client SUSE Linux Enterprise auprès d'un serveur SMT
  1. Connectez-vous à la machine client.

  2. L'étape suivante dépend du système d'exploitation actuel du client :

    • Pour SUSE Linux Enterprise 11, exécutez les commandes suivantes :

      tux > sudo suse_register -E
      tux > sudo rm -f /etc/SUSEConnect
      tux > sudo rm -rf /etc/zypp/credentials.d/*
      tux > sudo rm -rf /etc/zypp/repos.d/*
      tux > sudo rm -f /etc/zypp/services.d/*
      tux > sudo rm -f /var/cache/SuseRegister/*
      tux > sudo rm -f /etc/suseRegister*
      tux > sudo rm -f /var/cache/SuseRegister/lastzmdconfig.cache
      tux > sudo rm -f /etc/zmd/deviceid
      tux > sudo rm -f /etc/zmd/secret
    • Pour SUSE Linux Enterprise 12, exécutez les commandes suivantes :

      tux > sudo SUSEConnect --de-register
      tux > sudo SUSEConnect --cleanup
      tux > sudo rm -f /etc/SUSEConnect
      tux > sudo rm -rf /etc/zypp/credentials.d/*
      tux > sudo rm -rf /etc/zypp/repos.d/*
      tux > sudo rm -f /etc/zypp/services.d/*
  3. Connectez-vous au serveur SMT.

  4. Vérifiez si l'enregistrement du client a été annulé avec succès en répertoriant tous les enregistrements de clients :

    tux > sudo smt-list-registrations
  5. Si le nom d'hôte du client est toujours répertorié dans la sortie de cette commande, obtenez l'ID unique du client à partir de la première colonne. (Le client peut être répertorié avec plusieurs ID).

  6. Supprimez l'enregistrement pour ce client :

    tux > sudo smt-delete-registration -g UNIQUE_ID
  7. Si le client est répertorié avec plusieurs ID, répétez l'étape ci-dessus pour chacun de ses ID uniques.

  8. Vérifiez si l'enregistrement du client a maintenant été annulé avec succès en réexécutant :

    tux > sudo smt-list-registrations

19.3.9 Espace disque

La taille des logiciels tend à augmenter de versions en versions. Il convient donc de vérifier l'espace disponible sur la partition avant d'effectuer la mise à jour. Si vous pensez que vous allez manquer d'espace disque, sauvegardez vos données avant d'augmenter l'espace disponible en redimensionnant des partitions, par exemple. Il n'existe pas de règle précise concernant l'espace de chaque partition. L'espace requis dépend de votre profil particulier de partitionnement et du logiciel sélectionné.

Note
Note : vérification automatique de l'espace dans YaST

Au cours de la procédure de mise à jour, YaST vérifie la quantité d'espace disque disponible et affiche un avertissement si la taille de l'installation risque de dépasser la quantité d'espace disponible. Dans ce cas, la mise à jour risque de rendre le système inutilisable ! Si vous savez exactement ce que vous faites (en ayant effectué des tests au préalable), vous pouvez ignorer l'avertissement et poursuivre la mise à jour.

19.3.9.1 Vérification de l'espace disque sur des systèmes de fichiers racines non-Btrfs

Utilisez la commande df pour obtenir une liste de l'espace disque disponible. Dans l'Exemple 19.1, « List with df -h », la partition root à écrire est /dev/sda3 (montée en tant que /).

Exemple 19.1 : List with df -h
Filesystem     Size  Used Avail Use% Mounted on
/dev/sda3       74G   22G   53G  29% /
tmpfs          506M     0  506M   0% /dev/shm
/dev/sda5      116G  5.8G  111G   5% /home
/dev/sda1       44G    4G   40G   9% /data

19.3.9.2 Vérification de l'espace disque sur des systèmes de fichiers racines Btrfs

Si vous utilisez Btrfs en tant que systèmes de fichiers racines sur votre machine, assurez-vous qu'il dispose de suffisamment d'espace libre. Dans le pire des cas, une mise à niveau a besoin d'autant d'espace disque que le système de fichiers racine actuel (sans le répertoire /.snapshot) pour un nouvel instantané. Pour afficher l'espace disque disponible, utilisez la commande suivante :

root # df -h /

Vérifiez également l'espace disponible sur toutes les autres partitions montées. Les recommandations suivantes ont fait leurs preuves :

  • Pour tous les systèmes de fichiers comprenant Btrfs, vous avez besoin de suffisamment d'espace disque disponible pour télécharger et installer des RPM volumineux. L'espace occupé par les anciens RPM n'est libéré qu'après l'installation des nouveaux RPM.

  • Pour Btrfs avec des instantanés, vous avez au minimum besoin d'une quantité d'espace libre égale à celle occupée par votre installation actuelle. Il est recommandé de disposer de deux fois plus d'espace libre que celui occupé par l'installation actuelle.

    Si vous ne disposez pas de suffisamment d'espace, vous pouvez tenter de supprimer les anciens instantanés à l'aide de snapper :

    root # snapper list
    root # snapper delete NUMBER

    Toutefois, cela ne fonctionne pas toujours. Avant la migration, la plupart des instantanés n'occupent pas tellement d'espace.

19.3.10 Désactivation temporaire de la prise en charge de plusieurs versions du kernel

SUSE Linux Enterprise Server (SLES) permet d'installer plusieurs versions de kernel en activant les paramètres correspondants sous /etc/zypp/zypp.conf. La prise en charge de cette fonctionnalité doit pourtant être désactivée temporairement pour effectuer une mise à niveau vers un Service Pack. Une fois la mise à jour terminée, la prise en charge de plusieurs versions peut être réactivée. Pour désactiver la prise en charge de plusieurs versions, commentez les lignes correspondantes sous /etc/zypp/zypp.conf. Le résultat doit ressembler à ceci :

#multiversion = provides:multiversion(kernel)
#multiversion.kernels = latest,running

Pour réactiver cette fonction après une mise à jour réussie, supprimez les signes de commentaire. Pour plus d'informations sur la prise en charge de plusieurs versions, reportez-vous à la Section 15.1, « Activation et configuration de la prise en charge de plusieurs versions ».

19.4 Mise à niveau sur IBM Z

La mise à niveau d'une installation SUSE Linux Enterprise sur IBM Z nécessite Upgrade=1 comme paramètre de kernel, par exemple via le fichier parmfile. Reportez-vous au Section 4.3, « Fichier parmfile : automatisation de la configuration du système ».

19.5 IBM POWER : démarrage d'un serveur X

Sous SLES 12 pour IBM POWER, le gestionnaire d'affichage est configuré pour ne pas démarrer un serveur X local par défaut. Ce paramètre a été annulé sous SLES 12 SP1. Le gestionnaire d'affichage démarre désormais un serveur X.

Pour éviter des problèmes au cours de la mise à niveau, le paramètre SUSE Linux Enterprise Server n'est pas modifié automatiquement. Si vous souhaitez que le gestionnaire d'affichage démarre un serveur X après la mise à niveau, modifiez le paramètre DISPLAYMANAGER_STARTS_XSERVER sous /etc/sysconfig/displaymanager comme suit :

DISPLAYMANAGER_STARTS_XSERVER="yes"

20 Mise à niveau en mode hors ligne

Ce chapitre décrit la procédure de mise à niveau d'une installation SUSE Linux Enterprise existante à l'aide de YaST, qui est démarré à partir d'un support d'installation. Le programme d'installation de YaST peut, par exemple, être démarré à partir d'un DVD, du réseau ou du disque dur qui héberge le système.

20.1 Présentation conceptuelle

Avant d'entamer la mise à niveau de votre système, consultez le Section 19.3, « Préparation du système ».

Pour mettre à niveau votre système, démarrez à partir d'une source d'installation, comme vous le feriez pour une nouvelle installation. Toutefois, lorsque l'écran de démarrage apparaît, vous devez sélectionner Mettre à niveau (au lieu d'Installation). La mise à niveau peut être démarrée à partir des éléments suivants :

20.2 Démarrage de la mise à niveau à partir d'un support d'installation

La procédure ci-dessous décrit le démarrage à partir d'un DVD, mais vous pouvez également utiliser un support d'installation local comme une image ISO sur un périphérique de stockage de masse USB. Le support et la méthode de démarrage à sélectionner dépendent de l'architecture système et du fait que la machine dispose d'un BIOS traditionnel ou UEFI.

Procédure 20.1 : Mise à niveau manuelle de SLE 11 SP5 vers SLE 12 SP4
  1. Sélectionnez et préparez un support de démarrage (voir Section 6.2, « Démarrage du système pour l'installation »).

  2. Insérez le DVD 1 du support d'installation de SUSE Linux Enterprise 12 SP5 et démarrez votre machine. L'écran Bienvenue s'affiche, suivi de l'écran de démarrage.

  3. Démarrez le système en sélectionnant Mise à niveau dans le menu de démarrage.

  4. Effectuez la procédure de mise à niveau, comme décrit à la Section 20.5, « Mise à niveau de SUSE Linux Enterprise ».

20.3 Démarrage de la mise à niveau à partir d'une source réseau

Pour démarrer une mise à niveau à partir d'une source d'installation réseau, veillez à respecter les conditions suivantes :

Configuration requise pour la mise à niveau à partir d'une source d'installation réseau
Source d'installation réseau

Une source d'installation réseau est configurée conformément au Chapitre 8, Configuration du serveur qui contient les sources d'installation.

Connexion réseau et services réseau

Le serveur d'installation et la machine cible doivent disposer d'une connexion réseau qui fonctionne. Les services réseau requis sont les suivants :

  • Service de noms de domaines

  • DHCP (uniquement nécessaire pour un lancement via PXE ; l'adresse IP peut être définie manuellement lors de la configuration)

  • OpenSLP (facultatif)

Support de démarrage

Vous disposez du 1er DVD de SUSE Linux Enterprise Server (ou d'une image ISO locale) pour démarrer le système cible ou un système cible qui est configuré pour le démarrage via PXE comme indiqué à la Section 9.5, « Préparation du système cible pour le démarrage PXE ». Reportez-vous au Chapitre 10, Installation à distance pour obtenir des informations détaillées sur le démarrage d'une mise à niveau à partir d'un serveur distant.

20.3.1 Mise à niveau manuelle via une source d'installation réseau - démarrage à partir d'un DVD

Cette procédure fournit l'exemple d'un démarrage à partir d'un DVD, mais vous pouvez également utiliser tout autre support d'installation local comme une image ISO sur un périphérique de stockage de masse USB. La façon de sélectionner la méthode de démarrage et de démarrer le système à partir du support dépend de l'architecture système. Vous devez également savoir si la machine est équipée d'un BIOS ou UEFI traditionnel. Pour plus de détails, reportez-vous aux liens ci-dessous.

  1. Insérez le DVD 1 du support d'installation SUSE Linux Enterprise 12 SP5 et démarrez votre machine. L'écran Bienvenue s'affiche, suivi de l'écran de démarrage.

  2. Sélectionnez le type de source d'installation réseau que vous souhaitez utiliser (FTP, HTTP, NFS, SMB ou SLP). En général, ce choix est disponible en appuyant sur la touche F4, mais si votre machine est équipée d'UEFI au lieu d'un BIOS traditionnel, vous devrez peut-être adapter manuellement les paramètres de démarrage. Pour plus de détails, reportez-vous à la section Installation à partir d'un serveur réseau du Chapitre 6, Installation avec YaST.

  3. Effectuez la procédure de mise à niveau, comme décrit à la Section 20.5, « Mise à niveau de SUSE Linux Enterprise ».

20.3.2 Mise à niveau manuelle via une source d'installation réseau - démarrage à partir de PXE

Pour effectuer une mise à niveau à partir d'une source d'installation réseau à l'aide d'un démarrage PXE, procédez comme suit :

  1. Ajustez la configuration de votre serveur DHCP afin de fournir les informations relatives à l'adresse indispensables à un démarrage à l'aide de PXE. Pour plus de détails, reportez-vous à la Section 9.5, « Préparation du système cible pour le démarrage PXE ».

  2. Configurez un serveur TFTP qui devra contenir l'image de démarrage requise pour un démarrage à l'aide de PXE. Pour ce faire, utilisez le DVD 1 du support d'installation de SUSE Linux Enterprise 12 SP5 ou suivez les instructions de la Section 9.2, « Configuration d'un serveur TFTP ».

  3. Préparez le démarrage de PXE et de Wake-on-LAN sur l'ordinateur cible.

  4. Lancez le démarrage du système cible et utilisez VNC pour vous connecter à distance à la routine d'installation s'exécutant sur cet ordinateur. Pour plus d'informations, reportez-vous à la Section 10.3.1, « Installation VNC ».

  5. Effectuez la procédure de mise à niveau, comme décrit à la Section 20.5, « Mise à niveau de SUSE Linux Enterprise ».

20.4 Activation de la mise à niveau automatique

Le processus de mise à niveau peut être exécuté automatiquement. Pour activer la mise à jour automatique, le paramètre de kernel autoupgrade = 1 doit être défini. Le paramètre peut être défini lors du démarrage dans le champ Options de démarrage. Pour plus de détails, consultez le Book “AutoYaST”, Chapter 1 “Introduction” (« Guide d'AutoYaST », chapitre 4 « Options de configuration et d'installation », Section 4.10 « Mise à niveau »).

20.5 Mise à niveau de SUSE Linux Enterprise

Avant de mettre à niveau votre système, lisez d'abord le Section 19.3, « Préparation du système ». Pour effectuer une migration automatisée, procédez comme suit :

  1. Après avoir démarré (à partir d'un support d'installation ou du réseau), sélectionnez l'entrée Mise à niveau dans l'écran de démarrage. Si vous souhaitez effectuer la mise à niveau comme décrit dans les étapes suivantes manuellement, vous devez désactiver le processus de mise à niveau automatique. Reportez-vous à la Section 20.4, « Activation de la mise à niveau automatique ».

    Avertissement
    Avertissement : un choix erroné risque de vous faire perdre des données

    Si vous sélectionnez Installation au lieu de Mise à niveau, vous risquez de perdre des données ultérieurement. Veillez particulièrement à ne pas détruire vos partitions de données en effectuant une nouvelle installation.

    Veillez à bien sélectionner Mettre à niveau dans ce cas.

    YaST démarre le système d'installation.

  2. Dans l'écran Bienvenue, sélectionnez la Langue et le Clavier, puis acceptez l'accord de licence. Cliquez ensuite sur Suivant.

    YaST recherche dans vos partitions les systèmes SUSE Linux Enterprise déjà installés.

  3. Dans l'écran Sélectionner pour la mise à niveau, sélectionnez la partition à mettre à niveau et cliquez sur Suivant.

    YaST monte la partition sélectionnée et affiche tous les dépôts trouvés sur la partition que vous souhaitez mettre à niveau.

  4. Dans l'écran Dépôts utilisés précédemment, adaptez le statut des dépôts : cochez ceux que vous souhaitez inclure dans le processus de mise à niveau et désactivez ceux dont vous n'avez plus besoin. Cliquez ensuite sur Suivant.

  5. Dans l'écran Enregistrement, indiquez si vous voulez enregistrer le système mis à niveau maintenant (en introduisant vos données d'enregistrement et en cliquant sur Suivant) ou si vous préférez Ignorer l'enregistrement pour l'instant. Pour plus d'informations sur l'enregistrement de votre système, reportez-vous à la Section 20.8, « Enregistrement de votre système ».

  6. Passez en revue les paramètres d'installation de la mise à niveau, notamment les options de mise à jour. Sélectionnez l'une des options suivantes :

    • Mettre à jour uniquement les paquetages installés. Avec cette option, vous risquez de passer à côté des nouvelles fonctionnalités livrées avec la dernière version de SUSE Linux Enterprise.

    • Mise à jour avec l'installation d'un nouveau logiciel et de nouvelles fonctionnalités. Cliquez sur Sélectionner les schémas si vous souhaitez personnaliser l'activation ou la désactivation des schémas et paquetages.

    Note
    Note : choix du poste de travail

    Si vous utilisiez KDE avant la mise à niveau vers SUSE Linux Enterprise 12 (DEFAULT_WM) dans /etc/sysconfig/windowmanager avait été défini sur KDE*), votre environnement de bureau sera automatiquement remplacé par GNOME après la mise à niveau. Par défaut, le gestionnaire d'affichage KDM sera remplacé par GDM.

    Pour modifier l'environnement de bureau ou le gestionnaire de fenêtres, sélectionnez d'autres logiciels en cliquant sur Sélectionner les schémas.

  7. Si tous les paramètres vous conviennent, démarrez la procédure d'installation et de suppression en cliquant sur Mettre à jour.

  8. Une fois que le processus de mise à niveau a abouti, vérifiez l'éventuelle présence de « paquetages orphelins ». Les paquetages orphelins sont des paquetages qui n'appartiennent plus à aucun dépôt actif. La commande suivante vous permet d'obtenir une liste de ces paquetages :

    zypper packages --orphaned

    Cette liste vous permet de déterminer si un paquetage est toujours nécessaire ou peut être désinstallé en toute sécurité.

Si la machine à mettre à niveau est un client SMT et que la mise à niveau échoue, reportez-vous à la Procédure 19.1, « annulation de l'enregistrement d'un client SUSE Linux Enterprise auprès d'un serveur SMT » et redémarrez la procédure de mise à niveau ultérieurement.

20.6 Mise à jour via SUSE Manager

SUSE Manager est une solution serveur pour fournir des mises à jour et des correctifs pour les clients SUSE Linux Enterprise. Il s'accompagne d'un ensemble d'outils et d'une interface utilisateur Web pour les tâches de gestion. Pour plus d'informations sur SUSE Manager, consultez l'adresse https://www.suse.com/products/suse-manager/.

SUSE Manager peut vous aider pour la migration d'un Service Pack ou la mise à niveau d'un système complet.

Migration de Service Pack

La migration de Service Pack permet de migrer d'un Service Pack (SP) vers un autre au sein d'une version principale (par exemple, à partir de SLES 12 SP1 vers SLES 12 SP2). Pour plus d'informations, consultez le manuel SUSE Manager Best Practices Guide (Guide des meilleures pratiques de SUSE Manager), chapitre « Client Migration » (Migration du client) : https://documentation.suse.com/external-tree/en-us/suma/3.2/susemanager-best-practices/html/book.suma.best.practices/bp.client.migration.html

Mise à niveau du système

SUSE Manager vous permet d'effectuer une mise à niveau du système. Grâce à l'intégration de la technologie AutoYaST, il est possible d'effectuer des mises à niveau d'une version majeure vers l'autre (par exemple, SLES 11 SP3 vers SLES 12 SP2). Pour plus d'informations, consultez le manuel SUSE Manager Best Practices Guide (Guide des meilleures pratiques de SUSE Manager), chapitre « Client Migration » (Migration du client) : https://documentation.suse.com/external-tree/en-us/suma/3.2/susemanager-best-practices/html/book.suma.best.practices/bp.client.migration.html

20.7 Mise à jour de l'état d'enregistrement après un retour à l'état initial

Lorsque vous effectuez la mise à niveau d'un Service Pack, vous devez modifier la configuration sur le serveur d'enregistrement pour donner accès aux nouveaux dépôts. Si le processus de mise à niveau a été interrompu ou annulé (par le biais d'une restauration à partir d'une sauvegarde ou d'un instantané), les informations sur le serveur d'enregistrement ne reflètent pas l'état du système. Dès lors, vous risquez de ne pas avoir accès aux dépôts de mise à jour ou à des dépôts incorrects utilisés sur le client.

Lorsqu'un retour à l'état initial est effectué via Snapper, le système avertit le serveur d'enregistrement pour garantir que l'accès aux dépôts appropriés est configuré au cours du processus de démarrage. Si le système a été restauré d'une autre façon ou si la communication avec le serveur d'enregistrement a échoué pour une quelconque raison (par exemple, le serveur n'était pas accessible en raison de problèmes réseau), déclenchez manuellement le retour à l'état initial sur le client en entrant la commande :

snapper rollback

Nous suggérons de toujours vérifier que les dépôts corrects sont configurés sur le système, en particulier après le rafraîchissement du service à l'aide de la commande:

zypper ref -s

Cette fonctionnalité est disponible dans le paquetage rollback-helper .

20.8 Enregistrement de votre système

Si vous avez ignoré l'étape d'enregistrement pendant l'installation, vous pourrez enregistrer votre système par la suite à l'aide du module Enregistrement du produit de YaST.

L'enregistrement de vos systèmes vous offre les avantages suivants :

  • Vous pouvez bénéficier du support.

  • Vous avez accès aux mises à jour de sécurité et aux correctifs de bogues.

  • Vous avez accès au SUSE Customer Center.

  1. Démarrez YaST et sélectionnez Logiciels › Enregistrement du produitpour ouvrir la boîte de dialogue Enregistrement.

  2. Indiquez l'Adresse électronique associée au compte SUSE que vous ou votre entreprise utilisez pour gérer les abonnements. Si vous ne disposez pas encore de compte SUSE, rendez-vous sur la page d'accueil du SUSE Customer Center (https://scc.suse.com/) pour en créer un.

  3. Entrez le Code d'enregistrement que vous avez reçu avec votre exemplaire de SUSE Linux Enterprise Server.

  4. Pour commencer l'enregistrement, poursuivez en sélectionnant Suivant. Si un ou plusieurs serveurs d'enregistrement locaux sont disponibles sur votre réseau, vous pouvez en sélectionner un dans la liste. Vous pouvez également sélectionner Annuler pour ignorer les serveurs d'enregistrement locaux et vous enregistrer auprès du serveur SUSE par défaut.

    Au cours de l'enregistrement, les dépôts de mise à jour en ligne sont ajoutés à votre configuration de mise à niveau. Une fois l'opération terminée, vous pouvez choisir d'installer les versions de paquetage les plus récentes disponibles à partir de ces dépôts. Vous obtenez alors un nouveau chemin de mise à niveau pour tous les paquetages et êtes ainsi certain que SUSE Linux Enterprise Server est mis à niveau avec les dernières mises à jour de sécurité disponibles. Si vous cliquez sur Non, tous les paquetages sont installés à partir du support d'installation. Cliquez ensuite sur Suivant.

    Une fois l'enregistrement réussi, YaST affiche la liste des extensions, produits complémentaires et modules disponibles pour votre système. Pour les sélectionner et les installer, passez à la Section 14.3, « Installation de modules et extensions à partir des canaux en ligne ».

21 Mise à niveau en ligne

SUSE offre un outil graphique intuitif et un outil de ligne de commande simple pour effectuer la mise à niveau d'un système en cours d'exécution vers un nouveau Service Pack. Ces outils permettent un « retour à l'état initial » des Service Packs et bien plus encore. Ce chapitre explique comment effectuer une mise à niveau de Service Pack étape par étape à l'aide de ces outils.

21.1 Présentation conceptuelle

Avant d'entamer la mise à niveau de votre système, consultez la Section 19.3, « Préparation du système ».

SUSE publie régulièrement de nouveaux Service Packs pour la gamme de produits SUSE Linux Enterprise. Pour faciliter la migration vers un nouveau Service Pack et minimiser les temps hors service, SUSE prend en charge la migration en ligne pendant que le système est en cours d'exécution.

À partir de SLE 12, YaST Wagon a été remplacé par la migration YaST (pour l'interface graphique) et la migration Zypper (pour la ligne de commande). Les fonctions prises en charge sont les suivantes :

  • Le système est toujours dans un état défini jusqu'à la mise à jour du premier RPM.

  • L'annulation est possible jusqu'à la mise à jour du premier RPM.

  • La récupération est simple en cas d'erreur.

  • « Retour à l'état initial » à l'aide des outils système ; aucune sauvegarde/restauration nécessaire.

  • Utilisation de tous les dépôts actifs.

  • La possibilité d'ignorer un Service Pack.

Important
Important : mise à niveau des clients SUSE Manager

Si le système à mettre à niveau est un client SUSE Manager, l'opération ne peut pas être effectuée par la migration en ligne YaST ni par la migration Zypper. Utilisez plutôt la procédure de migration de client. Elle est décrite dans le manuel SUSE Manager Upgrade Guide (Guide de mise à niveau de SUSE Manager), disponible à l'adresse https://documentation.suse.com/suma/.

21.2 Déroulement de la migration des Service Packs

Une migration de Service Pack peut être exécutée à l'aide des outils YaST, zypper ou AutoYaST.

Avant de pouvoir démarrer la migration d'un Service Pack, votre système doit être enregistré auprès du SUSE Customer Center ou d'un serveur SMT local. Il est également possible d'utiliser SUSE Manager.

Quelle que soit la méthode utilisée, la migration de Service Packs comporte les étapes suivantes :

  1. L'identification de cibles de migration possibles sur vos systèmes enregistrés

  2. La sélection d'une cible de migration

  3. La demande et l'activation de nouveaux dépôts

  4. L'exécution de la migration

La liste des cibles de migration dépend des produits que vous avez installés et enregistrés. Si vous avez une extension installée pour laquelle le nouveau Service Pack n'est pas encore disponible, il se peut qu'aucune cible de migration ne vous soit proposée.

La liste des cibles de migration disponibles pour votre hôte sera toujours récupérée à partir du SUSE Customer Center et dépend des produits ou des extensions installées.

21.3 Annulation de la migration d'un Service Pack

La migration d'un Service Pack peut uniquement être annulée à certains stades au cours du processus de migration :

  1. Jusqu'au démarrage de la mise à niveau du paquetage, les modifications sur le système sont minimes et concernent par exemple, les services et dépôts. Restaurez /etc/zypp/repos.d/* pour revenir à l'état précédent.

  2. Après le démarrage de la mise à niveau du paquetage, vous pouvez revenir à l'état précédent à l'aide d'un instantané Snapper (reportez-vous au Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper”).

  3. Une fois la cible de migration sélectionnée, SUSE Customer Center modifie les données du dépôt. Pour rétablir cet état manuellement, utilisez SUSEConnect--rollback.

21.4 Mise à niveau à l'aide de l'outil de migration en ligne (YaST)

Pour effectuer une migration de Service Packs à l'aide de YaST, utilisez l'outil de migration en ligne. Par défaut, YaST n'installe pas les paquetages à partir d'un dépôt tiers. Si un paquetage a été installé à partir d'un dépôt tiers, YaST empêche le remplacement des paquetages par les mêmes provenant de SUSE.

Note
Note : réduction de la taille de l'installation

Lorsque vous effectuez la migration de Service Packs, YaST installe tous les paquetages recommandés. En particulier dans le cas d'installations minimales personnalisées, cela peut augmenter considérablement la taille de l'installation sur le système.

Pour modifier ce comportement par défaut et autoriser uniquement les paquetages requis, réglez l'option solver.onlyRequires dans /etc/zypp/zypp.conf.

solver.onlyRequires = true

En outre, modifiez le fichier /etc/zypp/zypper.conf et changez l'option installRecommends.

installRecommends=false

Cette opération modifie le comportement de toutes les opérations de paquetages, telles que l'installation de correctifs ou de nouveaux paquetages.

Pour démarrer la migration de Service Packs, procédez comme suit :

  1. Désactivez toutes les extensions non utilisées sur votre serveur d'enregistrement pour éviter les futurs conflits de dépendance. Si vous oubliez une extension, YaST détectera ultérieurement les dépôts d'extension inutilisés et les désactivera.

  2. Si vous êtes connecté à une session GNOME en cours d'exécution sur la machine que vous allez mettre à jour, basculez vers une console de texte. L'exécution de la mise à jour à partir d'une session GNOME n'est pas recommandée. Notez que cela ne s'applique pas lorsque vous êtes connecté à partir d'une machine distante (sauf si vous exécutez une session VNC avec GNOME).

  3. Si vous êtes abonné à LTSS, vous devez désactiver le dépôt LTSS. Cela n'est pas possible avec YaST. Au lieu de cela, vous devez exécuter les commandes suivantes, en utilisant le numéro de version du dépôt installé :

    tux > sudo SUSEConnect -d -p SLES-LTSS/12.2/x86_64
    tux > sudo zypper ref -s

    Pour plus d'informations, reportez-vous au rapport de support « zypper migration with LTSS repo results in "No migration available" » à l'adresse https://www.suse.com/support/kb/doc/?id=7022381.

  4. Installez le paquetage yast2-migration et ses dépendances (dans YaST sousLogiciels › Gestion des logiciels).

  5. Redémarrez YaST, car dans le cas contraire, le nouveau module installé ne s'affiche pas dans SUSE Control Center.

  6. Dans YaST, choisissez la migration en ligne (selon la version de SUSE Linux Enterprise Server (SLES) que vous mettez à niveau, ce module est classé comme système ou logiciel). YaST affiche les cibles de migration possibles ainsi qu'un récapitulatif. Si plusieurs cibles de migration sont disponibles pour votre système, sélectionnez-en une dans la liste.

  7. Sélectionnez une cible de migration à partir de la liste et cliquez sur Suivant.

  8. Si l'outil de migration propose des dépôts de mise à jour, il est recommandé de cliquer sur Oui.

  9. Si l'outil de migration en ligne détecte des dépôts obsolètes provenant d'un DVD ou d'un serveur local, il est vivement recommandé de les désactiver. Les dépôts obsolètes proviennent d'un ancien Service Pack. Tous les anciens dépôts de SCC ou SMT sont automatiquement supprimés.

  10. Vérifiez le récapitulatif et procédez à la migration en cliquant sur Suivant. Confirmez en cliquant sur Start Update (Démarrer la mise à jour).

  11. Une fois la migration réussie, redémarrez votre système.

21.5 Mise à niveau avec zypper

Pour effectuer une migration de Service Packs à l'aide de Zypper, utilisez l'outil de ligne de commande zypper migration du paquetage zypper-migration-plugin.

Note
Note : réduction de la taille de l'installation

Lorsque vous effectuez la migration de Service Packs, YaST installe tous les paquetages recommandés. En particulier dans le cas d'installations minimales personnalisées, cela peut augmenter considérablement la taille de l'installation sur le système.

Pour modifier ce comportement par défaut et autoriser uniquement les paquetages requis, réglez l'option solver.onlyRequires dans /etc/zypp/zypp.conf.

solver.onlyRequires = true

En outre, modifiez le fichier /etc/zypp/zypper.conf et changez l'option installRecommends.

installRecommends=false

Cette opération modifie le comportement de toutes les opérations de paquetages, telles que l'installation de correctifs ou de nouveaux paquetages. Pour modifier le comportement de Zypper pour une seule invocation, ajoutez le paramètre --no-recommends à votre ligne de commande.

Pour démarrer la migration de Service Packs, procédez comme suit :

  1. Si vous êtes connecté à une session GNOME en cours d'exécution sur la machine que vous allez mettre à jour, basculez vers une console de texte. L'exécution de la mise à jour à partir d'une session GNOME n'est pas recommandée. Notez que cela ne s'applique pas lorsque vous êtes connecté à partir d'une machine distante (sauf si vous exécutez une session VNC avec GNOME).

  2. Enregistrez votre machine SUSE Linux Enterprise si ce n'est pas déjà fait :

    sudo SUSEConnect --regcode YOUR_REGISTRATION_CODE
  3. Si vous êtes abonné à LTSS, vous devez désactiver le dépôt LTSS. Exécutez les commandes suivantes, en utilisant le numéro de version du dépôt installé :

    tux > sudo SUSEConnect -d -p SLES-LTSS/12.2/x86_64
    tux > sudo zypper ref -s

    Pour plus d'informations, reportez-vous au rapport de support « zypper migration with LTSS repo results in "No migration available" » à l'adresse https://www.suse.com/support/kb/doc/?id=7022381.

  4. Installez les dernières mises à jour :

    sudo zypper patch
  5. Installez le paquetage zypper-migration-plugin et ses dépendances :

    sudo zypper in zypper-migration-plugin
  6. Exécutez zypper migration :

    tux > sudo zypper migration
    Executing 'zypper  patch-check'
    
    Refreshing service 'SUSE_Linux_Enterprise_Server_12_x86_64'.
    Loading repository data...
    Reading installed packages...
    0 patches needed (0 security patches)
    
    Available migrations:
    
        1 | SUSE Linux Enterprise Server 12 SP1 x86_64
        2 | SUSE Linux Enterprise Server 12 SP2 x86_64

    Quelques remarques concernant le processus de migration :

    • Si plusieurs cibles de migration sont disponibles pour votre système, Zypper vous autorise à sélectionner un Service Pack dans la liste. Cette opération revient à ignorer un ou plusieurs Service Packs. N'oubliez pas, la migration en ligne pour les produits de base (SLES, SLED) reste uniquement disponible entre les Service Packs d'une version majeure.

    • Par défaut, Zypper utilise l'option --no-allow-vendor-change transmise à zypper dup Si un paquetage a été installé à partir d'un dépôt tiers, cette option empêche le remplacement des paquetages par les mêmes provenant de SUSE.

    • Si Zypper détecte des dépôts obsolètes provenant d'un DVD ou d'un serveur local, il est vivement recommandé de les désactiver. Les anciens dépôts de SCC ou SMT sont supprimés automatiquement.

  7. Passez en revue toutes les modifications, en particulier les paquetages qui vont être supprimés. Poursuivez en saisissant y (le nombre exact de paquetages à mettre à niveau peut varier sur votre système) :

    266 packages to upgrade, 54 to downgrade, 17 new, 8 to reinstall, 5 to remove, 1 to change arch.
    Overall download size: 285.1 MiB. Already cached: 0 B  After the operation, additional 139.8 MiB will be used.
    Continue? [y/n/? shows all options] (y):

    Utilisez les touches de défilement MajPage ↑ ou MajPage ↓ dans votre shell.

  8. Une fois la migration réussie, redémarrez votre système.

21.6 Mise à niveau à l'aide de Plain Zypper

Si vous ne pouvez pas utiliser la migration YaST ou Zypper, vous pouvez toujours effectuer la migration à l'aide de Zypper brut et de certaines interactions manuelles. Pour démarrer une migration de Service Packs, procédez comme suit :

  1. Si vous êtes connecté à une session GNOME en cours d'exécution sur la machine que vous allez mettre à jour, basculez vers une console de texte. L'exécution de la mise à jour à partir d'une session GNOME n'est pas recommandée. Notez que cela ne s'applique pas lorsque vous êtes connecté à partir d'une machine distante (sauf si vous exécutez une session VNC avec GNOME).

  2. Mettez à jour les outils de gestion des paquetages avec les anciens dépôts SUSE Linux Enterprise :

    sudo zypper patch --updatestack-only
  3. Si le système a été enregistré, vous devez annuler son enregistrement :

    sudo SUSEConnect --de-register
  4. Supprimez les anciens dépôts et sources d'installation et ajustez les dépôts tiers.

  5. Ajoutez les nouvelles sources d'installation, qu'elles soient locales ou distantes (pour la marque de réservation DÉPÔT, reportez-vous à la Section 18.6, « Modèle de dépôt ») :

    sudo zypper addrepo REPOSITORY

    Vous pouvez également utiliser l'outil SMT ou SUSE Customer Center. La commande pour SUSE Linux Enterprise 12 SP1 sous x86-64 est la suivante :

    sudo SUSEConnect -p SLES/12.2/x86_64 OPTIONS

    N'oubliez pas que les mises à niveau simultanées sur plusieurs architectures ne sont pas prises en charge.

    Zypper affiche un conflit entre l'ancien et le nouveau kernel. Choisissez la solution 1 pour continuer.

    Problem: product:SLES-12.2-0.x86_64 conflicts with kernel < 4.4 provided by kernel-default-VERSION
     Solution 1: Following actions will be done:
      replacement of kernel-default-VERSION with kernel-default-VERSION
      deinstallation of kernel-default-VERSION
     Solution 2: do not install product:SLES-12.2-0.x86_64
  6. Finalisez la migration :

    sudo zypper ref -f -s
    sudo zypper dup --no-allow-vendor-change --no-recommends

    La première commande mettra à jour tous les services et dépôts. La seconde commande effectue une mise à niveau de distribution. Ici, les deux dernières options sont importantes : -no-allow-vendor-change permet de s'assurer que les RPM tiers n'écrasent pas ceux du système de base. L'option --no-recommends permet de s'assurer que les paquetages désélectionnés au cours de l'installation initiale ne sont pas ajoutés à ce stade.

21.7 Restauration de l'état initial d'un Service Pack

Si un Service Pack ne fonctionne pas pour vous, SUSE Linux Enterprise prend en charge le rétablissement de l'état qu'il avait avant le démarrage de la migration de ce Service Pack. Vous devez toutefois disposer d'une partition racine Btrfs avec des instantanés activés (il s'agit de la valeur par défaut lorsque vous installez SLES 12). Reportez-vous au Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper” pour plus d'informations.

  1. Obtenez une liste des instantanés Snapper :

    sudo snapper list

    Passez en revue la sortie pour localiser l'instantané créé juste avant le début de la migration du Service Pack. La colonne Description contient une instruction correspondante et l'instantané est marqué comme important dans la colonne Userdata. Mémorisez le numéro de l'instantané indiqué dans la colonne # ainsi que la date reprise dans la colonne Date.

  2. Redémarrez le système. Dans le menu de démarrage, sélectionnez Start boot loader from a read-only snapshot (Démarrer le chargeur de démarrage à partir d'un instantané en lecture seule), puis choisissez l'instantané avec la date et le numéro mémorisé à l'étape précédente. Un second menu de démarrage (celui de l'instantané) est chargé. Sélectionnez l'entrée commençant par SLES 12 et démarrez-la.

  3. Le système démarre en utilisant son état précédent avec la partition système montée en lecture seule. Connectez-vous en tant qu'utilisateur root et vérifiez si vous avez sélectionné l'instantané approprié. Vérifiez également que tout fonctionne comme prévu. Notez que puisque le système de fichiers root est monté en lecture seule, les fonctionnalités peuvent être limitées.

    En cas de problème ou si vous n'avez pas démarré l'instantané approprié, redémarrez et choisissez un autre instantané à partir duquel démarrer. À ce stade, aucune modification permanente n'a été effectuée. Si l'instantané est correct et fonctionne comme prévu, confirmez la modification pour la rendre définitive en exécutant la commande suivante :

    snapper rollback

    Veuillez ensuite redémarrer. Dans l'écran de démarrage, sélectionnez l'entrée de démarrage par défaut pour redémarrer sur le système rétabli.

  4. Vérifiez si la configuration du dépôt a bien été réinitialisée. En outre, vérifiez si tous les produits sont correctement enregistrés. Si l'un d'entre eux ne l'est pas, le système risque de ne plus pouvoir être mis à jour par la suite ou risque d'être mis à jour avec des dépôts de paquetage incorrects.

    Assurez-vous que le système a accès à Internet avant de démarrer cette procédure.

    1. Rafraîchissez les dépôts et les services en exécutant la commande suivante :

      sudo zypper ref -fs
    2. Obtenez une liste des dépôts actifs en exécutant la commande suivante :

      sudo zypper lr

      Vérifiez attentivement la sortie de cette commande. Aucun service ni dépôt ajoutés pour la mise à jour ne doivent être répertoriés. Si, par exemple, vous effectuez un retour à l'état initial à partir d'une migration de Service Pack de SLES 12 SP2 vers SLES 12 SP1, la liste ne doit pas contenir les dépôts SLES12-SP2-Pool ni SLES12-SP2-Updates, mais plutôt ceux des versions SP1.

      Si les dépôts répertoriés sont incorrects, supprimez-les et, si nécessaire, remplacez-les par les versions correspondant à votre version du produit ou du Service Pack. Pour obtenir la liste des dépôts et les chemins de migration pris en charge, reportez-vous à la Section 18.6, « Modèle de dépôt ».

    3. Enfin, vérifiez l'état d'enregistrement de tous les produits installés en exécutant la commande suivante :

      SUSEConnect --status

      Tous les produits doivent être signalés comme étant Enregistré. Si ce n'est pas le cas, réparez l'enregistrement en exécutant la commande

      SUSEConnect --rollback

Vous avez à présent réinitialisé le système dans l'état capturé immédiatement avant le début de la migration du Service Pack.

22 Code source du rétroportage

SUSE fait un usage intensif du rétroportage, par exemple, pour la migration des fonctions et correctifs logiciels actuels vers les paquetages publiés de SUSE Linux Enterprise. Les informations de ce chapitre expliquent en quoi comparer les numéros de version peut s'avérer trompeur dans le cadre de l'évaluation des fonctionnalités et de la sécurité des paquetages logiciels SUSE Linux Enterprise. Ce chapitre explique également comment SUSE préserve la sécurité des logiciels système et vous permet de disposer en permanence de la version la plus récente, tout en gérant la compatibilité de vos applications en plus des produits SUSE Linux Enterprise. Vous découvrirez également comment vérifier les solutions proposées réellement par le logiciel SUSE Linux Enterprise pour remédier aux problèmes de sécurité publics, ou encore comment vérifier l'état actuel de vos logiciels.

22.1 Arguments en faveur du rétroportage

Les développeurs en amont s'intéressent principalement à faire progresser le logiciel qu'ils développent. Souvent, ils combinent la correction de bogues et l'introduction de nouvelles fonctionnalités qui n'ont pas encore fait l'objet de tests poussés et qui peuvent, à leur tour, provoquer de nouveaux bogues.

Dans le cas des développeurs de distribution, il est important de faire la distinction entre :

  • les corrections de bogues avec un potentiel limité en ce qui concerne la perturbation des fonctionnalités et

  • les modifications susceptibles de perturber les fonctionnalités existantes.

D'habitude, les développeurs de distribution ne suivent pas toutes les modifications en amont lorsqu'un paquetage a intégré une distribution publiée. En règle générale, ils s'en tiennent à la version en amont qu'ils ont publiée initialement et créent des correctifs sur la base des modifications en amont afin de corriger les bogues. Cette technique est connue sous le nom de rétroportage (ou backporting en anglais).

Les développeurs de distribution ne lancent généralement une nouvelle version de logiciel que dans deux cas bien précis :

  • lorsque les modifications entre leurs paquetages et les versions en amont sont devenues à ce point importantes que le rétroportage n'est plus possible ;

  • pour les logiciels qui, par nature, vieillissent mal, comme par exemple, les logiciels de lutte contre les programmes malveillants.

SUSE fait un usage intensif du rétroportage pour qu'il soit possible de trouver un juste équilibre entre plusieurs préoccupations formulées au sujet des logiciels d'entreprise. La principale préoccupation est la suivante :

  • Disposer d'interfaces (API) stables sur lesquelles les éditeurs de logiciels peuvent compter lors de la création de produits à utiliser sur les solutions d'entreprise de SUSE.

  • S'assurer que les paquetages utilisés dans la version des produits d'entreprise de SUSE présentent une qualité optimale et ont fait l'objet de tests intensifs, tant en interne que dans le cadre du produit d'entreprise dans son intégralité.

  • Gérer les différentes certifications des produits d'entreprise de SUSE par d'autres éditeurs, telles que les certifications pour les produits Oracle ou SAP.

  • Permettre aux développeurs de SUSE de s'atteler au développement d'une nouvelle version du produit qui soit aussi bonne que possible, plutôt que de se disperser sur un grand nombre de versions.

  • Assurer un suivi clair de ce que contient une version d'entreprise particulière, de manière à ce que notre service de support puisse fournir des informations précises et opportunes.

22.2 Arguments contre le rétroportage

En règle générale, aucune nouvelle version en amont d'un paquetage n'est introduite dans nos produits d'entreprise. Il ne s'agit toutefois pas d'une règle absolue. Pour certains paquetages (notamment pour les logiciels anti-virus), les problèmes de sécurité pèsent davantage que l'approche conservatrice qui est préférable sur le plan de l'assurance qualité. Dans ce cas de figure, il arrive que des versions plus récentes soient introduites dans une version publiée d'une gamme de produits d'entreprise.

Pour d'autres types de paquetages, il arrive également que l'on opte pour l'introduction d'une nouvelle version plutôt que de recourir au rétroportage. On fait appel à cette méthode lorsque la génération d'un « backport » n'est pas possible d'un point de vue économique ou lorsque l'introduction d'une nouvelle version se justifie pleinement sur le plan technique.

22.3 Implications du rétroportage sur l'interprétation des numéros de version

En raison de la pratique du rétroportage, il est tout simplement impossible de comparer des numéros de version pour déterminer si un paquetage SUSE contient un correctif pour un problème spécifique ou si une fonctionnalité donnée y a été ajoutée. Avec le rétroportage, la partie en amont du numéro de version d'un paquetage SUSE indique simplement la version en amont sur laquelle il est basé. Le paquetage peut contenir des correctifs de bogue et des fonctionnalités qui ne figurent pas dans la version en amont correspondante, mais qui ont fait l'objet d'un rétroportage.

Lorsque le rétroportage est appliqué, cette valeur limitée de numéros de version peut occasionner des problèmes au niveau des outils d'analyse de la sécurité. Certains outils de recherche des vulnérabilités en matière de sécurité (ou des tests spécifiques réalisés par ces outils) opèrent uniquement sur les informations de version. Ces outils et tests ont donc tendance à générer des « faux positifs » (lorsqu'un logiciel est faussement identifié comme vulnérable) en cas de rétroportage. Lors de l'évaluation des rapports issus d'outils d'analyse de sécurité, vérifiez toujours si une entrée est basée sur un numéro de version ou sur un test de vulnérabilité réel.

22.4 Comment vérifier les bogues qui ont été corrigés et les fonctionnalités qui ont fait l'objet d'un rétroportage et qui sont disponibles ?

Les informations relatives aux correctifs et fonctionnalités ayant fait l'objet d'un rétroportage sont stockées à plusieurs emplacements :

  • Journal des modifications du paquetage :

    rpm -q --changelog name-of-installed-package
    rpm -qp --changelog packagefile.rpm

    La sortie documente brièvement l'historique des modifications du paquetage.

  • Le journal des modifications du paquetage peut contenir des entrées telles que bsc#1234 (« Bugzilla SUSE.C.om ») qui font référence à des bogues sur le système de suivi SUSE Bugzilla ou des liens vers d'autres systèmes de suivi. Il se peut que vous ne puissiez pas accéder à l'ensemble de ces informations en raison des politiques de confidentialité en vigueur.

  • Un paquetage peut comporter un fichier /usr/share/doc/NOM_PAQUETAGE/README.SUSE contenant des informations générales et de haut niveau spécifiques au paquetage SUSE.

  • Le paquetage source RPM contient les correctifs qui ont été appliqués lors de la création des RPM binaires ordinaires sous la forme de fichiers distincts qu'il est possible d'interpréter si vous êtes rompu à la lecture de code source. Reportez-vous au Book “Administration Guide”, Chapter 6 “Managing Software with Command Line Tools”, Section 6.1.2.5 “Installing or Downloading Source Packages” pour installer des sources de logiciels SUSE Linux Enterprise, consultez le Book “Administration Guide”, Chapter 6 “Managing Software with Command Line Tools”, Section 6.2.5 “Installing and Compiling Source Packages” pour créer des paquetages sur SUSE Linux Enterprise et consultez le site Maximum RPM (RPM maximum) pour connaître le fonctionnement interne des versions des paquetages SUSE Linux Enterprise.

  • Pour les correctifs des bogues de sécurité, consultez les annonces de sécurité de SUSE. Les bogues sont généralement désignés par des noms standard, tels que CAN-2005-2495, dont la gestion est assurée dans le cadre du projet CVE (Common Vulnerabilities and Exposures).