Indique comment installer un ou plusieurs systèmes et exploiter les fonctionnalités inhérentes au produit pour une infrastructure de déploiement. Vous pouvez choisir entre différentes approches qui vont d'une installation locale ou d'un serveur d'installation réseau au déploiement en masse à l'aide d'une technique d'installation automatisée, commandée à distance et hautement personnalisée.
- À propos de ce guide
- 1 Planification pour SUSE Linux Enterprise Server
- I Préparation de l'installation
- II Workflow d'installation
- 6 Installation avec YaST
- 6.1 Choix de la méthode d'installation
- 6.2 Démarrage du système pour l'installation
- 6.3 Étapes de l'installation
- 6.4 Mise à jour automatique du programme d'installation
- 6.5 Langue, clavier et accord de licence
- 6.6 IBM Z : activation du disque
- 6.7 Paramètres réseau
- 6.8 Enregistrement auprès du SUSE Customer Center
- 6.9 Sélection d'extensions
- 6.10 Rôle système
- 6.11 Partitionnement proposé
- 6.12 Horloge et fuseau horaire
- 6.13 Création d'un utilisateur
- 6.14 Mot de passe de l'administrateur système
root
- 6.15 Paramètres d'installation
- 6.16 Réalisation de l'installation
- 7 Clonage d'images de disque
- 6 Installation avec YaST
- III Configuration d'un serveur d'installation
- 8 Configuration du serveur qui contient les sources d'installation
- 9 Préparation du démarrage du système cible
- 9.1 Configuration d'un serveur DHCP
- 9.2 Configuration d'un serveur TFTP
- 9.3 Installation des fichiers sur le serveur TFTP
- 9.4 Options de configuration PXELINUX
- 9.5 Préparation du système cible pour le démarrage PXE
- 9.6 Préparation du système cible pour la fonction Wake on LAN (réveil à distance)
- 9.7 Wake on LAN
- 9.8 Wake on LAN (réveil à distance) avec YaST
- 9.9 Démarrage à partir du CD ou d'une clé USB au lieu de PXE
- IV Installation à distance
- V Configuration initiale du système
- 11 Configuration des composants matériels avec YaST
- 12 Configuration avancée des disques
- 13 Installation et suppression de logiciels
- 14 Installation de modules, extensions et produits complémentaires tiers
- 15 Installation de plusieurs versions du kernel
- 16 Gestion des utilisateurs avec YaST
- 16.1 Boîte de dialogue Gestion des utilisateurs et des groupes
- 16.2 Gestion des comptes utilisateur
- 16.3 Options supplémentaires des comptes utilisateur
- 16.4 Modification des paramètres par défaut des utilisateurs locaux
- 16.5 Affectation des utilisateurs à des groupes
- 16.6 Gestion des groupes
- 16.7 Modification de la méthode d'authentification des utilisateurs
- 17 Modification des paramètres de langue et de pays avec YaST
- VI Mise à jour et mise à niveau de SUSE Linux Enterprise
- 18 Cycle de vie et support
- 19 Mise à niveau de SUSE Linux Enterprise
- 20 Mise à niveau en mode hors ligne
- 20.1 Présentation conceptuelle
- 20.2 Démarrage de la mise à niveau à partir d'un support d'installation
- 20.3 Démarrage de la mise à niveau à partir d'une source réseau
- 20.4 Activation de la mise à niveau automatique
- 20.5 Mise à niveau de SUSE Linux Enterprise
- 20.6 Mise à jour via SUSE Manager
- 20.7 Mise à jour de l'état d'enregistrement après un retour à l'état initial
- 20.8 Enregistrement de votre système
- 21 Mise à niveau en ligne
- 21.1 Présentation conceptuelle
- 21.2 Déroulement de la migration des Service Packs
- 21.3 Annulation de la migration d'un Service Pack
- 21.4 Mise à niveau à l'aide de l'outil de migration en ligne (YaST)
- 21.5 Mise à niveau avec zypper
- 21.6 Mise à niveau à l'aide de Plain Zypper
- 21.7 Restauration de l'état initial d'un Service Pack
- 22 Code source du rétroportage
- A GNU licenses
- 6.1 Écran de démarrage sur les ordinateurs équipés d'un BIOS traditionnel
- 6.2 Écran de démarrage sur les machines équipées de l'interface EUFI
- 6.3 Langue, clavier et accord de licence
- 6.4 Activation du disque
- 6.5 IBM Z : sélection d'un DASD
- 6.6 Paramètres réseau
- 6.7 Enregistrement auprès du SUSE Customer Center
- 6.8 Sélection d'extensions
- 6.9 Produit complémentaire
- 6.10 Sélection d'un rôle système
- 6.11 Partitioning (Partitionnement)
- 6.12 Horloge et fuseau horaire
- 6.13 Création d'un utilisateur
- 6.14 Mot de passe de l'administrateur système
root
- 6.15 Paramètres d'installation
- 6.16 Tâches système et sélection de logiciels
- 6.17 Importation des clés d'hôte SSH et de la configuration
- 12.1 Outil de partitionnement de YaST
- 12.2 Sous-volumes Btrfs dans le partitionneur YaST
- 12.3 Création d'un groupe de volumes
- 12.4 Gestion des volumes logiques
- 12.5 Partitions RAID
- 13.1 Gestion d'un conflit dans le gestionnaire de logiciels
- 13.2 Ajout d'un dépôt de logiciels
- 13.3 Notification de mise à jour sur l'écran de verrouillage de GNOME
- 13.4 Notification de mise à jour sur le bureau de GNOME
- 13.5 Visionneuse de mise à jour de GNOME
- 14.1 Installation des extensions de système
- 14.2 Liste des produits complémentaires, modules et extensions installés
- 14.3 Installation d'un produit complémentaire ou d'une extension
- 15.1 Gestionnaire de logiciels : affichage multiversion
- 16.1 Gestion des utilisateurs et des groupes YaST
- 18.1 Versions majeures et Service Packs
- 18.2 Support à long terme au niveau des service packs
- 19.1 Aperçu des chemins de mise à niveau pris en charge
- 4.1 Configuration d'un répertoire z/VM
- 4.2 Exemple de fichier XML de domaine
- 4.3 Transfert de fichiers binaires via le serveur FTP
- 4.4 SLES12 EXEC
- 4.5 Types de connexion réseau pris en charge et paramètres des pilotes
- 4.6 Paramètres du pilote de périphérique réseau
- 4.7 Paramètres réseau
- 4.8 Fichier parmfile pour une installation à partir de NFS avec VNC et AutoYaST
- 4.9 Fichier parmfile pour une installation avec NFS, SSH et HSI et AutoYaST avec NFS
- 6.1
regcodes.txt
- 6.2
regcodes.xml
- 19.1 List with
df -h
Copyright © 2006– 2024 SUSE LLC et contributeurs. Tous droits réservés.
Il est autorisé de copier, distribuer et/ou modifier ce document conformément aux conditions de la licence de documentation libre GNU version 1.2 ou (à votre discrétion) 1.3, avec la section permanente qu'est cette mention de copyright et la licence. Une copie de la version de licence 1.2 est incluse dans la section intitulée « Licence de documentation libre GNU ».
Pour les marques commerciales SUSE, consultez le site Web http://www.suse.com/company/legal/. Toutes les autres marques de fabricants tiers sont la propriété de leur détenteur respectif. Les symboles de marque commerciale (®,™, etc.) indiquent des marques commerciales de SUSE et de ses filiales. Des astérisques (*) désignent des marques commerciales de fabricants tiers.
Toutes les informations de cet ouvrage ont été regroupées avec le plus grand soin. Cela ne garantit cependant pas sa complète exactitude. Ni SUSE LLC, ni les sociétés affiliées, ni les auteurs, ni les traducteurs ne peuvent être tenus responsables des erreurs possibles ou des conséquences qu'elles peuvent entraîner.
À propos de ce guide #
Il existe plusieurs façons d'installer SUSE Linux Enterprise Server. Il est impossible d'évoquer toutes les combinaisons de démarrage, du serveur d'installation, d'installations automatisées ou de déploiement d'images. Ce manuel doit vous aider à choisir la méthode la plus appropriée pour déployer votre installation.
- Partie I, « Préparation de l'installation »
Les instructions de déploiement standard diffèrent selon l'architecture utilisée. Pour connaître les différences et les conditions relatives à l'architecture, reportez-vous à cette section.
- Partie II, « Workflow d'installation »
La plupart des tâches requises au cours des installations sont décrites ici. Il est notamment question de la configuration manuelle de votre ordinateur et de l'installation de logiciels supplémentaires.
- Partie III, « Configuration d'un serveur d'installation »
SUSE® Linux Enterprise Server peut être installé de différentes manières. Outre l'installation classique à partir d'un support, vous avez le choix entre plusieurs approches réseau. Cette section décrit la procédure de configuration d'un serveur d'installation et la préparation du démarrage du système cible pour l'installation.
- Partie IV, « Installation à distance »
Cette section présente les scénarios d'installation à distance les plus courants. Tandis que certaines nécessitent une intervention de l'utilisateur ou un certain degré d'accès physique au système cible, d'autres sont totalement automatisées et ne requièrent aucune intervention. Découvrez quelle approche convient le mieux à votre scénario.
- Partie V, « Configuration initiale du système »
Apprenez à configurer votre système après l'installation. Cette section traite des tâches courantes telles que la configuration des composants matériels, l'installation ou la suppression de logiciels, la gestion des utilisateurs ou la modification des paramètres avec YaST.
- Partie VI, « Mise à jour et mise à niveau de SUSE Linux Enterprise »
Cette section fournit des informations générales sur la terminologie, les versions de Service Pack et les cycles de vie des produits SUSE, ainsi que sur les stratégies de mise à niveau recommandées.
1 Exigences requises #
Pour que ces instructions restent gérables, certaines hypothèses techniques ont été faites:
avoir une certaine expérience en matière informatique et connaître le vocabulaire technique de base ;
connaître la documentation de votre système et le réseau sur lequel il s'exécute ;
avoir une connaissance de base des systèmes Linux.
2 Documentation disponible #
La documentation relative à nos produits est disponible à la page https://documentation.suse.com/, où vous pouvez également rechercher les dernières mises à jour et parcourir ou télécharger la documentation dans différents formats.
En outre, la documentation sur le produit est généralement disponible dans votre système sous /usr/share/doc/manual
.
La documentation suivante est disponible pour ce produit :
- Article “Démarrage rapide de l'installation”
Répertorie les configurations système requises et indique comment installer SUSE Linux Enterprise Server depuis un DVD ou une image ISO.
- Book “Guide de déploiement”
Indique comment installer un ou plusieurs systèmes et exploiter les fonctionnalités inhérentes au produit pour une infrastructure de déploiement. Vous pouvez choisir entre différentes approches qui vont d'une installation locale ou d'un serveur d'installation réseau au déploiement en masse à l'aide d'une technique d'installation automatisée, commandée à distance et hautement personnalisée.
- Book “Administration Guide”
Présente les tâches d'administration système telles que la maintenance, la surveillance et la personnalisation d'un système initialement installé.
- Book “Virtualization Guide”
Décrit la technologie de virtualisation dans les grandes lignes et présente libvirt, l'interface unifiée de virtualisation, ainsi que des informations détaillées sur des hyperviseurs spécifiques.
- Book “Storage Administration Guide”
Fournit des informations à propos de la gestion des périphériques de stockage sous SUSE Linux Enterprise Server.
- Book “AutoYaST”
AutoYaST est un système pour le déploiement de masse sans surveillance des systèmes SUSE Linux Enterprise Server (SLES) utilisant un profil AutoYaST contenant les données d'installation et de configuration. Ce manuel vous guide pendant les étapes de base de l'installation automatique : préparation, installation et configuration.
- Book “Security and Hardening Guide”
Présente les concepts de base de la sécurité système, couvrant les aspects de la sécurité locale et réseau. Explique comment utiliser les logiciels de sécurité inhérents au produit, tels que AppArmor ou le système d'audit qui collecte, de manière fiable, des informations sur tout événement ayant trait à la sécurité.
- Book “Hardening Guide”
Traite en détail des procédures d'installation et de configuration d'une solution SUSE Linux Enterprise Server sécurisée, ainsi que des autres processus nécessaires après l'installation pour renforcer la sécurité de cette installation. Assiste l'administrateur dans les choix et décisions en matière de sécurité.
- Book “System Analysis and Tuning Guide”
Guide d'administrateur pour la détection, la résolution des problèmes et l'optimisation du système. Indique comment inspecter et optimiser votre système à l'aide d'outils de surveillance et comment gérer efficacement les ressources. Contient également un aperçu des problèmes courants et de leurs solutions, de l'aide supplémentaire et des ressources de documentation.
- Book “Subscription Management Tool Guide”
Guide de l'administrateur pour l'outil de gestion des abonnements, un système proxy pour SUSE Customer Center avec des cibles de dépôt et d'enregistrement. Découvrez comment installer et configurer un serveur SMT local, mettre en miroir et gérer les dépôts, gérer les machines clientes et configurer des clients pour utiliser SMT.
- Book “GNOME User Guide”
Présente le bureau GNOME de SUSE Linux Enterprise Server. Ce manuel vous guide tout au long de l'utilisation et de la configuration du bureau, et vous aide à réaliser des tâches essentielles. Il s'adresse essentiellement aux utilisateurs finaux qui souhaitent utiliser efficacement GNOME comme bureau par défaut.
3 Commentaires #
Pour soumettre vos commentaires, vous disposez de plusieurs options :
- Bogues et demandes d'amélioration
Pour connaître les services et les options de support disponibles pour votre produit, visitez le site http://www.suse.com/support/.
L'aide sur openSUSE est fournie par la communauté. Reportez-vous au site https://en.opensuse.org/Portal:Support pour plus d'informations.
Pour signaler les bogues relatifs à un composant produit, rendez-vous sur le site https://scc.suse.com/support/requests, connectez-vous et cliquez sur .
- Commentaires utilisateur
Nous sommes à l'écoute de vos commentaires et suggestions concernant ce manuel et les autres documentations fournies avec ce produit. Utilisez le lien « Report Bug » (Signaler un bogue) à côté de chaque titre pour fournir des commentaires via SUSE Bugzilla.
- Messagerie
Pour formuler des commentaires sur la documentation de ce produit, vous pouvez également envoyer un message électronique à l'adresse
doc-team@suse.com
. Veillez à inclure le titre du document, la version du produit et la date de publication de la documentation. Pour signaler des erreurs ou proposer des améliorations, veuillez fournir une brève description du problème et mentionner le numéro de section et la page (ou URL) correspondants.
4 Conventions relatives à la documentation #
Les conventions typographiques et mentions suivantes sont utilisées dans cette documentation :
/etc/passwd
: noms de répertoires et de fichiersMARQUE_RÉSERVATION: l'élément MARQUE_RÉSERVATION doit être remplacé par la valeur réelle
PATH
: variable d'environnement PATHls
,--help
: commandes, options et paramètresuser
: utilisateurs ou groupesnom_paquetage : nom d'un paquetage
Alt, Alt–F1 : touche ou combinaison de touches sur lesquelles appuyer ; les touches apparaissent en majuscules comme sur un clavier
AMD/Intel Ce paragraphe concerne uniquement l'architecture AMD64/Intel 64. Les flèches marquent le début et la fin du bloc de texte.
IBM Z, POWER Ce paragraphe ne s'applique qu'aux architectures IBM
Z
etPOWER
. Les flèches marquent le début et la fin du bloc de texte.Pingouins qui dansent (chapitre Pingouins, ↑Autre manuel) : référence au chapitre d'un autre manuel.
Commandes à exécuter avec les privilèges
root
. Souvent, vous pouvez également leur ajouter en préfixe la commandesudo
pour les exécuter sans privilèges.root #
command
tux >
sudo command
Commandes pouvant être exécutées par des utilisateurs non privilégiés.
tux >
command
Avis
Avertissement : note d'avertissementInformation essentielle dont vous devez prendre connaissance avant de continuer. Met en garde contre des problèmes de sécurité ou des risques de perte de données, de détérioration matérielle ou de blessure physique.
Important : note importanteInformation importante dont vous devez prendre connaissance avant de continuer.
Note : note de remarqueInformation supplémentaire, par exemple sur les différences dans les versions des logiciels.
Astuce : note indiquant une astuceInformation utile, telle qu'un conseil ou un renseignement pratique.
1 Planification pour SUSE Linux Enterprise Server #
1.1 Considérations relatives au déploiement d'un serveur SUSE Linux Enterprise Server #
La mise en œuvre d'un système d'exploitation est une opération qui doit être préparée avec soin, qu'elle se produise dans un environnement informatique existant ou créé de toutes pièces. Au début de la phase de planification, vous devez tenter de définir les objectifs du projet et les fonctions requises. Cette étape doit être répétée pour chaque projet. Vous devrez chaque fois répondre aux questions suivantes :
Combien d'installations va-t-il falloir effectuer ? Les méthodes de déploiement les mieux adaptées varient en fonction de cette réponse.
Le système sera-t-il exécuté en tant qu'hôte physique ou en tant que machine virtuelle ?
Le système se situera-t-il dans un environnement hostile ? Pour obtenir une vue d'ensemble des conséquences possibles, reportez-vous au Book “Security and Hardening Guide”, Chapter 1 “Security and Confidentiality”.
Comment allez-vous obtenir les mises à jour régulières ? Tous les correctifs sont fournis en ligne pour les utilisateurs enregistrés. Pour l'enregistrement et les correctifs, reportez-vous à la base de données de l'assistance technique (http://download.suse.com/).
Avez-vous besoin d'aide pour votre installation locale ? SUSE propose des formations, une assistance technique et des services de conseil pour tout ce qui a trait à SUSE Linux Enterprise Server. Pour plus d'informations, reportez-vous au site https://www.suse.com/products/server/.
Avez-vous besoin de produits tiers ? Vérifiez que le produit requis est également pris en charge par la plate-forme choisie. SUSE peut vous aider à prendre en charge des logiciels sur d'autres plates-formes, au besoin.
1.2 Déploiement de SUSE Linux Enterprise Server #
Pour garantir le parfait fonctionnement de votre système, essayez d'utiliser systématiquement un matériel certifié. Le processus de certification du matériel est continuel. La base de données des matériels certifiés est régulièrement mise à jour. Vous trouverez le formulaire de recherche des matériels certifiés à la page http://www.suse.com/yessearch/Search.jsp.
En fonction du nombre d'installations souhaitées, il peut être avantageux de recourir à des serveurs d'installation, voire de complètement automatiser les installations. Avec les technologies de virtualisation Xen ou KVM, il est conseillé d'envisager le recours aux systèmes de fichiers racines réseau ou aux solutions de stockage réseau (iSCSI, par exemple).
SUSE Linux Enterprise Server vous propose tout un éventail de services. Pour obtenir la vue d'ensemble des informations documentées dans le présent ouvrage, reportez-vous au Book “Administration Guide”, Preface “About This Guide”. La plupart des configurations requises peuvent être réalisées avec YaST, l'utilitaire de configuration de SUSE. En outre, de nombreuses configurations manuelles sont décrites dans les sections correspondantes.
En plus de l'installation logicielle de base, il est conseillé d'étudier la possibilité de former les utilisateurs finals des systèmes, ainsi que le personnel de votre service d'assistance.
1.3 Exécution de SUSE Linux Enterprise Server #
Le système d'exploitation de SUSE Linux Enterprise Server est stable et éprouvé. Malheureusement, cela n'empêche pas les pannes matérielles ou autres, qui risquent de bloquer le système ou de faire perdre des données. Pour toute tâche informatique sérieuse présentant des risques de perte de données, il est vivement recommandé de procéder à une sauvegarde régulière.
Pour une sécurité optimale, notamment en ce qui concerne les données, vous devez régulièrement effectuer des mises à jour de toutes les machines utilisées. Si vous avez un serveur d'importance stratégique, vous devez exécuter une seconde machine identique (pré-production) qui permet de tester toutes les modifications. De plus, vous aurez également la possibilité de changer de machine en cas de panne matérielle.
1.4 Enregistrement de SUSE Linux Enterprise Server #
Pour obtenir un support technique et les mises à jour des produits, vous devez enregistrer et activer vos produits SUSE auprès du SUSE Customer Center. Nous vous recommandons de vous enregistrer pendant l'installation, car cela vous permettra d'installer le système avec les mises à jour et les correctifs les plus récents. Toutefois, si vous êtes hors ligne ou que vous souhaitez ignorer l'étape d'enregistrement, vous pouvez vous enregistrer à tout moment ultérieurement sur le système installé.
Si votre entreprise ne fournit pas de serveur d'enregistrement local, l'inscription de SUSE Linux nécessite un compte SUSE Si vous ne disposez pas encore de compte SUSE, rendez-vous sur la page d'accueil du SUSE Customer Center (https://scc.suse.com/) pour en créer un.
Pendant l'installation, il vous sera demandé d'entrer votre code d'enregistrement. Pour plus de détails, reportez-vous à la Section 6.8, « Enregistrement auprès du SUSE Customer Center ».
Si vous déployez vos instances automatiquement à l'aide d'AutoYaST, vous pouvez enregistrer le système pendant l'installation en fournissant les informations correspondantes dans le fichier de contrôle AutoYaST. Pour plus de détails, reportez-vous au Book “AutoYaST”, Chapter 4 “Configuration and Installation Options”, Section 4.3 “System Registration and Extension Selection”.
Pour l'enregistrement d'un système déjà installé, reportez-vous à la Section 13.2, « Enregistrement d'un système installé ».
Partie I Préparation de l'installation #
- 2 Installation sur AMD64 et Intel 64
Ce chapitre décrit les étapes nécessaires pour préparer l'installation de SUSE Linux Enterprise Server sur des ordinateurs AMD64 et Intel 64. Cette section présente les étapes nécessaires pour préparer les différentes méthodes d'installation. La liste des configurations matérielles requises donne un aperçu des systèmes pris en charge par SUSE Linux Enterprise Server. Vous trouverez ici des informations sur les méthodes d'installation possibles et sur plusieurs problèmes connus fréquents. Vous apprendrez également comment contrôler l'installation, fournir des supports d'installation et démarrer par les méthodes habituelles.
- 3 Installation sur IBM POWER
Ce chapitre décrit la procédure pour préparer l'installation de SUSE® Linux Enterprise Server sur les systèmes IBM POWER.
- 4 Installation sur IBM Z
Ce chapitre décrit la procédure pour préparer l'installation de SUSE® Linux Enterprise Server sur les systèmes IBM Z. Il fournit toutes les informations nécessaires pour préparer l'installation du côté LPAR et z/VM.
- 5 Installation sur ARM AArch64
Ce chapitre décrit les étapes nécessaires pour préparer l'installation de SUSE Linux Enterprise Server sur des ordinateurs ARM AArch64. Cette section présente les étapes nécessaires pour préparer les différentes méthodes d'installation. La liste des configurations matérielles requises donne un aperçu des systèmes pris en charge par SUSE Linux Enterprise Server. Vous trouverez ici des informations sur les méthodes d'installation possibles et sur plusieurs problèmes connus fréquents. Vous apprendrez également comment contrôler l'installation, fournir des supports d'installation et démarrer par les méthodes habituelles.
2 Installation sur AMD64 et Intel 64 #
Ce chapitre décrit les étapes nécessaires pour préparer l'installation de SUSE Linux Enterprise Server sur des ordinateurs AMD64 et Intel 64. Cette section présente les étapes nécessaires pour préparer les différentes méthodes d'installation. La liste des configurations matérielles requises donne un aperçu des systèmes pris en charge par SUSE Linux Enterprise Server. Vous trouverez ici des informations sur les méthodes d'installation possibles et sur plusieurs problèmes connus fréquents. Vous apprendrez également comment contrôler l'installation, fournir des supports d'installation et démarrer par les méthodes habituelles.
2.1 Configuration système pour Linux #
Le système d'exploitation SUSE® Linux Enterprise Server peut être déployé sur une vaste gamme d'équipements matériels. Il est impossible de répertorier toutes les combinaisons de supports SUSE Linux Enterprise Server matériels. Cependant, vous trouverez ci-dessous des informations sur la configuration minimale requise pour vous aider lors de la phase de planification.
Pour garantir le bon fonctionnement d'une configuration d'ordinateur donnée, recherchez les plates-formes certifiées par SUSE. Pour consulter la liste, consultez le site https://www.suse.com/yessearch/.
2.1.1 Matériel pour Intel 64 et AMD64 #
Les architectures Intel 64 et AMD64 permettent une migration simple des logiciels x86 vers leur version 64 bits. Tout comme l'architecture x86, elles représentent une alternative rentable.
- UC
Toutes les unités centrales disponibles sur le marché à ce jour sont prises en charge.
- Nombre maximum d'unités centrales
Le nombre maximal d'UC prises en charge de par la conception du logiciel est de 8 192 pour Intel 64 et AMD64. Si vous avez l'intention d'utiliser un système de cette capacité, vérifiez sur notre page Web (https://www.suse.com/yessearch/) que les périphériques sont conformes à la certification système du matériel.
- Configuration requise pour la mémoire
Un minimum de 512 Mo de mémoire est requis pour une installation minimale. Cependant, la configuration système minimale recommandée est de 1024 ou de 512 Mo par unité centrale sur les ordinateurs multiprocesseurs. Ajoutez 150 Mo pour une installation à distance via HTTP ou FTP. Notez que ces valeurs ne sont valables que pour l'installation du système d'exploitation. La quantité de mémoire réelle en production dépend de la charge de travail système.
- Configuration requise pour le disque dur
La configuration requise pour le disque dépend en grande partie de l'installation sélectionnée et de votre utilisation de la machine. La configuration minimale des différents éléments est la suivante :
Système
Configuration requise pour le disque dur
Minimum
800 Mo - 1 Go
Interface X Window System minimale
1,4 Go
Bureau GNOME
3,5 Go
Tous les modèles
8,5 Go
Utilisation d'instantanés pour la virtualisation
min. 8 Go
- Méthodes de démarrage
L'ordinateur peut être démarré depuis un CD ou un réseau. Un serveur de démarrage spécifique est requis pour un démarrage sur le réseau. Il peut également être configuré avec SUSE Linux Enterprise Server.
2.2 Considérations relatives à l'installation #
Cette section aborde plusieurs facteurs à prendre en compte avant d'installer SUSE Linux Enterprise Server sur un matériel AMD64 et Intel 64.
2.2.1 Type d'installation #
SUSE Linux Enterprise Server est normalement installé en tant que système d'exploitation indépendant. Depuis l'introduction de la virtualisation, il est également possible d'exécuter plusieurs instances de SUSE Linux Enterprise Server sur le même matériel. Toutefois, l'installation du serveur hôte de machine virtuelle s'effectue comme une installation classique en y ajoutant des paquetages supplémentaires. L'installation des invités virtuels est décrite dans le Book “Virtualization Guide”, Chapter 9 “Guest Installation”.
2.2.2 Méthodes de démarrage #
Selon le matériel utilisé, les méthodes de démarrage suivantes sont disponibles pour la première procédure de démarrage (avant l'installation de SUSE Linux Enterprise Server).
Option de démarrage |
Utilisation |
---|---|
Un lecteur de CD ou de DVD |
Il s'agit de la méthode de démarrage la plus simple. Le système requiert un lecteur de CD ou de DVD disponible en local. |
Disques flash |
Les images requises pour créer des disques de démarrage se trouvent sur le premier CD ou DVD dans le répertoire |
PXE ou bootp |
Doit être pris en charge par le BIOS ou le microprogramme du système utilisé. Cette option nécessite qu'un serveur de démarrage soit installé sur le réseau. Cette tâche peut être assurée par un serveur SLES distinct. |
Disque dur |
SUSE Linux Enterprise Server peut également être lancé à partir d'un disque dur. Pour ce faire, copiez le kernel ( |
2.2.3 Source d'installation #
Lors de l'installation de SUSE Linux Enterprise Server, les données d'installation effectives doivent être accessibles sur le réseau, sur une partition du disque dur ou sur un DVD local. Pour effectuer une installation depuis le réseau, vous avez besoin d'un serveur d'installation. Pour mettre les données d'installation à disposition, configurez un ordinateur dans un environnement Unix ou Linux en tant que serveur NFS, HTTP, SMB ou FTP. Pour rendre les données d'installation disponibles depuis un ordinateur Windows, libérez les données avec SMB.
La source d'installation est particulièrement facile à sélectionner si vous configurez un serveur SLP sur le réseau local. Pour plus d'informations, reportez-vous au Chapitre 8, Configuration du serveur qui contient les sources d'installation.
2.2.4 Cible d'installation #
La plupart des installations sont effectuées sur un disque dur local. Par conséquent, il est nécessaire que les contrôleurs du disque dur soient accessibles au système d'installation. Si un contrôleur spécifique (comme un contrôleur RAID) requiert un module de kernel supplémentaire, fournissez un disque de mise à jour du module de kernel au système d'installation.
Tous les types de périphériques de bloc peuvent servir de cibles d'installation, à condition qu'ils offrent un espace disque et une vitesse suffisants pour exécuter un système d'exploitation. Il peut s'agir de périphériques de bloc réseau comme iSCSI
ou SAN
. Il est également possible d'effectuer des installations sur des systèmes de fichiers réseau offrant des autorisations Unix standard. Cependant, il peut être difficile de démarrer ces systèmes de fichiers, qui doivent être pris en charge par initramfs
avant que le système ne démarre. Ce type d'installation peut être utile lorsque vous devez démarrer le même système à des endroits différents ou que vous prévoyez d'utiliser des fonctionnalités de virtualisation telles que la migration de domaine.
2.2.5 Autres méthodes d'installation #
SUSE Linux Enterprise Server propose plusieurs méthodes de contrôle de l'installation :
Installation sur la console
Installation avec une console série
Installation avec AutoYaST
Installation avec des images KIWI
Installation avec SSH
Installation avec VNC
Par défaut, la console graphique est utilisée. Si vous devez installer un grand nombre d'ordinateurs similaires, il est recommandé de créer un fichier de configuration AutoYaST ou une image KIWI préchargée et de le/la rendre accessible au processus d'installation. Reportez-vous également à la documentation d'AutoYaST sur le site Book “AutoYaST” et de KIWI
à l'adresse http://doc.opensuse.org/projects/kiwi/doc/.
2.3 Support de démarrage et d'installation #
Lors de l'installation du système, le support de démarrage peut être différent du support d'installation du système. Toutes les combinaisons de supports pris en charge pour le démarrage et l'installation peuvent être utilisées.
2.3.1 Support de démarrage #
Le démarrage d'un ordinateur dépend des performances du matériel utilisé et de la disponibilité du support pour l'option de démarrage correspondante.
- Démarrage à partir d'un DVD
Il s'agit de la méthode la plus courante pour démarrer un système. Très simple pour la plupart des utilisateurs d'ordinateurs, elle requiert néanmoins un grand nombre d'interactions pour chaque processus d'installation.
- Démarrage à partir d'un disque dur USB
En fonction du matériel utilisé, il est possible de démarrer le système à partir d'un disque dur USB. Le support correspondant doit être créé en suivant la procédure décrite à la Section 6.2.2, « PC (AMD64/Intel 64/ARM AArch64) : démarrage du système ».
- Démarrage à partir d'un réseau
Vous ne pouvez démarrer un ordinateur directement depuis le réseau que s'il est pris en charge par le BIOS ou le microprogramme de l'ordinateur. Cette méthode de démarrage nécessite qu'un serveur de démarrage fournisse les images de démarrage requises sur le réseau. Le protocole exact dépend de votre matériel. Plusieurs services, tels que TFTP et DHCP ou le démarrage PXE, sont généralement nécessaires. Si vous avez besoin d'un serveur de démarrage, consultez également la Section 10.1.3, « Installation à distance via VNC : démarrage PXE et fonction Wake on LAN (réveil à distance) ».
2.3.2 Support d'installation #
Le support d'installation contient tous les paquetages et méta-informations nécessaires pour installer une instance SUSE Linux Enterprise Server. Le système d'installation doit pouvoir y accéder après le démarrage en vue de l'installation. SUSE Linux Enterprise Server permet de fournir le support d'installation au système de différentes manières.
- Installation à partir d'un DVD
Toutes les données nécessaires sont fournies sur le support de démarrage. En fonction de l'installation sélectionnée, une connexion réseau ou des supports supplémentaires peuvent être nécessaires.
- Installation réseau
Si vous envisagez d'installer plusieurs systèmes, il est plus facile de fournir les supports d'installation via le réseau. Il est possible d'effectuer l'installation via plusieurs protocoles courants, comme NFS, HTTP, FTP ou SMB. Pour plus d'informations sur l'exécution d'une telle installation, reportez-vous au Chapitre 10, Installation à distance.
2.4 Procédure d'installation #
Cette section présente les étapes requises pour effectuer une installation complète de SUSE® Linux Enterprise Server dans le mode requis. La Partie II, « Workflow d'installation » contient une description complète de la procédure d'installation et de configuration du système avec &yast.
2.4.1 Démarrage depuis une unité locale interchangeable #
Vous pouvez utiliser un lecteur de DVD-ROM et des périphériques de stockage USB pour procéder à une installation. Réglez votre ordinateur en fonction de vos besoins :
Assurez-vous que le lecteur est entré comme lecteur amorçable dans le BIOS.
Insérez le support de démarrage dans le lecteur et lancez la procédure de démarrage.
Le menu de démarrage de l'installation de SUSE Linux Enterprise Server permet de transférer différents paramètres vers le système d'installation. Reportez-vous également à la Section 10.2.2, « Utilisation des options de démarrage personnalisées ». Si vous souhaitez effectuer l'installation sur le réseau, indiquez à cet endroit la source d'installation.
Si vous rencontrez des problèmes au cours de l'installation, utilisez les paramètres sans échec pour le démarrage.
2.4.2 Installation via le réseau #
Un serveur d'installation est requis pour effectuer l'installation via une source réseau. La procédure d'installation du serveur est décrite au Chapitre 8, Configuration du serveur qui contient les sources d'installation.
Si vous avez un serveur SLP, sélectionnez SLP comme source d'installation dans le premier écran de démarrage. Lors de la procédure de démarrage, sélectionnez les sources d'installation disponibles à utiliser.
Si le DVD est disponible sur le réseau, utilisez-le comme source d'installation. Dans ce cas, spécifiez le paramètre install=<URL>
avec des valeurs appropriées à l'invite de démarrage. Pour plus d'informations sur ce paramètre, reportez-vous à la Section 10.2.2, « Utilisation des options de démarrage personnalisées ».
2.5 Contrôle de l'installation #
Vous pouvez contrôler l'installation de différentes manières. La méthode la plus souvent utilisée consiste à installer SUSE® Linux Enterprise Server à partir de la console de l'ordinateur. D'autres options sont disponibles pour différentes situations.
2.5.1 Installation sur la console de l'ordinateur #
La méthode la plus simple pour installer SUSE Linux Enterprise Server est d'utiliser la console de l'ordinateur. Avec cette méthode, un programme d'installation graphique vous guide tout au long du processus d'installation. Cette méthode d'installation est décrite en détail au Chapitre 6, Installation avec YaST.
Vous pouvez tout de même effectuer l'installation sur la console sans mode graphique établi. Le programme d'installation textuel offre la même fonctionnalité que la version graphique. Pour quelques conseils sur la navigation dans ce mode, reportez-vous au Book “Administration Guide”, Chapter 5 “YaST in Text Mode”, Section 5.1 “Navigation in Modules”.
2.5.2 Installation à l'aide d'une console série #
Pour cette méthode d'installation, vous avez besoin d'un deuxième ordinateur, connecté par un câble modem nul à l'ordinateur sur lequel vous installez SUSE Linux Enterprise Server. Selon le matériel, la console série est parfois déjà en mesure d'accéder au microprogramme ou au BIOS de l'ordinateur. Si cela est possible, vous pouvez effectuer toute l'installation avec cette méthode. Pour activer l'installation de la console série, spécifiez le paramètre supplémentaire console=ttyS0
à l'invite d'amorçage. Cela doit se faire une fois le processus d'amorçage terminé, mais avant le démarrage du système d'installation.
Sur la plupart des ordinateurs, il y a deux interfaces série : ttyS0 et ttyS1. Pour l'installation, vous avez besoin d'un programme de terminal tel que minicom ou screen. Pour initialiser la connexion série, lancez l'application Screen (Écran) dans une console locale en entrant la commande suivante :
screen /dev/ttyS0 9600
Cela signifie que l'écran reçoit les données du premier port série avec un débit en bauds de 9 600. À partir de maintenant, l'installation est semblable à l'installation en mode texte sur ce terminal.
2.5.3 Installation avec le protocole SSH #
Si vous n'avez pas d'accès direct à la machine et si l'installation est lancée depuis une console de gestion, vous pouvez contrôler tout le processus d'installation via le réseau. Pour ce faire, saisissez les paramètres ssh=1
et ssh.password=SECRET
à l'invite de démarrage. Un daemon SSH est ensuite lancé sur le système. Vous pouvez alors vous connecter en tant qu'utilisateur root
avec le mot de passe SECRET.
Pour vous connecter, utilisez ssh -X
. Le transfert X via SSH est pris en charge, pour autant que vous disposiez d'un serveur X local. Dans le cas contraire, YaST fournit une interface texte via ncurses. YaST vous guide ensuite tout au long du processus d'installation. Cette procédure est décrite en détail à la Section 10.1.5, « Installation simple à distance via SSH : configuration réseau dynamique ».
Si votre réseau local ne comporte aucun serveur DHCP disponible, affectez manuellement une adresse IP au système d'installation. Pour ce faire, saisissez l'option HostIP=IPADDR
à l'invite de démarrage.
2.5.4 Installation via VNC #
Si vous ne pouvez pas accéder directement au système, mais que vous souhaitez effectuer une installation graphique, installez SUSE Linux Enterprise Server via VNC. Cette méthode est décrite en détail à la Section 10.3.1, « Installation VNC ».
Étant donné que des clients VNC appropriés sont également disponibles pour d'autres systèmes d'exploitation tels que Microsoft Windows et Mac OS, l'installation peut également être contrôlée depuis des ordinateurs exécutant ces systèmes d'exploitation.
2.5.5 Installation avec AutoYaST #
Si vous devez installer SUSE Linux Enterprise Server sur plusieurs ordinateurs présentant une configuration matérielle similaire, il est recommandé d'effectuer les installations avec AutoYaST. Dans ce cas, installez une instance de SUSE Linux Enterprise Server, puis utilisez-la pour créer les fichiers de configuration AutoYaST nécessaires.
AutoYaST est décrit en détail au Book “AutoYaST” .
2.6 Gestion des problèmes de démarrage et d'installation #
Avant la livraison, SUSE® Linux Enterprise Server est soumis à un programme de test approfondi. Malgré cela, des problèmes peuvent survenir lors du démarrage ou de l'installation.
2.6.1 Problèmes liés au démarrage #
Des problèmes de démarrage peuvent empêcher le lancement du programme d'installation de YaST sur votre système. Il peut aussi arriver que votre système ne démarre pas une fois l'installation terminée.
- Le système installé démarre, mais pas le support
Modifiez le microprogramme ou le BIOS de l'ordinateur pour corriger la séquence de démarrage. Pour ce faire, reportez-vous au manuel du matériel.
- L'ordinateur se bloque
Modifiez la console de votre ordinateur pour rendre les sorties du kernel visibles. Assurez-vous de vérifier les dernières sorties. Pour ce faire, appuyez sur la touche Ctrl–Alt–F10. Si vous ne parvenez pas à résoudre le problème, consultez le service de support de SUSE Linux Enterprise Server. Pour consigner tous les messages système au démarrage, utilisez une connexion série, comme décrit dans la Section 2.5, « Contrôle de l'installation ».
- Disquette de démarrage
La disquette de démarrage est une solution provisoire utile si vous rencontrez des difficultés lors de la configuration d'autres options ou si vous souhaitez reporter la décision concernant le mécanisme de démarrage final. Pour plus d'informations sur la création des disquettes de démarrage, reportez-vous au Book “Administration Guide”, Chapter 13 “The Boot Loader GRUB 2” grub2-mkrescue.
- Avertissement de virus après l'installation
Des variantes BIOS vérifient la structure du secteur de démarrage (MBR) et affichent de manière erronée un avertissement de virus après l'installation de GRUB 2. Pour résoudre ce problème, entrez dans le BIOS et recherchez les paramètres ajustables correspondants. Par exemple, désactivez la
. Vous pourrez réactiver cette option ultérieurement. Cependant, cela n'est pas nécessaire si Linux est le seul système d'exploitation utilisé.
2.6.2 Problèmes liés à l'installation #
Si un problème inattendu survient pendant l'installation, des informations sont nécessaires pour en déterminer la cause. Suivez les instructions ci-après pour résoudre le problème :
Vérifiez les sorties sur les différentes consoles. Vous pouvez passer d'une console à l'autre en employant la combinaison de touches Ctrl–Alt–Fn. Par exemple, pour obtenir un shell dans lequel éxécuter différentes commandes, appuyez sur Ctrl–Alt–F2.
Essayez de lancer l'installation avec les « Paramètres sécurisés » (appuyez sur la touche F5 dans l'écran d'installation et sélectionnez ). Si l'installation fonctionne normalement, il existe une incompatibilité qui entraîne l'échec d'
ACPI
ou d'APIC
. Dans certains cas, une mise à jour du BIOS ou du microprogramme résout ce problème.Saisissez la commande
dmesg -T
pour vérifier les messages système sur une console sur le système d'installation.
2.6.3 Redirection de la source de démarrage vers le DVD de démarrage #
Pour simplifier le processus d'installation et éviter des installations accidentelles, votre système est paramétré par défaut pour un démarrage à partir du premier disque dur sur le DVD d'installation de SUSE Linux Enterprise Server. À ce stade, un chargeur de démarrage installé prend généralement le contrôle du système. Cela signifie que le DVD de démarrage peut rester dans le lecteur lors d'une installation. Pour démarrer l'installation, choisissez une option d'installation dans le menu de démarrage du support.
3 Installation sur IBM POWER #
Ce chapitre décrit la procédure pour préparer l'installation de SUSE® Linux Enterprise Server sur les systèmes IBM POWER.
3.1 Configuration requise #
Une installation standard requiert au moins 512 Mo de RAM. L'installation d'un système standard avec le bureau GNOME requiert au moins 3,5 Go d'espace disque dur disponible ; une installation complète nécessite environ 8,5 Go.
3.1.1 Configuration matérielle requise #
Le système d'exploitation SUSE® Linux Enterprise Server peut fonctionner sur des serveurs IBM POWER8. Vous trouverez ci-dessous des informations sur la configuration minimale requise pour vous aider lors de la phase de planification.
Pour garantir le bon fonctionnement d'une configuration d'ordinateur donnée, consultez la base de données des matériels certifiés par SUSE. La liste des matériels certifiés est disponible à l'adresse http://www.suse.com/yessearch/Search.jsp.
SUSE Linux Enterprise Server peut prendre en charge d'autres systèmes IBM POWER non répertoriés ci-dessous. Pour obtenir les informations les plus récentes, rendez-vous sur le Centre d'informations IBM pour Linux à l'adresse http://www.ibm.com/support/knowledgecenter/linuxonibm/liaam/liaamdistros.htm.
Vous trouverez des informations à jour sur IBM FixCentral (http://www.ibm.com/support/fixcentral/). Sélectionnez votre système dans la liste Groupe de produits. Des logiciels supplémentaires sont disponibles à partir du dépôt d'outils IBM PowerLinux. Le dépôt d'outils IBM est également appelé dépôt Yum. Pour plus d'informations sur l'utilisation du dépôt d'outils IBM PowerLinux, consultez l'adresse https://ibm.biz/Bdxn3N.
3.1.1.1 Serveurs équipés d'un processeur IBM POWER8 #
Tous les serveurs POWER8 pris en charge sont compatibles avec PowerKVM.
8247-21L (IBM Power® System S120L)
8247-22L (IBM Power System S220L)
8284-22A (IBM Power System S2200)
8286-41A (IBM Power System S1400)
8286-42A (IBM Power System S2400)
3.2 Préparation #
Ce chapitre décrit les étapes de préparation requises avant de procéder effectivement à l'installation de SUSE Linux Enterprise Server. La procédure d'installation dépend du système utilisé. Les méthodes suivantes sont prises en charge :
Si SUSE® Linux Enterprise Server doit être installé sur plusieurs systèmes ou partitions, il est recommandé de créer une source d'installation réseau. Vous pouvez utiliser la même source pour procéder à des installations simultanées sur plusieurs partitions ou systèmes. Pour plus d'informations sur la configuration d'une source d'installation réseau, reportez-vous à la Section 8.1, « Configuration d'un serveur d'installation à l'aide de YaST ».
3.2.1 Installation sur des serveurs avec IBM PowerKVM à l'aide de Kimchi #
Cette section décrit les étapes préparatoires à l'installation sur des systèmes IBM PowerLinux avec PowerKVM. Vous y apprendrez comment effectuer l'installation à partir d'une image ISO avec l'interface utilisateur Kimchi. Kimchi est un outil destiné à l'administration d'IBM PowerKVM.
Dans cette section, nous partons du principe que PowerKVM s'exécute sur votre serveur IBM PowerLinux. Si PowerKVM n'est pas préinstallé, consultez l'article « Configuring IBM PowerKVM on Power Systems » (Configuration d'IBM PowerKVM sur des systèmes Power) sur le site http://www.ibm.com/support/knowledgecenter/linuxonibm/liabp/liabpkickoff.htm pour installer et configurer PowerKVM.
3.2.1.1 Création d'un modèle SUSE Linux Enterprise Server avec Kimchi #
Les modèles constituent la source d'installation pour les invités PowerKVM. Vous pouvez créer un modèle, le cloner ou le modifier. Pour cloner un modèle à partir d'un invité existant, ce dernier doit être désactivé.
Entrez l'URL du serveur PowerLinux sur lequel PowerKVM s'exécute dans la barre d'adresse du navigateur Web ;
https://POWERLINUX_IP:8001
, par exemple (remplacez POWERLINUX_IP [ADRESSE_IP_POWERLINUX] par l'adresse IP de votre système).Cliquez sur l'onglet
pour activer la page .Cliquez sur le signe plus (
) vert pour créer le modèle SUSE Linux Enterprise Server.Dans la boîte de dialogue
(Ajouter un modèle), effectuez une sélection parmi les options suivantes :- (Image ISO locale)
Sélectionnez cette option pour analyser les réserves de stockage à la recherche des images ISO d'installation disponibles sur le système.
- (Fichier image local)
Sélectionnez cette option pour spécifier un chemin d'accès à un fichier image local.
- (Fichier ISO distant)
Sélectionnez cette option pour spécifier un emplacement distant d'une image ISO d'installation.
Sélectionnez le fichier ISO à utiliser pour créer un invité et cliquez sur
(Créer des modèles à partir du fichier ISO sélectionné).Pour configurer le nouveau modèle, cliquez sur
› et modifiez ensuite les valeurs par défaut conformément à votre workload.
Pour plus d'informations, consultez l'article « Setting up a template using Kimchi » (Configuration d'un modèle à l'aide de Kimchi) à l'adresse http://www.ibm.com/support/knowledgecenter/linuxonibm/liabp/liabpkimchitemplate.htm.
3.2.1.2 Installation de SUSE Linux Enterprise Server en tant qu'invité avec Kimchi #
Entrez l'URL du serveur PowerLinux sur lequel PowerKVM s'exécute dans la barre d'adresse du navigateur Web ;
https://POWERLINUX_IP:8001
, par exemple (remplacez POWERLINUX_IP [ADRESSE_IP_POWERLINUX] par l'adresse IP de votre système).Cliquez sur l'onglet
pour activer la page .Cliquez sur le signe plus (
) vert pour créer l'invité SUSE Linux Enterprise Server.Attribuez un
à l'invité SUSE Linux Enterprise Server.Sélectionnez le modèle SUSE Linux Enterprise Server créé à la Section 3.2.1.1, « Création d'un modèle SUSE Linux Enterprise Server avec Kimchi », puis cliquez sur .
Une fois que l'invité est créé, il est prêt à être démarré. Cliquez sur le bouton marche/arrêt de couleur rouge pour démarrer l'invité SUSE Linux Enterprise Server. Vous pouvez également sélectionner
› .Cliquez sur Section 10.3.1.2, « Connexion au programme d'installation ».
› , puis connectez votre visionneuse VNC au processus d'installation selon la procédure décrite à la
Pour créer plusieurs invités d'un type similaire, sélectionnez
dans le menu d'un invité existant.Vous pouvez à présent poursuivre l'installation par défaut via VNC, comme décrit à la Section 6.3, « Étapes de l'installation ».
3.2.2
Installation sur des serveurs avec IBM PowerKVM à l'aide de virt-install
#
Au lieu d'effectuer une installation avec Kimchi, vous pouvez utiliser l'outil de ligne de commande Virt-install
qui permet de réaliser l'installation sur des serveurs avec IBM PowerKVM. Cette méthode est particulièrement utile si vous devez installer plusieurs machines virtuelles sur des systèmes IBM PowerLinux Server. virt-install
prend en charge de nombreux scénarios d'installation ; un scénario d'installation à distance via un démarrage PXE et VNC est présenté à la section suivante. Pour plus d'informations sur virt-install
, reportez-vous au Book “Virtualization Guide”, Chapter 9 “Guest Installation”, Section 9.2 “Installing from the Command Line with virt-install
”.
Préparez un dépôt avec les sources d'installation et le système cible compatible avec le démarrage PXE, comme décrit à la Section 10.1.3, « Installation à distance via VNC : démarrage PXE et fonction Wake on LAN (réveil à distance) ».
Entrez une commande semblable à ceci sur la ligne de commande (réglez les options en fonction de vos besoins et de votre matériel) :
virt-install --name server_sle12 --memory 4096 --vcpus=2 --pxe \ --graphics vnc --os-variant sles11 \ --disk pool=default,size=3000,format=qcow2,allocation=1G,bus=virtio \ -w mac=MAC_ADDRESS,model=spapr-vlan
Cette commande utilise le graphique VNC et le client graphique est démarré automatiquement. Effectuez l'installation comme décrit à la Section 6.3, « Étapes de l'installation ».
3.2.3 Installation sur une partition à l'aide d'IVM #
Ce guide vous aide à installer SUSE Linux Enterprise Server sur une partition de serveur Power Systems à l'aide de l'interface Web Integrated Virtualization Manager (IVM). Avant de commencer l'installation, assurez-vous que les conditions suivantes soient remplies :
Le système Linux on Power est sous tension.
Le serveur E/S virtuel est installé.
IVM est bien configuré.
Ouvrez une fenêtre de navigateur Web et connectez-vous, via le protocole HTTP ou HTTPS, à l'adresse IP qui a été assignée à IVM au cours du processus d'installation (par exemple, https://ADRESSE_IP). La fenêtre de bienvenue s'affiche.
Connectez-vous en tant qu'utilisateur
padmin
et spécifiez le mot de passe défini au cours du processus d'installation. L'interface IVM s'affiche.Sélectionnez
(Afficher/modifier l'Ethernet virtuel).Cliquez sur
(Initialiser l'Ethernet virtuel) pour permettre une connectivité Ethernet entre les partitions.Lorsque l'Ethernet virtuel est initialisé, cliquez sur Apply (Appliquer).
Si votre installation requiert une mise en réseau externe, créez un pont Ethernet virtuel.
Sélectionnez l'onglet
(Pont Ethernet virtuel).Sélectionnez l'adaptateur physique pour le pont, puis
.
Ensuite, créez une partition en procédant comme suit :
Dans l'interface Web IVM, cliquez sur
(Afficher/modifier la partition) (Créer une partition).Entrez le nom de la partition. Pour passer à l'étape suivante, cliquez sur
(Suivant) dans cet écran et au cours des étapes suivantes.Spécifiez la mémoire de votre partition. Si vous avez créé une réserve de mémoire partagée, vos partitions peuvent partager de la mémoire. Dans le cas contraire, sélectionnez
(Dédiée).Spécifiez le nombre de processeurs et le mode de traitement de la partition.
Spécifiez un Ethernet virtuel pour la partition. Si vous ne souhaitez pas configurer un adaptateur, sélectionnez
(Aucun) pour l'Ethernet virtuel.Créez un nouveau disque virtuel ou assignez des disques virtuels et des volumes physiques existants qui ne sont actuellement assignés à aucune partition.
Vérifiez le
et le de votre disque, et spécifiez une .Configurez les périphériques optiques de votre partition en développant les sections
(Périphériques optiques physiques) et (Périphériques optiques virtuels) pour ensuite sélectionner le ou les périphériques à assigner à la partition.Vérifiez les paramètres de configuration de votre partition, puis cliquez sur
(Terminer). La partition est créée et disponible à partir de la liste (Afficher/modifier les partitions).
À présent, activez la partition créée :
Dans l'interface Web IVM, cliquez sur
(Afficher/modifier la partition) et sélectionnez la zone en regard de la partition à activer.Sélectionnez
(Plus de tâches).Sélectionnez
(Ouvrir une fenêtre de terminal).Cliquez sur
(Activer) en regard de la partition.Dans la fenêtre de terminal, entrez 1 pour démarrer les services de gestion du système (SMS).
La machine est maintenant configurée. Vous pouvez démarrer l'installation :
Dans la fenêtre 1 pour sélectionner le menu . Entrez 1 avant que l'écran de démarrage du microprogramme soit complètement affiché, car il disparaît une fois l'opération terminée. Si vous manquez l'écran, redémarrez le système.
(Sélection de démarrage), entrezÀ ce stade, vous pouvez insérer le disque de support du serveur E/S virtuel (VIOS) dans l'unité de disque.
Entrez 2 pour passer à la saisie du mot de passe dans le menu de . Entrez le mot de passe de l'ID d'administrateur.
Dans le menu SMS principal, entrez 5 pour choisir l'option (Sélectionner les options de démarrage).
Entrez 1 pour sélectionner (Installer/démarrer un périphérique).
Entrez 7 pour afficher tous les périphériques de démarrage disponibles.
Entrez le numéro correspondant au périphérique à utiliser. Si votre périphérique n'est pas répertorié, entrez N pour en afficher d'autres.
Entrez 2 pour effectuer un démarrage de type (Démarrage en mode normal).
Entrez 1 pour quitter le menu SMS et lancer le processus de démarrage.
À l'invite de démarrage du programme d'installation, tapez :
install vnc=1 vncpassword=VNC_PASSWORD
Remplacez VNC_PASSWORD (MOT_DE_PASSE_VNC par un mot de passe de votre choix (la longueur minimale est de huit caractères) et appuyez sur Entrée pour lancer l'installation de SUSE Linux Enterprise Server. Le kernel commence à se charger.
Une fois que le kernel a commencé à se charger, le programme d'installation a besoin de certaines informations de la part du système afin de configurer une session VNC. Vous devez disposer d'une pile TCP/IP valide pour pouvoir utiliser VNC. Utilisez DHCP ou définissez manuellement vos informations réseau à l'aide des instructions fournies par le programme d'installation.
Dans la fenêtre Entrée.
, sélectionnez en tant que périphérique réseau. Sélectionnez et appuyez surTestez le support d'installation. Vous pouvez également poursuivre sans effectuer le test. Pour ce faire, sélectionnez
.Une fois le serveur VNC démarré par le système, un message vous invite à connecter votre client VNC et fournit une adresse IP. Prenez note de cette adresse IP.
Démarrez un client VNC sur votre ordinateur portable ou votre PC. Entrez l'adresse IP obtenue à l'étape précédente, suivie de
:1
, par exemple 192.168.2.103:1.Effectuez l'installation comme décrit au Section 6.3, « Étapes de l'installation ».
3.2.4 Installation sur des serveurs sans couche d'abstraction OpenPower #
Ces informations permettent d'installer Linux à l'aide d'une console série ou d'un écran et d'un clavier sur un serveur Power Systems. Cette installation suppose que vous disposiez d'un système non géré (autonome) prêt à démarrer.
Mettez votre système sous tension en sélectionnant 0 pour poursuivre.
(Allumer) dans le menu (Allumer/éteindre le système). Lorsque le système vous demande si vous souhaitez continuer à l'aide de la console, entrezInsérez le support d'installation de SUSE Linux Enterprise Server dans l'unité de disque.
Dans la fenêtre 2 pour continuer le démarrage.
(Sélectionner la langue), entrezEntrez 1 pour accepter le contrat de licence.
Dans la fenêtre 1 pour sélectionner le menu . Entrez 1 avant que l'écran de démarrage du microprogramme soit complètement affiché, car il disparaît une fois l'opération terminée. Si vous manquez l'écran, redémarrez le système.
(Sélection de démarrage), entrezEntrez 2 pour passer à la saisie du mot de passe dans le menu de . Entrez le mot de passe de l'ID d'administrateur.
Dans le menu SMS principal, entrez 5 pour choisir l'option (Sélectionner les options de démarrage).
Entrez 7 pour afficher tous les périphériques de démarrage disponibles.
Entrez le numéro correspondant au périphérique à utiliser. Si votre périphérique n'est pas répertorié, entrez N pour en afficher d'autres.
Entrez 2 pour effectuer un démarrage de type (Démarrage en mode normal).
Entrez 1 pour quitter le menu SMS et lancer le processus de démarrage.
À l'invite de démarrage du programme d'installation, tapez :
install vnc=1 vncpassword=VNC_PASSWORD
Remplacez VNC_PASSWORD (MOT_DE_PASSE_VNC par un mot de passe de votre choix (la longueur minimale est de huit caractères) et appuyez sur Entrée pour lancer l'installation de SUSE Linux Enterprise Server. Le kernel commence à se charger.
Une fois que le kernel a commencé à se charger, le programme d'installation a besoin de certaines informations de la part du système afin de configurer une session VNC. Vous devez disposer d'une pile TCP/IP valide pour pouvoir utiliser VNC. Utilisez DHCP ou définissez manuellement vos informations réseau à l'aide des instructions fournies par le programme d'installation.
Dans la fenêtre Entrée.
, sélectionnez en tant que périphérique réseau. Sélectionnez et appuyez surTestez le support d'installation. Vous pouvez également poursuivre sans effectuer le test. Pour ce faire, sélectionnez
.Une fois le serveur VNC démarré par le système, un message vous invite à connecter votre client VNC et fournit une adresse IP. Prenez note de cette adresse IP.
Démarrez un client VNC sur votre ordinateur portable ou votre PC. Entrez l'adresse IP obtenue à l'étape précédente, suivie de
:1
, par exemple 192.168.2.103:1.Effectuez l'installation comme décrit au Section 6.3, « Étapes de l'installation ».
3.3 Pour plus d'informations #
Pour plus d'informations sur IBM PowerLinux, consultez les sources SUSE et IBM :
La base de connaissances du support SUSE à l'adresse https://www.suse.com/support/kb/ est un outil efficace pour aider les clients à résoudre leurs problèmes. Effectuez des recherches dans la base de connaissances sur SUSE Linux Enterprise Server à l'aide de mots clés tels que POWER ou PowerKVM.
Recherchez les alertes de sécurité à l'adresse suivante : https://www.suse.com/support/security/. SUSE tient également à jour deux listes de diffusion, auxquelles toute personne peut s'abonner, en relation avec la sécurité.
suse-security
: discussion d'ordre général concernant la sécurité pour Linux et SUSE. Toutes les alertes de sécurité pour SUSE Linux Enterprise Server sont envoyées à cette liste.suse-security-announce
: la liste de diffusion de SUSE signale exclusivement les alertes de sécurité.
En cas d'erreurs matérielles, vérifiez sur le Panneau de configuration tout code susceptible d'être affiché. Vous pouvez rechercher tous les codes affichés dans le centre d'informations IBM Power Systems Hardware Information Center à l'adresse https://ibm.biz/Bdxn3T.
Pour des conseils de dépannage, reportez-vous à la rubrique IBM PowerLinux FAQ dans le centre d'informations à l'adresse https://ibm.biz/Bdxn35.
Pour faire partie de la liste de diffusion linuxppc-dev, enregistrez-vous à l'aide des formulaires disponibles à l'adresse http://lists.ozlabs.org/listinfo/linuxppc-dev/.
4 Installation sur IBM Z #
Ce chapitre décrit la procédure pour préparer l'installation de SUSE® Linux Enterprise Server sur les systèmes IBM Z. Il fournit toutes les informations nécessaires pour préparer l'installation du côté LPAR et z/VM.
4.1 Informations générales et spécifications #
Cette section fournit des informations de base sur la configuration système requise (telle que le matériel pris en charge), le niveau MicroCode et le logiciel. Elle traite également des différents types d'installation et de la manière d'exécuter un IPL pour la première installation. Pour obtenir des informations techniques détaillées concernant IBM Z sous SUSE Linux Enterprise Server, consultez le site http://www.ibm.com/developerworks/linux/linux390/documentation_suse.html.
4.1.1 Configuration système requise #
Cette section fournit une liste du matériel pour IBM Z pris en charge par SUSE Linux Enterprise Server. Elle traite ensuite du niveau MicroCode (MCL) utilisé sur votre système IBM Z pour l'installation. Vous trouverez des informations sur les autres logiciels à installer et à utiliser pour l'installation à la fin de cette section.
4.1.1.1 Matériel #
SUSE Linux Enterprise Server s'exécute correctement sur les plates-formes suivantes :
IBM zEnterprise System z196 (2817)
IBM zEnterprise System z114 (2818)
IBM zEnterprise EC12 (zEC12) (2827)
IBM zEnterprise BC12 (zBC12) (2828)
IBM z Systems z13 (2964)
IBM z Systems z13s (2965)
IBM LinuxONE Emperor (2964)
IBM LinuxONE Rockhopper (2965)
4.1.1.1.1 Prérequis système liés à la mémoire #
Des méthodes d'installation différentes ont des prérequis système liés à la mémoire différents lors de l'installation. Une fois l'installation terminée, l'administrateur système peut réduire la mémoire pour obtenir la taille souhaitée. SUSE recommande :
1 Go |
Pour une installation sous z/VM. |
1 Go |
Pour une installation sous LPAR. |
1 Go |
Pour une installation sous KVM. |
Pour une installation à partir de sources d'installation NFS, FTP ou SMB ou chaque fois que VNC est utilisé, au moins 512 Mo de mémoire sont requis. Dans le cas contraire, la tentative d'installation risque d'échouer. Souvenez-vous que le nombre de périphériques visibles par un invité z/VM ou une image LPAR affecte la configuration de mémoire requise. Une installation avec des centaines de périphériques accessibles peut nécessiter plus de mémoire (même si ces périphériques ne sont pas utilisés pour l'installation).
4.1.1.1.2 Espace disque requis #
La configuration du disque dur requise dépend fortement de l'installation. En règle générale, pour que le système fonctionne correctement, vous devez avoir plus d'espace disque que n'en nécessite le logiciel d'installation. La configuration minimale des différents éléments est la suivante :
800 Mo |
Installation minimale |
1,4 Go |
Installation minimale + système de base |
2,6 Go |
Installation par défaut |
3,6 Go+ |
Recommandée (avec bureau graphique, paquetages de développement et Java). |
4.1.1.1.3 Connexion réseau #
Une connexion réseau est requise pour communiquer avec votre système SUSE Linux Enterprise Server. Il peut s'agir d'une ou de plusieurs des connexions ou des cartes réseau suivantes :
OSA Express Ethernet (y compris Fast et Gigabit Ethernet)
HiperSockets ou Guest LAN
10 GBE, VSWITCH
RoCE (RDMA over Converged Ethernet)
Les interfaces suivantes sont toujours incluses mais ne sont plus prises en charge :
CTC (ou CTC virtuel)
ESCON
Interface réseau IP pour IUCV
Pour les installations sous KVM, assurez-vous que les conditions suivantes sont réunies pour permettre à l'invité de machine virtuelle d'accéder en toute transparence au réseau :
L'interface réseau virtuelle est connectée à une interface réseau hôte.
L'interface réseau hôte est connectée à un réseau auquel le serveur virtuel participera.
Si l'hôte est configuré pour utiliser une connexion réseau redondante en regroupant deux ports réseau OSA indépendants dans une interface réseau liée, l'identificateur de cette dernière est
bond0
(ou, s'il existe plusieurs interfaces liées,bond1
,bond2
, etc.).Si la connexion réseau hôte n'a pas été configurée de façon redondante, il faut utiliser l'identificateur de l'interface réseau unique. Celui-ci se présente sous la forme enccw0.0.NNNN, où NNNN est le numéro de périphérique de l'interface réseau de votre choix.
4.1.1.2 Niveau MicroCode, APAR et correctifs #
Vous trouverez la documentation relative aux restrictions et exigences de cette version de SUSE Linux Enterprise Server sur IBM developerWorks à l'adresse http://www.ibm.com/developerworks/linux/linux390/documentation_suse.html. Il est recommandé de toujours utiliser le niveau de service le plus élevé. Contactez l'assistance technique IBM pour connaître la configuration minimale requise.
4.1.1.2.1 z/VM #
z/VM 5.4
z/VM 6.2
z/VM 6.3. Il est vivement recommandé d'installer APAR VM65419 (ou version ultérieure) afin d'améliorer la sortie de qclib.
Négociez l'ordre d'installation avec votre support IBM, car il peut être nécessaire d'activer les APAR VM avant d'installer les nouveaux niveaux MicroCode.
4.1.1.3 Logiciel #
Si vous installez SUSE Linux Enterprise Server via un protocole NFS ou FTP non-Linux, vous risquez de rencontrer des problèmes avec les logiciels serveur NFS ou FTP. Le serveur FTP standard de Windows* peut générer des erreurs. L'installation via SMB sur ces machines est donc généralement recommandée.
Pour vous connecter au système d'installation de SUSE Linux Enterprise Server, utilisez l'une des méthodes suivantes (l'utilisation de SSH or VNC est recommandée) :
- SSH avec émulation de terminal (compatible xterm)
SSH est un outil Unix standard qui doit être présent sur tout système Unix ou Linux. Pour Windows, il existe un client SSH appelé Putty. Il est gratuit et disponible sur le site http://www.chiark.greenend.org.uk/~sgtatham/putty/.
- Client VNC
Pour Linux, un client VNC nommé vncviewer est inclus dans SUSE Linux Enterprise Server en tant que partie du paquetage
tightvnc
. Pour Windows, TightVNC est également disponible. Vous pouvez le télécharger sur le site http://www.tightvnc.com/.- Serveur X
Vous trouverez une mise en oeuvre du serveur X adaptée sur tous les postes de travail Linux ou Unix. Il existe de nombreux environnements commerciaux de systèmes X Window pour Windows et Mac OS*. Certains peuvent être téléchargés sous la forme de versions d'essai gratuites. Vous pouvez obtenir une version d'essai du serveur Mocha X Server de MochaSoft sur le site http://www.mochasoft.dk/freeware/x11.htm.
Consultez le fichier README
situé dans le répertoire racine du DVD 1 de votre instance SUSE Linux Enterprise Server avant d'installer SUSE Linux Enterprise Server sur IBM Z. Ce fichier complète la documentation présentée dans ce manuel.
4.1.2 Types d'installation #
Cette section présente les différents types d'installation possibles avec SUSE Linux Enterprise Server pour IBM Z :
- LPAR
Installation de SUSE Linux Enterprise Server à l'aide d'une partition logique (LPAR).
- z/VM
Installation de SUSE Linux Enterprise Server en tant que système d'exploitation invité dans z/VM.
- KVM
Installation de SUSE Linux Enterprise Server en tant que système d'exploitation invité dans KVM.
Selon le mode d'installation (LPAR ou z/VM), il existe plusieurs manières de démarrer le processus d'installation et d'exécuter un IPL sur le système installé.
4.1.2.1 LPAR #
Si vous installez SUSE Linux Enterprise Server for IBM Z sur une partition logique (LPAR), assignez de la mémoire et des processeurs à l'instance. L'installation dans une partition logique est recommandée si les machines de production sont très chargées. L'exécution en mode LPAR permet également de bénéficier de normes de sécurité plus strictes. La mise en réseau entre les partitions logiques est possible sur des interfaces externes ou Hipersockets. Si vous prévoyez d'utiliser votre installation à des fins de virtualisation avec KVM, une installation dans une partition logique est vivement conseillée.
4.1.2.2 z/VM #
L'exécution de SUSE Linux Enterprise Server for IBM Z dans z/VM implique que SUSE Linux Enterprise Server est un système invité au sein de z/VM. Un avantage de ce mode est que vous contrôlez totalement SUSE Linux Enterprise Server à partir de z/VM. Cela s'avère très utile pour le développement du kernel ou le débogage basé sur le kernel. Il est également très facile d'ajouter ou de supprimer du matériel vers et depuis les invités Linux. La création d'invités SUSE Linux Enterprise Server supplémentaires est une opération particulièrement simple. Vous pouvez, en outre, exécuter des centaines d'instances Linux simultanément.
4.1.2.3 Invité KVM #
Afin d'installer SUSE Linux Enterprise Server for IBM Z en tant qu'invité KVM, une instance de serveur hôte KVM doit être installée sur la partition logique. Pour plus de détails sur l'installation de l'invité, reportez-vous à la Procédure 4.3, « Présentation d'une installation invité KVM ».
4.1.3 Options IPL #
Cette section fournit les informations nécessaires pour exécuter un IPL pour la première installation. Selon le type d'installation, différentes options doivent être utilisées. Les options Lecteur VM, Charger depuis un CD-ROM ou un serveur et Chargement depuis un DVD associé à SCSI sont traitées dans cette section. L'installation des paquetages logiciels, via le réseau, ne requiert pas de support IPL.
4.1.3.1 Lecteur VM #
Pour exécuter un IPL depuis un lecteur VM, transférez tout d'abord les fichiers nécessaires vers le lecteur. Pour une meilleure administration, il est recommandé de créer un utilisateur linuxmnt
qui détient un minidisque avec les fichiers et les scripts requis pour IPL. Les invités Linux peuvent ensuite accéder à ce minidisque en lecture seule.
4.1.3.2 Chargement à partir d'un support amovible ou un serveur #
Pour exécuter un IPL dans une partition LPAR, vous pouvez charger directement l'image du kernel à partir du lecteur de CD/DVD-ROM de la console HMC ou de l'ordinateur SE, ou à partir de tout système distant accessible via FTP. Vous pouvez exécuter cette fonction depuis HMC. Le processus d'installation requiert un fichier avec une assignation de l'emplacement des données d'installation sur le système de fichiers et les emplacements de la mémoire où les données doivent être copiées.
Pour SUSE Linux Enterprise Server, il existe deux fichiers de ce type. Les deux se trouvent dans le répertoire racine du système de fichiers du DVD1 :
Suse.ins
qui nécessitera, pour pouvoir être utilisé, de configurer l'accès réseau dans Linuxrc avant de commencer l'installation.susehmc.ins
qui permet d'effectuer l'installation sans le moindre accès au réseau.
Dans le volet de navigation gauche de HMC, développez SUSE Linux Enterprise Server dans la table de partitions logiques et sélectionnez ensuite .
› (Gestion des systèmes) et sélectionnez le macroordinateur que vous voulez utiliser. Choisissez la partition logique (LPAR) dans laquelle vous souhaitez démarrer
Sélectionnez maintenant .ins
approprié ne se trouve pas dans le répertoire racine du serveur, indiquez le chemin d'accès à ce fichier. Accédez au menu (Sélectionner le logiciel à charger) et sélectionnez l'entrée .ins
appropriée. Cliquez sur pour démarrer l'installation.
4.1.3.3 Chargement depuis un DVD associé à SCSI #
Pour exécuter un IPL à partir d'un DVD SCSI, vous devez avoir accès à un adaptateur FCP connecté à un lecteur de DVD. Vous devez récupérer les valeurs pour WWPN et LUN sur l'unité SCSI. Pour plus de détails, reportez-vous à la Section 4.2.4.1.2, « Exécution d'un IPL à partir d'un DVD SCSI associé FCP ».
4.1.3.4 Chargement depuis le réseau à l'aide de zPXE #
Pour effectuer un chargement IPL à partir du réseau avec zPXE, un serveur Cobbler fournissant le kernel, le disque RAM et un fichier parmfile est nécessaire. Il est initié en exécutant le script ZPXE EXEC. Reportez-vous à la Section 4.2.1.3, « Utilisation d'un serveur Cobbler pour zPXE » pour plus d'informations. zPXE est uniquement disponible sur z/VM.
4.2 Préparation de l'installation #
Découvrez comment rendre les données accessibles pour l'installation, installer SUSE Linux Enterprise Server selon différentes méthodes ainsi que préparer et utiliser l'IPL du système d'installation de SUSE Linux Enterprise Server. Vous trouverez également des informations sur la configuration et l'installation réseau.
4.2.1 Mise à disposition des données d'installation #
Cette section fournit des informations détaillées pour rendre accessibles les données d'installation de SUSE Linux Enterprise Server for IBM Z. Selon l'ordinateur que vous utilisez et l'environnement système, choisissez une installation NFS ou FTP. Si vous exécutez des postes de travail Microsoft Windows dans votre environnement, vous pouvez utiliser le réseau Windows (y compris le protocole SMB) pour installer SUSE Linux Enterprise Server sur votre système IBM Z.
Depuis le Service Pack 1 de SUSE Linux Enterprise Server Version 10, il est possible d'exécuter un IPL depuis un DVD et d'utiliser ce dernier comme support d'installation. Cela peut s'avérer très pratique si vous êtes confronté à des restrictions concernant la configuration d'un serveur d'installation fournissant un support d'installation sur votre réseau. Vous devez disposer d'un lecteur de DVD SCSI associé à un protocole FCP.
Il est impossible de procéder à une installation depuis le disque dur en plaçant le contenu du DVD sur une partition sur un DASD.
4.2.1.1 Utilisation d'un poste de travail Linux ou d'un DVD SUSE Linux Enterprise Server #
Si votre poste de travail Linux s'exécute dans votre environnement informatique, utilisez le poste de travail pour fournir les données d'installation au processus d'installation IBM Z via NFS ou FTP. Si le poste de travail Linux s'exécute sous SUSE Linux Enterprise Server, vous pouvez configurer un serveur d'installation (NFS ou FTP) à l'aide du module YaST , comme décrit à la Section 8.1, « Configuration d'un serveur d'installation à l'aide de YaST ».
4.2.1.1.1 Avec un serveur NFS #
Utilisez le serveur NFS (network file system - système de fichiers réseau) pour mettre à disposition le support d'installation.
Exporter la racine du système de fichiers (/
) n'entraîne pas l'exportation des périphériques installés, comme un DVD. Désignez explicitement le point d'installation dans /etc/exports
:
/media/dvd *(ro)
Une fois ce fichier modifié, redémarrez le serveur NFS en exécutant la commande sudo systemctl restart nfsserver
.
4.2.1.1.2 Avec un serveur FTP #
La configuration d'un serveur FTP sur un système Linux implique d'installer et de configurer un logiciel serveur, tel que vsftpd. Si vous utilisez SUSE Linux Enterprise Server, reportez-vous au Book “Administration Guide”, Chapter 34 “Setting Up an FTP Server with YaST” pour obtenir des instructions d'installation. Le téléchargement des données d'installation via une connexion anonyme n'est pas pris en charge. Par conséquent, vous devez configurer le serveur FTP pour assurer l'authentification utilisateur.
4.2.1.1.3 SUSE Linux Enterprise Server sur DVD #
Le DVD 1 de SUSE Linux Enterprise Server for IBM Z contient une image Linux de démarrage pour les postes de travail Intel et une image pour IBM Z.
Sur les postes de travail Intel, démarrez depuis ce DVD, répondez aux questions concernant la langue et la configuration du clavier, puis sélectionnez
. Pour cette opération, 64 Mo minimum de mémoire vive sont requis. Aucun espace disque n'est requis, car tout le système de secours réside dans la mémoire vive du poste de travail. Cette approche nécessite que vous soyez familier avec Linux et la mise en réseau car vous devez configurer manuellement la mise en réseau du poste de travail.
Pour IBM Z, exécutez l'IPL de votre invité LPAR/VM depuis ce DVD, comme décrit à la Section 4.2.4.1.2, « Exécution d'un IPL à partir d'un DVD SCSI associé FCP ». Après avoir entré les paramètres de votre réseau, le système d'installation considère le DVD comme la source des données d'installation. Dans la mesure où IBM Z ne peut pas être associé directement à un terminal compatible X11, choisissez entre une installation VNC ou SSH. SSH fournit également une installation graphique par le tunnelage de la connexion x via SSH grâce à ssh -X
.
4.2.1.2 Utilisation d'un poste travail Microsoft Windows #
Si un poste de travail Microsoft Windows est disponible sur votre réseau, utilisez cet ordinateur pour mettre à disposition le support d'installation. Pour ce faire, le moyen le plus simple est d'utiliser le protocole SMB, déjà inclus sur le système d'exploitation Windows. Assurez-vous de cocher la case
pour activer l'encapsulation de paquetages SMB dans les paquetages TCP/IP. Pour plus d'informations, reportez-vous à l'aide en ligne de Windows ou à la documentation Windows traitant de la mise en réseau. Vous pouvez également utiliser FTP. Un logiciel tiers pour Windows est également requis dans ce cas.4.2.1.2.1 Avec un serveur SMB #
Pour mettre à disposition le support d'installation avec le serveur SMB, insérez le DVD 1 de SUSE Linux Enterprise Server dans le lecteur de DVD du poste de travail Windows. Créez ensuite un nouveau partage en utilisant la lettre du lecteur de DVD-ROM et mettez-le à disposition de toutes les personnes sur le réseau.
Dans YaST, le chemin d'installation peut se présenter comme suit :
smb://DOMAIN;USER:PW@SERVERNAME/SHAREPATH
Où les marques de réservation ont la signification suivante :
- DOMAIN
Domaine de répertoire actif ou groupe de travail facultatif.
- USER , PW
Nom d'utilisateur et mot de passe facultatifs d'un utilisateur habilité à accéder à ce serveur et à son partage.
- SERVERNAME
Nom du serveur qui héberge le ou les partages.
- SHAREPATH
Chemin d'accès aux partages.
4.2.1.2.2 Avec un serveur NFS #
Reportez-vous à la documentation fournie avec le produit tiers qui active les services du serveur NFS pour votre poste de travail Windows. Le lecteur contenant les DVD SUSE Linux Enterprise Server doit se situer dans le chemin NFS disponible.
4.2.1.2.3 Avec un serveur FTP #
Reportez-vous à la documentation fournie avec le produit tiers qui active les services du serveur FTP sur votre poste de travail Windows. Le lecteur contenant les DVD SUSE Linux Enterprise Server doit se situer dans le chemin FTP disponible.
Le serveur FTP faisant partie de certaines versions de Microsoft Windows implémente uniquement un sous-ensemble des commandes FTP et n'est pas adapté pour fournir les données d'installation. Si c'est le cas de votre poste de travail Windows, utilisez un serveur FTP tiers offrant les fonctions requises.
4.2.1.2.4 Utilisation d'un lecteur de DVD SCSI associé à FCP #
Après avoir exécuté un IPL depuis le DVD SCSI, comme décrit à la Section 4.1.3.3, « Chargement depuis un DVD associé à SCSI », le système d'installation utilise le DVD comme support d'installation. Dans ce cas, vous n'avez pas besoin des supports d'installation sur le serveur FTP, NFS ou SMB. Cependant, vous avez besoin des données de configuration réseau de votre SUSE Linux Enterprise Server, car vous devez configurer le réseau au cours de l'installation afin d'effectuer une installation graphique au moyen de VNC ou X.
4.2.1.3 Utilisation d'un serveur Cobbler pour zPXE #
Pour effectuer un chargement IPL à partir du réseau, un serveur Cobbler est nécessaire afin de fournir le kernel, le fichier initrd et les données d'installation. La préparation du serveur Cobbler se décompose en quatre étapes :
Importation des données d'installation
Ajout d'une distribution
Ajout de profils
Ajout de systèmes
4.2.1.3.1 Importation des données d'installation #
L'importation du support exige que la source d'installation soit disponible sur le serveur Cobbler, à partir d'un DVD ou d'une source réseau. Exécutez la commande suivante pour importer les données :
cobbler import --path=PATH1 --name=IDENTIFIER2 --arch=s390x
Point de montage des données d'installation. | |
Chaîne identifiant le produit importé ; « sles12_s390x », par exemple. Cette chaîne est utilisée comme nom du sous-répertoire dans lequel sont copiées les données d'installation. Sur un serveur Cobbler qui s'exécute sous SUSE Linux Enterprise, il s'agit de |
4.2.1.3.2 Ajout d'une distribution #
En ajoutant une distribution, vous indiquez au serveur Cobbler de fournir le kernel et le fichier initrd requis pour un chargement IPL via zPXE. Exécutez la commande suivante sur le serveur Cobbler afin d'ajouter SUSE Linux Enterprise Server for IBM Z :
cobbler distro add --arch=s390 --breed=suse --name="IDENTIFIER"1 \ --os-version=sles122 \ --initrd=/srv/www/cobbler/ks_mirror/IDENTIFIER/boot/s390x/initrd3 \ --kernel=/srv/www/cobbler/ks_mirror/IDENTIFIER/boot/s390x/linux4 \ --kopts="install=http://cobbler.example.com/cobbler/ks_mirror/IDENTIFIER"5
Identificateur personnalisé pour la distribution, par exemple « SLES 12 SP5 Z ». Doit être unique. | |
Identificateur du système d'exploitation. Utilisez | |
Chemin d'accès au fichier initrd. La première partie du chemin d'accès ( | |
Chemin d'accès au kernel. La première partie du chemin d'accès ( | |
URL vers le répertoire d'installation sur le serveur Cobbler. |
4.2.1.3.3 Réglage du profil #
Lors de l'ajout d'une distribution (reportez-vous à la Section 4.2.1.3.2, « Ajout d'une distribution »), un profil correspondant à IDENTIFIER est généré automatiquement. Utilisez la commande suivante pour effectuer quelques adaptations nécessaires :
cobbler distro edit \ --name=IDENTIFIER1 --os-version=sles102 --ksmeta=""3 --kopts="install=http://cobbler.example.com/cobbler/ks_mirror/IDENTIFIER"4
Identificateur du profil. Utilisez la même chaîne que celle spécifiée lorsque vous aviez ajouté la distribution. | |
Version du système d'exploitation. Distribution à laquelle le profil doit être appliqué. Vous devez utiliser la chaîne spécifiée avec | |
Option nécessaire pour la création des modèles des fichiers kickstart. Elle n'est pas utilisée pour SuSE, alors définissez une valeur vide comme spécifié dans l'exemple. | |
Liste des paramètres kernel séparés par des espaces. Doit inclure au moins le paramètre |
4.2.1.3.4 Ajout de systèmes #
La dernière étape requise consiste à ajouter des systèmes au serveur Cobbler. L'ajout d'un système doit être effectué pour chaque invité IBM Z qui doit démarrer via zPXE. Les invités sont identifiés au moyen de leur ID utilisateur z/VM (l'exemple suivant utilise l'ID « linux01 »). Notez que cet ID doit être une chaîne en minuscules. Pour ajouter un système, exécutez la commande suivante :
cobbler system add --name=linux01 --hostname=linux01.example.com \ --profile=IDENTIFIER --interface=qdio \ --ip-address=192.168.2.103 --subnet=192.168.2.255 --netmask=255.255.255.0 \ --name-servers=192.168.1.116 --name-servers-search=example.com \ --gateway=192.168.2.1 --kopts="KERNEL_OPTIONS"
L'option --kopts
vous permet de spécifier les paramètres de kernel et d'installation que vous indiquez normalement dans le fichier parmfile. Les paramètres sont saisis dans une liste d'éléments séparés par des espaces sous la forme PARAMÈTRE1=VALEUR1 PARAMÈTRE2=VALEUR2. Le programme d'installation vous invite à saisir les paramètres manquants. Pour bénéficier d'une installation entièrement automatisée, vous devez indiquer tous les paramètres de mise en réseau, des DASD et un fichier AutoYaST. Vous trouverez, ci-dessous, un exemple d'invité équipé d'une interface OSA utilisant les mêmes paramètres réseau que ci-dessus.
--kopts=" \ AutoYaST=http://192.168.0.5/autoinst.xml \ Hostname=linux01.example.com \ Domain=example.com \ HostIP=192.168.2.103 \ Gateway=192.168.2.1 \ Nameserver=192.168.1.116 \ Searchdns=example.com \ InstNetDev=osa; \ Netmask=255.255.255.0 \ Broadcast=192.168.2.255 \ OsaInterface=qdio \ Layer2=0 \ PortNo=0 \ ReadChannel=0.0.0700 \ WriteChannel=0.0.0701 \ DataChannel=0.0.0702 \ DASD=600"
4.2.1.4 Installation à partir d'un DVD ou d'un disque Flash de la console HMC #
Pour installer SUSE Linux Enterprise Server (SLES) sur des serveurs IBM Z, une source d'installation réseau est généralement nécessaire. Toutefois, dans certains environnements, il peut parfois être impossible de remplir cette condition. Avec SUSE Linux Enterprise Server, vous pouvez utiliser le DVD existant ou le disque Flash de la console de gestion du matériel (HMC) comme source de l'installation sur une partition LPAR.
Pour effectuer l'installation à partir du DVD ou du disque Flash de la console HMC, procédez comme suit :
Ajoutez
install=hmc:/
au fichier
parmfile
(voir Section 4.3, « Fichier parmfile : automatisation de la configuration du système ») ou aux options de kernel.En mode manuel, vous pouvez également choisir dans
linuxrc
:Start Installation (Démarrer l'installation),
Installation, puis
Hardware Management Console (Console de gestion du matériel).
Le support d'installation doit être inséré dans la console HMC.
N'oubliez pas de configurer le réseau dans linuxrc
avant de procéder à l'installation. Il n'est pas possible de transmettre des paramètres de démarrage par la suite. De plus, il est très probable que vous ayez besoin d'un accès réseau. Dans linuxrc
, accédez àStart Installation (Démarrer l'installation), puis sélectionnez Network Setup (Configuration du réseau).
Avant d'accorder l'accès au contenu sur le DVD ou le disque Flash de la console HMC, attendez que le système Linux démarre. L'exécution d'un IPL peut interrompre la connexion entre la console HMC et la partition LPAR. Si la première tentative d'utilisation de la méthode décrite échoue, vous pouvez accorder l'accès et réessayer l'option HMC
.
Étant donné la nature transitoire de l'assignation, les fichiers du disque Flash ou du DVD ne resteront pas en tant que dépôt pour l'installation. Si vous avez besoin d'un dépôt d'installation, enregistrez et utilisez le dépôt en ligne.
4.2.2 Types d'installation #
Cette section traite des étapes à exécuter pour installer SUSE Linux Enterprise Server pour tous les modes d'installation et de la méthode de recherche des informations appropriées. Une fois les étapes de préparation décrites dans les chapitres précédents effectuées, suivez la présentation du mode d'installation souhaité pour installer SUSE Linux Enterprise Server sur votre système.
Comme le décrit la Section 4.2.1, « Mise à disposition des données d'installation », il existe trois modes différents d'installation pour Linux sur IBM Z :
Installation LPAR
Installation z/VM
Installation invité KVM
Préparez les périphériques requis pour l'installation. Reportez-vous à la Section 4.2.3.1, « Préparation de l'IPL d'une installation LPAR ».
Exécutez un IPL sur le système d'installation. Reportez-vous à la Section 4.2.4.1, « Exécution d'un IPL sur une installation LPAR ».
Configurez le réseau. Reportez-vous à la Section 4.2.5, « Configuration réseau ».
Connectez-vous au système d'installation de SUSE Linux Enterprise Server. Reportez-vous à la Section 4.2.6, « Connexion au système d'installation de SUSE Linux Enterprise Server ».
Lancez l'installation avec YaST et exécutez un IPL sur le système installé. Reportez-vous au Chapitre 6, Installation avec YaST.
Préparez les périphériques requis pour l'installation. Reportez-vous à la Section 4.2.3.2, « Préparation de l'IPL d'une installation z/VM ».
Exécutez un IPL sur le système d'installation. Reportez-vous à la Section 4.2.4.2, « Exécution d'un IPL sur une installation z/VM ».
Configurez le réseau. Reportez-vous à la Section 4.2.5, « Configuration réseau ».
Connectez-vous au système d'installation de SUSE Linux Enterprise Server. Reportez-vous à la Section 4.2.6, « Connexion au système d'installation de SUSE Linux Enterprise Server ».
Lancez l'installation avec YaST et exécutez un IPL sur le système installé. Reportez-vous au Chapitre 6, Installation avec YaST.
Créez une image de disque virtuel et écrivez un fichier XML de domaine. Reportez-vous à la Section 4.2.3.3, « Préparation de l'IPL d'une installation invité KVM ».
Préparez la cible d'installation et exécutez un IPL sur l'invité de machine virtuelle. Reportez-vous à la Section 4.2.4.3, « Exécution d'un IPL sur une installation invité KVM ».
Section 4.2.5.3, « Configuration du réseau et sélection de la source d'installation ».
Connectez-vous au système d'installation de SUSE Linux Enterprise Server. Reportez-vous à la Section 4.2.6, « Connexion au système d'installation de SUSE Linux Enterprise Server ».
Lancez l'installation avec YaST et exécutez un IPL sur le système installé. Reportez-vous au Chapitre 6, Installation avec YaST.
4.2.3 Préparation de l'IPL du système d'installation de SUSE Linux Enterprise Server #
4.2.3.1 Préparation de l'IPL d'une installation LPAR #
Configurez votre système IBM Z pour qu'il démarre en mode ESA/S390 ou Linux seul avec un profil d'activation approprié et IOCDS. Pour plus d'informations sur cette procédure, reportez-vous à la documentation IBM. Reportez-vous à la Section 4.2.4.1, « Exécution d'un IPL sur une installation LPAR ».
4.2.3.2 Préparation de l'IPL d'une installation z/VM #
4.2.3.2.1 Ajout d'un invité Linux #
Pour commencer, connectez et formatez un ou plusieurs DASD sur le système que l'invité Linux doit utiliser dans z/VM. Créez ensuite un nouvel utilisateur dans z/VM. Cet exemple illustre le répertoire pour un utilisateur LINUX1
avec le mot de passe LINPWD
, une mémoire de 1 Go (pouvant atteindre 2 Go), une mémoire vive étendue de 32 Mo (XSTORE), plusieurs minidisques (MDISK), deux unités centrales et un périphérique OSA QDIO.
Lorsque vous affectez de la mémoire à un invité z/VM, assurez-vous que la taille de la mémoire est adaptée aux besoins de votre type d'installation préférée. Reportez-vous à la Section 4.1.1.1.1, « Prérequis système liés à la mémoire ». Pour définir la taille de la mémoire sur 1 Go, utilisez la commande CP DEFINE STORAGE 1G
. À la fin de l'installation, réinitialisez la taille de la mémoire vers la valeur souhaitée.
USER LINUX1 LINPWD 1024M 2048M G *____________________________________________ * LINUX1 *____________________________________________ * This VM Linux guest has two CPUs defined. CPU 01 CPUID 111111 CPU 02 CPUID 111222 IPL CMS PARM AUTOCR IUCV ANY IUCV ALLOW MACH ESA 10 OPTION MAINTCCW RMCHINFO SHARE RELATIVE 2000 CONSOLE 01C0 3270 A SPOOL 000C 2540 READER * SPOOL 000D 2540 PUNCH A SPOOL 000E 3203 A * OSA QDIO DEVICE DEFINITIONS DEDICATE 9A0 9A0 DEDICATE 9A1 9A1 DEDICATE 9A2 9A2 * LINK MAINT 0190 0190 RR LINK MAINT 019E 019E RR LINK MAINT 019D 019D RR * MINIDISK DEFINITIONS MDISK 201 3390 0001 0050 DASD40 MR ONE4ME TWO4ME THR4ME MDISK 150 3390 0052 0200 DASD40 MR ONE4ME TWO4ME THR4ME MDISK 151 3390 0253 2800 DASD40 MR ONE4ME TWO4ME THR4ME
Cet exemple utilise un minidisque 201 comme disque d'un invité. Le minidisque 150 avec 200 cylindres est le périphérique de commutation Linux. Le disque 151 avec 2 800 cylindres contient l'installation Linux.
A ce stade, ajoutez (en tant qu'utilisateur MAINT
) l'invité au répertoire utilisateur avec la commande DIRM FOR LINUX1 ADD
. Saisissez le nom de l'invité (LINUX1
) et appuyez sur la touche F5. Configurez l'environnement de l'utilisateur avec :
DIRM DIRECT DIRM USER WITHPASS
La dernière commande renvoie un numéro de fichier du lecteur. Ce numéro est requis pour exécuter la commande suivante :
RECEIVE <number> USER DIRECT A (REPL)
Vous pouvez désormais vous connecter sur Invité en tant qu'utilisateur Linux1
.
Si l'option dirmaint
n'est pas disponible, reportez-vous à la documentation IBM pour configurer cet utilisateur.
Reportez-vous à la Section 4.2.4.2, « Exécution d'un IPL sur une installation z/VM ».
4.2.3.3 Préparation de l'IPL d'une installation invité KVM #
Une installation d'invité KVM nécessite un fichier XML de domaine définissant la machine virtuelle et au moins une image de disque virtuel pour l'installation.
4.2.3.3.1 Création d'une image de disque virtuel #
Par défaut, libvirt recherche des images de disque dans le dossier /var/lib/libvirt/images/
sur le serveur hôte de machine virtuelle. Bien que les images puissent aussi être stockées n'importe où ailleurs sur le système de fichiers, il est recommandé de les enregistrer toutes à un emplacement unique pour faciliter leur maintenance. L'exemple suivant crée une image qcow2 avec une taille de 10 Go dans le dossier /var/lib/libvirt/images/
. Pour plus d'informations, reportez-vous au Book “Virtualization Guide”, Chapter 28 “Guest Installation”, Section 28.2 “Managing Disk Images with qemu-img
”.
Connectez-vous au serveur hôte KVM.
Exécutez la commande suivante pour créer l'image :
qemu-img create -f qcow2 /var/lib/libvirt/images/s12lin_qcow2.img 10G
4.2.3.3.2 Écriture d'un fichier XML de domaine #
Un fichier XML de domaine est utilisé pour définir l'invité de machine virtuelle. Pour créer le fichier XML de domaine, ouvrez un fichier vide s12-1.xml
dans un éditeur et créez un fichier comme dans l'exemple suivant.
L'exemple suivant crée un invité de machine virtuelle avec un seul processeur, 1 Go de RAM et l'image de disque virtuel créée à la section précédente (Section 4.2.3.3.1, « Création d'une image de disque virtuel »). Il part du principe que l'interface réseau hôte à laquelle est associé le serveur virtuel est bond0
. Modifiez l'élément de périphériques source pour qu'il corresponde à votre configuration réseau.
<domain type="kvm"> <name>s12-1</name> <description>Guest-System SUSE Sles12</description> <memory>1048576</memory> <vcpu>1</vcpu> <os> <type arch="s390x" machine="s390-ccw-virtio">hvm</type> <!-- Boot kernel - remove 3 lines after successfull installation --> <kernel>/var/lib/libvirt/images/s12-kernel.boot</kernel> <initrd>/var/lib/libvirt/images/s12-initrd.boot</initrd> <cmdline>linuxrcstderr=/dev/console</cmdline> </os> <iothreads>1</iothreads> <on_poweroff>destroy</on_poweroff> <on_reboot>restart</on_reboot> <on_crash>preserve</on_crash> <devices> <emulator>/usr/bin/qemu-system-s390x</emulator> <disk type="file" device="disk"> <driver name="qemu" type="qcow2" cache="none" iothread="1" io="native"/> <source file="/var/lib/libvirt/images/s12lin_qcow2.img"/> <target dev="vda" bus="virtio"/> </disk> <interface type="direct"> <source dev="bond0" mode="bridge"/> <model type="virtio"/> </interface> <console type="pty"> <target type="sclp"/> </console> </devices> </domain>
4.2.4 Exécution d'un IPL sur le système d'installation de SUSE Linux Enterprise Server #
4.2.4.1 Exécution d'un IPL sur une installation LPAR #
Il existe différentes façons d'exécuter un IPL sur SUSE Linux Enterprise Server au sein d'une partition LPAR. La méthode recommandée est d'utiliser la fonction de SE ou HMC.
4.2.4.1.1 Exécution d'un IPL à partir d'un DVD-ROM #
Cochez le LPAR à installer, puis sélectionnez
. Ne remplissez pas le champ relatif à l'emplacement du fichier ou saisissez le chemin d'accès au répertoire racine du premier DVD-ROM, puis sélectionnez Continuer. Dans la liste des options qui s'affiche, sélectionnez l'emplacement par défaut. doit afficher les messages de démarrage du kernel.4.2.4.1.2 Exécution d'un IPL à partir d'un DVD SCSI associé FCP #
Vous pouvez utiliser la procédure
en sélectionnant comme pour exécuter un IPL à partir de SCSI. Entrez le WWPN (Worldwide port name, Identifiant unique de port) et le LUN (Logical unit number, Identifiant d'unité logique) fournis par votre pont ou stockage SCSI (16 chiffres ; ne pas oublier les 0 à droite). Le sélecteur du programme de démarrage doit être réglé sur 2. Utilisez votre adaptateur FCP comme et exécutez un IPL.4.2.4.2 Exécution d'un IPL sur une installation z/VM #
Cette section traite de l'exécution d'un IPL sur le système d'installation afin d'installer SUSE Linux Enterprise Server for IBM Z sur un système z/VM.
4.2.4.2.1 Exécution d'un IPL à partir du lecteur z/VM #
Vous avez besoin d'une bonne connexion TCP/IP et d'un programme client FTP dans votre invité z/VM récemment défini pour transférer le système d'installation via FTP. La configuration de TCP/IP pour z/VM ne sera pas abordée dans ce manuel. À ce propos, reportez-vous à la documentation IBM appropriée.
Connectez-vous en tant qu'invité Linux z/VM pour exécuter un IPL. Rendez le contenu du répertoire /boot/s390x
du DVD 1 de SUSE Linux Enterprise Server for IBM Z accessible via FTP sur votre réseau. Récupérez les fichiers linux
, initrd
, parmfile
et sles12.exec
dans ce répertoire. Transférez les fichiers avec une taille de blocs fixe de 80 caractères. Spécifiez la taille en exécutant la commande FTP locsite fix 80
. Il est important de copier les fichiers linux
(kernel Linux) et initrd
(image d'installation) comme fichiers binaires. Pour ce faire, utilisez le mode de transfert binary
. Les fichiers parmfile
et sles12.exec
doivent être transférés en mode ASCII.
L'exemple montre les étapes requises. Dans cet exemple, les fichiers requis sont accessibles sur un serveur FTP à l'adresse IP 192.168.0.3
, avec l'ID de connexion lininst
. Ces informations peuvent varier selon le réseau.
FTP 192.168.0.3 VM TCP/IP FTP Level 530 Connecting to 192.168.0.3, port 21 220 ftpserver FTP server (Version wu-2.4.2-academ[BETA-18](1) Thu Feb 11 16:09:02 GMT 2010) ready. USER lininst 331 Password required for lininst PASS ****** 230 User lininst logged in. Command: binary 200 Type set to I Command: locsite fix 80 Command: get /media/dvd1/boot/s390x/linux sles12.linux 200 PORT Command successful 150 Opening BINARY mode data connection for /media/dvd1/boot/s390x/linux (10664192 bytes) 226 Transfer complete. 10664192 bytes transferred in 13.91 seconds. Transfer rate 766.70 Kbytes/sec. Command: get /media/dvd1/boot/s390x/initrd sles12.initrd 200 PORT Command successful 150 Opening BINARY mode data connection for /media/dvd1/boot/s390x/initrd (21403276 bytes) 226 Transfer complete. 21403276 bytes transferred in 27.916 seconds. Transfer rate 766.70 Kbytes/sec. Command: ascii 200 Type set to A Command: get /media/dvd1/boot/s390x/parmfile sles12.parmfile 150 Opening ASCII mode data connection for /media/dvd1/boot/s390x/parmfile (5 bytes) 226 Transfer complete. 5 bytes transferred in 0.092 seconds. Transfer rate 0.05 Kbytes/sec. Command: get /media/dvd1/boot/s390x/sles12.exec sles12.exec 150 Opening ASCII mode data connection for /media/dvd1/boot/s390x/sles12.exec (891 bytes) 226 Transfer complete. 891 bytes transferred in 0.097 seconds. Transfer rate 0.89 Kbytes/sec. Command: quit
Utilisez le fichier sles12.exec de script REXX que vous avez téléchargé pour exécuter un IPL sur le système d'installation Linux. Ce script charge le kernel, le fichier parmfile et le disque virtuel initial dans le lecteur pour exécuter un IPL.
/* REXX LOAD EXEC FOR SUSE LINUX S/390 VM GUESTS */ /* LOADS SUSE LINUX S/390 FILES INTO READER */ SAY '' SAY 'LOADING SLES12 FILES INTO READER...' 'CP CLOSE RDR' 'PURGE RDR ALL' 'SPOOL PUNCH * RDR' 'PUNCH SLES12 LINUX A (NOH' 'PUNCH SLES12 PARMFILE A (NOH' 'PUNCH SLES12 INITRD A (NOH' 'IPL 00C'
Ce script permet d'exécuter un IPL sur le système d'installation de SUSE Linux Enterprise Server avec la commande sles12
. Le kernel Linux démarre et imprime ses messages de démarrage.
Pour continuer l'installation, passez à la Section 4.2.5, « Configuration réseau ».
4.2.4.2.2 Exécution d'un IPL à partir d'un DVD SCSI associé FCP #
Pour exécuter un IPL dans z/VM, préparez le processus IPL de SCSI en utilisant le paramètre SET LOADDEV :
SET LOADDEV PORTNAME 200400E8 00D74E00 LUN 00020000 00000000 BOOT 2
Une fois le paramètre LOADDEV configuré avec les valeurs appropriées, exécutez un IPL sur votre adaptateur FCP, par exemple :
IPL FC00
Pour continuer l'installation, passez à la Section 4.2.5, « Configuration réseau ».
4.2.4.2.3 IPL à partir d'un serveur Cobbler avec zPXE #
Pour exécuter un IPL à partir d'un serveur Cobbler avec zPXE, vous devez transférer le script zpxe.rexx
via FTP du serveur Cobbler vers votre invité z/VM. L'invité z/VM a besoin d'une connexion TCP/IP opérationnelle et d'un programme client FTP.
Connectez-vous en tant qu'invité z/VM Linux pour effectuer un chargement IPL et transférer le script avec une taille fixe de 80 caractères en mode ASCII (voir Exemple 4.3, « Transfert de fichiers binaires via le serveur FTP », par exemple). Le script zpxe.rexx
est disponible sur le serveur Cobbler à l'emplacement /usr/share/doc/packages/S390-Tools /
.
zpxe.rexx
est censé remplacer le fichier PROFILE EXEC
de votre invité. Effectuez une copie de sauvegarde du fichier PROFILE EXEC
et renommez ZPXE REXX
en PROFILE EXEC
. Une autre solution consiste à appeler ZPXE REXX
à partir du fichier PROFILE EXEC
existant en ajoutant une nouvelle ligne avec le contenu suivant : 'ZPXE REXX'
.
La dernière étape consiste à créer un fichier de configuration, ZPXE CONF
, en indiquant à ZPXE REXX
le serveur Cobbler à contacter et le disque à charger par IPL. Exécutez xedit zpxe conf a
et créez ZPXE CONF
avec le contenu suivant (remplacez les données d'exemple en conséquence) :
HOST cobbler.example.com IPLDISK 600
Le serveur Cobbler sera connecté lors de la prochaine connexion à votre invité z/VM. Si une installation est programmée sur le serveur Cobbler, elle est exécutée. Pour programmer l'installation, exécutez la commande suivante sur le serveur Cobbler :
cobbler system edit --name ID1 --netboot-enabled 12 --profile PROFILENAME3
ID utilisateur z/VM. | |
Activez le chargement IPL à partir du réseau. | |
Nom du profil existant, voir Section 4.2.1.3.3, « Réglage du profil ». |
4.2.4.3 Exécution d'un IPL sur une installation invité KVM #
Pour démarrer l'installation de l'invité, vous devez tout d'abord démarrer l'invité de machine virtuelle défini à la Section 4.2.3.3.1, « Création d'une image de disque virtuel ». Pour ce faire, vous devez commencer par rendre disponibles les fichiers kernel et initrd requis pour exécuter l'IPL.
4.2.4.3.1 Préparation de la source d'installation #
Le kernel et l'image initrd du système d'installation doivent être copiés sur le serveur hôte de machine virtuelle pour permettre l'exécution d'un IPL sur l'invité de machine virtuelle sur le système d'installation.
Connectez-vous à l'hôte KVM et assurez-vous que vous pouvez vous connecter à l'hôte distant ou au périphérique qui fournit la source d'installation.
Copiez les deux fichiers suivants de la source d'installation vers l'emplacement
/var/lib/libvirt/images/
. Si les données sont fournies à partir d'un hôte distant, utilisezftp
,sftp
ouscp
pour transférer les fichiers :/boot/s390x/initrd
/boot/s390x/cd.ikr
Renommez les fichiers sur l'hôte KVM :
cd /var/lib/libvirt/images/ mv initrd s12-initrd.boot mv cd.ikr s12-kernel.boot
4.2.4.3.2 Exécution d'un IPL sur l'invité de machine virtuelle #
Pour exécuter un IPL sur l'invité de machine virtuelle, connectez-vous à l'hôte KVM et exécutez la commande suivante :
virsh create s12-1.xml --console
Une fois le démarrage de l'invité de machine virtuelle effectué, le système d'installation démarre et le message suivant s'affiche :
Domain s12-1 started Connected to domain s12-1 Escape character is ^] Initializing cgroup subsys cpuset Initializing cgroup subsys cpu Initializing cgroup subsys cpuacct . . Please make sure your installation medium is available. Retry? 0) <-- Back <-- 1) Yes 2) No
Répondez Section 4.2.5.3, « Configuration du réseau et sélection de la source d'installation ».
(Non) et choisissez à l'étape suivante. Procédez comme décrit à la4.2.5 Configuration réseau #
Patientez jusqu'à ce que le kernel ait terminé ses routines de démarrage. Si vous effectuez une installation en mode basique ou dans un LPAR, ouvrez le menu
sur HMC ou SE.Pour commencer, choisissez Section 4.2.1, « Mise à disposition des données d'installation » décrit comment mettre à disposition les données d'installation pour différents types de connexions réseau. Actuellement, , , et (partage de fichiers Windows) sont pris en charge.
dans le menu principal linuxrc, puis pour lancer le processus d'installation. Sélectionnez comme support d'installation, puis sélectionnez le type de protocole réseau qui sera utilisé pour l'installation. LaSélectionnez, dans la liste des périphériques disponibles, un périphérique réseau OSA ou HiperSockets sur lequel consigner les données d'installation. Il se peut que cette liste contienne également des périphériques CTC, ESCON ou IUCV, mais ces derniers ne sont plus pris en charge sur SUSE Linux Enterprise Server.
4.2.5.1 Configuration d'une interface HiperSockets #
Sélectionnez un périphérique HiperSockets dans la liste des périphériques réseau. Saisissez ensuite les numéros des canaux de lecture, d'écriture et de données :
Choose the network device. 1) IBM parallel CTC Adapter (0.0.0600) 2) IBM parallel CTC Adapter (0.0.0601) 3) IBM parallel CTC Adapter (0.0.0602) 4) IBM Hipersocket (0.0.0800) 5) IBM Hipersocket (0.0.0801) 6) IBM Hipersocket (0.0.0802) 7) IBM OSA Express Network card (0.0.0700) 8) IBM OSA Express Network card (0.0.0701) 9) IBM OSA Express Network card (0.0.0702) 10) IBM OSA Express Network card (0.0.f400) 11) IBM OSA Express Network card (0.0.f401) 12) IBM OSA Express Network card (0.0.f402) 13) IBM IUCV > 4 Device address for read channel. (Enter '+++' to abort). [0.0.800]> 0.0.800 Device address for write channel. (Enter '+++' to abort). [0.0.801]> 0.0.801 Device address for data channel. (Enter '+++' to abort). [0.0.802]> 0.0.802
4.2.5.2 Configuration d'un périphérique OSA Express #
Sélectionnez un périphérique OSA Express dans la liste des périphériques réseau, puis indiquez un numéro de port. Saisissez ensuite les numéros des canaux de lecture, d'écriture et de données, ainsi que le nom du port, le cas échéant. Choisissez si vous souhaitez activer la prise en charge de la couche OSI de niveau 2.
Le numéro de port a été ajouté pour permettre la prise en charge des nouveaux périphériques réseau OSA Express 3 à 2 ports. Si vous n'utilisez pas de périphérique OSA Express 3, veuillez saisir 0
. Les cartes OSA Express peuvent aussi s'exécuter dans un mode de « prise en charge de la couche OSI de niveau 2 » ou utiliser un mode commun plus ancien « couche de niveau 3 ». Le mode de la carte affecte tous les systèmes qui partagent le périphérique, y compris les systèmes sur d'autres LPAR. Si vous avez un doute, indiquez 2
pour assurer une compatibilité avec le mode par défaut utilisé par les autres systèmes d'exploitation, comme z/VM et z/OS. Consultez votre administrateur de matériel pour obtenir plus d'informations sur ces options.
Choose the network device. 1) IBM parallel CTC Adapter (0.0.0600) 2) IBM parallel CTC Adapter (0.0.0601) 3) IBM parallel CTC Adapter (0.0.0602) 4) IBM Hipersocket (0.0.0800) 5) IBM Hipersocket (0.0.0801) 6) IBM Hipersocket (0.0.0802) 7) IBM OSA Express Network card (0.0.0700) 8) IBM OSA Express Network card (0.0.0701) 9) IBM OSA Express Network card (0.0.0702) 10) IBM OSA Express Network card (0.0.f400) 11) IBM OSA Express Network card (0.0.f401) 12) IBM OSA Express Network card (0.0.f402) 13) IBM IUCV > 7 Enter the relative port number. (Enter '+++' to abort). > 0 Device address for read channel. (Enter '+++' to abort). [0.0.0700]> 0.0.0700 Device address for write channel. (Enter '+++' to abort). [0.0.0701]> 0.0.0701 Device address for data channel. (Enter '+++' to abort). [0.0.0702]> 0.0.0702 Enable OSI Layer 2 support? 0) <-- Back <-- 1) Yes 2) No > 1 MAC address. (Enter '+++' to abort). > +++
4.2.5.3 Configuration du réseau et sélection de la source d'installation #
Après avoir saisi tous les paramètres de périphérique réseau, le pilote approprié est installé et les messages de kernel correspondants sont affichés.
Ensuite, choisissez d'utiliser ou non la configuration automatique DHCP pour configurer les paramètres de l'interface réseau. Étant donné que DHCP fonctionne uniquement sur quelques périphériques et qu'il requiert des paramètres de configuration matérielle spécifiques, il est préférable de cliquer sur
à cet endroit. Dans ce cas, vous êtes invité à indiquer les paramètres suivants :L'adresse IP du système à installer
Le masque de réseau correspondant (s'il n'a pas été spécifié avec l'adresse IP).
L'adresse IP d'une passerelle pour accéder au serveur
La liste des domaines de recherche couverts par le serveur DNS
L'adresse IP du serveur de noms de domaine
Automatic configuration via DHCP? 0) <-- Back <-- 1) Yes 2) No > 2 Enter your IP address with network prefix. You can enter more than one, separated by space, if necessary. Leave empty for autoconfig. Examples: 192.168.5.77/24 2001:db8:75:fff::3/64. (Enter '+++' to abort). > 192.168.0.20/24 Enter your name server IP address. You can enter more than one, separated by space, if necessary. Leave empty if you don't need one. Examples: 192.168.5.77 2001:db8:75:fff::3. (Enter '+++' to abort). > 192.168.0.1 Enter your search domains, separated by a space:. (Enter '+++' to abort). > example.com Enter the IP address of your name server. Leave empty if you do not need one. (En ter '+++' to abort). > 192.168.0.1
Pour terminer, vous êtes invité à saisir des informations sur le serveur d'installation, telles que l'adresse IP, le répertoire contenant les données d'installation et les références de connexion. Dès que vous avez saisi toutes les données requises, le système d'installation est chargé.
4.2.6 Connexion au système d'installation de SUSE Linux Enterprise Server #
Après avoir chargé le système d'installation, linuxrc veut connaître le type d'affichage que vous comptez utiliser pour contrôler la procédure d'installation. Vous pouvez choisir parmi X11
(système X Window), VNC
(protocole Virtual Network Computing), SSH
(mode texte ou installation X11 via un shell sécurisé) ou la console ASCII
. Il est conseillé de sélectionner VNC
ou SSH
.
Si vous optez pour la console ASCII
, YaST démarre en mode texte et vous pouvez exécuter l'installation directement sur votre terminal. Pour plus d'informations sur l'utilisation de YaST en mode texte, reportez-vous au Book “Administration Guide”, Chapter 5 “YaST in Text Mode”. L'utilisation de la console ASCII
ne s'avère utile qu'en cas d'installation dans une partition logique.
Pour permettre le fonctionnement avec YaST en mode texte, il est nécessaire de procéder à l'exécution dans un terminal avec une émulation Linux/VT220 (également appelée console ASCII
). Vous ne pouvez pas utiliser YaST sur un terminal 3270, par exemple.
4.2.6.1 Lancement de l'installation pour VNC #
Une fois que l'option d'installation
VNC
a été choisie, le serveur VNC démarre. Une brève information affichée dans la console fournit des informations sur l'adresse IP et le numéro d'affichage requis pour une connexion à l'aide de vncviewer.Démarrez une application client VNC sur votre système client.
Saisissez l'adresse IP et le numéro d'affichage du système d'installation de SUSE Linux Enterprise Server lorsque vous y êtes invité.
Une fois la connexion établie, commencez par installer SUSE Linux Enterprise Server avec YaST.
4.2.6.2 Lancement de l'installation pour le système X Window #
L'installation directe avec le système X Window repose sur un mécanisme d'authentification primitif basé sur des noms d'hôte. Ce mécanisme est désactivé dans les versions actuelles de SUSE Linux Enterprise Server. Il est préférable de procéder à une installation avec SSH ou VNC.
Assurez-vous que le serveur X permet au client (le système installé) de se connecter. Définissez la variable
DISPLAYMANAGER_XSERVER_TCP_PORT_6000_OPEN="yes"
dans le fichier/etc/sysconfig/displaymanager
. Ensuite, redémarrez le serveur X et permettez la connexion du client au serveur à l'aide dexhost <client IP address>
.À l'invite du système d'installation, saisissez l'adresse IP de la machine exécutant le serveur X.
Patientez jusqu'à ce que YaST s'ouvre, puis démarrez l'installation.
4.2.6.3 Lancement de l'installation pour SSH #
Pour se connecter à un système d'installation avec le nom earth
en utilisant SSH, exécutez ssh -X earth
. Si votre poste de travail s'exécute sous Microsoft Windows, utilisez le client SSH et Telnet, ainsi que l'émulateur de terminal Putty, disponible sur le site http://www.chiark.greenend.org.uk/~sgtatham/putty/. Définissez l'option (Activer le transfert X11) dans Putty sous › › . Si vous utilisez un autre système d'exploitation, exécutez ssh -X earth
pour vous connecter à un système d'installation avec le nom Earth
. Le transfert X via SSH est pris en charge, pour autant que vous disposiez d'un serveur X local. Dans le cas contraire, YaST fournit une interface texte via ncurses.
Une invite de connexion apparaît. Saisissez root
et connectez-vous en saisissant votre mot de passe. Saisissez la commande yast.ssh
pour démarrer YaST. YaST vous guide ensuite tout au long du processus d'installation.
Passez à la description détaillée de la procédure d'installation disponible au Chapitre 6, Installation avec YaST.
4.2.7 Procédure de démarrage de SUSE Linux Enterprise Server sur IBM Z #
Le processus de démarrage de SLES 10 et 11 a suivi le schéma suivant. Pour plus d'informations, reportez-vous à la documentation fournie sur le site http://www.ibm.com/developerworks/linux/linux390/documentation_suse.html.
Indiquez le kernel.
Indiquez ou créez un fichier initrd pour le kernel spécifié.
Indiquez les chemins corrects du fichier initrd et du kernel dans le fichier
/etc/zipl.conf
.Installez la configuration fournie au système par
/etc/zipl.conf
.
SLES 12 introduit un changement dans la façon dont SUSE Linux Enterprise Server démarre sur IBM Z. Ce changement s'explique par plusieurs raisons :
Alignement sur d'autres architectures : d'un point de vue administratif, les systèmes SLES doivent se comporter de la même façon quelle que soit l'architecture.
Btrfs : le chargeur d'amorçage zipl est techniquement incompatible avec Btrfs, le nouveau système de fichiers racine par défaut pour SLES (reportez-vous au Book “Storage Administration Guide”, Chapter 1 “Overview of File Systems in Linux”, Section 1.2 “Btrfs” pour plus de détails).
Prise en charge des retours à l'état initial du système avec Snapper : utilisé conjointement avec Btrfs, Snapper fournit des instantanés du système démarrables qui peuvent être utilisés pour les retours à l'état initial du système (reportez-vous au Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper” pour plus de détails).
De ce fait, à partir de SLES 12, GRUB 2 remplace zipl sur SUSE Linux Enterprise Server for IBM Z. GRUB 2 sur l'architecture AMD64/Intel 64 comprend des pilotes de périphérique au niveau du microprogramme pour accéder au système de fichiers. Le macroordinateur ne contient pas de microprogramme et l'ajout de ccw
à GRUB 2 représenterait une tâche considérable, mais nécessiterait aussi la réimplémentation de zipl dans GRUB 2. Par conséquent, SUSE Linux Enterprise Server utilise une approche en deux étapes :
- Première étape :
Une partition distincte contenant le kernel et un fichier initrd est montée sur
/boot/zipl
(opération comparable à/boot/efi
sur les plates-formes UEFI). Ce kernel et le fichier initrd sont chargés via la commande zipl et utilisent la configuration mentionnée dans le fichier/boot/zipl/config
.Cette configuration ajoute le mot clé
initgrub
à la ligne de commande du kernel. Une fois que le kernel et le fichier initrd sont chargés, le fichier initrd active les périphériques requis pour monter le système de fichiers racine (voir le fichier/boot/zipl/active_devices.txt
). Ensuite, un programme d'espace utilisateur GRUB 2 est lancé afin de lire le fichier/boot/grub2/grub.cfg
.- Deuxième étape :
Le kernel et le fichier initrd dans le fichier
/boot/grub2/grub.cfg
sont démarrés à l'aide de la commandekexec
. Les périphériques répertoriés dans/boot/zipl/active_devices.txt
qui sont nécessaires pour démarrer le système sur le disque sont activés. Les autres périphériques de cette liste seront autorisés, mais ignorés si non requis. Le système de fichiers racine est monté et la procédure de démarrage se poursuit comme sur les autres architectures.
4.3 Fichier parmfile : automatisation de la configuration du système #
Vous pouvez en partie automatiser le processus d'installation en spécifiant les paramètres déterminants dans le fichier parmfile
. Le fichier parmfile
contient toutes les données requises pour la configuration réseau et la configuration DASD. Il peut en outre être utilisé pour configurer la méthode de connexion au système d'installation de SUSE Linux Enterprise Server et l'instance de YaST exécutée à cet endroit. L'intervention de l'utilisateur se limite donc à l'installation de YaST à l'aide des boîtes de dialogue YaST.
Vous pouvez transférer les paramètres suivants à la routine d'installation. Ils sont alors considérés comme des valeurs par défaut pour l'installation. Les adresses IP, les noms de serveurs et les valeurs numériques sont donnés à titre d'exemples. Remplacez ces valeurs par celles dont vous avez besoin dans votre scénario d'installation.
Le nombre de lignes dans le fichier parmfile est limité à 10. Spécifiez plusieurs paramètres par ligne. Les noms de ces paramètres ne tiennent pas compte des majuscules et des minuscules. Séparez les paramètres par des espaces. Vous pouvez spécifier les paramètres dans n'importe quel ordre. Conservez toujours la chaîne PARAMETER=value
sur la même ligne. Par exemple :
Hostname=s390zvm01.suse.de HostIP=10.11.134.65
Par défaut, vous ne pouvez assigner à votre machine que des adresses réseau IPv4. Pour activer IPv6 au cours de l'installation, entrez l'un des paramètres suivants lors de l'invite de démarrage : ipv6=1
(accepter IPv4 et IPv6) ou ipv6only=1
(n'accepter qu'IPv6).
Certains paramètres figurant ci-dessous sont requis. S'ils sont manquants, le processus automatique s'interrompt et vous êtes invité à saisir manuellement la valeur.
4.3.1 Paramètres généraux #
AutoYaST=
<URL>Manual=0
Le paramètre
AutoYaST
indique l'emplacement du fichier de contrôleautoinst.xml
pour l'installation automatique. Le paramètreManuel
contrôle si les autres paramètres sont uniquement des valeurs par défaut qui doivent être approuvées par l'utilisateur. Définissez ce paramètre sur0
si toutes les valeurs doivent être acceptées et si vous voulez qu'aucune question ne soit poser. Le fait de définir le paramètreAutoYaST
entraîne la définition du paramètreManual
sur0
.Info=
<URL>Indique l'emplacement d'un fichier à partir duquel il est possible de lire plus d'options. Cela permet d'ignorer la limite de 10 lignes (et de 80 caractères par ligne sous z/VM) dans le fichier parmfile. Des informations supplémentaires sur le fichier Info sont disponibles dans le Book “AutoYaST”, Chapter 6 “The Auto-Installation Process”, Section 6.3.3 “Combining the linuxrc
info
file with the AutoYaST control file”. Puisque le fichier Info n'est accessible que par le réseau sur IBM z, vous ne pouvez pas l'utiliser pour spécifier les options requises pour la configuration du réseau (c'est-à-dire les options décrites dans la Section 4.3.2, « Configuration de l'interface réseau »). Par ailleurs, les options spécifiques à linuxrc, comme l'option de débogage, doivent être spécifiées dans le fichier parmfile pour être prises en compte.Upgrade=<0|1>
Pour mettre à niveau votre version de SUSE Linux Enterprise, vous devez spécifier
Upgrade=1
. Par conséquent, un fichier parmfile personnalisé est requis pour la mise à niveau d'une installation existante de SUSE Linux Enterprise. En l'absence de ce paramètre, l'installation ne fournit aucune option de mise à niveau.
4.3.2 Configuration de l'interface réseau #
Les paramètres évoqués dans cette section s'appliquent uniquement à l'interface réseau utilisée lors de l'installation. Configurez des interfaces réseau supplémentaires sur le système installé en suivant les instructions du Book “Administration Guide”, Chapter 17 “Basic Networking”, Section 17.6 “Configuring a Network Connection Manually”.
Hostname=zsystems.example.com
Entrez le nom d'hôte complet.
Domain=exemple.com
Chemin de recherche du domaine pour DNS. Cela vous permet d'utiliser des noms d'hôtes plus courts à la place des noms d'hôtes complets.
HostIP=192.168.1.2
Saisissez l'adresse IP de l'interface à configurer.
Gateway=192.168.1.3
Spécifiez la passerelle à utiliser.
Nameserver=192.168.1.4
Spécifiez le serveur DNS responsable.
InstNetDev=osa
Saisissez le type d'interface à configurer. Les valeurs possibles sont
osa
,hsi
,ctc
,escon
etiucv
(CTC, ESCON et IUCV ne sont officiellement plus pris en charge).Pour les interfaces de type
hsi
etosa
, spécifiez un maque réseau approprié et une adresse de diffusion facultative :Netmask=255.255.255.0 Broadcast=192.168.255.255
Pour les interfaces de type
ctc
,escon
etiucv
(les interfaces CTC, ESCON et IUCV n'étant plus officiellement prises en charge), saisissez l'adresse IP du pair :Pointopoint=192.168.55.20
OsaInterface=<lcs|qdio>
Pour les périphériques réseau
osa
, spécifiez l'interface hôte (qdio
oulcs
).Layer2=<0|1>
Pour les périphériques Ethernet QDIO
osa
et les périphériqueshsi
, indiquez si vous souhaitez activer (1
) ou désactiver (0
) la prise en charge de la couche OSI niveau 2.OSAHWAddr=02:00:65:00:01:09
Pour les périphériques Ethernet QDIO
osa
prenant en charge la couche 2, spécifiez l'adresse MAC manuellement ou indiquezOSAHWADDR=
(avec un espace à droite) comme valeur système par défaut.PortNo=<0|1>
Pour les périphériques réseau
osa
, spécifiez le numéro de port, à condition que le périphérique prenne en charge cette fonction). La valeur par défaut est 0.
Chaque interface requiert des options de configuration spécifiques :
Interfaces
ctc
etescon
(les interfaces CTC et ESCON n'étant plus officiellement prises en charge) :ReadChannel=0.0.0600 WriteChannel=0.0.0601
ReadChannel
indique le canal de lecture à utiliser.WriteChannel
correspond au canal d'écriture.Pour l'interface
ctc
(qui n'est plus officiellement prise en charge), indiquez le protocole à utiliser pour cette interface :CTCProtocol=<0/1/2>
Les entrées correctes sont les suivantes :
0
Mode compatibilité, également pour les pairs non Linux autres que OS/390 et z/OS (mode par défaut)
1
Mode étendu
2
Mode compatibilité avec OS/390 et z/OS
Type de périphérique réseau
osa
avec interfacelcs
:ReadChannel=0.0.0124
ReadChannel
représente le numéro de canal utilisé dans cette configuration. Pour dériver un deuxième numéro de port à partir de ce numéro, ajoutez un numéro àReadChannel
.Portnumber
est utilisé pour spécifier le port associé.Interface
iucv
:IUCVPeer=PEER
Entrez le nom de la machine du pair.
Type de périphérique réseau
osa
avec interfaceqdio
pour OSA-Express Gigabit Ethernet :ReadChannel=0.0.0700 WriteChannel=0.0.0701 DataChannel=0.0.0702
Pour
ReadChannel
, saisissez le numéro du canal de lecture. PourWriteChannel
, saisissez le numéro du canal d'écriture.DataChannel
spécifie le canal de données. Assurez-vous que le canal de lecture porte un numéro de périphérique égal.Interface
hsi
pour HiperSockets et LAN invités VM :ReadChannel=0.0.0800 WriteChannel=0.0.0801 DataChannel=0.0.0802
Pour
ReadChannel
, saisissez le numéro du canal de lecture approprié. PourWriteChannel
etDataChannel
, saisissez les numéros des canaux d'écriture et de données.
4.3.3 Spécification de la source d'installation et de l'interface YaST #
Install=nfs://server/directory/DVD1/
Indiquez l'emplacement de la source d'installation à utiliser. Les protocoles possibles sont
nfs
,smb
(Samba/CIFS),ftp
,tftp
http
ethttps
.Si une URL
ftp
,tftp
ousmb
est indiquée, spécifiez le nom d'utilisateur et le mot de passe avec l'URL. Ces paramètres sont facultatifs, et lorsqu'ils ne sont pas spécifiés, une connexion anonyme ou de type invité est supposée.Install=ftp://USER:PASSWORD@SERVER/DIRECTORY/DVD1/ Install=tftp://USER:PASSWORD@SERVER/DIRECTORY/DVD1/
Si vous souhaitez effectuer l'installation via une connexion chiffrée, utilisez une URL
HTTPS
. Si le certificat ne peut pas être vérifié, utilisez l'option de démarragesslcerts=0
pour désactiver la vérification du certificat.Dans le cas d'une installation Samba ou CIFS, vous pouvez également spécifier le domaine à utiliser :
Install=smb://WORKDOMAIN;USER:PASSWORD@SERVER/DIRECTORY/DVD1/
ssh=1
vnc=1
Display_IP=192.168.42.42
Selon le paramètre que vous avez spécifié, un serveur X distant, SSH ou VNC sera utilisé pour l'installation.
ssh
active l'installation SSH,vnc
démarre un serveur VNC sur la machine d'installation etDisplay_IP
entraîne une tentative de connexion du système d'installation à un serveur X à l'adresse indiquée. Un seul de ces paramètres doit être défini à la fois.Important : mécanisme d'authentification XL'installation directe avec le système X Window repose sur un mécanisme d'authentification primitif basé sur des noms d'hôte. Ce mécanisme est désactivé dans les versions actuelles de SUSE Linux Enterprise Server. Il est préférable de procéder à une installation avec SSH ou VNC.
Pour permettre une connexion entre YaST et le serveur X distant, exécutez
xhost
<Adresse_IP>
avec l'adresse de la machine d'installation sur la machine distante.Pour
VNC
, indiquez un mot de passe composé de 6 à 8 caractères pour l'installation :VNCPassword=<a password>
Pour
SSH
, indiquez un mot de passe composé de 6 à 8 caractères pour l'installation :ssh.password=<a password>
4.3.4 Exemple de fichiers parmfile #
La capacité maximale d'un fichier parmfile est de 860 caractères. En règle générale, ce type de fichier doit contenir, au maximum, 10 lignes de 79 caractères. Lors de la lecture d'un fichier parmfile, toutes les lignes sont concaténées sans ajouter d'espaces. Par conséquent, le dernier caractère (79) de chaque ligne doit être un Space.
Pour recevoir les messages d'erreur potentiels sur la console, utilisez
linuxrclog=/dev/console
ramdisk_size=131072 root=/dev/ram1 ro init=/linuxrc TERM=dumb instnetdev=osa osainterface=qdio layer2=1 osahwaddr= pointopoint=192.168.0.1 hostip=192.168.0.2 nameserver=192.168.0.3 install=nfs://192.168.0.4/SLES/SLES-12-Server/s390x/DVD1 autoyast=http://192.168.0.5/autoinst.xml linuxrclog=/dev/console vnc=1 VNCPassword=testing
ramdisk_size=131072 root=/dev/ram1 ro init=/linuxrc TERM=dumb AutoYast=nfs://192.168.1.1/autoinst/s390.xml Hostname=zsystems.example.com HostIP=192.168.1.2 Gateway=192.168.1.3 Nameserver=192.168.1.4 InstNetDev=hsi layer2=0 Netmask=255.255.255.128 Broadcast=192.168.1.255 readchannel=0.0.702c writechannel=0.0.702d datachannel=0.0.702e install=nfs://192.168.1.5/SLES-12-Server/s390x/DVD1/ ssh=1 ssh.password=testing linuxrclog=/dev/console
4.4 Utilisation de l'émulateur de terminal vt220 #
Des niveaux MicroCode récents permettent d'utiliser un émulateur de terminal (terminal ASCII) vt220 intégré en plus du terminal de mode ligne standard. Le terminal vt220 est connecté à /dev/ttysclp0
. Le terminal de mode ligne est connecté à /dev/ttysclp_line0
. Dans le cas des installations LPAR, l'émulateur de terminal vt220 est activé par défaut.
Pour démarrer la console ASCII sur HMC, connectez-vous à HMC, puis sélectionnez
› › . Sélectionnez la case d'option correspondant à LPAR, puis cliquez sur › (Console ASCII intégrée).
Pour rediriger les messages du kernel au moment du démarrage de la console du système vers le terminal vt220, ajoutez les entrées suivantes à la ligne parameters
dans /etc/zipl.conf
:
console=ttysclp0 console=ttysclp_line0
La ligne parameters
générée ressemble à l'exemple suivant :
parameters = "root=/dev/dasda2 TERM=dumb console=ttysclp0 console=ttysclp_line0"
Enregistrez les modifications dans le fichier /etc/zipl.conf
, exécutez la commande zipl
et redémarrez le système.
4.5 Informations détaillées supplémentaires sur IBM Z #
Vous trouverez de la documentation technique détaillée supplémentaire sur IBM Z dans les publications IBM Redbooks (https://www.redbooks.ibm.com/Redbooks.nsf/domains/zsystems) ou IBM developerWorks (https://www.ibm.com/developerworks/linux/linux390/). De la documentation spécifique à SUSE Linux Enterprise Server est disponible sur le site https://www.ibm.com/developerworks/linux/linux390/documentation_suse.html.
4.5.1 Documents généraux concernant Linux sur IBM Z #
Vous trouverez des informations générales au sujet de Linux sur IBM Z dans les documents suivants :
Linux on IBM eServer zSeries and S/390: ISP and ASP Solutions (Linux sur les systèmes IBM eServer zSeries et S/390 : Solutions FAI et FAH) (SG24-6299)
Ces documents ne reflètent peut-être pas l'état courant de Linux, mais les principes du déploiement Linux décrits à cet endroit restent justes.
4.5.2 Problèmes techniques liés à Linux sous IBM Z #
Pour plus d'informations techniques sur le kernel Linux et ses domaines d'application, reportez-vous aux documents suivants. Pour obtenir des versions mises à jour de ces documents, reportez-vous au site http://www.ibm.com/developerworks/linux/linux390/index.html.
Linux on System z Device Drivers, Features, and Commands (Linux pour pilotes de périphériques System z, fonctionnalités et commandes)
Complément à l'interface d'application binaire zSeries ELF
Linux on System z Device Drivers, Using the Dump Tools (Linux pour pilotes de périphériques System z, utilisation des outils de vidage)
IBM zEnterprise 196 Technical Guide (Guide technique d'IBM zEnterprise 196)
IBM zEnterprise EC12 Technical Guide (Guide technique d'IBM zEnterprise EC12)
IBM z13 Technical Guide (Guide technique d'IBM z13)
Pour obtenir le Livre rouge sur le développement des applications Linux, vous pouvez aussi consulter la page http://www.redbooks.ibm.com :
Linux on IBM eServer zSeries and S/390: Application Development (Linux sur les systèmes IBM eServer zSeries et S/390 : Développement des Applications) (SG24-6807)
4.5.3 Configurations avancées pour Linux sous IBM Z #
Reportez-vous aux documents et liens suivants pour obtenir des scénarios IBM Z plus complexes :
Linux on IBM eServer zSeries and S/390: Large Scale Deployment (Linux sur les systèmes IBM eServer zSeries et S/390 : Déploiement à grande échelle) (SG24-6824)
Linux on IBM eServer zSeries and S/390: Performance Measuring and Tuning (Linux sur les systèmes IBM eServer zSeries et S/390 : Mesure et Ajustement des Performances) (SG24-6926)
Linux with zSeries and ESS: Essentials (Linux avec zSeries et ESS : Les bases essentielles) (SG24-7025)
IBM TotalStorage Enterprise Storage Server Implementing ESS Copy Services with IBM eServer zSeries (IBM TotalStorage Enterprise Storage Server avec ESS Copy Services sur IBM eServer zSeries) (SG24-5680)
Linux on IBM zSeries and S/390: High Availability for z/VM and Linux (Linux sur les systèmes IBM zSeries et S/390 : Haute disponibilité pour z/VM et Linux) (REDP-0220)
Gestion et planification des segments enregistrés
Linux on System z documentation for « Development stream » (Linux avec une documentation sur les systèmes System z pour le « Flux de développement »)
http://www.ibm.com/developerworks/linux/linux390/development_documentation.html
4.5.4 Virtualisation avec KVM sur IBM Z #
Reportez-vous aux documents suivants à l'adresse https://www.ibm.com/developerworks/linux/linux390/documentation_dev.html pour plus d'informations concernant KVM sur IBM Z :
Installing SUSE Linux Enterprise Server 12 as a KVM Guest (Installation de SUSE Linux Enterprise Server 12 en tant qu'invité KVM) (SC34--2755-00)
KVM Virtual Server Quick Start (Démarrage rapide du serveur virtuel KVM) (SC34-2753-01)
KVM Virtual Server Management (Gestion du serveur virtuel KVM) (SC34-2752-01)
Device Drivers, Features, and Commands for Linux as a KVM Guest (Pilotes de périphériques, fonctionnalités et commandes de Linux en tant qu'invité KVM) (kernel 4.4) (SC34-2754-01)
5 Installation sur ARM AArch64 #
Ce chapitre décrit les étapes nécessaires pour préparer l'installation de SUSE Linux Enterprise Server sur des ordinateurs ARM AArch64. Cette section présente les étapes nécessaires pour préparer les différentes méthodes d'installation. La liste des configurations matérielles requises donne un aperçu des systèmes pris en charge par SUSE Linux Enterprise Server. Vous trouverez ici des informations sur les méthodes d'installation possibles et sur plusieurs problèmes connus fréquents. Vous apprendrez également comment contrôler l'installation, fournir des supports d'installation et démarrer par les méthodes habituelles.
5.1 Configuration système pour Linux #
Le système d'exploitation SUSE® Linux Enterprise Server peut être déployé sur une vaste gamme d'équipements matériels. Il est impossible de répertorier toutes les combinaisons de supports SUSE Linux Enterprise Server matériels. Cependant, vous trouverez ci-dessous des informations sur la configuration minimale requise pour vous aider lors de la phase de planification.
Pour garantir le bon fonctionnement d'une configuration d'ordinateur donnée, recherchez les plates-formes certifiées par SUSE. Pour consulter la liste, consultez le site https://www.suse.com/yessearch/.
5.1.1 Matériel pour ARM AArch64 #
- UC
La configuration minimale requise est une unité centrale qui prend en charge l'architecture de jeu d'instructions ARMv8-A, par exemple ARM Cortex-A53 ou Cortex-A57. Consultez la page https://www.arm.com/products/processors/cortex-a/ pour obtenir la liste des processeurs ARMv8-A disponibles.
Les UC ayant une architecture de jeu d'instructions ARMv8-R (en temps réel) et ARMv8-M (microcontrôleur) ne sont actuellement pas prises en charge.
- Nombre maximum d'unités centrales
Le nombre maximum d'unités centrales prises en charge par la conception logicielle est de 128. Si vous avez l'intention d'utiliser un système de cette taille, vérifiez sur notre page Web (https://www.suse.com/yessearch/) que les périphériques sont conformes à la certification système du matériel.
- Configuration requise pour la mémoire
Un minimum de 1 Go de mémoire est requis pour une installation minimale. Cependant, la configuration système minimale recommandée est de 1024 ou de 512 Mo par unité centrale sur les ordinateurs multiprocesseurs. Ajoutez 150 Mo pour une installation à distance via HTTP ou FTP. Notez que ces valeurs ne sont valables que pour l'installation du système d'exploitation. La quantité de mémoire réelle en production dépend de la charge de travail système.
- Configuration requise pour le disque dur
La configuration requise pour le disque dépend en grande partie de l'installation sélectionnée et de votre utilisation de la machine. La configuration minimale des différents éléments est la suivante :
Système
Configuration requise pour le disque dur
Minimum
800 Mo - 1 Go
Interface X Window System minimale
1,4 Go
Bureau GNOME
3,5 Go
Tous les modèles
8,5 Go
Utilisation d'instantanés pour la virtualisation
min. 8 Go
- Méthodes de démarrage
L'ordinateur peut être démarré depuis un CD ou un réseau. Un serveur de démarrage spécifique est requis pour un démarrage sur le réseau. Il peut également être configuré avec SUSE Linux Enterprise Server.
5.2 Considérations relatives à l'installation #
Cette section aborde plusieurs facteurs à prendre en compte avant d'installer SUSE Linux Enterprise Server sur du matériel ARM AArch64.
5.2.1 Type d'installation #
SUSE Linux Enterprise Server est normalement installé en tant que système d'exploitation indépendant. Depuis l'introduction de la virtualisation, il est également possible d'exécuter plusieurs instances de SUSE Linux Enterprise Server sur le même matériel. Toutefois, l'installation du serveur hôte de machine virtuelle s'effectue comme une installation classique en y ajoutant des paquetages supplémentaires. L'installation des invités virtuels est décrite dans le Book “Virtualization Guide”, Chapter 9 “Guest Installation”.
5.2.2 Méthodes de démarrage #
Selon le matériel utilisé, les méthodes de démarrage suivantes sont disponibles pour la première procédure de démarrage (avant l'installation de SUSE Linux Enterprise Server).
Option de démarrage |
Utilisation |
---|---|
Un lecteur de CD ou de DVD |
Il s'agit de la méthode de démarrage la plus simple. Le système requiert un lecteur de CD ou de DVD disponible en local. |
Disques flash |
Les images requises pour créer des disques de démarrage se trouvent sur le premier CD ou DVD dans le répertoire |
PXE ou bootp |
Doit être pris en charge par le microprogramme du système utilisé. Cette option nécessite qu'un serveur de démarrage soit installé sur le réseau. Cette tâche peut être assurée par un serveur SLES distinct. |
Disque dur |
SUSE Linux Enterprise Server peut également être lancé à partir d'un disque dur. Pour ce faire, copiez le kernel ( |
5.2.3 Source d'installation #
Lors de l'installation de SUSE Linux Enterprise Server, les données d'installation effectives doivent être accessibles sur le réseau, sur une partition du disque dur ou sur un DVD local. Pour effectuer une installation depuis le réseau, vous avez besoin d'un serveur d'installation. Pour mettre les données d'installation à disposition, configurez un ordinateur dans un environnement Unix ou Linux en tant que serveur NFS, HTTP, SMB ou FTP. Pour rendre les données d'installation disponibles depuis un ordinateur Windows, libérez les données avec SMB.
La source d'installation est particulièrement facile à sélectionner si vous configurez un serveur SLP sur le réseau local. Pour plus d'informations, reportez-vous au Chapitre 8, Configuration du serveur qui contient les sources d'installation.
5.2.4 Cible d'installation #
La plupart des installations sont effectuées sur un disque dur local. Par conséquent, il est nécessaire que les contrôleurs du disque dur soient accessibles au système d'installation. Si un contrôleur spécifique (comme un contrôleur RAID) requiert un module de kernel supplémentaire, fournissez un disque de mise à jour du module de kernel au système d'installation.
Tous les types de périphériques de bloc peuvent servir de cibles d'installation, à condition qu'ils offrent un espace disque et une vitesse suffisants pour exécuter un système d'exploitation. Il peut s'agir de périphériques de bloc réseau comme iSCSI
ou SAN
. Il est également possible d'effectuer des installations sur des systèmes de fichiers réseau offrant des autorisations Unix standard. Cependant, il peut être difficile de démarrer ces systèmes de fichiers, qui doivent être pris en charge par initramfs
avant que le système ne démarre. Ces installations sont utiles s'il est nécessaire de démarrer le même système à des emplacements différents.
5.2.5 Autres méthodes d'installation #
SUSE Linux Enterprise Server propose plusieurs méthodes de contrôle de l'installation :
Installation sur la console graphique
Installation avec une console série
Installation avec AutoYaST
Installation avec des images KIWI
Installation avec SSH
Installation avec VNC
Par défaut, la console graphique est utilisée. Si vous devez installer un grand nombre d'ordinateurs similaires, il est recommandé de créer un fichier de configuration AutoYaST ou une image KIWI préchargée et de le/la rendre accessible au processus d'installation. Reportez-vous également à la documentation d'AutoYaST sur le site Book “AutoYaST” et de KIWI
à l'adresse http://doc.opensuse.org/projects/kiwi/doc/.
5.3 Support de démarrage et d'installation #
Lors de l'installation du système, le support de démarrage peut être différent du support d'installation du système. Toutes les combinaisons de supports pris en charge pour le démarrage et l'installation peuvent être utilisées.
5.3.1 Support de démarrage #
Le démarrage d'un ordinateur dépend des performances du matériel utilisé et de la disponibilité du support pour l'option de démarrage correspondante.
- Démarrage à partir d'un DVD
Il s'agit de la méthode la plus courante pour démarrer un système. Très simple pour la plupart des utilisateurs d'ordinateurs, elle requiert néanmoins un grand nombre d'interactions pour chaque processus d'installation.
- Démarrage à partir d'une clé USB à mémoire Flash
En fonction du matériel utilisé, il est possible de démarrer le système à partir d'un disque dur USB. Le support correspondant doit être créé en suivant la procédure décrite à la Section 6.2.2, « PC (AMD64/Intel 64/ARM AArch64) : démarrage du système ».
- Démarrage à partir d'un réseau
Vous ne pouvez démarrer un ordinateur directement depuis le réseau que s'il est pris en charge par le microprogramme de l'ordinateur. Cette méthode de démarrage nécessite qu'un serveur de démarrage fournisse les images de démarrage requises sur le réseau. Le protocole exact dépend de votre matériel. Plusieurs services, tels que TFTP et DHCP ou le démarrage PXE, sont généralement nécessaires. Si vous avez besoin d'un serveur de démarrage, consultez également la Section 10.1.3, « Installation à distance via VNC : démarrage PXE et fonction Wake on LAN (réveil à distance) ».
5.3.2 Support d'installation #
Le support d'installation contient tous les paquetages et méta-informations nécessaires pour installer une instance SUSE Linux Enterprise Server. Le système d'installation doit pouvoir y accéder après le démarrage en vue de l'installation. SUSE Linux Enterprise Server permet de fournir le support d'installation au système de différentes manières.
- Installation à partir d'un DVD
Toutes les données nécessaires sont fournies sur le support de démarrage. En fonction de l'installation sélectionnée, une connexion réseau ou des supports supplémentaires peuvent être nécessaires.
- Installation réseau
Si vous envisagez d'installer plusieurs systèmes, il est plus facile de fournir les supports d'installation via le réseau. Il est possible d'effectuer l'installation via plusieurs protocoles courants, comme NFS, HTTP, FTP ou SMB. Pour plus d'informations sur l'exécution d'une telle installation, reportez-vous au Chapitre 10, Installation à distance.
5.4 Procédure d'installation #
Cette section présente les étapes requises pour effectuer une installation complète de SUSE® Linux Enterprise Server dans le mode requis. La Partie II, « Workflow d'installation » contient une description complète de la procédure d'installation et de configuration du système avec &yast.
5.4.1 Démarrage depuis une unité locale interchangeable #
Vous pouvez utiliser un lecteur de DVD-ROM et des périphériques de stockage USB pour procéder à une installation. Réglez votre ordinateur en fonction de vos besoins :
Assurez-vous que l'unité est entrée comme unité amorçable dans le microprogramme.
Insérez le support de démarrage dans le lecteur et lancez la procédure de démarrage.
Le menu de démarrage de l'installation de SUSE Linux Enterprise Server permet de transférer différents paramètres vers le système d'installation. Reportez-vous également à la Section 10.2.2, « Utilisation des options de démarrage personnalisées ». Si vous souhaitez effectuer l'installation sur le réseau, indiquez à cet endroit la source d'installation.
Si vous rencontrez des problèmes au cours de l'installation, utilisez les paramètres sans échec pour le démarrage.
5.4.2 Installation via le réseau #
Un serveur d'installation est requis pour effectuer l'installation via une source réseau. La procédure d'installation du serveur est décrite au Chapitre 8, Configuration du serveur qui contient les sources d'installation.
Si vous avez un serveur SLP, sélectionnez SLP comme source d'installation dans le premier écran de démarrage. Lors de la procédure de démarrage, sélectionnez les sources d'installation disponibles à utiliser.
Si le DVD est disponible sur le réseau, utilisez-le comme source d'installation. Dans ce cas, spécifiez le paramètre install=<URL>
avec des valeurs appropriées à l'invite de démarrage. Pour plus d'informations sur ce paramètre, reportez-vous à la Section 10.2.2, « Utilisation des options de démarrage personnalisées ».
5.5 Contrôle de l'installation #
Vous pouvez contrôler l'installation de différentes manières. La méthode la plus souvent utilisée consiste à installer SUSE® Linux Enterprise Server à partir de la console de l'ordinateur. D'autres options sont disponibles pour différentes situations.
5.5.1 Installation sur la console de l'ordinateur #
La méthode la plus simple pour installer SUSE Linux Enterprise Server est d'utiliser la console de l'ordinateur. Avec cette méthode, un programme d'installation graphique vous guide tout au long du processus d'installation. Cette méthode d'installation est décrite en détail au Chapitre 6, Installation avec YaST.
Vous pouvez tout de même effectuer l'installation sur la console sans mode graphique établi. Le programme d'installation textuel offre la même fonctionnalité que la version graphique. Pour quelques conseils sur la navigation dans ce mode, reportez-vous au Book “Administration Guide”, Chapter 5 “YaST in Text Mode”, Section 5.1 “Navigation in Modules”.
5.5.2 Installation à l'aide d'une console série #
Pour cette méthode d'installation, vous avez besoin d'un deuxième ordinateur, connecté par un câble modem nul à l'ordinateur sur lequel vous installez SUSE Linux Enterprise Server. Le matériel et les microprogrammes des deux machines doivent prendre en charge la console série. Certaines implémentations de microprogrammes sont déjà configurées pour envoyer la sortie de la console de démarrage à une console série (en fournissant une arborescence de périphériques dont le chemin /chosen/stdout est défini de manière appropriée). Dans ce cas, aucune configuration supplémentaire n'est requise.
Si le microprogramme n'est pas configuré pour utiliser la console série pour la sortie de la console de démarrage, vous devez fournir le paramètre de démarrage suivant dans l'invite de démarrage du système d'installation (voir Book “Administration Guide”, Chapter 13 “The Boot Loader GRUB 2”, Section 13.2.5 “Editing menu entries during the boot procedure” pour plus de détails) : console=TTY,BAUDRATE
.
BAUDRATE doit être remplacé par le débit en bauds pour l'interface. Les valeurs valides sont 115200, 38400 ou 9600. TTY doit être remplacé par le nom de l'interface. La plupart des ordinateurs comptent une ou plusieurs interfaces série. Les noms des interfaces peuvent varier en fonction du matériel:
ttyS0 pour APM
ttyAMA0 pour une architecture SBSA (Server Base System Architecture)
ttyPS0 pour Xilinx
Pour l'installation, vous avez besoin d'un programme de terminal tel que minicom ou screen. Pour initialiser la connexion série, lancez l'application Screen (Écran) dans une console locale en entrant la commande suivante :
screen /dev/ttyUSB0 115200
Cela signifie que l'écran reçoit les données du premier port série avec un débit de 115 200 bauds. À partir de maintenant, l'installation est semblable à l'installation en mode texte sur ce terminal.
5.5.3 Installation avec le protocole SSH #
Si vous n'avez pas d'accès direct à la machine et si vous devez lancer l'installation depuis une console de gestion, vous pouvez contrôler tout le processus d'installation via le réseau. Pour ce faire, saisissez les paramètres ssh=1
et ssh.password=SECRET
à l'invite de démarrage. Un daemon SSH est ensuite lancé sur le système. Vous pouvez alors vous connecter en tant qu'utilisateur root
avec le mot de passe SECRET.
Pour vous connecter, utilisez ssh -X
. Le transfert X via SSH est pris en charge, pour autant que vous disposiez d'un serveur X local. Dans le cas contraire, YaST fournit une interface texte via ncurses. YaST vous guide ensuite tout au long du processus d'installation. Cette procédure est décrite en détail à la Section 10.1.5, « Installation simple à distance via SSH : configuration réseau dynamique ».
Si votre réseau local ne comporte aucun serveur DHCP disponible, affectez manuellement une adresse IP au système d'installation. Pour ce faire, saisissez l'option HostIP=IPADDR
à l'invite de démarrage.
5.5.4 Installation via VNC #
Si vous ne pouvez pas accéder directement au système, mais que vous souhaitez effectuer une installation graphique, installez SUSE Linux Enterprise Server via VNC. Cette méthode est décrite en détail à la Section 10.3.1, « Installation VNC ».
Étant donné que des clients VNC appropriés sont également disponibles pour d'autres systèmes d'exploitation tels que Microsoft Windows et Mac OS, l'installation peut également être contrôlée depuis des ordinateurs exécutant ces systèmes d'exploitation.
5.5.5 Installation avec AutoYaST #
Si vous devez installer SUSE Linux Enterprise Server sur plusieurs ordinateurs présentant une configuration matérielle similaire, il est recommandé d'effectuer les installations avec AutoYaST. Dans ce cas, installez une instance de SUSE Linux Enterprise Server, puis utilisez-la pour créer les fichiers de configuration AutoYaST nécessaires.
AutoYaST est décrit en détail au Book “AutoYaST” .
5.6 Gestion des problèmes de démarrage et d'installation #
Avant la livraison, SUSE® Linux Enterprise Server est soumis à un programme de test approfondi. Malgré cela, des problèmes peuvent survenir lors du démarrage ou de l'installation.
5.6.1 Problèmes liés au démarrage #
Des problèmes de démarrage peuvent empêcher le lancement du programme d'installation de YaST sur votre système. Il peut aussi arriver que votre système ne démarre pas une fois l'installation terminée.
- Le système installé démarre, mais pas le support
Modifiez le microprogramme de l'ordinateur pour corriger la séquence de démarrage. Pour ce faire, reportez-vous au manuel du matériel.
- L'ordinateur se bloque
Modifiez la console de votre ordinateur pour rendre les sorties du kernel visibles. Assurez-vous de vérifier les dernières sorties. Pour ce faire, appuyez sur la touche Ctrl–Alt–F10. Si vous ne parvenez pas à résoudre le problème, consultez le service de support de SUSE Linux Enterprise Server. Pour consigner tous les messages système au démarrage, utilisez une connexion série, comme décrit dans la Section 2.5, « Contrôle de l'installation ».
- Disquette de démarrage
La disquette de démarrage est une solution provisoire utile si vous rencontrez des difficultés lors de la configuration d'autres options ou si vous souhaitez reporter la décision concernant le mécanisme de démarrage final. Pour plus d'informations sur la création des disquettes de démarrage, reportez-vous à Book “Administration Guide”, Chapter 13 “The Boot Loader GRUB 2” grub2-mkrescue.
5.6.2 Problèmes liés à l'installation #
Si un problème inattendu survient pendant l'installation, des informations sont nécessaires pour en déterminer la cause. Suivez les instructions ci-après pour résoudre le problème :
Vérifiez les sorties sur les différentes consoles. Vous pouvez passer d'une console à l'autre en employant la combinaison de touches Ctrl–Alt–Fn. Par exemple, pour obtenir un shell dans lequel éxécuter différentes commandes, appuyez sur Ctrl–Alt–F2.
Essayez de lancer l'installation avec les « Paramètres sécurisés » (appuyez sur la touche F5 dans l'écran d'installation et sélectionnez ). Si l'installation fonctionne normalement, il existe une incompatibilité qui entraîne l'échec d'
ACPI
ou d'APIC
. Dans certains cas, une mise à jour du microprogramme résout ce problème.Saisissez la commande
dmesg -T
pour vérifier les messages système sur une console sur le système d'installation.
5.6.3 Redirection de la source de démarrage vers le DVD de démarrage #
Pour simplifier le processus d'installation et éviter des installations accidentelles, votre système est paramétré par défaut pour un démarrage à partir du premier disque dur sur le DVD d'installation de SUSE Linux Enterprise Server. À ce stade, un chargeur de démarrage installé prend généralement le contrôle du système. Cela signifie que le DVD de démarrage peut rester dans le lecteur lors d'une installation. Pour démarrer l'installation, choisissez une option d'installation dans le menu de démarrage du support.
Partie II Workflow d'installation #
- 6 Installation avec YaST
Une fois votre matériel préparé pour l'installation de SUSE® Linux Enterprise Server, comme décrit dans la Partie I, « Préparation de l'installation », et la connexion avec le système d'installation établie, l'interface de l'assistant système YaST de SUSE Linux Enterprise Server s'affiche. YaST vous guide tout au long de la procédure d'installation.
Pendant la procédure d'installation, YaST analyse les paramètres actuels de votre système et vos composants matériels. Sur la base de cette analyse, votre système est configuré selon la méthode de base, avec prise en charge réseau (à condition qu'il puisse être configuré à l'aide de DHCP). Pour régler le système avec précision une fois l'installation terminée, démarrez YaST à partir du système installé.
- 7 Clonage d'images de disque
Si SUSE Linux Enterprise Server est installé dans un environnement virtualisé, le clonage d'une installation existante peut être le moyen le plus rapide de déployer davantage de machines. SUSE Linux Enterprise Server fournit un script pour nettoyer la configuration qui est unique pour chaque install…
6 Installation avec YaST #
Une fois votre matériel préparé pour l'installation de SUSE® Linux Enterprise Server, comme décrit dans la Partie I, « Préparation de l'installation », et la connexion avec le système d'installation établie, l'interface de l'assistant système YaST de SUSE Linux Enterprise Server s'affiche. YaST vous guide tout au long de la procédure d'installation.
Pendant la procédure d'installation, YaST analyse les paramètres actuels de votre système et vos composants matériels. Sur la base de cette analyse, votre système est configuré selon la méthode de base, avec prise en charge réseau (à condition qu'il puisse être configuré à l'aide de DHCP). Pour régler le système avec précision une fois l'installation terminée, démarrez YaST à partir du système installé.
6.1 Choix de la méthode d'installation #
Après avoir sélectionné le support d'installation, choisissez une méthode d'installation et une option de démarrage appropriées qui correspondent à vos besoins :
- Installation à partir du support (DVD, USB) de SUSE Linux Enterprise Server
Choisissez cette option si vous souhaitez effectuer une installation autonome et si vous ne désirez pas avoir recours à un réseau vous fournissant les données d'installation ou l'infrastructure de démarrage. L'installation se déroule selon la procédure décrite dans la Section 6.3, « Étapes de l'installation ».
- Installation à partir d'un serveur réseau
Choisissez cette option si un serveur d'installation est disponible sur votre réseau ou si vous souhaitez utiliser un serveur externe en tant que source de vos données d'installation. Ce programme d'installation peut être configuré pour démarrer soit à partir d'un support physique (lecteur flash, CD/DVD ou disque dur), soit via un réseau utilisant PXE/BOOTP. Reportez-vous à la Section 6.2, « Démarrage du système pour l'installation » pour obtenir des informations détaillées.
Le programme d'installation configure la connexion réseau par DHCP et accède à l'emplacement de la source d'installation réseau depuis le serveur OpenSLP. Si aucun serveur DHCP n'est disponible, sélectionnez Section 6.2.2.2, « Écran de démarrage sur les machines équipées de l'interface EUFI ».
› › et indiquez les données réseau. Sur les systèmes EFI, modifiez les paramètres de démarrage du réseau, comme décrit à laInstallation à partir d'un serveur SLP. Si la configuration de votre réseau prend en charge OpenSLP et que la source d'installation du réseau a été configurée pour s'annoncer via SLP (voir Chapitre 8, Configuration du serveur qui contient les sources d'installation), démarrez le système, appuyez sur F4 dans l'écran de démarrage, puis sélectionnez dans le menu. Sur les systèmes EFI, définissez le paramètre
install
surinstall=slp:/
, comme décrit à la Section 6.2.2.2, « Écran de démarrage sur les machines équipées de l'interface EUFI ».Installation depuis une source réseau sans SLP. Si la configuration de votre réseau ne prend pas en charge OpenSLP pour l'extraction des sources d'installation réseau, démarrez le système, puis appuyez sur F4 dans l'écran de démarrage pour sélectionner le protocole réseau souhaité (NFS, HTTP, FTP ou SMB/CIFS) et indiquez l'adresse du serveur, ainsi que le chemin du support d'installation. Sur les systèmes EFI, modifiez le paramètre de démarrage
install=
, comme décrit à la Section 6.2.2.2, « Écran de démarrage sur les machines équipées de l'interface EUFI ».
6.2 Démarrage du système pour l'installation #
La méthode de démarrage du système utilisée pour l'installation dépend de l'architecture ; elle diffère, par exemple, selon qu'il s'agit d'un PC (AMD64/Intel 64) ou d'un macroordinateur. Si vous installez SUSE Linux Enterprise Server en tant qu'invité de machine virtuelle sur un hyperviseur Xen ou KVM, suivez les instructions relatives à l'architecture AMD64/Intel 64.
6.2.1 IBM Z : démarrage du système #
Pour les plates-formes IBM Z, le système démarre (via un IPL, « Initial Program Load », autrement dit un chargement du programme initial), comme décrit à la Section 4.2.4, « Exécution d'un IPL sur le système d'installation de SUSE Linux Enterprise Server ». SUSE Linux Enterprise Server n'affiche aucun écran de démarrage sur ces systèmes. Au cours de l'installation, chargez le kernel, initrd et parmfile manuellement. YaST démarre et affiche son écran d'installation dès qu'une connexion est établie avec le système d'installation via VNC, X ou SSH. Puisqu'il n'y a aucun écran de démarrage, les paramètres du kernel ou ceux de démarrage ne peuvent pas être saisis à l'écran, ils doivent donc être spécifiés dans un fichier parmfile (reportez-vous à la Section 4.3, « Fichier parmfile : automatisation de la configuration du système »).
6.2.2 PC (AMD64/Intel 64/ARM AArch64) : démarrage du système #
SUSE Linux Enterprise Server prend en charge plusieurs options de démarrage ; choisissez votre option en fonction du matériel à votre disposition et du scénario d'installation que vous préférez. Un démarrage via le support de SUSE Linux Enterprise Server est l'option la plus simple, mais des besoins spécifiques peuvent nécessiter des configurations particulières :
Option de démarrage |
Description |
---|---|
DVD |
Il s'agit de l'option de démarrage la plus simple. Elle peut être utilisée si votre système comporte un lecteur DVD-ROM local pris en charge par Linux. |
Disques Flash (périphérique de stockage de masse USB) |
Si votre ordinateur n'est pas équipé d'un lecteur optique, vous pouvez démarrer l'image d'installation à partir d'un disque Flash. Pour créer un disque Flash amorçable, vous devez copier l'image ISO du DVD ou du mini CD sur le périphérique à l'aide de la commande dd if=PATH_TO_ISO_IMAGE of=USB_STORAGE_DEVICE bs=4M Important : compatibilité Notez que le démarrage à partir d'un périphérique de stockage de masse USB n'est pas pris en charge sur les machines UEFI et sur l'architecture POWER. |
PXE ou BOOTP |
Le démarrage depuis le réseau doit être pris en charge par le microprogramme ou le BIOS du système et un serveur de démarrage doit être disponible sur le réseau. Cette tâche peut également être gérée par un autre système SUSE Linux Enterprise Server. Reportez-vous au Chapitre 10, Installation à distance pour plus d'informations. |
Disque dur |
L'installation de SUSE Linux Enterprise Server peut également être lancée à partir du disque dur. Pour cela, copiez sur le disque dur le kernel ( |
Le DVD1 peut être utilisé comme support de démarrage pour les machines équipées de UEFI (Unified Extensible Firmware Interface). Pour obtenir des informations spécifiques à ce sujet, reportez-vous à la documentation du fournisseur. Si le démarrage échoue, essayez d'activer le CSM (Compatibility Support Module) dans votre microprogramme.
Les supports des produits complémentaires (extensions ou produits tiers) ne peuvent pas être utilisés comme supports d'installation autonomes. Ils peuvent soit être intégrés comme sources d'installation supplémentaires pendant la procédure d'installation (voir la Section 6.9, « Sélection d'extensions »), soit être installés à partir du système en cours d'exécution à l'aide du module YaST relatif aux produits complémentaires (pour plus d'informations, voir le Chapitre 14, Installation de modules, extensions et produits complémentaires tiers).
6.2.2.1 Écran de démarrage sur les ordinateurs équipés d'un BIOS traditionnel #
L'écran de démarrage propose plusieurs options pour la procédure d'installation. L'option Entrée pour la démarrer. Les options possibles sont :
démarre le système installé. Elle est sélectionnée par défaut, car le CD est souvent laissé dans le lecteur. Sélectionnez l'une des autres options à l'aide des touches de direction et appuyez surMode d'installation normal. Toutes les fonctions matérielles modernes sont activées. Si l'installation échoue, reportez-vous à F5 pour savoir quelles options de démarrage peuvent désactiver les fonctions susceptibles de poser problème.
Effectuez une mise à niveau du système. Pour plus d'informations, reportez-vous au Chapitre 19, Mise à niveau de SUSE Linux Enterprise.
Lance un système Linux de base sans interface graphique. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 42 “Common problems and their solutions”, Section 42.6.2 “Using the Rescue System”.
Cette option n'est disponible que si vous effectuez une installation depuis un support créé à partir des images ISO téléchargées. Dans ce cas, il est recommandé de vérifier l'intégrité du support d'installation. Cette option démarre le système d'installation avant de vérifier automatiquement le support. Si le contrôle s'exécute avec succès, la routine d'installation normale démarre. Si un support corrompu est détecté, la routine d'installation s'interrompt.
Avertissement : échec de la vérification du supportSi la vérification du support échoue, cela signifie que votre support est endommagé. Ne poursuivez pas l'installation, car celle-ci peut échouer ou entraîner la perte de vos données. Remplacez le support endommagé et redémarrez le processus d'installation.
Teste la RAM de votre système via des répétitions de cycles de lecture et d'écriture. Le test se termine par un redémarrage. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 42 “Common problems and their solutions”, Section 42.2.4 “Fails to Boot”.
Utilisez les touches de fonction affichées en bas de l'écran pour modifier la langue, la résolution de l'écran, la source d'installation ou pour ajouter un pilote supplémentaire acheté chez votre fournisseur de matériel :
- F1
Permet d'obtenir une aide contextuelle sur l'élément actif de l'écran de démarrage. Utilisez les touches de direction pour naviguer, Entrée pour suivre un lien et Esc pour quitter l'écran d'aide.
- F2
Sélectionnez la langue d'affichage et la disposition du clavier correspondante pour l'installation. La langue par défaut est l'anglais (américain).
- F3
Permet de sélectionner divers modes d'affichage graphique pour l'installation. « Kernel Mode Setting »). Si ce paramètre ne fonctionne pas sur votre système, sélectionnez (Sans KMS) et indiquez éventuellement
, la résolution vidéo est définie automatiquement à l'aide de KMS (vga=ask
sur la ligne de commande de démarrage pour être invité à indiquer la résolution vidéo. Sélectionnez le si l'installation graphique pose problème.- F4
L'installation est normalement effectuée à partir du support d'installation inséré. Sélectionnez à cet endroit d'autres sources, telles que les serveurs FTP ou NFS. Si l'installation est déployée sur un réseau doté d'un serveur SLP, cette option permet de sélectionner une source d'installation disponible sur le serveur. Pour plus d'informations sur la configuration d'un serveur d'installation avec SLP, reportez-vous au Chapitre 8, Configuration du serveur qui contient les sources d'installation.
- F5
Si vous rencontrez des problèmes avec l'installation classique, ce menu vous propose de désactiver des fonctions susceptibles de poser problème. Si votre matériel ne prend pas en charge l'interface ACPI (interface avancée de configuration et de gestion de l'énergie), sélectionnez
pour effectuer une installation sans prise en charge de l'interface ACPI. désactive la prise en charge de l'APIC (contrôleur programmable d'interruptions avancé) qui peut causer des problèmes avec certaines installations matérielles. démarre le système en désactivant le mode DMA (pour les lecteurs de CD/DVD-ROM), ainsi que les fonctions de gestion de l'énergie.En cas de doute, essayez dans un premier temps les options suivantes :
ou . Les utilisateurs expérimentés peuvent également utiliser la ligne de commande ( ) pour entrer ou modifier les paramètres du kernel.- F6
Appuyez sur cette touche pour indiquer au système que vous disposez d'une mise à jour de pilote facultative pour SUSE Linux Enterprise Server. Si ou est sélectionné, le chargement des pilotes a lieu avant le début de l'installation. Si vous sélectionnez , vous êtes invité à insérer le disque de mise à jour au cours du processus d'installation.
Astuce : obtention de disques de mise à jour de piloteLes mises à jour des pilotes pour SUSE Linux Enterprise sont disponibles à l'adresse suivante : http://drivers.suse.com/. Ces pilotes ont été créés via le programme SolidDriver SUSE.
6.2.2.2 Écran de démarrage sur les machines équipées de l'interface EUFI #
UEFI (Unified Extensible Firmware Interface) est une nouvelle norme qui remplace le BIOS traditionnel et en étend les fonctionnalités. Les implémentations les plus récentes de l'interface UEFI contiennent l'extension « Secure Boot » (Démarrage sécurisé) qui empêche le démarrage de code malveillant en autorisant uniquement l'exécution de chargeurs de démarrage signés. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 12 “UEFI (Unified Extensible Firmware Interface)”.
Le gestionnaire de démarrage GRUB 2, utilisé pour l'amorçage des machines équipées d'un BIOS traditionnel, ne prend pas en charge l'interface UEFI. Il est donc remplacé par GRUB 2 pour EFI. Si la fonction Démarrage sécurisé est activée, YaST sélectionne automatiquement GRUB 2 pour EFI pour l'installation. Du point de vue de l'administrateur et de l'utilisateur, les deux implémentations du gestionnaire de démarrage se comportent de la même manière et sont désignées sous le nom GRUB 2
dans la suite du document.
La routine d'installation de SUSE Linux Enterprise Server détecte automatiquement si la machine est équipée d'une interface UEFI. Toutes les sources d'installation prennent également en charge l'extension Secure Boot. S'il existe déjà une partition système EFI sur des ordinateurs à double amorçage (une installation Microsoft Windows 8, par exemple), elle est automatiquement détectée et utilisée. Les tables de partition sont écrites en tant que GPT sur les systèmes UEFI.
L'ajout de pilotes non fournis avec SLE pendant l'installation lorsque Secure Boot est activé n'est pas pris en charge. La clé de signature utilisée pour SolidDriver/PLDP n'est pas approuvée par défaut.
Pour résoudre ce problème, vous devez ajouter les clés nécessaires à la base de données des microprogrammes via les outils de gestion des systèmes/microprogrammes avant l'installation, ou utiliser une image ISO démarrable qui enregistrera les clés requises dans la liste MOK lors du premier démarrage. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 12 “UEFI (Unified Extensible Firmware Interface)”, Section 12.1 “Secure Boot”.
L'écran de démarrage propose plusieurs options pour la procédure d'installation. Utilisez les touches de direction pour modifier l'option sélectionnée et appuyez sur Entrée pour la démarrer. Les options possibles sont :
Mode d'installation normal.
Effectuez une mise à niveau du système. Pour plus d'informations, reportez-vous au Chapitre 19, Mise à niveau de SUSE Linux Enterprise.
Lance un système Linux de base sans interface graphique. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 42 “Common problems and their solutions”, Section 42.6.2 “Using the Rescue System”.
Cette option n'est disponible que si vous effectuez une installation depuis un support créé à partir des images ISO téléchargées. Dans ce cas, il est recommandé de vérifier l'intégrité du support d'installation. Cette option démarre le système d'installation avant de vérifier automatiquement le support. Si le contrôle s'exécute avec succès, la routine d'installation normale démarre. Si un support corrompu est détecté, la routine d'installation s'interrompt.
GRUB 2 pour EFI sur SUSE Linux Enterprise Server ne prend pas en charge l'invite de démarrage, ni les touches de fonction pour ajouter des paramètres de démarrage. Par défaut, l'installation est lancée en anglais des États-Unis et avec le support de démarrage comme source d'installation. Une recherche DHCP est effectuée pour configurer le réseau. Pour modifier ces valeurs par défaut ou ajouter des paramètres de démarrage supplémentaires, vous devez modifier l'entrée de démarrage correspondante. Mettez-la en surbrillance à l'aide des touches de direction et appuyez ensuite sur E. Pour obtenir des conseils de modification, consultez l'aide affichée à l'écran (pour l'instant, seul le clavier anglais est disponible). L'entrée se présente comme suit :
setparams 'Installation' set gfxpayload=keep echo 'Loading kernel ...' linuxefi /boot/x86_64/loader/linux splash=silent echo 'Loading initial ramdisk ...' initrdefi /boot/x86_64/loader/initrd
Ajoutez des paramètres à la fin de la ligne commençant par linuxefi
, en les séparant par un espace. Pour démarrer l'entrée modifiée, appuyez sur F10. Si vous accédez à l'ordinateur avec une console série, appuyez sur Esc–0. La liste complète des paramètres est disponible à l'adresse http://en.opensuse.org/Linuxrc. Les plus importants sont les suivants :
CD/DVD (par défaut) |
|
Disque dur |
|
SLP |
|
FTP |
|
HTTP |
|
NFS |
|
SMB / CIFS |
|
DHCP (par défaut) |
netsetup=dhcp |
Invite de saisie des paramètres |
|
Adresse IP de l'hôte |
|
Masque de réseau |
|
Passerelle |
|
Serveur de noms |
|
Chemin de recherche du domaine |
|
Mises à jour de pilote : invite |
|
Mises à jour de pilote : URL |
|
Langue d'installation |
Les valeurs prises en charge pour LANGUE sont, entre autres, |
Kernel : sans ACPI |
|
Kernel : pas d'APIC local |
|
Vidéo : désactiver KMS |
|
Vidéo : démarrer le programme d'installation en mode texte |
|
6.2.3 Paramètres de démarrage pour des configurations avancées #
Pour configurer l'accès à un serveur SMT local ou supportconfig
pour l'installation, vous pouvez spécifier des paramètres de démarrage afin de configurer ces services lors de l'installation. Cela est valable si la prise en charge IPv6 est requise en cours d'installation.
6.2.3.1 Spécification de données pour l'accès à un serveur SMT #
Par défaut, les mises à jour de SUSE Linux Enterprise Server sont fournies par le SUSE Customer Center. Si votre réseau est doté d'un serveur SMT qui fournit une source de mise à jour locale, vous devez fournir l'URL de ce serveur au client. Le client et le serveur communiquent exclusivement via un protocole HTTPS. Ainsi, vous devez également saisir le chemin du certificat de serveur s'il n'a pas été généré par une autorité de certification.
Vous ne devez renseigner des paramètres pour l'accès au serveur SMT que pour les installations non interactives. Pendant une installation interactive, les données peuvent être fournies pendant l'installation (consultez la Section 6.8, « Enregistrement auprès du SUSE Customer Center » pour plus de détails).
- regurl
URL du serveur SMT. Cette URL présente un format fixe
https://FQN/center/regsvc/
. FQN doit être un nom d'hôte complet du serveur SMT. Exemple :regurl=https://smt.example.com/center/regsvc/
- regcert
Emplacement du certificat du serveur SMT. Spécifiez l'un des emplacements suivants :
- URL
Emplacement distant (HTTP, HTTPS ou FTP) à partir duquel il est possible de télécharger le certificat. Exemple :
regcert=http://smt.example.com/smt-ca.crt
- Chemin local
Chemin complet du certificat sur la machine locale. Exemple :
regcert=/data/inst/smt/smt-ca.cert
- Interactif
Utilisez
ask
pour ouvrir un menu contextuel vous permettant d'indiquer le chemin du certificat, lors de l'installation. N'utilisez pas cette option avec AutoYaST. Exempleregcert=ask
- Désactiver l'installation du certificat
Utilisez
done
si le certificat doit être installé par un produit complémentaire ou si vous utilisez un certificat délivré par une autorité de certification officielle. Par exemple :regcert=done
Assurez-vous d'entrer des valeurs correctes. Si regurl
n'a pas été saisi correctement, il sera impossible d'enregistrer la source de mise à jour. Si une valeur incorrecte est saisie pour regcert, le chemin local d'accès au certificat vous sera demandé.
Si regcert n'est pas précisé, il sera défini par défaut : http://FQN/smt.crt
, FQN
étant le nom du serveur SMT.
6.2.3.2 Configuration d'un serveur de données alternatif pour supportconfig
#
Par défaut, les données rassemblées par supportconfig (reportez-vous au Book “Administration Guide”, Chapter 41 “Gathering System Information for Support” pour plus d'informations) sont envoyées au SUSE Customer Center. Il est également possible de configurer un serveur local pour qu'il collecte ces données. Si un tel serveur est disponible sur votre réseau, vous devez définir l'URL du serveur sur le client. Cette information doit être saisie à l'invite de démarrage.
supporturl
.
URL du serveur. L'URL a le format http://FQN/Path/
, où FQN est le nom d'hôte complet du serveur et Path correspond à l'emplacement sur le serveur. Par exemple :
supporturl=http://support.example.com/supportconfig/data/
6.2.3.3 Utilisation du protocole IPv6 pendant l'installation #
Par défaut, vous ne pouvez assigner à votre machine que des adresses réseau IPv4. Pour activer le protocole IPv6 au cours de l'installation, entrez l'un des paramètres suivants à l'invite de démarrage :
- Pour accepter IPv4 et IPv6
ipv6=1
- Pour accepter uniquement IPv6
ipv6only=1
6.2.3.4 Utilisation d'un proxy pendant l'installation #
Dans les réseaux appliquant l'utilisation d'un serveur proxy pour accéder à des sites Web à distance, l'enregistrement au cours de l'installation n'est possible que lors de la configuration d'un serveur proxy.
Pour utiliser un proxy au cours de l'installation, appuyez sur F4 dans l'écran de démarrage, puis définissez les paramètres obligatoires dans la boîte de dialogue du . De même, vous pouvez fournir le paramètre du kernel proxy
à l'invite de démarrage :
l>proxy=http://USER:PASSWORD@proxy.example.com:PORT
Il n'est pas obligatoire de fournir un nom d'UTILISATEUR ni un MOT_DE_PASSE. Si le serveur autorise les accès anonymes, les données suivantes suffisent : http://exemple.proxy.com:PORT
.
6.2.3.5 Activation de la prise en charge de SELinux #
L'activation de SELinux lors du lancement de l'installation permet de le configurer une fois l'installation terminée sans nécessiter de redémarrage. Utilisez les paramètres suivants :
security=selinux selinux=1
6.2.3.6 Activation de la mise à jour automatique du programme d'installation #
Lors de l'installation et de la mise à niveau, YaST peut se mettre à jour lui-même, comme décrit à la Section 6.4, « Mise à jour automatique du programme d'installation », pour résoudre des bogues potentiels détectés après la publication. Le paramètre self_update
peut être utilisé pour modifier le comportement de cette fonctionnalité.
Pour activer la mise à jour automatique du programme d'installation, définissez le paramètre sur 1
:
self_update=1
Pour utiliser un dépôt défini par l'utilisateur, spécifiez une URL :
self_update=https://updates.example.com/
6.2.3.7 Utilisation des atténuations d'UC #
Le paramètre de démarrage mitigations
permet de contrôler les options d'atténuation pour les attaques par canal auxiliaire sur les UC affectées. Les valeurs qu'il peut prendre sont les suivantes :
auto
.
Active toutes les atténuations requises pour votre modèle d'UC, mais ne protège pas contre les attaques de threads inter-UC. Ce paramètre peut influencer les performances dans une certaine mesure, selon le workload.
nosmt
.
Fournit l'ensemble complet d'atténuations de sécurité disponibles. Active toutes les atténuations requises pour votre modèle d'UC. En outre, il désactive le multithreading simultané (Simultaneous Multithreading, SMT) afin d'éviter les attaques par canal auxiliaire entre plusieurs threads d'UC. Ce paramètre peut avoir un impact plus important sur les performances, en fonction du workload.
off
.
Désactive toutes les atténuations. Selon le modèle d'UC, des attaques par canal auxiliaire sont possibles. Ce paramètre n'a aucun impact sur les performances.
Chaque valeur est associée à un ensemble de paramètres spécifiques, en fonction de l'architecture d'UC, de la version du kernel et des vulnérabilités qui doivent être atténuées. Pour plus de détails, reportez-vous à la documentation du kernel.
6.3 Étapes de l'installation #
L'installation interactive de SUSE Linux Enterprise Server se divise en plusieurs étapes, comme indiqué ci-dessous.
Une fois le processus d'installation lancé, SUSE Linux Enterprise Server charge et configure un système Linux de base qui permet d'exécuter la procédure d'installation. Pour afficher les messages de démarrage et les mentions de copyright lors de ce processus, appuyez sur Esc. Une fois le processus terminé, le programme d'installation YaST démarre et affiche le programme d'installation graphique.
Si le programme d'installation ne détecte pas correctement votre souris, utilisez la touche →| (Tabulation) pour naviguer, les touches de direction pour le défilement et la touche Entrée pour confirmer une sélection. Le libellé de certains boutons ou champs de sélection comporte une lettre soulignée (mnémonique). Utilisez Alt–Lettre en question pour sélectionner directement un bouton ou un élément au lieu d'y accéder à l'aide de la touche →|.
6.4 Mise à jour automatique du programme d'installation #
Au cours du processus d'installation et de mise à niveau, YaST est en mesure de se mettre à jour lui-même pour résoudre des bogues au niveau du programme d'installation qui ont été découverts après la publication. Par défaut, cette fonctionnalité est activée. Pour la désactiver, définissez le paramètre de démarrage self_update
sur 0
. Pour plus d'informations, reportez-vous à la Section 6.2.3.6, « Activation de la mise à jour automatique du programme d'installation ».
Bien que cette fonctionnalité ait été conçue pour s'exécuter sans intervention de l'utilisateur, il est utile de savoir comment elle fonctionne. Si cela ne vous intéresse pas, vous pouvez passer directement à la Section 6.5, « Langue, clavier et accord de licence » et ignorer le reste de cette section.
La mise à jour automatique du programme d'installation est exécutée avant l'étape de sélection de la langue. Cela signifie que les messages qui apparaissent au cours de ce processus concernant la progression de l'opération et les erreurs sont en anglais par défaut.
Pour utiliser une autre langue dans cette partie du programme d'installation, appuyez sur la touche F2 dans le menu de démarrage du DVD et sélectionnez la langue dans la liste. Vous pouvez également utiliser le paramètre de démarrage language
(par exemple, language=fr_FR
).
6.4.1 Processus de mise à jour automatique #
Le processus peut être décomposé en deux parties différentes :
Détermination de l'emplacement du dépôt de mise à jour.
Téléchargement et application des mises à jour au système d'installation.
6.4.1.1 Détermination de l'emplacement du dépôt de mise à jour #
Les mises à jour automatiques du programme d'installation sont distribuées sous la forme de paquetages RPM réguliers par le biais d'un dépôt dédié, de sorte que la première étape consiste à trouver l'URL du dépôt.
Quelles que soient les options suivantes que vous utilisez, seule l'URL du dépôt de mise à jour automatique du programme d'installation est attendue, par exemple :
self_update=https://www.example.com/my_installer_updates/
Ne fournissez pas l'URL d'un autre dépôt, par exemple celle du dépôt de mise à jour du logiciel.
YaST essaie les sources d'informations suivantes :
Le paramètre de démarrage
self_update
. (Pour plus de détails, reportez-vous à la Section 6.2.3.6, « Activation de la mise à jour automatique du programme d'installation ».) Si vous spécifiez une URL, elle prévaudra sur toute autre méthode.L'élément de profil
/general/self_update_url
si vous utilisez AutoYaST.Un serveur d'enregistrement. YaST interroge le serveur d'enregistrement de l'URL. Le serveur à utiliser est déterminé dans l'ordre suivant :
Évaluation du paramètre de démarrage
regurl
(Section 6.2.3.1, « Spécification de données pour l'accès à un serveur SMT »).Évaluation de l'élément de profil
/suse_register/reg_server
si vous utilisez AutoYaST.Recherche SLP. Si un serveur SLP est détecté, YaST vous demande s'il doit être utilisé, car aucune authentification n'est appliquée et tout utilisateur du réseau local peut annoncer un serveur d'enregistrement.
Interrogation du SUSE Customer Center.
Si aucune des précédentes tentatives n'a fonctionné, le système utilise l'URL de secours (définie sur le support d'installation).
6.4.1.2 Téléchargement et application des mises à jour #
Lorsque le dépôt de mise à jour est déterminé, YaST vérifie si une mise à jour est disponible. Si c'est le cas, toutes les mises à jour sont téléchargées et appliquées au système d'installation.
Enfin, YaST redémarre pour charger la nouvelle version et l'écran de bienvenue s'affiche. Si aucune mise à jour n'est disponible, l'installation continuera sans redémarrer YaST.
Les signatures des mises à jour sont vérifiées afin de garantir l'identité de l'auteur et l'intégrité. Si une signature est manquante ou non valide, le système vous demande si vous souhaitez appliquer la mise à jour.
6.4.2 mise en réseau au cours de la mise à jour automatique #
Pour télécharger les mises à jour du programme d'installation, YaST a besoin d'un accès réseau. Par défaut, il tente d'utiliser le protocole DHCP sur toutes les interfaces réseau. Si le réseau comporte un serveur DHCP, cela fonctionne automatiquement.
Si vous avez besoin d'une configuration d'adresse IP statique, vous pouvez utiliser l'argument de démarrage ifcfg
. Pour plus de détails, consultez la documentation de linuxrc à l'adresse https://en.opensuse.org/Linuxrc.
6.4.3 Dépôts de mise à jour automatique personnalisés #
YaST peut utiliser un dépôt défini par l'utilisateur au lieu du dépôt officiel. Pour ce faire, une URL doit être spécifiée par le biais de l'option de démarrage self_update
. Tenez toutefois compte des points suivants :
Seuls les dépôts HTTP/HTTPS et FTP sont pris en charge.
Seuls les dépôts RPM-MD sont pris en charge (requis par SMT).
Les paquetages ne sont pas installés selon le processus habituel : ils sont uniquement décompressés et aucun script n'est exécuté.
Aucune vérification de dépendance n'est effectuée. Les paquetages sont installés dans l'ordre alphabétique.
Les fichiers des paquetages remplacent les fichiers du support d'installation d'origine. Cela signifie que les paquetages de mise à jour ne contiennent pas tous les fichiers, mais uniquement ceux qui ont changé. Les fichiers inchangés sont omis de manière à économiser de la mémoire et de la bande passante.
Actuellement, il n'est pas possible d'utiliser plusieurs dépôts comme sources pour les mises à jour automatiques du programme d'installation.
6.5 Langue, clavier et accord de licence #
Commencez l'installation de SUSE Linux Enterprise Server par le choix de votre langue. La modification de la langue a pour conséquence la présélection de la disposition du clavier correspondante. Vous pouvez remplacer cette disposition de clavier en en sélectionnant une autre dans le menu déroulant. La langue choisie détermine également le fuseau horaire à utiliser pour l'horloge système. Ce paramètre pourra être modifié ultérieurement sur le système installé, comme décrit au Chapitre 17, Modification des paramètres de langue et de pays avec YaST.
Lisez attentivement l'accord de licence affiché sous la sélection de la langue et du clavier. Cliquez sur Si vous acceptez les termes contractuels, cochez SUSE Linux Enterprise Server ; cliquez sur pour mettre fin à l'installation. , puis cliquez sur pour poursuivre l'installation. Si vous n'acceptez pas l'accord de licence, vous ne pourrez pas installer
pour accéder aux traductions de la licence.6.6 IBM Z : activation du disque #
Lors de l'installation sur les plates-formes IBM Z, la boîte de dialogue de sélection de la langue est suivie d'une boîte de dialogue permettant de configurer les disques durs connectés. Sélectionnez DASD, Disques SCSI Fibre Channel connectés (zFCP) ou iSCSI pour l'installation de SUSE Linux Enterprise Server. Les boutons de configuration DASD et zFCP ne sont disponibles que si les périphériques correspondants sont connectés. Pour plus d'informations sur la configuration de disques iSCSI, reportez-vous au Book “Storage Administration Guide”, Chapter 14 “Mass Storage over IP Networks: iSCSI”, Section 14.3 “Configuring iSCSI Initiator”.
Vous pouvez également Book “Administration Guide”, Chapter 17 “Basic Networking”, Section 17.4 “Configuring a Network Connection with YaST”.
dans cet écran en ouvrant la boîte de dialogue . Sélectionnez une interface réseau dans la liste et cliquez ensuite sur pour en modifier les paramètres. Utilisez les onglets pour configurer les paramètres DNS et de routage. Pour plus d'informations, reportez-vous au6.6.1 Configuration des disques DASD #
Après avoir sélectionné
, une vue d'ensemble liste tous les DASD disponibles. Pour obtenir une image claire des périphériques disponibles, utilisez la zone de texte située au-dessus de la liste pour spécifier la plage des canaux à afficher. Pour filtrer la liste selon cette plage, sélectionnez .Spécifiez les DASD à utiliser pour l'installation en sélectionnant les entrées correspondantes dans la liste. Cliquez sur Section 12.1, « Utilisation de l'outil de partitionnement de YaST ».
pour sélectionner tous les disques DASD affichés. Activez les disques DASD sélectionnés et mettez-les à disposition en vue de l'installation en cliquant sur › . Pour formater les disques DASD, sélectionnez › . Vous pouvez également utiliser le partitionneur de YaST ultérieurement, comme décrit à la6.6.2 Configuration des disques zFCP #
Pour utiliser des disques zFCP dans le cadre de l'installation de SUSE Linux Enterprise Server, sélectionnez dans la boîte de dialogue de sélection. Cette option ouvre une boîte de dialogue répertoriant les disques ZFCP disponibles sur le système. Dans cette boîte de dialogue, sélectionnez pour ouvrir une autre boîte de dialogue dans laquelle entrer les paramètres zFCP.
Pour mettre à disposition un disque zFCP pour l'installation de SUSE Linux Enterprise Server, choisissez un disponible dans la liste déroulante. (identifiant unique du port) et (identifiant d'unité logique) génèrent des listes avec les WWPN et FCP-LUN disponibles parmi lesquels choisir. L'analyse automatique des LUN fonctionne uniquement lorsque NPIV est activé.
Une fois que vous avez terminé, quittez la boîte de dialogue zFCP en cliquant sur
et la boîte de dialogue de configuration générale de disque dur en cliquant sur pour passer au reste de la configuration.6.7 Paramètres réseau #
Après avoir démarré dans l'installation, la routine d'installation est configurée. Au cours de cette opération, une tentative de configuration d'au moins une interface réseau avec DHCP est effectuée. Si cette tentative échoue, la boîte de dialogue Book “Administration Guide”, Chapter 17 “Basic Networking”, Section 17.4 “Configuring a Network Connection with YaST”. Sur IBM Z, cette boîte de dialogue ne s'ouvre pas automatiquement. Vous pouvez l'ouvrir au cours de l'étape .
s'ouvre. Sélectionnez une interface réseau dans la liste et cliquez ensuite sur pour en modifier les paramètres. Utilisez les onglets pour configurer les paramètres DNS et de routage. Pour plus d'informations, reportez-vous auSi le protocole DHCP a été configuré correctement au cours de l'étape d'installation, vous pouvez également accéder à cette boîte de dialogue en cliquant sur
à l'étape . Cela vous permet de modifier les paramètres fournis automatiquement.Si au moins une interface réseau est configurée via linuxrc, la configuration automatique DHCP est désactivée et la configuration de linuxrc est importée et utilisée.
Pour accéder à un SAN ou un système RAID local lors de l'installation, vous pouvez utiliser le client de ligne de commande libstorage
:
Basculez vers une console à l'aide de la combinaison de touches Ctrl–Alt–F2.
Installez l'extension libstoragemgmt en exécutant
extend libstoragemgmt
.Vous avez à présent accès à la commande
lsmcli
. Pour plus d'informations, exécutezlsmcli --help
.Pour retourner dans le programme d'installation, appuyez sur Alt–F7.
Sont pris en charge tous les fournisseurs SAN compatibles SMI-S, ainsi que Netapp Ontap et LSI MegaRAID.
6.8 Enregistrement auprès du SUSE Customer Center #
Pour obtenir un support technique et les mises à jour des produits, vous devez enregistrer et activer vos produits auprès du SUSE Customer Center. L'enregistrement de SUSE Linux Enterprise Server vous octroie désormais un accès immédiat au dépôt des mises à jour. Cela vous permet d'installer le système avec les mises à jour et les correctifs les plus récents. Si vous êtes hors ligne ou si vous souhaitez ignorer cette étape, sélectionnez . Par la suite, vous pourrez enregistrer votre système à tout moment à partir du système installé.
Après avoir démarré dans l'installation, la routine d'installation est configurée. Au cours de cette opération, une tentative de configuration de toutes les interfaces réseau avec DHCP est effectuée. Si le protocole DHCP n'est pas disponible ou si vous souhaitez modifier la configuration réseau, cliquez sur Book “Administration Guide”, Chapter 17 “Basic Networking”, Section 17.4 “Configuring a Network Connection with YaST” pour plus d'informations.
dans le coin supérieur droit de l'écran . Le module de YaST s'ouvre. Reportez-vous auPour enregistrer votre système, indiquez l'https://scc.suse.com/) pour en créer un.
associée au compte SUSE que vous ou votre entreprise utilisez pour gérer les abonnements. Si vous ne disposez pas encore de compte SUSE, rendez-vous sur la page d'accueil du SUSE Customer Center (Entrez le SUSE Linux Enterprise Server. YaST peut également lire les codes d'enregistrement à partir d'un périphérique de stockage USB, tel qu'un disque Flash. Pour plus de détails, reportez-vous à la Section 6.8.1, « Chargement des codes d'enregistrement à partir du périphérique de stockage USB ».
que vous avez reçu avec votre exemplaire deAppuyez sur SUSE Linux Enterprise Server est enregistré auprès du SUSE Customer Center SUSE. Si votre serveur d'enregistrement local n'a pas été découvert automatiquement, sélectionnez , puis et entrez l'URL de ce dernier. Redémarrez l'enregistrement en cliquant de nouveau sur .
pour lancer la procédure d'enregistrement. Si un ou plusieurs serveurs d'enregistrement locaux sont disponibles sur votre réseau, vous pouvez en sélectionner un dans la liste. Par défaut,Au cours de l'enregistrement, les dépôts de mises à jour en ligne sont ajoutés à la configuration de votre installation. Une fois l'opération terminée, vous pouvez choisir d'installer les versions de paquetage les plus récentes disponibles à partir de ces dépôts. Vous aurez ainsi la garantie que SUSE Linux Enterprise Server dispose des mises à jour de sécurité les plus récentes. Si vous cliquez sur , tous les paquetages sont installés à partir du support d'installation. Cliquez ensuite sur .
Si le système a bien été enregistré pendant l'installation, YaST désactive les dépôts du support d'installation local (tel qu'un CD/DVD ou des disques Flash) une fois l'installation terminée. Cela évite des problèmes si la source d'installation n'est plus disponible et vous permet de toujours obtenir les mises à jour les plus récentes à partir des dépôts en ligne.
À partir de maintenant, les notes de version peuvent être consultées sur n'importe quel écran au cours du processus d'installation en sélectionnant
.6.8.1 Chargement des codes d'enregistrement à partir du périphérique de stockage USB #
Pour faciliter l'enregistrement, vous pouvez également stocker les codes d'enregistrement sur un périphérique de stockage USB, tel qu'un disque Flash. YaST préremplit automatiquement la zone de texte correspondante. Cela est particulièrement utile lors du test de l'installation ou si vous devez enregistrer un grand nombre de systèmes ou extensions.
Pour l'instant, les disques Flash sont analysé uniquement lors d'une installation ou d'une mise à niveau, pas lors de l'enregistrement d'un système en cours d'exécution.
Créez un fichier nommé regcodes.txt
ou regcodes.xml
sur le disque USB. Si les deux fichiers sont présents, le fichier XML est prioritaire.
Dans ce fichier, identifiez le produit avec le nom renvoyé par la commande rypper search --type product
et assignez-lui un code d'enregistrement comme suit :
regcodes.txt
#SLES cc36aae1 SLED 309105d4 sle-we 5eedd26a sle-live-patching 8c541494
regcodes.xml
#<?xml version="1.0"?>
<profile xmlns="http://www.suse.com/1.0/yast2ns"
xmlns:config="http://www.suse.com/1.0/configns">
<suse_register>
<addons config:type="list">
<addon>
<name>SLES</name>
<reg_code>cc36aae1</reg_code>
</addon>
<addon>
<name>SLED</name>
<reg_code>309105d4</reg_code>
</addon>
<addon>
<name>sle-we</name>
<reg_code>5eedd26a</reg_code>
</addon>
<addon>
<name>sle-live-patching</name>
<reg_code>8c541494</reg_code>
</addon>
</addons>
</suse_register>
</profile>
Notez que SLES
et SLED
ne sont pas des extensions, mais les répertorier en tant que produits complémentaires permet de combiner plusieurs codes d'enregistrement de produit de base dans un fichier unique. Pour plus de détails, reportez-vous au Book “AutoYaST”, Chapter 4 “Configuration and Installation Options”, Section 4.3.1 “Extensions”.
6.9 Sélection d'extensions #
Si l'enregistrement de votre système s'est déroulé correctement au cours de l'étape précédente, la liste des extensions et des modules disponibles pour SUSE Linux Enterprise Server s'affiche. Dans le cas contraire, cette étape de configuration est ignorée. Il est également possible d'ajouter des modules et extensions à partir du système installé, reportez-vous au Chapitre 14, Installation de modules, extensions et produits complémentaires tiers pour plus de détails.
La liste contient des modules gratuits pour SUSE Linux Enterprise Server, tels que le SDK SUSE Linux Enterprise, et des extensions qui nécessitent une clé d'enregistrement payante. Cliquez sur une entrée pour en afficher la description. Sélectionnez un module ou une extension à installer en cochant la case correspondante. Son dépôt est alors ajouté à votre installation à partir du serveur SUSE Customer Center ; aucune autre source d'installation n'est requise. Par ailleurs, le modèle d'installation du module ou de l'extension est ajouté à l'installation par défaut afin d'être installé automatiquement.
La quantité de modules et d'extensions disponibles dépend du serveur d'enregistrement. Il se peut qu'un serveur d'enregistrement local ne propose que des dépôts de mises à jour sans aucune extension supplémentaire.
Les modules sont des composants de SUSE Linux Enterprise Server bénéficiant d'une prise en charge complète, avec un cycle de vie différent. Ils présentent une étendue clairement définie et sont distribués uniquement via un canal en ligne. L'enregistrement sur le SUSE Customer Center constitue une condition préalable pour pouvoir s'abonner à ces canaux.
À partir de SUSE Linux Enterprise 12, SUSE Linux Enterprise Desktop n'est plus seulement disponible comme produit distinct, mais aussi en tant qu'extension de poste de travail pour SUSE Linux Enterprise Server. Si vous vous enregistrez auprès du SUSE Customer Center, l'extension SUSE Linux Enterprise Workstation
est proposée à des fins d'installation. Son installation nécessite une clé d'enregistrement valide.
Cliquez sur
pour ouvrir la boîte de dialogue , dans laquelle vous pouvez spécifier des sources de produits complémentaires non disponibles sur le serveur d'enregistrement.Si vous ne souhaitez pas installer de produits complémentaires, cliquez sur
. Dans le cas contraire, cochez la case . Sélectionnez le type de support parmi les options proposées : CD, DVD, Disque dur, Stockage de masse USB, Répertoire local ou Image ISO locale. Si l'accès au réseau a été configuré, vous avez également le choix parmi des sources distantes supplémentaires, telles que HTTP, SLP, FTP, etc. Une autre solution consiste à indiquer directement une URL. Cochez pour télécharger directement les fichiers décrivant le dépôt. Si cette option n'est pas activée, les fichiers seront téléchargés après le lancement de l'installation. Continuez en cliquant sur et insérez un CD ou DVD si nécessaire.Selon le contenu du produit complémentaire, vous devrez peut-être accepter des accords de licence supplémentaires. Si vous avez choisi un produit complémentaire qui nécessite une clé d'enregistrement, vous êtes invité à la saisir sur la page
. Cliquez ensuite sur .Si vous avez choisi, dans la boîte de dialogue Chapitre 14, Installation de modules, extensions et produits complémentaires tiers.
, un produit pour lequel vous ne disposez pas d'une clé d'enregistrement valide, cliquez sur jusqu'à ce que la boîte de dialogue soit affichée. Désélectionnez le module ou l'extension, puis cliquez sur . Les modules et extensions peuvent également être installés ultérieurement comme décrit au6.10 Rôle système #
SUSE Linux Enterprise Server prend en charge une vaste gamme de fonctionnalités. Pour simplifier l'installation, YaST propose des cas d'utilisation prédéfinis qui ajustent le système à installer afin qu'il soit adapté au scénario choisi. Actuellement, cette opération affecte le jeu de paquetages et le modèle de partitionnement suggéré.
Choisissez le
qui répond le mieux à vos besoins :Choisissez ce scénario lors d'une installation sur une machine réelle ou sur un invité entièrement virtualisé.
Sélectionnez ce scénario lors d'une installation sur une machine qui doit servir d'hôte KVM pouvant exécuter d'autres machines virtuelles.
Sélectionnez ce scénario lors d'une installation sur une machine qui doit servir d'hôte Xen pouvant exécuter d'autres machines virtuelles.
6.11 Partitionnement proposé #
Définissez une configuration de partition pour SUSE Linux Enterprise Server au cours de cette étape. Selon le rôle système, le programme d'installation crée une proposition pour l'un des disques disponibles. Toutes les propositions contiennent une partition racine mise en forme avec Btrfs (avec les instantanés activés) et une partition d'échange. Si vous avez choisi le rôle système à l'étape précédente, une partition privée mise en forme avec XFS sera également créée. Sur les disques durs d'une taille inférieure à 20 Go, la proposition ne comprend pas de partition de démarrage distincte. Si une ou plusieurs partitions d'échange ont été détectées sur les disques durs disponibles, elles sont utilisées (au lieu d'en proposer une nouvelle). Plusieurs options vous sont proposées :
Pour accepter la proposition sans y apporter de modifications, cliquez sur
afin de poursuivre le workflow d'installation.Pour adapter la proposition, sélectionnez
. La boîte de dialogue contextuelle vous permet de basculer vers une ou une . Vous pouvez également ajuster les systèmes de fichiers pour les partitions proposées, créer une partition privée distincte et agrandir la partition d'échange (pour activer la mise en veille sur le disque, par exemple).Si le format du système de fichiers racine est Btrfs, vous pouvez égalementdésactiver les instantanés Btrfs ici.
Utilisez cette option pour déplacer la proposition décrite ci-dessous vers un autre disque. Sélectionnez un disque dans la liste. Si le disque dur choisi ne contient encore aucune partition, toute sa capacité est utilisée pour la proposition. Dans le cas contraire, vous pouvez choisir la ou les partitions à utiliser. L'option
vous permet de régler la proposition avec précision.Pour créer une configuration de partition personnalisée, sélectionnez
. Le partitionneur en mode expert s'ouvre. Il affiche la configuration de partition en cours pour tous les disques durs, y compris la proposition suggérée par le programme d'installation. Vous pouvez à présent , , ou des partitions.Cet outil vous permet également de configurer des volumes logiques (LVM), de configurer l'assignation de volumes RAID logiciels et de périphériques (DM), de coder des partitions, de monter des partages NFS et de gérer des volumes tmpfs. Pour affiner les paramètres, tels que la gestion des instantanés et des sous-volumes pour chaque partition Btrfs, sélectionnez Section 12.1, « Utilisation de l'outil de partitionnement de YaST ».
. Pour en savoir plus sur le partitionnement personnalisé et sur la configuration des fonctionnalités avancées, reportez-vous à laAvertissement : partitionnement personnalisé sur des machines UEFIUne machine UEFI nécessite une partition système EFI qui doit être montée sur
/boot/efi
. Cette partition doit être formatée avec le système de fichiersFAT
.Si votre système comporte déjà une partition système EFI (issue d'une installation antérieure de Windows, par exemple), vous pouvez l'utiliser en la montant sur
/boot/efi
sans la formater.Avertissement : partitionnement personnalisé et SnapperPar défaut, SUSE Linux Enterprise Server est configuré pour prendre en charge les instantanés, ce qui permet de restaurer les paramètres initiaux du système en cas de besoin. SUSE Linux Enterprise Server utilise Snapper avec Btrfs pour cette fonction. Reportez-vous au Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper” pour obtenir des informations détaillées.
Pour pouvoir créer des instantanés système qui permettent des retours à l'état initial, la plupart des répertoires système doivent être montés sur une seule partition. Reportez-vous au Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper”, Section 7.1 “Default Setup” pour plus d'informations. Les répertoires
/usr
et/var
sont également inclus. Seuls les répertoires qui sont exclus des instantanés (voir Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper”, Section 7.1.2 “Directories That Are Excluded from Snapshots” pour en obtenir la liste) peuvent se trouver sur des partitions distinctes. Cette liste comprend notamment/usr/local
,/var/log
et/tmp
.Si vous ne prévoyez pas d'utiliser Snapper pour les retours à l'état initial du système, les restrictions de partitionnement mentionnées ci-dessus ne s'appliquent pas.
Important : Btrfs sur une partition racine chiffréeLa configuration par défaut du partitionnement suggère une partition racine de type Btrfs et
/boot
comme répertoire. Pour chiffrer la partition racine, assurez-vous d'utiliser le type de table de partitions GPT au lieu du type MSDOS par défaut. Dans le cas contraire, le chargeur d'amorçage GRUB2 risque de ne pas disposer de suffisamment d'espace pour celui nécessaire à la deuxième étape.Note : IBM Z : utilisation de minidisques dans z/VMSi SUSE Linux Enterprise Server est installé sur des minidisques dans z/VM, qui résident sur le même disque physique, le chemin d'accès des minidisques (/dev/disk/by-id/) n'est pas unique, car il représente l'ID du disque physique. Ainsi, si deux minidisques ou plus sont sur le même disque physique, ils auront tous le même ID.
Pour éviter les problèmes relatifs au montage des minidisques, montez-les toujours par chemin ou par UUID.
Si vous configurez le système avec un système de fichiers racine sur LVM ou une matrice logicielle RAID, vous devez placer /boot
sur une partition non-LVM ou non-RAID distincte pour que le système puisse démarrer. La taille recommandée est de 500 Mo pour ce type de partition ; le système de fichiers recommandé est Ext4.
L'installation sur des volumes RAID logiciels existants est prise en charge pour les volumes DDF (Disk Data Format) et IMSM (Intel Matrix Storage Manager), au même titre que le démarrage à partir de ces volumes. IMSM est également connu sous les noms suivants :
Intel Rapid Storage Technology
Intel Matrix Storage Technology
Intel Application Accelerator / Intel Application Accelerator RAID Edition
Les périphériques FCoE et iSCSI apparaissent de manière asynchrone lors du processus de démarrage. Tandis que initrd garantit la configuration adéquate de ces périphériques pour le système de fichiers racine, il n'existe aucune garantie de ce type pour d'autres systèmes de fichiers ou points de montage tels que /usr
. Par conséquent, les points de montage de système comme /usr
ou /var
ne sont pas pris en charge. Pour utiliser ces appareils, assurez-vous que la synchronisation est correcte entre les services et appareils respectifs.
6.12 Horloge et fuseau horaire #
Dans cette boîte de dialogue, sélectionnez votre région et votre fuseau horaire. Ces deux paramètres sont prédéfinis en fonction de la langue d'installation. Pour les modifier, utilisez la carte ou les listes déroulantes
et . Si vous choisissez d'utiliser la carte, placez le curseur de la souris près de votre pays et cliquez pour faire un zoom. Choisissez maintenant votre pays ou région en cliquant dessus. Cliquez avec le bouton droit pour faire un zoom arrière.Pour configurer l'horloge, choisissez si l'
ou non. Si un autre système d'exploitation est exécuté sur votre machine, par exemple Microsoft Windows, il est probable que votre système utilise plutôt l'heure locale. Si Linux est exécuté sur votre machine, définissez l'horloge matérielle sur UTC et demandez que le changement entre heure standard et heure d'été se fasse automatiquement.Le passage de l'heure standard à l'heure d'été (et inversement) ne peut être effectué automatiquement que si l'horloge matérielle (horloge CMOS) est réglée sur UTC. Cela s'applique également si vous utilisez la synchronisation horaire automatique avec NTP. En effet, la synchronisation automatique n'est effectuée que si la différence d'heure entre l'horloge matérielle et l'horloge système est inférieure à 15 minutes.
Comme une heure système erronée peut engendrer des problèmes sérieux (sauvegardes manquées, messages perdus, erreurs de montage sur les systèmes de fichiers distants, etc.), il est fortement recommandé de toujours régler l'horloge matérielle sur UTC.
POWER, AMD/Intel Si un réseau est déjà configuré, vous pouvez configurer la synchronisation horaire à l'aide d'un serveur NTP. Cliquez sur Book “Administration Guide”, Chapter 26 “Time Synchronization with NTP”. Lorsque vous avez terminé, cliquez sur pour continuer l'installation.
pour modifier les paramètres NTP ou pour régler l'heure . Pour plus d'informations sur la configuration du service NTP, reportez-vous auPOWER, AMD/Intel
Dans le cadre d'une exécution dans laquelle NTP n'est pas configuré, pensez à définir le paramètre SYSTOHC=no
(variable sysconfig
) afin d'éviter d'enregistrer une heure non synchronisée dans l'horloge matérielle.
Puisque le système d'exploitation n'est pas autorisé à modifier directement la date et l'heure, l'option
n'est pas disponible sur IBM Z.6.13 Création d'un utilisateur #
Vous pouvez créer un utilisateur local au cours de cette étape. Après avoir saisi le prénom et le nom, vous pouvez soit accepter la proposition, soit spécifier un nouveau .
(point), -
(tiret) et _
(caractère de soulignement). Les caractères spéciaux, trémas et caractères accentués ne sont pas autorisés.
Pour finir, entrez un mot de passe pour l'utilisateur. Saisissez-le une seconde fois pour confirmer (et vous assurer que vous n'avez pas commis d'erreur de frappe). Afin d'assurer une sécurité optimale, le mot de passe doit contenir au moins six caractères et être composé de lettres majuscules et minuscules, de chiffres et de caractères spéciaux (ASCII 7 bits). Les umlauts et les caractères accentués ne sont pas autorisés. Les mots de passe que vous saisissez sont vérifiés afin de s'assurer qu'ils apportent une sécurité suffisante. Si vous choisissez un mot de passe facile à deviner, comme un mot du dictionnaire ou un nom, un avertissement s'affiche. Pour une question de sécurité, il est fortement conseillé d'utiliser des mots de passe compliqués.
Mémorisez votre nom d'utilisateur et votre mot de passe, car tous deux vous seront demandés chaque fois que vous vous connecterez au système.
Si vous installez SUSE Linux Enterprise Server sur une machine avec une ou plusieurs installations Linux existantes, YaST vous permet d'importer des données utilisateur telles que des noms d'utilisateur et des mots de passe. Sélectionnez , puis pour l'importation.
Si vous ne souhaitez pas configurer d'utilisateurs locaux (lors de la configuration d'un client sur un réseau pourvu d'une authentification centralisée des utilisateurs, par exemple), ignorez cette étape en sélectionnant Chapitre 16, Gestion des utilisateurs avec YaST.
et en acceptant l'avertissement. L'authentification des utilisateurs réseau pourra être configurée ultérieurement sur le système installé ; pour plus d'informations à ce sujet, reportez-vous auVous disposez de deux possibilités supplémentaires :
Si cette option est sélectionnée, le mot de passe saisi pour l'utilisateur est également utilisé pour l'administrateur système
root
. Cette option convient pour les machines ou postes de travail autonomes situés dans un réseau domestique administré par un seul utilisateur. Si cette option n'est pas sélectionnée, vous êtes invité à saisir un mot de passe administrateur au cours de l'étape suivante de la procédure d'installation (voir la Section 6.14, « Mot de passe de l'administrateur systèmeroot
»).Cette option connecte automatiquement l'utilisateur actuel au système lors du démarrage. Cela est surtout utile si l'ordinateur ne sert qu'à un seul utilisateur. Pour que la connexion automatique fonctionne, cette option doit être activée de façon explicite.
6.13.1 Paramètres pour experts #
Cliquez sur
dans la boîte de dialogue de création d'un utilisateur pour importer des utilisateurs d'une installation précédente (le cas échéant). Dans cette boîte de dialogue, modifiez aussi le type de codage du mot de passe.
La méthode d'authentification par défaut est SUSE Linux Enterprise Server ou un autre système utilisant /etc/passwd
est détecté, vous pouvez importer des utilisateurs locaux. Pour cela, cochez la case , puis cliquez sur . Dans la boîte de dialogue suivante, sélectionnez les utilisateurs à importer et terminez l'opération en cliquant sur .
Par défaut, les mots de passe sont codés à l'aide de la fonction de hachage SHA-512. Il est déconseillé de changer de méthode, sauf si cela s'avère nécessaire pour des raisons de compatibilité.
6.14 Mot de passe de l'administrateur système root
#
Si vous n'avez pas sélectionné l'option root
. Dans le cas contraire, cette étape de configuration est ignorée.
root
est le nom du superutilisateur ou de l'administrateur du système. Contrairement aux utilisateurs ordinaires, root
a des droits illimités pour la modification de la configuration du système, l'installation des programmes et la configuration du nouveau matériel. Si des utilisateurs oublient leur mot de passe ou rencontrent d'autres difficultés avec leur système, root
peut les aider. Le compte root
ne doit être utilisé que pour l'administration du système, la maintenance et les réparations. Se connecter en tant que root
pour les tâches quotidiennes présente certains risques. Une seule erreur peut, en effet, provoquer la perte irrémédiable de fichiers système.
À des fins de vérification, le mot de passe root
doit être saisi deux fois. N'oubliez pas le mot de passe root
. Une fois défini, ce mot de passe ne peut pas être récupéré.
root
#Il est conseillé de n'utiliser que les caractères disponibles sur un clavier anglais. En cas d'erreur système ou s'il s'avère nécessaire de démarrer le système en mode de secours, il se peut qu'un clavier localisé ne soit pas disponible.
Le mot de passe root
pourra être modifié à tout moment sur le système installé. Pour ce faire, exécutez YaST, puis sélectionnez › .
root
L'utilisateur root
possède toutes les permissions requises pour apporter des modifications au système. Le mot de passe root
est requis pour effectuer ce type d'opérations. Aucune tâche administrative n'est possible sans ce mot de passe.
6.15 Paramètres d'installation #
Lors de la dernière étape avant l'installation, vous pouvez modifier les paramètres proposés par le programme d'installation. Pour modifier les propositions, cliquez sur le titre approprié. Après avoir modifié un paramètre, vous revenez systématiquement à la fenêtre Paramètres d'installation, laquelle est mise à jour en conséquence.
6.15.1 #
SUSE Linux Enterprise Server comporte plusieurs modèles de logiciels correspondant à divers types d'applications. Cliquez sur pour afficher l'écran dans lequel vous pouvez modifier la sélection du modèle suivant vos besoins. Sélectionnez un modèle dans la liste. La description correspondante s'affiche alors dans la partie droite de la fenêtre. Chaque modèle contient plusieurs paquetages logiciels nécessaires pour des fonctions spécifiques (serveur Web et LAMP ou serveur d'impression, par exemple). Pour une sélection plus détaillée des paquetages logiciels à installer, sélectionnez afin de basculer vers le gestionnaire de logiciels de YaST.
Vous pouvez également installer des paquetages logiciels supplémentaires ou en supprimer de votre système quand vous le souhaitez grâce au gestionnaire de logiciels de YaST. Pour plus d'informations, reportez-vous au Chapitre 13, Installation et suppression de logiciels.
Par défaut, SUSE Linux Enterprise Server est installé avec X Window et l'environnement de bureau GNOME. Si vous n'avez pas besoin de X Window, désélectionnez les deux modèles correspondants sur l'écran . Vous pouvez également installer le gestionnaire de fenêtres léger IceWM à la place de GNOME. Sélectionnez dans l'écran et recherchez icewm
.
La pile de cryptographie matérielle n'est pas installée par défaut. Pour l'installer, sélectionnez
(System z : prise en charge du codage matériel) dans l'écran .La langue sélectionnée lors de la première étape de l'installation est utilisée comme langue principale (par défaut) pour le système. Vous pouvez ajouter des langues secondaires à partir de la boîte de dialogue
en sélectionnant › › .6.15.2 #
Le programme d'installation propose une configuration de démarrage pour votre système. Les autres systèmes d'exploitation de votre ordinateur, comme Microsoft Windows ou d'autres installations Linux, sont détectés et ajoutés automatiquement au chargeur de démarrage. Cependant, SUSE Linux Enterprise Server démarre par défaut. Vous pouvez normalement adopter les réglages proposés sans modification. Si une configuration personnalisée est nécessaire, modifiez les paramètres proposés suivant vos besoins. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 13 “The Boot Loader GRUB 2”, Section 13.3 “Configuring the Boot Loader with YaST”.
Le démarrage d'une configuration dans laquelle /boot
réside sur un périphérique RAID 1 logiciel est pris en charge, mais nécessite d'installer le chargeur d'amorçage dans le MBR ( › ). Le répertoire /boot
n'est pas pris en charge sur des périphériques RAID logiciels dont le niveau n'est pas RAID 1. Reportez-vous également au Book “Storage Administration Guide”, Chapter 8 “Configuring Software RAID for the Root Partition”.
6.15.3 #
Les Book “Administration Guide”, Chapter 13 “The Boot Loader GRUB 2” CPU Mitigations (« Guide d'AutoYaST », chapitre 4 « Options de configuration et d'installation », Section 4.10 « Mise à niveau »).
font référence aux paramètres de la ligne de commande de démarrage du kernel pour les atténuations logicielles déployées afin d'empêcher les attaques d'UC par canal auxiliaire. Cliquez sur l'entrée en surbrillance pour choisir une autre option. Pour plus de détails, consultez lePar défaut, SuSEfirewall2 est activé sur toutes les interfaces réseau configurées. Pour désactiver complètement le pare-feu sur cet ordinateur, cliquez sur
(déconseillé).Si le pare-feu est activé, toutes les interfaces sont configurées de manière à figurer dans la « Zone externe » (où tous les ports sont fermés par défaut), ce qui garantit un maximum de sécurité. Le seul port que vous pouvez ouvrir au cours de l'installation est le port 22 (SSH), afin d'autoriser l'accès distant. Tous les autres services qui nécessitent un accès réseau (tels que FTP, Samba, Serveur Web, etc.) ne fonctionneront qu'une fois les paramètres du pare-feu correctement configurés. Reportez-vous au Book “Security and Hardening Guide”, Chapter 16 “Masquerading and Firewalls” pour plus d'informations.
Pour activer l'accès distant via Secure Shell (SSH), assurez-vous que l'option Service SSH
est activée et que le Port SSH
est ouvert.
Si vous installez SUSE Linux Enterprise Server sur un ordinateur comportant des installations Linux existantes, la procédure d'installation importe une clé d'hôte SSH. Par défaut, elle choisit la clé d'hôte avec l'heure d'accès la plus récente. Voir également Section 6.15.7, « . »
Si vous effectuez une administration à distance via VNC, vous pouvez également déterminer si la machine doit être accessible via VNC après l'installation. Notez que lors de l'activation de VNC, vous devez également définir
(Cible systemd par défaut) sur .6.15.4 #
Kdump vous permet d'enregistrer un dump du kernel et analyser ce qui s'est passé (en cas de problème). Utilisez cette boîte de dialogue pour activer et configurer Kdump. Pour plus d'informations, reportez-vous au Book “System Analysis and Tuning Guide”, Chapter 17 “Kexec and Kdump”.
6.15.5 IBM Z : placement des périphériques sur liste noire #
Pour économiser de la mémoire, tous les canaux des périphériques qui ne sont pas utilisés sont, par défaut, repris sur une liste noire (chaque canal qui n'est pas placé dans une liste noire occupe environ 50 Ko de mémoire). Pour configurer du matériel supplémentaire sur le système installé à l'aide des canaux placés en liste noire, exécutez le module YaST approprié afin d'activer d'abord les canaux correspondants.
Pour désactiver le placement des canaux en liste noire, cliquez sur
.6.15.6 #
SUSE Linux Enterprise Server peut démarrer dans deux cibles différentes (connues précédemment sous le nom de « runlevels »). La cible lance un gestionnaire d'affichage, tandis que la cible démarre l'interface de ligne de commande.
La cible par défaut est
. Si vous n'avez pas installé les modèles , vous devez définir la cible sur . Si le système doit être accessible via VNC, vous devez choisir l'option .6.15.7 #
Si une installation existante de Linux a été détectée sur votre ordinateur, YaST importe la clé d'hôte SSH la plus récente dans /etc/ssh
par défaut, éventuellement avec d'autres fichiers inclus dans le répertoire. Cela permet de réutiliser l'identité SSH de l'installation existante, afin d'éviter l'avertissement REMOTE HOST IDENTIFICATION HAS CHANGED
(L'IDENTIFICATION DE L'HÔTE DISTANT A ÉTÉ MODIFIÉE) lors de la première connexion. Notez que cet élément ne figure pas dans le résumé de l'installation si YaST n'a pas découvert d'autres installations.
- (J'aimerais importer les clés SSH à partir d'une précédente installation)
Sélectionnez cette option si vous souhaitez importer la clé d'hôte SSH et éventuellement la configuration d'un système installé. Vous pouvez sélectionner l'installation à partir de laquelle effectuer l'importation dans la liste d'option ci-dessous.
- (Importer la configuration SSH)
Activez cette option pour copier d'autres fichiers contenus dans
/etc/ssh
vers le système installé, en plus des clés d'hôte.
6.15.8 #
Cet écran répertorie toutes les informations matérielles que le programme d'installation a pu obtenir au sujet de votre ordinateur. La détection du matériel est lancée lors de l'ouverture initiale. Selon votre système, cela peut prendre quelques minutes. Pour plus d'informations sur un élément donné, sélectionnez cet élément dans la liste et cliquez sur
Cliquez sur (Enregistrer dans un fichier) pour enregistrer une liste détaillée sur un système de fichiers local ou sur un périphérique amovible.Les utilisateurs expérimentés peuvent également modifier la
et les paramètres du kernel en sélectionnant . Un écran contenant deux onglets est alors affiché.Chaque pilote de kernel contient une liste d'ID de tous les périphériques qu'il prend en charge. Si un nouveau périphérique ne se trouve dans aucune base de données du pilote, le périphérique est considéré comme non pris en charge, même s'il peut être utilisé par un pilote existant. Vous pouvez ajouter des ID PCI ici. Cette opération est toutefois réservée aux utilisateurs expérimentés.
Pour ajouter un ID, cliquez sur
, puis indiquez si les données doivent être saisies ou sélectionnées dans une liste. Entrez les données requises. est le nom du répertoire provenant de/sys/bus/pci/drivers
; s'il est vide, est utilisé. Les entrées existantes peuvent être gérées à l'aide des options et .Vous pouvez modifier le Book “System Analysis and Tuning Guide”, Chapter 12 “Tuning I/O Performance”.
à cet endroit. Si l'option est sélectionnée, le paramètre par défaut de l'architecture correspondante est utilisé. Vous pourrez également modifier ce paramètre ultérieurement à partir du système installé. Pour plus d'informations sur le réglage des E/S, reportez-vous auVous pouvez également activer l'option https://www.kernel.org/doc/html/latest/admin-guide/sysrq.html pour obtenir des informations détaillées.
(Activer les clés SysRq) ici. Ces clés vous permettent également d'émettre des commandes de base (telles qu'un redémarrage du système ou une écriture de dumps de kernel) en cas de crash système. Il est conseillé d'activer ces clés dans le cadre du développement de kernel. Reportez-vous au chapitre
6.16 Réalisation de l'installation #
Après avoir configuré tous les paramètres d'installation, cliquez sur
dans la fenêtre Paramètres d'installation pour commencer l'installation. Des logiciels peuvent nécessiter une confirmation de licence. Si votre sélection de logiciels en inclut, les boîtes de dialogue de confirmation de licence s'affichent. Cliquez sur pour installer le paquetage logiciel. Si vous n'acceptez pas les conditions d'utilisation de la licence, cliquez sur et le paquetage logiciel ne sera pas installé. Dans la boîte de dialogue suivante, confirmez l'installation en cliquant de nouveau sur .L'installation dure généralement entre 15 et 30 minutes, selon les performances de votre système et les logiciels sélectionnés. Après avoir préparé le disque dur, enregistré et restauré les paramètres utilisateurs, l'installation logicielle commence. Au cours de cette procédure, un diaporama vous présente les fonctionnalités de SUSE Linux Enterprise Server. Sélectionnez pour basculer vers le journal d'installation ou pour lire des informations importantes et à jour qui n'étaient pas disponibles au moment de l'impression des manuels.
Une fois l'installation du logiciel terminée, le système redémarre dans la nouvelle installation, où vous pouvez vous connecter. Pour personnaliser la configuration du système ou installer des paquetages supplémentaires, démarrez YaST.
À partir de la version 12 de SUSE Linux Enterprise Server, l'installation, la configuration de base du système ainsi que la configuration du réseau s'effectuent en une seule étape. Après avoir redémarré le système installé, vous pouvez vous connecter et commencer à utiliser le système. Si vous souhaitez adapter la configuration, configurer des services ou installer des logiciels supplémentaires, démarrez YaST.
6.16.1 IBM Z : initialisation IPL du système installé #
YaST redémarre généralement sur le système installé sur la plate-forme IBM Z. Il existe toutefois des exceptions : les installations dans lesquelles le chargeur de démarrage est situé sur un périphérique FCP, dans des environnements avec LPAR sur une machine dont la version est antérieure à z196 ou dont la version de z/VM est antérieure à la version 5.4. Dans ces cas-là, le chargeur de démarrage est écrit sur une partition distincte, montée en tant que /boot/zipl/
.
Si un redémarrage automatique n'est pas possible, YaST ouvre une boîte de dialogue contenant des informations sur le périphérique à partir duquel un IPL doit être effectué. Acceptez l'option d'arrêt et effectuez un IPL après cet arrêt. La procédure varie selon le type d'installation :
- Installation LPAR
Dans la console HMC d'IBM Z, sélectionnez
, , puis entrez l'adresse de chargement (l'adresse du périphérique contenant le répertoire/boot/zipl
avec le chargeur de démarrage). Si vous utilisez un disque zFCP comme périphérique de démarrage, sélectionnez (Charger depuis SCSI) et indiquez l'adresse de chargement de votre adaptateur FCP, du WWPN et du LUN du périphérique de démarrage. À présent, démarrez le processus de chargement.- Installation z/VM
Connectez-vous à la machine virtuelle invitée (voir Exemple 4.1, « Configuration d'un répertoire z/VM » pour la configuration) en tant que
LINUX1
et effectuez la procédure IPL sur le système installé :IPL 151 CLEAR
151
est un exemple d'adresse du périphérique de démarrage DASD. Remplacez cette valeur par la véritable adresse.Si vous utilisez un disque ZFCP comme périphérique de démarrage, indiquez le WWPN et le LUN zFCP du périphérique en question avant d'initialiser l'IPL. La longueur du paramètre est limitée à huit caractères. Les numéros plus longs doivent être séparés par des espaces :
SET LOADDEV PORT 50050763 00C590A9 LUN 50010000 00000000
Enfin, initialisez l'IPL :
IPL FC00
FC00
est un exemple d'adresse de l'adaptateur zFCP. Remplacez cette valeur par l'adresse correcte.- Installation invité KVM
Une fois l'installation terminée, la machine virtuelle s'arrête. À ce stade, connectez-vous à l'hôte KVM, modifiez le fichier de description de la machine virtuelle, puis redémarrez-la pour exécuter un IPL sur le système installé :
Connectez-vous à l'hôte KVM.
Modifiez le fichier XML de domaine en exécutant la commande
virsh edit s12-1
et supprimez les lignes suivantes :
<!-- Boot kernel - remove 3 lines after successfull installation --> <kernel>/var/lib/libvirt/images/s12-kernel.boot</kernel> <initrd>/var/lib/libvirt/images/s12-initrd.boot</initrd> <cmdline>linuxrcstderr=/dev/console</cmdline>
Redémarrez l'invité de machine virtuelle pour exécuter un IPL sur le système installé :
virsh start s12-1 --console
Note : le paramètrecio_ignore
est désactivé pour les installations KVMLe paramètre de kernel
cio_ignore
empêche le kernel de rechercher tous les périphériques matériels disponibles. Toutefois, pour les invités KVM, l'hyperviseur veille déjà à fournir un accès uniquement aux périphériques adéquats. Par conséquent,cio_ignore
est désactivé par défaut lors de l'installation d'un invité KVM (en revanche, pour les installations z/VM et LPAR, il est activé par défaut).
6.16.2 IBM Z : connexion au système installé #
Après avoir exécuté un IPL sur le système, établissez une connexion via VNC, SSH ou X pour vous y connecter. Il est conseillé d'utiliser VNC ou SSH. Pour personnaliser la configuration du système ou installer des paquetages supplémentaires, démarrez YaST.
6.16.2.1 Utilisation de VNC pour se connecter #
Un message du terminal 3270 vous demande de vous connecter au système Linux en utilisant un client VNC. Toutefois, ce message passe facilement inaperçu, car il est mélangé à des messages de kernel et le processus de terminal peut se terminer avant que vous n'ayez reçu le message. Si rien ne se produit pendant cinq minutes, tentez d'initialiser une connexion au système Linux en utilisant une visionneuse VNC.
6.16.2.2 Utilisation de SSH pour se connecter #
Un message du terminal 3270 vous demande de vous connecter au système Linux en utilisant un client SSH. Toutefois, ce message passe facilement inaperçu, car il est mélangé à des messages de kernel et le processus de terminal peut se terminer avant que vous n'ayez pu en avoir connaissance.
Une fois le message affiché, utilisez SSH pour vous connecter au système Linux en tant que root
. Si la connexion est refusée ou si elle a expiré, attendez l'expiration du timeout de connexion, puis réessayez (ce délai dépend des paramètres du serveur).
6.16.2.3 Utilisation de X pour se connecter #
Lors de l'initialisation IPL du système installé, assurez-vous que le serveur X utilisé pour la première phase de l'installation est prêt et toujours disponible avant de démarrer depuis le DASD. YaST s'ouvre sur ce serveur X pour terminer l'installation. Des complications peuvent survenir si le système est démarré mais qu'il ne peut pas se connecter au serveur X dans les délais.
7 Clonage d'images de disque #
Si SUSE Linux Enterprise Server est installé dans un environnement virtualisé, le clonage d'une installation existante peut être le moyen le plus rapide de déployer davantage de machines. SUSE Linux Enterprise Server fournit un script pour nettoyer la configuration qui est unique pour chaque installation. Avec l'introduction de systemd, des identificateurs système uniques sont utilisés et définis dans différents fichiers et emplacements. Par conséquent, le clonage n'est plus la méthode recommandée pour créer des images système. Les images peuvent être créées avec KIWI : reportez-vous à l'adresse https://doc.opensuse.org/projects/kiwi/doc/.
Pour cloner des disques de machines, reportez-vous à la documentation de votre environnement de virtualisation.
7.1 Nettoyage des identificateurs système uniques #
L'exécution de la procédure suivante supprime définitivement les données de configuration importantes du système. Si le système source pour le clone est utilisé en production, exécutez le script de nettoyage sur l'image clonée.
Pour nettoyer tous les identificateurs système uniques, exécutez la procédure suivante avant ou après le clonage d'une image de disque. En cas d'exécution sur le clone, cette procédure doit être exécutée sur chaque clone. Par conséquent, nous vous recommandons de créer une image de référence
qui n'est pas utilisée en production et sert uniquement de source pour les nouveaux clones. L'image de référence est déjà nettoyée et les clones peuvent être utilisés immédiatement.
La commande clone-master-clean-up
par exemple supprime les éléments suivants :
Fichiers d'échange
Dépôts Zypper
Clés d'hôte et de client SSH
Répertoires temporaires, tels que
/tmp/*
Données postfix
Script de pare-feu HANA
Journal systemd
Utilisez
zypper
pour installer clone-master-clean-up :root #
zypper
install clone-master-clean-upConfigurez le comportement de
clone-master-clean-up
en modifiant/etc/sysconfig/clone-master-clean-up
. Ce fichier de configuration définit si les utilisateurs avec un UID supérieur à 1 000, les fichiers/etc/sudoers
, les dépôts Zypper et les instantanés Btrfs doivent être supprimés.Supprimez la configuration existante et les identificateurs uniques en exécutant le script suivant :
root #
clone-master-clean-up
Partie III Configuration d'un serveur d'installation #
- 8 Configuration du serveur qui contient les sources d'installation
SUSE® Linux Enterprise Server peut être installé de différentes manières. Outre l'installation classique à partir d'un support abordée au Chapitre 6, Installation avec YaST, vous avez le choix entre plusieurs approches réseau ; vous pouvez même envisager une installation sans surveillance de SUSE Li…
- 9 Préparation du démarrage du système cible
SUSE® Linux Enterprise Server peut être installé de différentes manières. Outre l'installation classique à partir d'un support abordée au Chapitre 6, Installation avec YaST, vous avez le choix entre plusieurs approches réseau ; vous pouvez même envisager une installation entièrement automatique de S…
8 Configuration du serveur qui contient les sources d'installation #
SUSE® Linux Enterprise Server peut être installé de différentes manières. Outre l'installation classique à partir d'un support abordée au Chapitre 6, Installation avec YaST, vous avez le choix entre plusieurs approches réseau ; vous pouvez même envisager une installation sans surveillance de SUSE Linux Enterprise Server.
Chaque méthode est présentée par le biais de deux petites listes de contrôle : une liste des conditions préalables et une description de la procédure de base. Des informations supplémentaires vous sont ensuite fournies pour toutes les techniques utilisées dans ces scénarios d'installation.
Dans les sections suivantes, le système destiné à héberger votre nouvelle installation SUSE Linux Enterprise Server est désigné sous les termes de système cible ou cible d'installation. Le terme dépôt (anciennement appelé « source d'installation ») désigne toutes les sources de données d'installation. Il s'agit notamment des supports physiques, tels que les CD et DVD, et des serveurs réseau qui transfèrent les données d'installation sur votre réseau.
En fonction du système d'exploitation exécuté sur la machine à utiliser comme source d'installation réseau pour SUSE Linux Enterprise Server, plusieurs options sont disponibles pour la configuration du serveur. La méthode la plus simple pour configurer un serveur d'installation consiste à utiliser YaST sous SUSE Linux Enterprise Server ou openSUSE.
Vous pouvez même utiliser une machine Microsoft Windows comme serveur d'installation pour le déploiement de Linux. Reportez-vous à la Section 8.5, « Gestion d'un dépôt SMB » pour plus d'informations.
8.1 Configuration d'un serveur d'installation à l'aide de YaST #
YaST fournit un outil graphique qui permet de créer des dépôts réseau. Il prend en charge les serveurs d'installation réseau HTTP, FTP et NFS.
Connectez-vous en tant qu'utilisateur
root
à la machine qui doit jouer le rôle de serveur d'installation.Sélectionnez
› › .Sélectionnez le type de dépôt (HTTP, FTP ou NFS). Le service sélectionné est lancé automatiquement à chaque démarrage du système. Si un service du type sélectionné est déjà en cours d'exécution sur votre système et si vous souhaitez le configurer manuellement, désactivez la fonction de configuration automatique du service de serveur en sélectionnant
. Dans les deux cas, définissez le répertoire du serveur dans lequel placer les données d'installation.Configurez le type de dépôt requis. Cette étape concerne la configuration automatique des services de serveur. Elle est ignorée lorsque la configuration automatique est désactivée.
Définissez un alias pour le répertoire racine du serveur FTP ou HTTP sur lequel les données d'installation doivent figurer. Par la suite, le dépôt sera situé sous
ftp://IP-serveur/Alias/Nom
(FTP) ou soushttp://IP-serveur/Alias/Nom
(HTTP). Nom désigne le nom du dépôt, dont la définition s'effectue à l'étape suivante. Si vous avez sélectionné NFS à l'étape précédente, définissez des caractères joker et des options d'exportation. Le serveur NFS sera accessible sousnfs://IP-serveur/Nom
. Pour plus d'informations sur le serveur NFS et les exportations, reportez-vous au Book “Administration Guide”, Chapter 29 “Sharing File Systems with NFS”.Astuce : paramètres de pare-feuAssurez-vous que les paramètres du pare-feu de votre système serveur autorisent le trafic au niveau des ports pour HTTP, NFS et FTP. Dans le cas contraire, activez
ou sélectionnez d'abord .Configurez le dépôt. Avant la copie des supports d'installation vers leur destination, définissez le nom du dépôt (choisissez plutôt une abréviation du produit et de la version facile à mémoriser). YaST permet de fournir des images ISO des supports au lieu de copies des DVD d'installation. Pour ce faire, sélectionnez la case à cocher correspondante et indiquez le chemin du répertoire sous lequel trouver les fichiers ISO localement. En fonction du produit à distribuer à l'aide de ce serveur d'installation, vous devrez peut-être ajouter d'autres supports, tels que des DVD de Service Pack comme dépôts supplémentaires. Pour annoncer votre serveur d'installation sur le réseau via OpenSLP, sélectionnez l'option correspondante.
Astuce : annonce du dépôtPensez à annoncer votre dépôt via OpenSLP si la configuration du réseau prend en charge cette option. Cela vous évite d'entrer le chemin d'installation réseau sur chaque machine cible. Les systèmes cibles sont simplement démarrés à l'aide de l'option de démarrage SLP ; ils trouveront le dépôt réseau sans qu'aucune autre opération de configuration ne soit nécessaire. Pour plus d'informations sur cette option, reportez-vous à la Section 10.2, « Démarrage du système cible pour l'installation ».
Configurez des dépôts supplémentaires. YaST suit une convention de dénomination spécifique pour configurer des dépôts de CD de produit complémentaire ou de Service Pack. La configuration est acceptée uniquement si le nom de dépôt des CD de produit complémentaire commence par le nom de dépôt du support d'installation. En d'autres termes, si vous choisissez
SLES12SP1
comme nom de dépôt pour DVD 1, sélectionnezSLES12SP1addon
comme nom de dépôt pour DVD2. Il en va de même pour les CD de SDK.Téléchargez les données d'installation. La copie des supports d'installation constitue l'étape la plus longue dans la configuration d'un serveur d'installation. Insérez les supports dans l'ordre demandé par YaST et attendez la fin de la procédure de copie. Lorsque les sources ont été entièrement copiées, revenez à l'aperçu des dépôts existants et fermez la configuration en sélectionnant
.Le serveur d'installation est désormais entièrement configuré et prêt à fonctionner. Il démarre automatiquement en même temps que le système. Aucune autre intervention n'est nécessaire. Si vous avez désactivé à l'aide de YaST la configuration automatique du service réseau sélectionné lors de la première étape, il suffit de configurer et de démarrer manuellement ce service.
Pour désactiver un dépôt, sélectionnez le dépôt à supprimer, puis sélectionnez
. Les données de l'installation sont supprimées du système. Pour désactiver le service réseau, utilisez le module YaST correspondant.Si votre serveur d'installation doit fournir les données d'installation de plusieurs produits de cette version, démarrez le module YaST relatif aux serveurs d'installation et sélectionnez
dans l'aperçu des dépôts existants pour configurer le nouveau dépôt.8.2 Configuration manuelle d'un dépôt NFS #
La configuration d'une source NFS en vue de l'installation s'effectue en deux étapes. Dans un premier temps, créez l'arborescence qui contient les données d'installation et copiez les supports d'installation vers cette arborescence. Exportez ensuite le répertoire qui contient les données d'installation vers le réseau.
Pour créer un répertoire qui contient les données d'installation, procédez de la façon suivante :
Connectez-vous en tant qu'utilisateur
root
.Créez un répertoire destiné à contenir les données d'installation et accédez à ce répertoire. Par exemple :
root #
mkdir /srv/install/PRODUCT/PRODUCTVERSIONroot #
cd /srv/install/PRODUCT/PRODUCTVERSIONRemplacez PRODUCT par l'abréviation du nom du produit et PRODUCTVERSION par une chaîne qui contient le nom et la version du produit.
Pour chaque DVD contenu dans le kit de supports, exécutez les commandes suivantes :
Copiez tout le contenu du DVD d'installation vers le répertoire du serveur d'installation :
root #
cp -a /media/PATH_TO_YOUR_DVD_DRIVE .Remplacez PATH_TO_YOUR_DVD_DRIVE (CHEMIN_PILOTE_DVD) par le chemin réel qui permet d'accéder au lecteur de DVD. En fonction du type de lecteur utilisé sur le système, il peut s'agir de
cdrom
,cdrecorder
,dvd
oudvdrecorder
.Renommez le répertoire en incluant le numéro du DVD :
root #
mv PATH_TO_YOUR_DVD_DRIVE DVDXRemplacez X par le numéro réel de votre DVD.
Sous SUSE Linux Enterprise Server, vous pouvez exporter le dépôt avec NFS à l'aide de YaST. Procédez de la façon suivante :
Connectez-vous en tant qu'utilisateur
root
.Sélectionnez
› › .Cliquez sur
et , puis cliquez sur .Sélectionnez
et recherchez le répertoire contenant les sources d'installation (ici, il s'agit du répertoirePRODUCTVERSION
).Sélectionnez
et entrez les noms d'hôte des machines vers lesquelles exporter les données d'installation. Au lieu d'indiquer les noms d'hôte, vous pouvez utiliser des caractères joker, des plages d'adresses réseau ou le nom de domaine de votre réseau. Entrez les options d'exportation appropriées ou laissez celles par défaut ; ces dernières fonctionnent correctement dans la plupart des configurations. Pour plus d'informations sur la syntaxe utilisée lors de l'exportation des partages NFS, reportez-vous à la page de manuel consacrée à l'exportation
.Cliquez sur SUSE Linux Enterprise Server est démarré et intégré automatiquement au processus d'amorçage.
. Le serveur NFS qui héberge le dépôt
Si vous préférez exporter manuellement le dépôt via NFS au lieu d'utiliser le module YaST relatif aux serveurs NFS, procédez comme suit :
Connectez-vous en tant qu'utilisateur
root
.Ouvrez le fichier
/etc/exports
et entrez la ligne de commande suivante :/PRODUCTVERSION *(ro,root_squash,sync)
Cette commande permet d'exporter le répertoire
/PRODUCTVERSION
vers tout hôte membre de ce réseau ou capable de se connecter à ce serveur. Pour limiter l'accès à ce serveur, remplacez le caractère joker générique*
par des masques de réseau ou des noms de domaine. Pour plus d'informations, reportez-vous à la page de manuel consacrée à l'exportation
. Enregistrez et quittez ce fichier de configuration.Pour ajouter le service NFS à la liste des serveurs démarrés au cours du démarrage du système, exécutez les commandes suivantes :
root #
systemctl enable nfsserverDémarrez le serveur NFS avec la commande
systemctl start nfsserver
. Si vous devez modifier la configuration de votre serveur NFS par la suite, modifiez le fichier de configuration et redémarrez le daemon NFS à l'aide de la commandesystemctl restart nfsserver.service
.
L'annonce du serveur NFS via OpenSLP permet de communiquer l'adresse de ce serveur à tous les clients du réseau.
Connectez-vous en tant qu'utilisateur
root
.Créez le fichier de configuration
/etc/slp.reg.d/install.suse.nfs.reg
avec les lignes suivantes :# Register the NFS Installation Server service:install.suse:nfs://$HOSTNAME/PATH_TO_REPOSITORY/DVD1,en,65535 description=NFS Repository
Remplacez PATH_TO_REPOSITORY (CHEMIN_DÉPÔT) par le chemin réel de la source d'installation sur votre serveur.
Démarrez le daemon OpenSLP en exécutant la commande
systemctl start slpd
.
Pour plus d'informations sur OpenSLP, reportez-vous à la documentation relative au paquetage, située dans /usr/share/doc/packages/openslp/
, ou le Book “Administration Guide”, Chapter 32 “SLP”. Pour plus d'informations sur NFS, reportez-vous au Book “Administration Guide”, Chapter 29 “Sharing File Systems with NFS”.
8.3 Configuration manuelle d'un dépôt FTP #
La création d'un dépôt FTP est très similaire à celle d'un dépôt NFS. Un dépôt FTP peut également être annoncé sur le réseau à l'aide d'OpenSLP.
Créez un répertoire qui contient les sources d'installation, comme décrit à la Section 8.2, « Configuration manuelle d'un dépôt NFS ».
Configurez le serveur FTP pour distribuer le contenu de votre répertoire d'installation :
Connectez-vous en tant qu'utilisateur
root
et installez le paquetagevsftpd
à l'aide du gestionnaire de logiciels YaST.Entrez dans le répertoire racine du serveur FTP :
root #
cd/srv/ftp
Créez un sous-répertoire qui contient les sources d'installation dans le répertoire racine FTP :
root #
mkdir REPOSITORYRemplacez REPOSITORY (DÉPÔT) par le nom du produit.
Montez le contenu du référentiel d'installation dans l'environnement racine modifié du serveur FTP :
root #
mount --bind PATH_TO_REPOSITORY /srv/ftp/REPOSITORYRemplacez les variables PATH_TO_REPOSITORY (CHEMIN_DÉPÔT) et REPOSITORY (DÉPÔT) par des valeurs adaptées à votre configuration. Pour que ces modifications soient permanentes, ajoutez-les au fichier
/etc/fstab
.Démarrez vsftpd à l'aide de
vsftpd
.
Annoncez le dépôt via OpenSLP si votre configuration réseau prend en charge cette opération :
Créez le fichier de configuration
/etc/slp.reg.d/install.suse.ftp.reg
avec les lignes suivantes :# Register the FTP Installation Server service:install.suse:ftp://$HOSTNAME/REPOSITORY/DVD1,en,65535 description=FTP Repository
Remplacez REPOSITORY (DÉPÔT) par le nom réel du répertoire de dépôt sur votre serveur. La ligne
service:
doit être entrée sous forme de ligne continue.Démarrez le daemon OpenSLP en exécutant la commande
systemctl start slpd
.
Si vous préférez utiliser YaST plutôt que de configurer manuellement le serveur d'installation FTP, reportez-vous au Book “Administration Guide”, Chapter 34 “Setting Up an FTP Server with YaST” pour plus d'informations sur l'utilisation du module YaST relatif aux serveurs FTP.
8.4 Configuration manuelle d'un dépôt HTTP #
La création d'un dépôt HTTP est très similaire à celle d'un dépôt NFS. Un dépôt HTTP peut également être annoncé sur le réseau à l'aide d'OpenSLP.
Créez un répertoire qui contient les sources d'installation en suivant la procédure décrite à la Section 8.2, « Configuration manuelle d'un dépôt NFS ».
Configurez le serveur HTTP pour distribuer le contenu de votre répertoire d'installation :
Installez le serveur Web Apache conformément à la description proposée dans le Book “Administration Guide”, Chapter 33 “The Apache HTTP Server”, Section 33.1.2 “Installation”.
Accédez au répertoire racine du serveur HTTP (
/srv/www/htdocs
) et créez un sous-répertoire qui contiendra les sources d'installation :root #
mkdir REPOSITORYRemplacez REPOSITORY (DÉPÔT) par le nom du produit.
Créez un lien symbolique à partir de l'emplacement des sources d'installation vers le répertoire racine du serveur Web (
/srv/www/htdocs
) :root #
ln -s /PATH_TO_REPOSITORY/srv/www/htdocs/REPOSITORYModifiez le fichier de configuration du serveur HTTP (
/etc/apache2/default-server.conf
) de manière à ce qu'il suive les liens symboliques. Remplacez la ligne suivante :Options None
par
Options Indexes FollowSymLinks
Rechargez la configuration du serveur HTTP à l'aide de la commande
systemctl reload apache2
.
Annoncez le dépôt via OpenSLP si votre configuration réseau prend en charge cette opération :
Créez le fichier de configuration
/etc/slp.reg.d/install.suse.http.reg
avec les lignes suivantes :# Register the HTTP Installation Server service:install.suse:http://$HOSTNAME/REPOSITORY/DVD1/,en,65535 description=HTTP Repository
Remplacez REPOSITORY (DÉPÔT) par le chemin réel du dépôt sur votre serveur. La ligne
service:
doit être entrée sous forme de ligne continue.Démarrez le daemon OpenSLP en exécutant la commande
systemctl start slpd
.
8.5 Gestion d'un dépôt SMB #
À l'aide du protocole SMB, vous pouvez importer les sources d'installation depuis un serveur Microsoft Windows et démarrer le déploiement Linux sans même disposer d'une machine Linux.
Pour configurer un partage Windows exporté sur lequel réside votre dépôt SUSE Linux Enterprise Server, procédez comme suit :
Connectez-vous à votre machine Windows.
Créez un répertoire qui contiendra l'intégralité de l'arborescence d'installation et nommez-le
INSTALL
, par exemple.Exportez ce partage en suivant la procédure décrite dans votre documentation Windows.
Accédez à ce partage et créez un sous-répertoire nommé
PRODUCT
. Remplacez PRODUCT par le nom réel du produit.Accédez au répertoire
INSTALL/PRODUCT
et copiez chaque DVD dans un répertoire distinct ;DVD1
etDVD2
, par exemple.
Pour utiliser un partage monté SMB comme dépôt, procédez comme suit :
Démarrez la cible d'installation.
Sélectionnez
.Appuyez sur la touche F4 pour sélectionner le dépôt.
Sélectionnez SMB, puis saisissez le nom ou l'adresse IP de la machine Windows, le nom du partage (
INSTALL/PRODUCT/DVD1
dans cet exemple), le nom d'utilisateur et le mot de passe. La syntaxe ressemble à ceci :smb://workdomain;user:password@server/INSTALL/DVD1
Après avoir appuyé sur Entrée, YaST démarre. Vous pouvez alors effectuer l'installation.
8.6 Utilisation d'images ISO du support d'installation sur le serveur #
Plutôt que de copier manuellement les supports physiques dans votre répertoire serveur, vous pouvez monter les images ISO du support d'installation sur votre serveur d'installation, puis les utiliser comme dépôt. Pour configurer un serveur HTTP, NFS ou FTP qui utilise des images ISO à la place des copies de support, procédez de la façon suivante :
Téléchargez les images ISO et enregistrez-les sur la machine à utiliser comme serveur d'installation.
Connectez-vous en tant qu'utilisateur
root
.Choisissez et créez un emplacement approprié pour stocker les données d'installation, comme décrit à la Section 8.2, « Configuration manuelle d'un dépôt NFS », à la Section 8.3, « Configuration manuelle d'un dépôt FTP » ou à la Section 8.4, « Configuration manuelle d'un dépôt HTTP ».
Créez des sous-répertoires pour chaque DVD.
Pour monter et décompresser chaque image ISO à son emplacement final, exécutez la commande suivante :
root #
mount -o loop PATH_TO_ISO PATH_TO_REPOSITORY/PRODUCT/MEDIUMXRemplacez PATH_TO_ISO (CHEMIN_VERS_ISO) par le chemin de votre copie locale de l'image ISO, PATH_TO_REPOSITORY (CHEMIN_VERS_DÉPÔT) par le répertoire source de votre serveur, PRODUCT (PRODUIT) par le nom du produit et MEDIUMX par le type (CD ou DVD) et le nombre de supports que vous utilisez.
Procédez de même pour monter toutes les images ISO nécessaires à votre produit.
Démarrez votre serveur d'installation comme d'habitude, en suivant la procédure décrite à la Section 8.2, « Configuration manuelle d'un dépôt NFS », à la Section 8.3, « Configuration manuelle d'un dépôt FTP » ou à la Section 8.4, « Configuration manuelle d'un dépôt HTTP ».
Pour monter automatiquement les images ISO lors du démarrage, ajoutez les entrées correspondantes dans /etc/fstab
. Dans le cas ci-dessus, l'entrée ressemblerait à l'exemple suivant :
PATH_TO_ISO PATH_TO_REPOSITORY/PRODUCTMEDIUM auto loop
9 Préparation du démarrage du système cible #
SUSE® Linux Enterprise Server peut être installé de différentes manières. Outre l'installation classique à partir d'un support abordée au Chapitre 6, Installation avec YaST, vous avez le choix entre plusieurs approches réseau ; vous pouvez même envisager une installation entièrement automatique de SUSE Linux Enterprise Server.
Les exemples utilisent NFS pour traiter les données d'installation. Si vous souhaitez utiliser FTP, SMB ou HTTP, reportez-vous au Chapitre 8, Configuration du serveur qui contient les sources d'installation.
Dans les sections suivantes, le système destiné à héberger votre nouvelle installation SUSE Linux Enterprise Server est désigné sous les termes de système cible ou cible d'installation. Le terme dépôt (anciennement appelé « source d'installation ») désigne toutes les sources de données d'installation. Il s'agit notamment des supports physiques, tels que les CD et DVD, et des serveurs réseau qui transfèrent les données d'installation sur votre réseau.
Cette section expose les tâches de configuration nécessaires pour les scénarios de démarrage complexes. Elle contient des exemples de configuration « prêts à l'emploi » pour le protocole DHCP, le démarrage PXE, le protocole TFTP et la fonction Wake on LAN.
Les exemples supposent que les serveurs DHCP, TFTP et NFS résident sur la même machine ayant pour adresse IP 192.168.1.1
. Tous les services peuvent résider sur des ordinateurs différents sans problème. Veillez à modifier les adresses IP en fonction de vos besoins.
9.1 Configuration d'un serveur DHCP #
En plus de fournir une allocation automatique d'adresses à vos clients réseau, le serveur DHCP annonce l'adresse IP du serveur TFTP et le fichier qui doit être extrait par les routines d'installation sur la machine cible. Le fichier à charger dépend de l'architecture de la machine cible et de l'utilisation éventuelle du démarrage BIOS ou UEFI hérité.
Connectez-vous en tant qu'utilisateur
root
à la machine qui héberge le serveur DHCP.Activez le serveur DHCP en exécutant la commande
systemctl enable dhcpd
.Ajoutez les lignes suivantes à la configuration de sous-réseau du fichier de configuration du serveur DHCP, situé dans
/etc/dhcpd.conf
:# The following lines are optional option domain-name "my.lab"; option domain-name-servers 192.168.1.1; option routers 192.168.1.1; option ntp-servers 192.168.1.1; ddns-update-style none; default-lease-time 3600; # The following lines are required option arch code 93 = unsigned integer 16; # RFC4578 subnet 192.168.1.0 netmask 255.255.255.0 { next-server 192.168.1.1; range 192.168.1.100 192.168.1.199; default-lease-time 3600; max-lease-time 3600; if option arch = 00:07 or option arch = 00:09 { filename "/EFI/x86/grub.efi"; } else if option arch = 00:0b { filename "/EFI/aarch64/bootaa64.efi"; } else { filename "/BIOS/x86/pxelinux.0"; } }
Cet exemple de configuration utilise le sous-réseau
192.168.1.0/24
avec DHCP, DNS et la passerelle sur le serveur avec l'adresse IP192.168.1.1
. Assurez-vous que toutes les adresses IP utilisées sont modifiées en fonction de votre topologie de réseau. Pour plus d'informations sur les options disponibles dansdhcpd.conf
, reportez-vous à la page de manueldhcpd.conf
.Redémarrez le serveur DHCP en exécutant la commande
systemctl restart dhcpd
.
Si vous avez l'intention d'utiliser le protocole SSH pour le contrôle distant d'une installation PXE et Wake on LAN, indiquez l'adresse IP que le protocole DHCP doit fournir à la cible d'installation. Pour ce faire, modifiez la configuration DHCP mentionnée ci-dessus, conformément à l'exemple suivant :
group { host test { hardware ethernet MAC_ADDRESS; fixed-address IP_ADDRESS; } }
L'instruction d'hôte présente le nom d'hôte de la cible d'installation. Pour lier le nom d'hôte et l'adresse IP à un hôte, vous devez connaître et indiquer l'adresse matérielle (MAC) du système. Remplacez toutes les variables utilisées dans cet exemple par les valeurs réelles qui correspondent à votre environnement.
Une fois le serveur DHCP redémarré, une adresse IP statique est fournie à l'hôte spécifié ; vous pouvez ainsi vous connecter au système via la fonctionnalité SSH.
9.2 Configuration d'un serveur TFTP #
Si vous utilisez une installation basée sur SUSE, vous pouvez utiliser YaST pour configurer un serveur TFTP. Sinon, configurez-le manuellement. Le serveur TFTP fournit l'image de démarrage au système cible dès que ce dernier a démarré et a envoyé une requête à ce sujet.
9.2.1 Configuration d'un serveur TFTP à l'aide de YaST #
Connectez-vous en tant qu'utilisateur
root
.Sélectionnez
› › et installez le paquetage demandé.Cliquez sur
pour vous assurer que le serveur est démarré et inclus dans les routines de démarrage. Aucune autre action de votre part n'est nécessaire pour garantir cette opération. xinetd démarre tftpd au moment du démarrage.Cliquez sur
pour ouvrir le port approprié dans le pare-feu exécuté sur votre machine. Si aucun pare-feu n'est en cours d'exécution sur votre serveur, cette option n'est pas disponible.Cliquez sur
pour rechercher le répertoire de l'image de démarrage. Le répertoire par défaut/srv/tftpboot
est créé et sélectionné automatiquement.Cliquez sur
pour appliquer vos paramètres et démarrer le serveur.
9.2.2 Configuration manuelle d'un serveur TFTP #
Loguez-vous en tant qu'utilisateur
root
, et installez les paquetagestftp
etxinetd
.Modifiez la configuration de xinetd sous
/etc/xinetd.d
pour vous assurer que le serveur TFTP se lance au démarrage :S'il n'existe pas, créez dans ce répertoire un fichier nommé
tftp
, à l'aide de la commandetouch tftp
. Exécutez ensuitechmod 755 tftp
.Ouvrez le fichier
tftp
et ajoutez les lignes suivantes :service tftp { socket_type = dgram protocol = udp wait = yes user = root server = /usr/sbin/in.tftpd server_args = -s /srv/tftpboot disable = no }
Enregistrez le fichier et redémarrez xinetd en exécutant
systemctl restart xinetd
.
9.3 Installation des fichiers sur le serveur TFTP #
Les procédures suivantes décrivent comment préparer le serveur pour les machines cibles avec UEFI et BIOS sur des architectures x86 32 et 64 bits. La structure préparée est déjà compatible avec les systèmes AArch64.
9.3.1 Préparation de la structure #
Dans cette procédure, remplacez OS_VERSION (VERSION_OS) et SP_VERSION (VERSION_SP) par la version du système d'exploitation et la version du Service Pack utilisées. Utilisez, par exemple, sles12
et sp5
.
Créez une structure à l'emplacement
/srv/tftpboot
pour prendre en charge les différentes options.root #
mkdir -p /srv/tftpboot/BIOS/x86root #
mkdir -p /srv/tftpboot/EFI/x86/bootroot #
mkdir -p /srv/tftpboot/EFI/aarch64/bootroot #
mkdir -p /srv/install/x86/OS_VERSION/SP_VERSION/cd1root #
mkdir -p /srv/install/aarch64/OS_VERSION/SP_VERSION/cd1Téléchargez les images ISO DVD de SUSE Linux Enterprise Server 12 SP5 à partir du site Web SUSE pour toutes les architectures dont vous avez besoin.
Montez les fichiers ISO comme décrit à la Section 8.6, « Utilisation d'images ISO du support d'installation sur le serveur ». Pour que les fichiers soient disponibles après un redémarrage, créez une entrée dans
/etc/fstab
. Pour une installation standard, seul le DVD 1 est requis.root #
mount -o loop PATH_TO_ISO /srv/install/ARCH/OS_VERSION/SP_VERSION/cd1/Répétez cette étape pour toutes les architectures requises et remplacez ARCH par
x86
ouaarch64
et PATH_TO_ISO (CHEMIN_VERS_ISO) par le chemin d'accès au fichier ISO correspondant.Copiez les fichiers
kernel
,initrd
etmessage
requis pour qu'UEFI et x86 BIOS démarrent à l'emplacement approprié.root #
cd /srv/install/x86/OS_version/SP_version/cd1/boot/x86_64/loader/root #
cp -a linux initrd message /srv/tftpboot/BIOS/x86/Assurez-vous que le chemin
/srv/install
est disponible via NFS. Pour plus de détails, reportez-vous à la Section 8.2, « Configuration manuelle d'un dépôt NFS ».
9.3.2 Fichiers BIOS pour x86 #
Copiez
pxelinux.0
dans le dossier TFTP et préparez un sous-dossier pour le fichier de configuration.root #
cp /usr/share/syslinux/pxelinux.0 /srv/tftpboot/BIOS/x86/root #
mkdir /srv/tftpboot/BIOS/x86/pxelinux.cfgCréez le fichier
/srv/tftpboot/BIOS/x86/pxelinux.cfg/default
et ajoutez les lignes suivantes :default install # hard disk label harddisk localboot -2 # install label install kernel linux append initrd=initrd install=nfs://192.168.1.1:/srv/install/x86/OS_version/SP_version/cd1 display message implicit 0 prompt 1 timeout 5
Modifiez le fichier
/srv/tftpboot/BIOS/x86/message
pour qu'il soit conforme au fichierdefault
que vous venez de modifier.Welcome to the Installer Environment! To start the installation enter 'install' and press <return>. Available boot options: harddisk - Boot from Hard Disk (this is default) install - Installation
9.3.3 Fichiers UEFI pour x86 #
Dans cette procédure, remplacez OS_version et SP_version par la version du système d'exploitation et la version du Service Pack utilisées. Utilisez, par exemple, sles12
et sp5
.
Copiez tous les fichiers grub2 requis pour le démarrage d'UEFI.
root #
cd /srv/install/x86/OS_version/SP_version/cd1/EFI/BOOTroot #
cp -a bootx64.efi grub.efi MokManager.efi /srv/tftpboot/EFI/x86/Copiez les fichiers kernel et initrd dans la structure de répertoires.
root #
cd /srv/install/x86/OS_version/SP_version/cd1/boot/x86_64/loader/root #
cp -a linux initrd /srv/tftpboot/EFI/x86/bootCréez le fichier
/srv/tftpboot/EFI/x86/grub.cfg
en incluant au moins le contenu suivant :set timeout=5 menuentry 'Install OS_version SP_version for x86_64' { linuxefi /EFI/x86/boot/linux \ install=nfs://192.168.1.1/srv/install/x86/OS_version/SP_version/cd1 initrdefi /EFI/x86/boot/initrd }
9.3.4 Fichiers UEFI pour AArch64 #
Dans cette procédure, remplacez OS_version et SP_version par la version du système d'exploitation et la version du Service Pack utilisées. Utilisez, par exemple, sles12
et sp5
.
Cette opération est relativement similaire à celle réalisée dans l'environnement EFI x86_64. Commencez par copier les fichiers nécessaires au démarrage d'UEFI dans un environnement grub2-efi.
root #
cd /srv/install/aarch64/OS_version/SP_version/cd1/EFI/BOOTroot #
cp -a bootaa64.efi /srv/tftpboot/EFI/aarch64/Copiez les fichiers kernel et initrd dans la structure de répertoires.
root #
cd /srv/install/aarch64/OS_version/SP_version/cd1/boot/aarch64root #
cp -a linux initrd /srv/tftpboot/EFI/aarch64/bootCréez à présent le fichier
/srv/tftpboot/EFI/grub.cfg
et ajoutez le contenu suivant :menuentry 'Install OS_version SP_version' { linux /EFI/aarch64/boot/linux network=1 usessh=1 sshpassword="suse" \ install=nfs://192.168.1.1:/srv/install/aarch64/OS_version/SP_version/cd1 \ console=ttyAMA0,115200n8 initrd /EFI/aarch64/boot/initrd }
Cet ajout au fichier de configuration contient quelques autres options pour activer la console série et autoriser l'installation via SSH, ce qui est utile pour les systèmes ne disposant pas d'une interface de console KVM standard. Vous remarquerez qu'il est configuré pour une plate-forme ARM spécifique.
9.4 Options de configuration PXELINUX #
Les options répertoriées à cet endroit constituent un sous-ensemble de toutes les options disponibles pour le fichier de configuration PXELINUX.
APPEND OPTIONS
Ajoute une ou plusieurs options à la ligne de commande du kernel. Celles-ci sont ajoutées pour les démarrages automatique et manuel. Les options sont ajoutées en tout début de ligne de commande du kernel ; en règle générale, elles peuvent être remplacées par les options de kernel entrées de manière explicite.
APPEND -
N'ajoute rien.
APPEND
suivi d'un seul tiret, utilisé comme argument dans une sectionLABEL
peut servir à remplacer unAPPEND
global.DEFAULT OPTIONS_KERNEL...
Définit la ligne de commande de kernel par défaut. Si PXELINUX démarre automatiquement, il agit comme si les entrées qui figurent après DEFAULT avaient été saisies à l'invite de démarrage, et ce à une exception près : l'option auto est ajoutée automatiquement, ce qui indique un démarrage automatique.
Si aucun fichier de configuration n'existe ou si aucune entrée DEFAULT n'est définie dans le fichier de configuration, la valeur par défaut est le nom de kernel « linux » sans la moindre option.
IFAPPEND FLAG
Ajoute une option spécifique à la ligne de commande du kernel en fonction de la valeur FLAG. L'option
IFAPPEND
est disponible uniquement sur PXELINUX. FLAG attend une valeur, décrite dans le Tableau 9.1, « Options de ligne de commande de kernel générées et ajoutées en provenance deIFAPPEND
» :Tableau 9.1 : Options de ligne de commande de kernel générées et ajoutées en provenance deIFAPPEND
#Argument
Ligne de commande de kernel générée/Description
1
ip=CLIENT_IP:BOOT_SERVER_IP:GW_IP:NETMASK
Les marques de réservation sont remplacées en fonction de l'entrée du serveur de démarrage PXE ou DHCP/BOOTP.
Notez que cette option ne remplace par l'exécution d'un client DHCP sur le système démarré. En l'absence de renouvellements réguliers, le bail obtenu par le BIOS PXE arrive à expiration, ce qui permet au serveur DHCP de réutiliser l'adresse IP.
2
BOOTIF=MAC_ADDRESS_OF_BOOT_INTERFACE
Cette option se révèle particulièrement utile pour éviter les timeouts lorsque le serveur d'installation sonde les interfaces LAN les unes après les autres jusqu'à ce qu'il obtienne une réponse d'un serveur DHCP. Cette option permet à un programme initrd de déterminer l'interface à partir de laquelle le système a démarré. linuxrc lit cette option et utilise cette interface réseau.
4
SYSUUID=SYSTEM_UUID
Ajoute des UUID en hexadécimales minuscules ; voir
/usr/share/doc/packages/syslinux/pxelinux.txt
LABEL LABEL KERNEL IMAGE APPEND OPTIONS...
Indique que si LABEL est spécifié comme kernel à démarrer, PXELINUX doit démarrer à la place IMAGE et les options
APPEND
spécifiées doivent être utilisées plutôt que celles renseignées dans la section principale du fichier (avant la première commandeLABEL
). La valeur par défaut de la variable IMAGE est identique à celle de LABEL ; si aucune optionAPPEND
n'est fournie, l'entrée globale (le cas échéant) est utilisée par défaut. Vous pouvez utiliser jusqu'à 128 entréesLABEL
.PXELINUX utilise la syntaxe suivante :
label MYLABEL kernel MYKERNEL append MYOPTIONS
Les libellés sont tronqués comme s'il s'agissait de noms de fichiers et ils doivent être uniques après cette opération. Par exemple, les deux libellés « v2.6.30 » et « v2.6.31 » ne pourraient pas être différenciés sous PXELINUX car, une fois tronqués, ils portent tous deux le même nom de fichier DOS.
Le kernel ne doit pas nécessairement être un kernel Linux. Il peut également s'agir d'un secteur de démarrage ou d'un fichier COMBOOT.
LOCALBOOT TYPE
Sous PXELINUX, si vous remplacez une option
KERNEL
parLOCALBOOT 0
, vous appelez ce libellé précis, et entraînez le démarrage du disque local et non du kernel.Argument
Description
0
Effectue un démarrage normal.
4
Effectue un démarrage local avec le pilote UNDI (Universal Network Driver Interface - Interface de pilote réseau universelle) qui réside toujours en mémoire.
5
Effectue un démarrage local avec l'intégralité de la pile PXE, y compris le pilote UNDI, qui réside toujours en mémoire.
Aucune autre valeur n'est définie. Si vous ne savez pas à quoi correspondent les piles UNDI et PXE, indiquez
0
.TIMEOUT TIME-OUT
Indique la durée d'attente (en 1/10e de seconde) dans l'invite de démarrage, avant que le démarrage automatique soit lancé. Le timeout est annulé dès que l'utilisateur commence à saisir des données ; le système considère que l'utilisateur va terminer la commande initiée. Un timeout de zéro désactive entièrement le timeout (il s'agit également de la valeur par défaut). La valeur maximale de timeout est 35 996 (un peu moins d'une heure).
PROMPT val_drapeau
Si l'option
val_drapeau
a pour valeur 0, l'invite de démarrage apparaît uniquement si vous appuyez sur la touche Maj ou Alt, ou si Verr. maj ou Arrêt défil est défini (option par défaut). Sival_drapeau
a la valeur 1, cet argument affiche toujours l'invite de démarrage.F2 FILENAME F1 FILENAME ..etc... F9 FILENAME F10 FILENAME
Affiche le fichier indiqué à l'écran lorsque vous appuyez sur une touche de fonction à l'invite de démarrage. Cette option peut être utilisée pour implémenter l'aide en ligne sur le pré-lancement (normalement pour les options de ligne de commande du kernel). Afin d'assurer une compatibilité avec les versions antérieures, vous pouvez également utiliser la touche F10 à la place de
F0
. Il n'y a actuellement aucun moyen de lier les noms de fichiers aux touches F11 et F12.
9.5 Préparation du système cible pour le démarrage PXE #
Préparez le BIOS du système pour le démarrage de l'environnement PXE en incluant l'option PXE dans l'ordre de démarrage du BIOS.
Ne placez pas l'option PXE avant l'option de démarrage du disque dur dans le BIOS. Le système essaierait sinon de se réinstaller chaque fois que vous le démarrez.
9.6 Préparation du système cible pour la fonction Wake on LAN (réveil à distance) #
Pour la fonction Wake on LAN (WOL), vous devez activer l'option BIOS appropriée avant d'effectuer l'installation. Notez également l'adresse MAC du système cible. Ces informations sont nécessaires pour lancer la fonction Wake on LAN.
9.7 Wake on LAN #
La fonction Wake on LAN permet à une machine d'être activée par un paquet réseau spécial qui contient l'adresse MAC de la machine. Comme chaque machine au monde dispose d'un identificateur MAC unique, vous ne risquez pas d'activer par erreur la mauvaise machine.
Si la machine de contrôle n'est pas située sur le même segment réseau que la cible d'installation à réveiller, vous devez configurer les requêtes WOL afin qu'elles soient envoyées en mode multidiffusion ou contrôler à distance une machine de ce segment réseau afin qu'il joue le rôle de l'expéditeur de ces requêtes.
Les utilisateurs de SUSE Linux Enterprise Server peuvent utiliser un module YaST nommé WOL pour configurer facilement la fonction Wake on LAN. Les utilisateurs d'autres versions de systèmes d'exploitation basés sur SUSE Linux peut utiliser un outil de ligne de commande.
9.8 Wake on LAN (réveil à distance) avec YaST #
Connectez-vous en tant qu'utilisateur
root
.Sélectionnez
› › .Cliquez sur
, puis entrez le nom d'hôte et l'adresse MAC du système cible.Pour activer cette machine, sélectionnez l'entrée appropriée et cliquez sur
.
9.9 Démarrage à partir du CD ou d'une clé USB au lieu de PXE #
Vous pouvez également utiliser un CD, un DVD ou une clé USB avec une petite image système au lieu de démarrer via PXE. Le chargement des fichiers nécessaires commencera via NFS lorsque les fichiers kernel et initrd seront chargés. Une image de démarrage peut être créée avec mksusecd
. Cela peut être utile si la machine cible ne prend pas en charge le démarrage PXE.
Installez-le à l'aide de la commande zypper sudo dans mksusecd
. Pour créer une image ISO de démarrage, utilisez la commande suivante :
tux >
mksusecd
--create image.iso \ --net=nfs://192.168.1.1:/srv/install/ARCH/OS_VERSION/SP_VERSION/cd1 \ /srv/tftpboot/EFI/ARCH/boot
Remplacez ARCH par le dossier correspondant à l'architecture du système cible. Remplacez également OS_version (VERSION_SE) et SP_version (Version_SP) en fonction de vos chemins comme indiqué à la Section 9.3, « Installation des fichiers sur le serveur TFTP ».
Au lieu d'utiliser un serveur NFS pour l'option --net
, vous pouvez aussi utiliser un dépôt HTTP, par exemple le dépôt openSUSE :
tux >
mksusecd
--create image.iso \ --net=http://download.opensuse.org/tumbleweed/repo/oss/suse \ /srv/tftpboot/EFI/ARCH/boot
Le fichier image.iso
peut être écrit sur un DVD ou un CD ou à l'aide de dd
sur une clé USB :
root #
dd
if=image.iso of=/dev/USB_DEVICE
Remplacez USB_DEVICE (PÉRIPHÉRIQUE_USB) par le nom de périphérique de votre clé USB. Vérifiez bien le nom du périphérique pour être certain de ne pas détruire accidentellement les données présentes sur une autre unité.
Partie IV Installation à distance #
- 10 Installation à distance
SUSE® Linux Enterprise Server peut être installé de différentes manières. Outre l'installation classique du support traitée au Chapitre 6, Installation avec YaST, vous pouvez choisir entre différentes approches réseau, ou même opter pour une installation sans surveillance de SUSE Linux Enterprise Se…
10 Installation à distance #
SUSE® Linux Enterprise Server peut être installé de différentes manières. Outre l'installation classique du support traitée au Chapitre 6, Installation avec YaST, vous pouvez choisir entre différentes approches réseau, ou même opter pour une installation sans surveillance de SUSE Linux Enterprise Server.
Chaque méthode est présentée par le biais de deux petites listes de contrôle : une liste des conditions préalables et une description de la procédure de base. Des informations supplémentaires vous sont ensuite fournies pour toutes les techniques utilisées dans ces scénarios d'installation.
Dans les sections suivantes, le système destiné à héberger votre nouvelle installation SUSE Linux Enterprise Server est désigné sous les termes de système cible ou cible d'installation. Le terme dépôt (anciennement appelé « source d'installation ») désigne toutes les sources de données d'installation. Il s'agit notamment des supports physiques, tels que les CD et DVD, et des serveurs réseau qui transfèrent les données d'installation sur votre réseau.
10.1 Scénarios d'installation à distance #
Cette section présente les scénarios d'installation à distance les plus courants. Pour chaque scénario, vérifiez soigneusement la liste des conditions préalables et suivez la procédure correspondante. Si vous avez besoin d'instructions détaillées pour une étape précise, cliquez sur les liens fournis à cet effet.
10.1.1 Installation à distance simple via VNC : configuration réseau statique #
Ce type d'installation nécessite toujours un certain niveau d'accès physique au système cible pour démarrer l'installation. L'installation est contrôlée par un poste de travail distant qui utilise VNC pour se connecter au programme d'installation. Une intervention de l'utilisateur est nécessaire, comme pour l'installation manuelle décrite dans le Chapitre 6, Installation avec YaST.
Pour ce type d'installation, assurez-vous de respecter les exigences suivantes :
Un dépôt distant ou local :
Dépôt distant : NFS, HTTP, FTP, TFTP ou SMB avec une connexion réseau opérationnelle.
Dépôt local : par exemple, un DVD.
Système cible avec connexion réseau établie.
Système de contrôle doté d'une connexion réseau opérationnelle et d'un logiciel de visualisation VNC.
Support de démarrage physique (CD, DVD ou lecteur flash ) pour le démarrage du système cible.
Adresses IP statiques valides affectées au dépôt et au système de contrôle.
Adresse IP statique valide à affecter au système cible.
Pour effectuer ce type d'installation, procédez de la façon suivante :
Configurez le dépôt conformément à la description indiquée au Chapitre 8, Configuration du serveur qui contient les sources d'installation. Choisissez un serveur réseau NFS, HTTP, FTP ou TFTP. Pour un dépôt SMB, reportez-vous à la Section 8.5, « Gestion d'un dépôt SMB ».
Démarrez le système cible en utilisant le DVD 1 du kit de supports de SUSE Linux Enterprise Server.
Lorsque l'écran de démarrage du système cible apparaît, utilisez l'invite de saisie des options de démarrage pour définir les options VNC appropriées et l'adresse du dépôt. Cette opération est décrite en détail à la Section 10.2, « Démarrage du système cible pour l'installation ».
Le système cible démarre dans un environnement texte, qui indique l'adresse réseau et le numéro d'affichage grâce auxquels toute application de visualisation VNC ou tout navigateur peut contacter l'environnement d'installation graphique. Les installations VNC s'annoncent sur OpenSLP de manière autonome si les paramètres de pare-feu les autorisent. L'outil
slptool
permet de les rechercher comme le décrit la Procédure 10.1, « Localisation des installations VNC via OpenSLP ».Sur le poste de travail de contrôle, ouvrez une application de visualisation VNC ou un navigateur Web et connectez-vous au système cible, comme décrit à la Section 10.3.1, « Installation VNC ».
Effectuez l'installation en suivant la procédure décrite au Chapitre 6, Installation avec YaST. Pour la dernière partie de l'installation, reconnectez-vous au système cible après son redémarrage.
Achevez l'installation.
10.1.2 Installation à distance simple via VNC : configuration réseau dynamique #
Ce type d'installation nécessite toujours un certain niveau d'accès physique au système cible pour démarrer l'installation. La configuration du réseau s'effectue via DHCP. L'installation est contrôlée à partir d'un poste de travail distant à l'aide de VNC, mais la configuration nécessite une intervention de l'utilisateur.
Pour ce type d'installation, assurez-vous de respecter les exigences suivantes :
Dépôt distant : NFS, HTTP, FTP ou SMB avec connexion réseau établie.
Système cible avec connexion réseau établie.
Système de contrôle doté d'une connexion réseau opérationnelle et d'un logiciel de visualisation VNC.
Démarrez le système cible en utilisant le DVD 1 du kit de supports de SUSE Linux Enterprise Server.
Serveur DHCP en cours d'exécution qui fournit des adresses IP.
Pour effectuer ce type d'installation, procédez de la façon suivante :
Configurez le dépôt conformément à la description indiquée au Chapitre 8, Configuration du serveur qui contient les sources d'installation. Choisissez un serveur réseau NFS, HTTP ou FTP. Pour un dépôt SMB, reportez-vous à la Section 8.5, « Gestion d'un dépôt SMB ».
Démarrez le système cible en utilisant le DVD 1 du kit de supports de SUSE Linux Enterprise Server.
Lorsque l'écran de démarrage du système cible apparaît, utilisez l'invite de saisie des options de démarrage pour définir les options VNC appropriées et l'adresse du dépôt. Cette opération est décrite en détail à la Section 10.2, « Démarrage du système cible pour l'installation ».
Le système cible démarre dans un environnement texte, qui indique l'adresse réseau et le numéro d'affichage grâce auxquels toute application de visualisation VNC ou tout navigateur peut contacter l'environnement d'installation graphique. Les installations VNC s'annoncent sur OpenSLP de manière autonome si les paramètres de pare-feu les autorisent. L'outil
slptool
permet de les rechercher comme le décrit la Procédure 10.1, « Localisation des installations VNC via OpenSLP ».Sur le poste de travail de contrôle, ouvrez une application de visualisation VNC ou un navigateur Web et connectez-vous au système cible, comme décrit à la Section 10.3.1, « Installation VNC ».
Effectuez l'installation en suivant la procédure décrite au Chapitre 6, Installation avec YaST. Pour la dernière partie de l'installation, reconnectez-vous au système cible après son redémarrage.
Achevez l'installation.
10.1.3 Installation à distance via VNC : démarrage PXE et fonction Wake on LAN (réveil à distance) #
Ce type d'installation est entièrement automatique. La machine cible est démarrée et lancée à distance. L'intervention de l'utilisateur n'est nécessaire que pour l'installation réelle. Cette approche est adaptée aux opérations de déploiement sur plusieurs sites.
Pour effectuer ce type d'installation, assurez-vous de respecter les contraintes suivantes :
Dépôt distant : NFS, HTTP, FTP ou SMB avec connexion réseau établie.
Serveur TFTP.
Serveur DHCP en cours d'exécution pour votre réseau.
Système cible, branché et connecté au réseau, compatible avec le démarrage PXE, la prise en charge réseau et la fonction Wake on LAN.
Système de contrôle doté d'une connexion réseau opérationnelle et d'un logiciel de visualisation VNC.
Pour effectuer ce type d'installation, procédez de la façon suivante :
Configurez le dépôt conformément à la description indiquée au Chapitre 8, Configuration du serveur qui contient les sources d'installation. Choisissez un serveur réseau NFS, HTTP ou FTP, ou configurez un dépôt SMB en suivant la procédure décrite à la Section 8.5, « Gestion d'un dépôt SMB ».
Configurez un serveur TFTP de manière à ce qu'il contienne une image de démarrage qui peut être extraite par le système cible. Cela est décrit à la Section 9.2, « Configuration d'un serveur TFTP ».
Configurez un serveur DHCP de manière à fournir des adresses IP à toutes les machines et indiquez l'emplacement du serveur TFTP au système cible. Cela est décrit à la Section 9.1, « Configuration d'un serveur DHCP ».
Préparez le système cible pour le démarrage PXE. Cette opération est décrite plus en détail à la Section 9.5, « Préparation du système cible pour le démarrage PXE ».
Lancez le processus de démarrage du système cible à l'aide de la fonction Wake on LAN. Cela est décrit à la Section 9.7, « Wake on LAN ».
Sur le poste de travail de contrôle, ouvrez une application de visualisation VNC ou un navigateur Web et connectez-vous au système cible, comme décrit à la Section 10.3.1, « Installation VNC ».
Effectuez l'installation en suivant la procédure décrite au Chapitre 6, Installation avec YaST. Pour la dernière partie de l'installation, reconnectez-vous au système cible après son redémarrage.
Achevez l'installation.
10.1.4 Installation à distance simple via SSH : configuration réseau statique #
Ce type d'installation nécessite toujours un certain niveau d'accès physique au système cible pour démarrer l'installation et déterminer l'adresse IP de la cible d'installation. L'installation même est entièrement contrôlée à partir d'un poste de travail distant qui utilise le protocole SSH pour se connecter au programme d'installation. Une intervention de l'utilisateur est nécessaire, comme pour l'installation standard décrite dans le Chapitre 6, Installation avec YaST.
Pour ce type d'installation, assurez-vous de respecter les exigences suivantes :
Dépôt distant : NFS, HTTP, FTP ou SMB avec connexion réseau établie.
Système cible avec connexion réseau établie.
Système de contrôle doté d'une connexion réseau établie et d'un logiciel client SSH fonctionnel.
Démarrez le système cible en utilisant le DVD 1 du kit de supports de SUSE Linux Enterprise Server.
Adresses IP statiques valides affectées au dépôt et au système de contrôle.
Adresse IP statique valide à affecter au système cible.
Pour effectuer ce type d'installation, procédez de la façon suivante :
Configurez le dépôt conformément à la description indiquée au Chapitre 8, Configuration du serveur qui contient les sources d'installation. Choisissez un serveur réseau NFS, HTTP ou FTP. Pour un dépôt SMB, reportez-vous à la Section 8.5, « Gestion d'un dépôt SMB ».
Démarrez le système cible en utilisant le DVD 1 du kit de supports de SUSE Linux Enterprise Server.
Lorsque l'écran de démarrage du système cible apparaît, utilisez l'invite de saisie des options de démarrage pour définir les paramètres adaptés à la connexion réseau, l'adresse du dépôt et l'activation de la fonctionnalité SSH. Cette opération est décrite en détail à la Section 10.2.2, « Utilisation des options de démarrage personnalisées ».
Le système cible démarre dans un environnement texte, qui indique l'adresse réseau grâce à laquelle tout client SSH peut contacter l'environnement d'installation graphique.
Sur le poste de travail de contrôle, ouvrez une fenêtre de terminal et connectez-vous au système cible, comme décrit à la Section 10.3.2.2, « Connexion au programme d'installation ».
Effectuez l'installation en suivant la procédure décrite au Chapitre 6, Installation avec YaST. Pour la dernière partie de l'installation, reconnectez-vous au système cible après son redémarrage.
Achevez l'installation.
10.1.5 Installation simple à distance via SSH : configuration réseau dynamique #
Ce type d'installation nécessite toujours un certain niveau d'accès physique au système cible pour démarrer l'installation et déterminer l'adresse IP de la cible d'installation. L'installation est contrôlée à partir d'un poste de travail distant à l'aide de SSH, mais la configuration nécessite une intervention de l'utilisateur.
Dans la boîte de dialogue des paramètres réseau, cochez la case
et évitez NetworkManager, faute de quoi vous perdrez la connexion SSH au cours de l'installation. Une fois l'installation terminée, réinitialisez les paramètres sur .Pour ce type d'installation, assurez-vous de respecter les exigences suivantes :
Un dépôt distant ou local :
Dépôt distant : NFS, HTTP, FTP, TFTP ou SMB avec une connexion réseau opérationnelle.
Dépôt local : par exemple, un DVD.
Système cible avec connexion réseau établie.
Système de contrôle doté d'une connexion réseau établie et d'un logiciel client SSH fonctionnel.
Support de démarrage physique (CD, DVD ou lecteur flash ) pour le démarrage du système cible.
Serveur DHCP en cours d'exécution qui fournit des adresses IP.
Pour effectuer ce type d'installation, procédez de la façon suivante :
Configurez la source du dépôt en suivant la procédure décrite au Chapitre 8, Configuration du serveur qui contient les sources d'installation. Choisissez un serveur réseau NFS, HTTP ou FTP. Pour un dépôt SMB, reportez-vous à la Section 8.5, « Gestion d'un dépôt SMB ».
Démarrez le système cible en utilisant le DVD 1 du kit de supports de SUSE Linux Enterprise Server.
Lorsque l'écran de démarrage du système cible apparaît, utilisez l'invite de saisie des options de démarrage pour transmettre les paramètres adaptés à la connexion réseau, l'emplacement de la source d'installation et l'activation de la fonctionnalité SSH. Pour obtenir des instructions détaillées sur l'utilisation de ces paramètres, reportez-vous à la Section 10.2.2, « Utilisation des options de démarrage personnalisées ».
Le système cible démarre dans un environnement texte, qui vous indique l'adresse réseau grâce à laquelle tout client SSH peut contacter l'environnement d'installation graphique.
Sur le poste de travail de contrôle, ouvrez une fenêtre de terminal et connectez-vous au système cible, comme décrit à la Section 10.3.2.2, « Connexion au programme d'installation ».
Effectuez l'installation en suivant la procédure décrite au Chapitre 6, Installation avec YaST. Pour la dernière partie de l'installation, reconnectez-vous au système cible après son redémarrage.
Achevez l'installation.
10.1.6 Installation à distance via SSH : démarrage PXE et fonction Wake on LAN (réveil à distance) #
Ce type d'installation est entièrement automatique. La machine cible est démarrée et lancée à distance.
Pour effectuer ce type d'installation, assurez-vous de respecter les contraintes suivantes :
Dépôt distant : NFS, HTTP, FTP ou SMB avec connexion réseau établie.
Serveur TFTP.
Serveur DHCP en cours d'exécution pour votre réseau. Ce serveur doit fournir une adresse IP statique à l'hôte à installer.
Système cible, branché et connecté au réseau, compatible avec le démarrage PXE, la prise en charge réseau et la fonction Wake on LAN.
système de contrôle doté d'une connexion réseau établie et d'un logiciel client SSH.
Pour effectuer ce type d'installation, procédez de la façon suivante :
Configurez le dépôt conformément à la description indiquée au Chapitre 8, Configuration du serveur qui contient les sources d'installation. Choisissez un serveur réseau NFS, HTTP ou FTP. Pour la configuration d'un dépôt SMB, reportez-vous à la Section 8.5, « Gestion d'un dépôt SMB ».
Configurez un serveur TFTP de manière à ce qu'il contienne une image de démarrage qui peut être extraite par le système cible. Cela est décrit à la Section 9.2, « Configuration d'un serveur TFTP ».
Configurez un serveur DHCP de manière à fournir des adresses IP à toutes les machines et indiquez l'emplacement du serveur TFTP au système cible. Cela est décrit à la Section 9.1, « Configuration d'un serveur DHCP ».
Préparez le système cible pour le démarrage PXE. Cette opération est décrite plus en détail à la Section 9.5, « Préparation du système cible pour le démarrage PXE ».
Lancez le processus de démarrage du système cible à l'aide de la fonction Wake on LAN. Cela est décrit à la Section 9.7, « Wake on LAN ».
Sur le poste de travail de contrôle, démarrez un client SSH et connectez-vous au système cible, comme décrit à la Section 10.3.2, « Installation SSH ».
Effectuez l'installation en suivant la procédure décrite au Chapitre 6, Installation avec YaST. Pour la dernière partie de l'installation, reconnectez-vous au système cible après son redémarrage.
Achevez l'installation.
10.2 Démarrage du système cible pour l'installation #
Il existe deux manières de personnaliser le processus de démarrage pour l'installation, en plus de celles exposées à la Section 9.7, « Wake on LAN » et à la Section 9.3.1, « Préparation de la structure ». Une première méthode consiste à utiliser les options de démarrage et les touches de fonction par défaut. L'autre méthode implique d'utiliser l'invite des options de démarrage dans l'écran de démarrage de l'installation pour spécifier les options de démarrage souhaitées dont le kernel d'installation peut avoir besoin pour le matériel spécifique.
10.2.1 Utilisation des options de démarrage par défaut #
Les options de démarrage sont décrites en détail dans le Chapitre 6, Installation avec YaST. Généralement, en sélectionnant l'option , le processus de démarrage de l'installation s'amorce.
En cas de problème, utilisez l'option Book “Administration Guide”, Chapter 42 “Common problems and their solutions”, Section 42.2 “Installation Problems”.
ou . Pour plus d'informations sur le dépannage du processus d'installation, reportez-vous auLa barre de menus située au bas de l'écran propose certaines fonctionnalités avancées indispensables dans certaines configurations. À l'aide des touches de fonction (F1 ... F12), vous pouvez indiquer des options supplémentaires à transmettre aux routines d'installation ; vous n'avez, pour cela, pas besoin de connaître la syntaxe précise de ces paramètres (voir le Section 10.2.2, « Utilisation des options de démarrage personnalisées »). La Section 6.2.2.1, « Écran de démarrage sur les ordinateurs équipés d'un BIOS traditionnel » fournit une description détaillée des touches de fonction disponibles.
10.2.2 Utilisation des options de démarrage personnalisées #
L'utilisation de l'ensemble approprié d'options de démarrage simplifie la procédure d'installation. De nombreux paramètres peuvent également être configurés ultérieurement à l'aide des routines linuxrc, mais l'utilisation des options de démarrage s'avère plus simple. Dans certaines configurations automatisées, les options de démarrage peuvent être fournies par initrd
ou un fichier info
.
Le tableau suivant répertorie tous les scénarios d'installation mentionnés dans ce chapitre, et indique les paramètres requis pour le démarrage et les options associées. Ajoutez-les tous dans l'ordre dans lequel ils apparaissent dans ce tableau pour obtenir une chaîne d'options de démarrage à transmettre aux routines d'installation. Par exemple (toutes sur une seule ligne) :
install=XXX netdevice=XXX hostip=XXX netmask=XXX vnc=XXX VNCPassword=XXX
Remplacez toutes les valeurs XXX de cette commande par les valeurs adaptées à votre configuration.
- Chapitre 6, Installation avec YaST
Paramètres nécessaires pour le démarrage. Aucune
Options de démarrage. Aucune n'est nécessaire
- Section 10.1.1, « Installation à distance simple via VNC : configuration réseau statique »
- Paramètres nécessaires pour le démarrage #
Emplacement du serveur d'installation
Périphérique réseau
Adresse IP
Masque de réseau
Passerelle
Fonctionnalité VNC
Mot de passe VNC
Options de démarrage #install=(nfs,http,ftp,smb)://CHEMIN_SUPPORT_INSTALLATION
netdevice=PÉRIPHÉRIQUE_RÉSEAU
(nécessaire seulement si plusieurs périphériques réseau sont disponibles)hostip=ADRESSE_IP
netmask=MASQUE_RÉSEAU
gateway=PASSERELLE_IP
vnc=1
VNCPassword=MOT_DE_PASSE
- Section 10.1.2, « Installation à distance simple via VNC : configuration réseau dynamique »
- Paramètres nécessaires pour le démarrage #
Emplacement du serveur d'installation
Fonctionnalité VNC
Mot de passe VNC
Options de démarrage #install=(nfs,http,ftp,smb)://CHEMIN_SUPPORT_INSTALLATION
vnc=1
VNCPassword=MOT_DE_PASSE
- Section 10.1.3, « Installation à distance via VNC : démarrage PXE et fonction Wake on LAN (réveil à distance) »
- Paramètres nécessaires pour le démarrage #
Emplacement du serveur d'installation
Emplacement du serveur TFTP
Fonctionnalité VNC
Mot de passe VNC
Options de démarrage. Ne s'applique pas ; processus géré par PXE et DHCP
- Section 10.1.4, « Installation à distance simple via SSH : configuration réseau statique »
- Paramètres nécessaires pour le démarrage #
Emplacement du serveur d'installation
Périphérique réseau
Adresse IP
Masque de réseau
Passerelle
Fonctionnalité SSH
Mot de passe SSH
Options de démarrage #install=(nfs,http,ftp,smb)://CHEMIN_SUPPORT_INSTALLATION
netdevice=PÉRIPHÉRIQUE_RÉSEAU
(nécessaire seulement si plusieurs périphériques réseau sont disponibles)hostip=ADRESSE_IP
netmask=MASQUE_RÉSEAU
gateway=PASSERELLE_IP
ssh=1
ssh.password=PASSWORD
- Section 10.1.5, « Installation simple à distance via SSH : configuration réseau dynamique »
- Paramètres nécessaires pour le démarrage #
Emplacement du serveur d'installation
Fonctionnalité SSH
Mot de passe SSH
Options de démarrage #install=(nfs,http,ftp,smb)://CHEMIN_SUPPORT_INSTALLATION
ssh=1
ssh.password=PASSWORD
- Section 10.1.6, « Installation à distance via SSH : démarrage PXE et fonction Wake on LAN (réveil à distance) »
Emplacement du serveur d'installation
Emplacement du serveur TFTP
Fonctionnalité SSH
Mot de passe SSH
Options de démarrage. Ne s'applique pas ; processus géré par PXE et DHCP
Vous trouverez plus d'informations sur les options de démarrage linuxrc utilisées pour le démarrage d'un système Linux à l'adresse http://en.opensuse.org/SDB:Linuxrc.
10.2.2.1 Installation de produits complémentaires et de mises à jour de pilote #
SUSE Linux Enterprise Server prend en charge l'installation de produits complémentaires offrant des extensions (SUSE Linux Enterprise High Availability Extension, par exemple), des produits tiers, ainsi que des pilotes ou des logiciels supplémentaires. Pour installer automatiquement un produit complémentaire lors du déploiement de SUSE Linux Enterprise Server à distance, spécifiez le paramètre addon=REPOSITORY
.
REPOSITORY doit être un dépôt hébergé pouvant être lu par YaST (YaST2 ou YUM (rpm-md)). Pour l'heure, les images ISO ne sont pas prises en charge.
Les mises à jour de pilote sont disponibles à l'adresse suivante : http://drivers.suse.com/. Toutes les mises à jour de pilote ne sont pas fournies sous la forme de dépôts ; certaines d'entre elles ne sont disponibles que sous la forme d'images ISO et, par conséquent, ne peuvent pas être installées avec le paramètre addon
. Les instructions d'installation de mises à jour de pilote au moyen d'une image ISO sont disponibles à l'adresse http://drivers.suse.com/doc/SolidDriver/Driver_Kits.html.
10.3 Surveillance du processus d'installation #
Vous disposez de plusieurs options pour surveiller à distance le processus d'installation. Si vous avez indiqué les options de démarrage correctes lors du démarrage de l'installation, vous pouvez utiliser VNC ou SSH pour contrôler l'installation et la configuration du système à partir d'un poste de travail distant.
10.3.1 Installation VNC #
À l'aide d'un logiciel de visualisation VNC, vous pouvez contrôler à distance l'installation de SUSE Linux Enterprise Server à partir de presque n'importe quel système d'exploitation. Cette section vous explique comment effectuer une configuration à l'aide d'une application de visualisation VNC ou d'un navigateur Web.
10.3.1.1 Préparation de l'installation VNC #
Pour activer VNC sur la cible d'installation, spécifiez les options de démarrage appropriées lors du démarrage initial pour l'installation (voir Section 10.2.2, « Utilisation des options de démarrage personnalisées »). Le système cible démarre dans un environnement texte et attend qu'un client VNC se connecte au programme d'installation.
Le programme d'installation annonce l'adresse IP et le numéro d'affichage nécessaires à l'établissement d'une connexion pour l'installation. Si vous disposez d'un accès physique au système cible, ces informations sont fournies juste après le démarrage du système en vue de l'installation. Entrez ces informations à l'invite du logiciel client VNC et fournissez votre mot de passe VNC.
La cible d'installation s'annonçant via OpenSLP, vous pouvez récupérer les informations relatives à l'adresse de la cible d'installation par le biais d'un navigateur SLP ; aucun contact physique avec l'installation n'est alors nécessaire, dans la mesure où votre configuration réseau et toutes les machines qui y figurent prennent en charge OpenSLP :
Pour obtenir une liste complète des services proposant VNC, entrez la commande
slptool findsrvtypes | grep vnc
. Les cibles d'installation de VNC doivent être disponibles sous un service intituléYaST.installation.suse
.Exécutez la commande
slptool findsrvs
YaST.installation.suse pour obtenir une liste des installations disponibles. Utilisez l'adresse IP et le port (généralement5901
) fourni avec votre logiciel de visualisation VNC.
10.3.1.2 Connexion au programme d'installation #
Pour vous connecter à un serveur VNC (la cible d'installation dans le cas présent), démarrez une application de visionneuse VNC indépendante sur un système d'exploitation de votre choix.
À l'aide de VNC, vous pouvez contrôler l'installation d'un système Linux à partir de tout autre système d'exploitation (notamment d'autres versions de Linux, Windows ou Mac OS).
Sur une machine Linux, assurez-vous que le paquetage tightvnc
est installé. Sur une machine Windows, installez le port Windows de cette application ; il est disponible sur la page d'accueil de TightVNC (http://www.tightvnc.com/download.html).
Pour vous connecter au programme d'installation qui s'exécute sur la machine cible, procédez de la façon suivante :
Démarrez la visionneuse VNC.
Entrez l'adresse IP et le numéro d'affichage de la cible d'installation, tels qu'ils sont fournis par le navigateur SLP ou le programme d'installation :
IP_ADDRESS:DISPLAY_NUMBER
Une fenêtre apparaît sur votre bureau ; elle affiche les écrans YaST de la même manière que pour une installation locale standard.
10.3.2 Installation SSH #
Grâce à SSH, vous pouvez contrôler à distance l'installation de votre machine Linux à l'aide du logiciel client SSH.
10.3.2.1 Préparation de l'installation SSH #
Hormis l'installation du paquetage logiciel requis (OpenSSH pour Linux et PuTTY pour Windows), vous devez spécifier les options de démarrage correspondantes afin d'activer SSH pour l'installation. Reportez-vous à la Section 10.2.2, « Utilisation des options de démarrage personnalisées » pour plus d'informations. OpenSSH est installé par défaut sur tout système d'exploitation SUSE Linux.
10.3.2.2 Connexion au programme d'installation #
Récupérez l'adresse IP de la cible d'installation. Si vous disposez d'un accès physique à la machine cible, utilisez l'adresse IP que la routine d'installation fournit dans la console après le démarrage initial. Prenez sinon l'adresse IP qui a été attribuée à cet hôte précis lors de la configuration du serveur DHCP.
Sur la ligne de commande, entrez la commande suivante :
ssh -X root@ ip_address_of_target
Remplacez IP_ADDRESS_OF_TARGET (ADRESSE_IP_CIBLE) par l'adresse IP réelle de la cible d'installation.
Lorsque vous êtes invité à saisir un nom d'utilisateur, entrez
root
.Lorsque vous y êtes invité, entrez le mot de passe qui a été défini avec l'option de démarrage SSH. Une fois l'authentification réussie, une invite de ligne de commande pour la cible d'installation apparaît.
Entrez
yast
pour lancer le programme d'installation. Une fenêtre apparaît ; elle affiche les écrans YaST standard, tels qu'ils sont décrits dans le Chapitre 6, Installation avec YaST.
Partie V Configuration initiale du système #
- 11 Configuration des composants matériels avec YaST
YaST vous permet de configurer des éléments matériels tels que de l'équipement audio, la disposition du clavier système ou encore des imprimantes.
- 12 Configuration avancée des disques
Les configurations système élaborées nécessitent de configurer les disques d'une certaine manière. Toutes les tâches de partitionnement courantes peuvent être effectuées avec YaST. Pour obtenir une dénomination persistante avec les périphériques de bloc, utilisez les périphériques situés sous/dev/di…
- 13 Installation et suppression de logiciels
Utilisez l'outil de gestion des logiciels de YaST pour rechercher les composants logiciels à ajouter ou à supprimer. YaST résout toutes les dépendances. Pour installer des paquetages non livrés avec le support d'installation, ajoutez des dépôts de logiciels à votre configuration et laissez YaST les gérer. Maintenez votre système à jour en gérant les mises à jour de logiciels à l'aide de l'applet de mise à jour.
- 14 Installation de modules, extensions et produits complémentaires tiers
Les modules et les extensions ajoutent des parties ou des fonctionnalités au système. Les modules sont des composants SUSE Linux Enterprise Server bénéficiant d'une prise en charge complète, avec un cycle de vie et un planning de mise à jour différents. Il s'agit d'un ensemble de paquetages, qui ont une étendue clairement définie et sont fournis via un canal en ligne uniquement.
Les extensions telles que Workstation Extension ou High Availability Extension ajoutent des fonctionnalités supplémentaires au système et nécessitent une clé d'enregistrement pouvant être payante. Les extensions sont distribuées par le biais d'un canal en ligne ou d'un support physique. L'enregistrement auprès du SUSE Customer Center ou d'un serveur d'enregistrement local est une condition préalable pour s'abonner aux canaux en ligne. Le concentrateur de paquetages (Section 14.6, « SUSE Package Hub ») et le SDK SUSE (Section 14.5, « Kit SDK SUSE 12 SP5 ») sont des exceptions qui ne nécessitent pas une clé d'enregistrement et ne sont pas couverts par des accords de support SUSE.
La liste des extensions et des modules pour votre produit est accessible après avoir enregistré votre système auprès du SUSE Customer Center ou d'un serveur d'enregistrement local. Si vous avez ignoré l'étape d'enregistrement, vous pourrez enregistrer votre système ultérieurement en utilisant le module Pour plus d'informations, reportez-vous à la Section 20.8, « Enregistrement de votre système ».
de YaST.Certains produits complémentaires sont également fournis par des tiers ; ainsi, certains matériels exigent des pilotes binaires uniquement pour fonctionner correctement. Si cela concerne votre matériel, reportez-vous aux notes de version pour obtenir plus d'informations sur la disponibilité des pilotes binaires pour votre système. Les notes de version sont disponibles sur le site http://www.suse.com/releasenotes/, auprès de YaST ou dans le dossier
/usr/share/doc/release-notes/
sur votre système installé.- 15 Installation de plusieurs versions du kernel
SUSE Linux Enterprise Server prend en charge l'installation parallèle de plusieurs versions du kernel. Lorsque vous installez un deuxième kernel, une entrée de démarrage et un fichier initrd sont automatiquement créés. Aucune autre configuration manuelle n'est donc requise. Lorsque vous redémarrez la machine, le nouveau kernel est disponible sous la forme d'une option de démarrage supplémentaire.
Cette fonctionnalité vous permet de tester les mises à jour de kernel en toute sécurité, tout en ayant la possibilité de revenir au kernel opérationnel précédent. Pour ce faire, n'utilisez pas les outils de mise à jour (tels que YaST Online Update ou l'applet de mise à jour), mais suivez la procédure décrite dans ce chapitre.
- 16 Gestion des utilisateurs avec YaST
Lors de l'installation, vous pouvez avoir créé un utilisateur local pour votre système. Le module Gestion des utilisateurs et des groupes de YaST vous permet d'ajouter davantage d'utilisateurs ou de modifier des utilisateurs existants. Il vous permet également de configurer votre système afin d'auth…
- 17 Modification des paramètres de langue et de pays avec YaST
Si vous travaillez dans différents pays ou dans un environnement multilingue, votre ordinateur nécessite une configuration spécifique. SUSE® Linux Enterprise Server peut gérer différents paramètres locaux en parallèle. Un paramètre local est un ensemble de paramètres qui définit les paramètres de la…
11 Configuration des composants matériels avec YaST #
YaST vous permet de configurer des éléments matériels tels que de l'équipement audio, la disposition du clavier système ou encore des imprimantes.
La carte graphique, le moniteur, la souris et le clavier peuvent être configurés avec des outils GNOME.
11.1 Configuration de la disposition de votre clavier système #
Le module
de YaST vous permet de définir la disposition par défaut pour ce système (cette disposition est également utilisée pour la console). Les utilisateurs peuvent modifier la disposition du clavier dans leurs sessions X à l'aide des outils du bureau.Ouvrez la boîte de dialogue
de YaST en cliquant sur › dans YaST. Vous pouvez également démarrer le module en saisissantsudo yast2 keyboard
sur la ligne de commande.Sélectionnez la
de votre choix dans la liste.Vous pouvez éventuellement définir le taux de répétition ou de délai du clavier dans les
.Vous pouvez essayer les paramètres sélectionnés dans la zone de texte
.Si le résultat est conforme à vos attentes, confirmez vos modifications et fermez la boîte de dialogue. Les paramètres sont écrits dans
/etc/sysconfig/keyboard
.
11.2 Configuration des cartes son #
YaST détecte automatiquement la plupart des cartes son et les configure avec les valeurs appropriées. Pour modifier les paramètres par défaut ou si vous devez configurer une carte son qui n'a pas pu être configurée automatiquement, utilisez le module YaST relatif au son. Ce module vous permet également de configurer des cartes son supplémentaires ou de modifier leur ordre.
Pour démarrer le module de son, lancez YaST, puis cliquez sur yast2 sound &
en tant qu'utilisateur root
.
La boîte de dialogue affiche toutes les cartes son détectées.
Si vous avez ajouté une nouvelle carte son ou si YaST n'a pas réussi à configurer automatiquement une carte son existante, suivez la procédure ci-après. Pour configurer une nouvelle carte son, vous devez connaître le fournisseur de votre carte et son modèle. En cas de doute, reportez-vous à la documentation de votre carte son pour obtenir les informations requises. Pour accéder à une liste de référence répertoriant les cartes son prises en charge par ALSA avec leur module de son correspondant, visitez le site http://www.alsa-project.org/main/index.php/Matrix:Main.
Pendant la configuration, vous pouvez choisir parmi les options de configuration suivantes :
Vous n'avez pas besoin d'exécuter la procédure suivante ; la carte son est configurée automatiquement. Vous pouvez définir le volume ou toutes les options que vous souhaitez modifier ultérieurement.
Permet de régler le volume de sortie et de tester le son pendant la configuration.
Pour les utilisateurs avancés uniquement. Permet de personnaliser tous les paramètres de la carte son.
Important : configuration avancéeUtilisez cette option uniquement si vous savez exactement ce que vous faites. Sinon, ne modifiez pas les paramètres et utilisez les options de configuration normale ou automatique.
Démarrez le module YaST relatif au son.
Pour configurer une carte son détectée mais
, sélectionnez l'entrée correspondante dans la liste, puis cliquez sur .Pour configurer une nouvelle carte son, cliquez sur
. Sélectionnez le fournisseur et le modèle de votre carte son, puis cliquez sur .Sélectionnez l'une des options de configuration, puis cliquez sur
.Si vous avez choisi
, vous pouvez maintenant la configuration du son et régler le volume. Commencez aux alentours de 10 % pour éviter d'endommager vos haut-parleurs ou vos tympans.Une fois toutes les options définies selon votre choix, cliquez sur
.La boîte de dialogue
affiche la carte son qui vient d'être configurée ou modifiée.Pour supprimer la configuration d'une carte son que vous n'utilisez plus, sélectionnez l'entrée correspondante, puis cliquez sur
.Cliquez sur
pour enregistrer les modifications et quitter le module YaST relatif au son.
Pour modifier la configuration d'une carte son individuelle (pour les utilisateurs avancés uniquement), sélectionnez l'entrée de la carte son dans la boîte de dialogue
, puis cliquez sur .Vous accédez ainsi à la section
dans laquelle vous pouvez configurer plusieurs paramètres. Pour plus d'informations, cliquez sur .Pour régler le volume d'une carte son déjà configurée ou pour tester la carte son, sélectionnez l'entrée correspondante dans la boîte de dialogue
, puis cliquez sur . Sélectionnez l'option de menu correspondante.Note : console de mixage YaSTLes paramètres de la console de mixage YaST proposent uniquement des options de base. Celles-ci sont conçues à des fins de dépannage (par exemple si un son de test n'est pas audible). Accédez aux paramètres de la console de mixage YaST depuis
› . Pour un usage quotidien ou pour définir plus précisément les options de son, utilisez l'applet du mélangeur fourni par votre ordinateur ou l'outil de ligne de commandealsasound
.Pour la lecture des fichiers MIDI, sélectionnez
› .Lorsqu'une carte son prise en charge est détectée, vous pouvez installer SoundFonts pour la lecture de fichiers MIDI :
Insérez le CD-ROM du pilote d'origine dans votre lecteur de CD ou de DVD.
Sélectionnez
› pour copier SF2 SoundFonts™ sur votre disque dur. Les fontes sonores sont enregistrées dans le répertoire/usr/share/sfbank/creative/
.
Si vous avez configuré plusieurs cartes son sur votre système, vous pouvez modifier l'ordre de vos cartes. Pour configurer une carte son en tant que périphérique principal, sélectionnez la carte dans la section
, puis cliquez sur › . Le périphérique audio ayant l'index0
est le périphérique par défaut utilisé par le système et les applications.Par défaut, SUSE Linux Enterprise Server utilise le système audio PulseAudio. Il s'agit d'une couche d'abstraction qui permet de mélanger plusieurs flux audio en contournant les éventuelles restrictions matérielles. Pour activer ou désactiver le système audio PulseAudio, cliquez sur › . S'il est activé, la daemon PulseAudio est utilisé pour lire les sons. Désactivez la pour utiliser une alternative à l'échelle du système.
Le volume et la configuration de toutes les cartes son s'enregistrent lorsque vous cliquez sur /etc/asound.state
. Les données de configuration ALSA sont annexées à la fin du fichier /etc/modprobe.d/sound
et écrites sur /etc/sysconfig/sound
.
11.3 Configuration d'une imprimante #
YaST peut être utilisé pour configurer une imprimante locale reliée à votre machine via un port USB et pour configurer les impressions avec des imprimantes réseau. Il est également possible de partager des imprimantes sur le réseau. Pour plus d'informations sur l'impression (informations générales, détails techniques et dépannage), reportez-vous au Book “Administration Guide”, Chapter 18 “Printer Operation”.
Dans YaST, cliquez sur
› pour lancer le module relatif aux imprimantes. La vue s'ouvre par défaut en affichant la liste de toutes les imprimantes disponibles et configurées. Cette vue est particulièrement utile en cas d'accès à un grand nombre d'imprimantes via le réseau. Elle permet également d' et de configurer des imprimantes.Pour pouvoir imprimer à partir de votre système, CUPS doit être en cours d'exécution. S'il ne l'est pas, vous êtes invité à le démarrer. Répondez
, faute de quoi vous ne pourrez pas configurer l'impression. Si CUPS n'est pas lancé au moment du démarrage, vous serez également invité à activer cette fonction. Il est recommandé de répondre , faute de quoi vous devrez démarrer CUPS manuellement après chaque redémarrage.11.3.1 Configuration des imprimantes #
En général, une imprimante USB est détectée automatiquement. Si ce n'est pas le cas, deux explications sont possibles :
L'imprimante USB est hors tension.
La communication entre l'imprimante et l'ordinateur est impossible. Vérifiez le câblage et les fiches pour vous assurer que l'imprimante est correctement connectée. Si tel est le cas, le problème n'est peut-être pas lié à l'imprimante, mais plutôt au port USB.
La configuration d'une imprimante s'effectue en trois étapes. Commencez par spécifier le type de connexion, puis choisissez un pilote et nommez la file d'attente d'impression pour cette configuration.
Pour de nombreux modèles d'imprimantes, plusieurs pilotes sont disponibles. Lors de la configuration de l'imprimante, YaST utilise par défaut les pilotes marqués comme recommandés
. Il n'est généralement pas nécessaire de modifier le pilote. Toutefois, si vous souhaitez qu'une imprimante couleur imprime uniquement en noir et blanc, vous pouvez utiliser un pilote qui ne prend pas en charge l'impression couleur, par exemple. Si vous rencontrez des problèmes de performances avec une imprimante PostScript lors de l'impression de graphiques, essayez de passer d'un pilote PostScript à un pilote PCL (si votre imprimante prend en charge PCL).
Si aucun pilote n'est répertorié pour votre imprimante, essayez de sélectionner un pilote générique avec une langue standard appropriée dans la liste. Reportez-vous à la documentation de votre imprimante pour déterminer le langage (ensemble de commandes contrôlant l'imprimante) pris en charge par votre imprimante. Si cela ne fonctionne pas, reportez-vous à la Section 11.3.1.1, « Ajout de pilotes avec YaST » pour trouver une autre solution.
Une imprimante n'est jamais utilisée directement, mais toujours via une file d'attente d'impression. Cette file d'attente garantit que les travaux simultanés peuvent être mis en attente et traités les uns après les autres. Chaque file d'attente d'impression est assignée à un pilote spécifique et l'imprimante peut comporter plusieurs files d'attente. Cela permet de configurer une seconde file d'attente sur une imprimante couleur qui imprime uniquement en noir et blanc, par exemple. Pour plus d'informations sur les files d'attente d'impression, reportez-vous au Book “Administration Guide”, Chapter 18 “Printer Operation”, Section 18.1 “The CUPS Workflow”.
Démarrez le module YaST relatif aux imprimantes en cliquant sur
› .Cliquez sur
dans l'écran .Si votre imprimante figure déjà sous
Spécifier la connexion
, passez à l'étape suivante. Sinon, sélectionnez ou lancez l' .Entrez le nom du fournisseur et du modèle dans la zone de texte située sous
Rechercher et assigner un pilote
, puis cliquez sur .Sélectionnez un pilote qui correspond à votre imprimante. Il est recommandé de sélectionner le premier pilote de la liste. Si aucun pilote approprié n'est affiché :
Vérifiez votre terme de recherche.
Élargissez votre recherche en cliquant sur
.Ajoutez un pilote selon la procédure décrite dans la Section 11.3.1.1, « Ajout de pilotes avec YaST ».
Spécifiez le paramètre
Taille du papier par défaut
.Dans le champ
, entrez un nom unique pour la file d'attente d'impression.L'imprimante est désormais configurée avec les paramètres par défaut et prête à l'emploi. Cliquez sur
pour revenir à la vue . L'imprimante qui vient d'être configurée apparaît désormais dans la liste des imprimantes.
11.3.1.1 Ajout de pilotes avec YaST #
Tous les pilotes d'imprimante disponibles pour SUSE Linux Enterprise Server ne sont pas installés par défaut. Si lors de l'ajout d'une nouvelle imprimante, aucun pilote approprié n'est disponible dans la boîte de dialogue , installez un paquetage de pilotes pour vos imprimantes :
Démarrez le module YaST relatif aux imprimantes en cliquant sur
› .Cliquez sur
dans l'écran .Cliquez sur
Driver Packages
(Paquetages de pilote) dans la section (Trouver et assigner un pilote).Sélectionnez un ou plusieurs paquetages de pilotes appropriés dans la liste. Ne spécifiez pas le chemin d'un fichier de description d'imprimante.
Cliquez sur
et confirmez l'installation du paquetage.Pour utiliser ces pilotes directement, suivez la Procédure 11.3, « Ajout d'une nouvelle imprimante ».
Les imprimantes PostScript ne nécessitent pas de logiciel de pilote d'imprimante. Elles ont uniquement besoin d'un fichier PPD (PostScript Printer Description) qui correspond au modèle particulier. Les fichiers PPD sont fournis par le fabricant de l'imprimante.
Si lors de l'ajout d'une imprimante PostScript, aucun fichier PPD approprié n'est disponible dans la boîte de dialogue
, installez un fichier PPD pour votre imprimante :Plusieurs sources de fichiers PPD sont disponibles. Essayez d'abord les paquetages de pilotes supplémentaires fournis avec SUSE Linux Enterprise Server, mais qui ne sont pas installés par défaut (voir les instructions d'installation ci-dessous). S'ils ne contiennent pas de pilotes appropriés pour votre imprimante, procurez-vous les fichiers PPD directement auprès de votre fournisseur d'imprimantes ou sur le CD de pilotes d'une imprimante PostScript. Pour plus de détails, reportez-vous au Book “Administration Guide”, Chapter 18 “Printer Operation”, Section 18.8.2 “No Suitable PPD File Available for a PostScript Printer”. Vous pouvez également accéder aux fichiers PPD à l'adresse http://www.linuxfoundation.org/collaborate/workgroups/openprinting/database/databaseintro, la « base de données d'imprimantes OpenPrinting.org ». Lorsque vous téléchargez des fichiers PPD à partir du site OpenPrinting, n'oubliez pas qu'ils affichent toujours l'état du dernier support Linux, qui ne correspond pas forcément à celui de SUSE Linux Enterprise Server.
Démarrez le module YaST relatif aux imprimantes en cliquant sur
› .Cliquez sur
dans l'écran .Cliquez sur
Driver Packages
(Paquetages de pilote) dans la section (Trouver et assigner un pilote).Entrez le chemin complet du fichier PPD dans la zone de texte située sous
Rendre un fichier de description d'imprimante disponible
.Cliquez sur
pour revenir à l'écranAjouter une nouvelle imprimante
.Pour utiliser directement ce fichier PPD, suivez la Procédure 11.3, « Ajout d'une nouvelle imprimante ».
11.3.1.2 Modification d'une configuration d'imprimante locale #
En éditant la configuration existante d'une imprimante, vous pouvez modifier des paramètres de base tels que le type de connexion et le pilote. Il est également possible d'ajuster les paramètres par défaut tels que le format du papier, la résolution, la source du média, etc. Vous pouvez modifier les identifiants de l'imprimante en changeant la description ou l'emplacement de l'imprimante.
Démarrez le module YaST relatif aux imprimantes en cliquant sur
› .Dans l'écran
, sélectionnez une configuration d'imprimante locale dans la liste, puis cliquez sur .Modifiez le type de connexion ou le pilote, conformément à la Procédure 11.3, « Ajout d'une nouvelle imprimante ». Cela ne devrait être nécessaire que si vous rencontrez des problèmes avec la configuration actuelle.
Vous pouvez également définir cette imprimante comme celle par défaut en cochant la case
.Modifiez les paramètres par défaut en cliquant sur
. Pour modifier un paramètre, développez la liste des options en cliquant sur le signe+
. Modifiez le paramètre par défaut en cliquant sur une option. Cliquez sur pour appliquer vos modifications.
11.3.2 Configuration de l'impression via le réseau avec YaST #
Les imprimantes réseau ne sont pas détectées automatiquement. Elles doivent être configurées manuellement à l'aide du module YaST relatif aux imprimantes. En fonction de votre configuration réseau, vous pouvez imprimer sur un serveur d'impression (CUPS, LPD, SMB ou IPX) ou directement sur une imprimante réseau (via TCP de préférence). Accédez à la vue de configuration réseau en sélectionnant
dans le volet gauche du module YaST relatif aux imprimantes.11.3.2.1 Utilisation de CUPS #
Dans un environnement Linux, CUPS est généralement utilisé pour imprimer via le réseau. La configuration la plus simple consiste à imprimer via un seul serveur CUPS auquel tous les clients peuvent accéder directement. L'impression via plusieurs serveurs CUPS nécessite l'exécution du daemon CUPS local qui communique avec les serveurs CUPS distants.
Les serveurs CUPS publient leurs files d'attente d'impression sur le réseau via le protocole de navigation traditionnel CUPS ou Bonjour/DND-SD. Les clients doivent pouvoir parcourir ces listes afin que les utilisateurs puissent sélectionner des imprimantes spécifiques auxquelles envoyer leurs travaux d'impression. Pour pouvoir naviguer dans les files d'attente d'impression réseau, le service cups-browsed
fournit par le paquetage cups-filters-cups-browsed
doit s'exécuter sur tous les clients qui impriment via les serveurs CUPS. cups-browsed
est démarré automatiquement lors de la configuration de l'impression réseau avec YaST.
Si la navigation ne fonctionne pas après avoir démarré cups-browsed
, les serveurs CUPS annoncent probablement les files d'attente d'impression réseau via Bonjour/DND-SD. Dans ce cas, vous devez également installer le paquetage avahi
et démarrer le service associé en exécutant la commande sudo systemctl start avahi-daemon
sur tous les clients.
Démarrez le module YaST relatif aux imprimantes en cliquant sur
› .Ouvrez l'écran
à partir du volet gauche.Sélectionnez
(Tout imprimer directement via un seul serveur CUPS) et spécifiez le nom ou l'adresse IP du serveur.Cliquez sur
pour vous assurer que vous avez sélectionné le nom ou l'adresse IP appropriée.Cliquez sur OK pour revenir à l'écran
. Toutes les imprimantes disponibles via le serveur CUPS sont désormais répertoriées.
Démarrez le module YaST relatif aux imprimantes en cliquant sur
› .Ouvrez l'écran
à partir du volet gauche.Cochez la case
.Spécifiez les serveurs que vous souhaitez utiliser sous
Paramètres généraux
. Vous pouvez accepter les connexions de tous les réseaux disponibles ou de certains hôtes spécifiques. Si vous choisissez la dernière option, vous devez spécifier les noms d'hôte ou les adresses IP.Confirmez en cliquant sur
, puis sur lorsque vous êtes invité à démarrer un serveur CUPS local. Une fois le serveur démarré, YaST revient à l'écran . Cliquez sur pour afficher les imprimantes détectées à partir de maintenant. Cliquez de nouveau sur ce bouton si d'autres imprimantes supplémentaires sont disponibles.
11.3.2.2 Utilisation de serveurs d'impression autres que CUPS #
Si votre réseau offre des services d'impression via des serveurs autres que CUPS, lancez le module YaST relatif aux imprimantes en cliquant sur
› , puis ouvrez l'écran à partir du volet gauche. Démarrez l' et sélectionnez le approprié. Demandez à votre administrateur réseau des détails sur la configuration d'une imprimante réseau dans votre environnement.12 Configuration avancée des disques #
Les configurations système élaborées nécessitent de configurer les disques d'une certaine manière. Toutes les tâches de partitionnement courantes peuvent être effectuées avec YaST. Pour obtenir une dénomination persistante avec les périphériques de bloc, utilisez les périphériques situés sous/dev/disk/by-id
ou /dev/disk/by-uuid
. Conçu pour être bien plus flexible que le partitionnement physique utilisé dans les configurations standard, le modèle LVM (Logical Volume Management - Gestion des volumes logiques) est un modèle de partition de disque. La fonction d'instantané permet de sauvegarder les données en toute simplicité. Le réseau RAID (Redundant Array of Independent Disks - Réseau redondant de disques indépendants) offre une intégrité, des performances et une tolérance aux pannes accrues des données. SUSE Linux Enterprise Server (SLES) prend également en charge l'option Multipath I/O (voir le Book “Storage Administration Guide”, Chapter 17 “Managing multipath I/O for devices” pour plus de détails). Il est également possible d'utiliser iSCSI comme disque en réseau (pour plus d'informations sur iSCSI, voir le Book “Storage Administration Guide”, Chapter 14 “Mass Storage over IP Networks: iSCSI”).
12.1 Utilisation de l'outil de partitionnement de YaST #
Le partitionneur en mode expert, illustré à la Figure 12.1, « Outil de partitionnement de YaST », permet de modifier manuellement le partitionnement d'un ou de plusieurs disques durs. Vous pouvez ajouter, supprimer, redimensionner et modifier les partitions ou accéder à la configuration logicielle RAID et LVM.
S'il est possible de repartitionner un système en cours d'exécution, le risque de commettre une erreur qui engendrerait une perte de données est très important. Évitez de repartitionner un système installé et si vous devez vraiment le faire, sauvegardez par avance toutes vos données.
IBM Z reconnaît uniquement les disques durs DASD et SCSI. Les disques durs IDE ne sont pas pris en charge. Pour cette raison, ces périphériques apparaissent dans la table de partition au format de fichier dasda
ou sda
pour le premier périphérique reconnu.
Toutes les partitions existantes ou proposées de tous les disques durs connectés sont affichées dans la liste de l'/dev/sda
(ou /dev/dasda
). Les partitions sont répertoriées comme des parties de ces périphériques, par exemple /dev/sda1
(ou /dev/dasda1
, respectivement). La taille, le type, l'état de codage, le système de fichiers et le point de montage des disques durs et de leurs partitions sont également affichés. Le point de montage indique l'emplacement où la partition apparaît dans l'arborescence du système de fichiers Linux.
La RAID
, Gestion des volumes
, Fichiers de codage
) ou pour afficher des systèmes de fichiers avec des fonctionnalités supplémentaires comme BTRFS, NFS ou TMPFS
.
Si vous ouvrez cette boîte de dialogue au cours de l'installation, l'espace disque libre est également répertorié et automatiquement sélectionné. Pour fournir plus d'espace disque à SUSE® Linux Enterprise Server, libérez l'espace requis en commençant au bas de la liste et en remontant progressivement (c'est à dire de la dernière partition d'un disque vers la première).
12.1.1 Types de partitions #
Sur les plates-formes IBM Z , SUSE Linux Enterprise Server prend en charge les disques durs SCSI et les périphériques de stockage à accès direct (DASD). Si les disques SCSI peuvent être partitionnés comme indiqué ci-dessous, les DASD ne peuvent pas avoir plus de trois entrées de partition dans leurs tables de partition.
Chaque disque dur possède une table de partition pouvant accepter quatre entrées. Chaque entrée d'une table de partition correspond à une partition principale ou à une partition étendue. Une seule entrée de partition étendue est cependant autorisée.
Une partition principale se compose simplement d'une plage de cylindres continue (zones de disque physiques) affectée à un système d'exploitation en particulier. Si vous n'utilisez que des partitions principales, vous serez limité à quatre partitions par disque dur. En effet, la table de partition ne permet pas d'en définir davantage. On utilise donc également des partitions étendues. Ces dernières constituent également des plages de cylindres de disques continues, mais elles ont la particularité de pouvoir être subdivisées en partitions logiques. Les partitions logiques ne nécessitent pas d'entrées dans la table de partition. En d'autres termes, une partition étendue est un conteneur de partitions logiques.
Si vous avez besoin de plus de quatre partitions, créez une partition étendue en guise de quatrième partition (ou avant). Cette partition étendue doit couvrir l'intégralité de la plage restante de cylindres libres. Vous pouvez ensuite créer plusieurs partitions logiques au sein de cette partition étendue. Le nombre maximum de partitions logiques est 63, quel que soit le type de disque. Le type de partition utilisé pour Linux n'a aucune importance. Les partitions principale et logique fonctionnent normalement.
Si vous devez créer plus de 4 partitions principales sur un disque dur, vous devrez utiliser le type de partition GPT. Ce type de partition supprime la restriction du nombre de partitions principales et prend également en charge les partitions supérieures à 2 To.
Pour utiliser GPT, exécutez l'outil de partitionnement YaST, cliquez sur le nom du disque approprié dans la
, puis sélectionnez › › .12.1.2 Création d'une partition #
Pour créer une partition, sélectionnez
, puis un disque dur avec de l'espace disponible. La modification peut être effectuée dans l'onglet :Sélectionnez Section 12.1.1, « Types de partitions »).
et spécifiez le type de partition (principale ou étendue). Créez jusqu'à quatre partitions principales ou jusqu'à trois partitions principales et une partition étendue. Vous pouvez créer plusieurs partitions logiques au sein de la partition étendue (reportez-vous à laSpécifiez la taille de la nouvelle partition. Vous pouvez choisir d'occuper tout l'espace disque non partitionné ou de spécifier une taille personnalisée.
Sélectionnez le système de fichiers à utiliser et un point de montage. YaST propose un point de montage pour chaque partition créée. Pour utiliser une méthode de montage différente, comme le montage par étiquette, sélectionnez
. Pour plus d'informations sur les systèmes de fichiers pris en charge, consultez la sectionroot
.Indiquez des options de système de fichiers supplémentaires si votre configuration l'exige. Cette étape est nécessaire si vous avez besoin de noms de périphériques permanents, par exemple. Pour plus de détails sur les options disponibles, reportez-vous à la Section 12.1.3, « Modification d'une partition ».
Cliquez sur
pour appliquer la configuration du partitionnement et quitter le module.Si vous avez créé la partition lors de l'installation, vous revenez à l'écran de présentation de l'installation.
12.1.2.1 Partitionnement Btrfs #
Le système de fichiers par défaut pour la partition racine est Btrfs (pour plus d'informations sur Btrfs, voir Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper” et Book “Storage Administration Guide”, Chapter 1 “Overview of File Systems in Linux”). Le système de fichiers racine est le sous-volume par défaut et il n'est pas répertorié dans la liste des sous-volumes créés. En tant que sous-volume Btrfs par défaut, il peut être monté comme système de fichiers normal.
La configuration par défaut du partitionnement suggère une partition racine de type Btrfs et /boot
comme répertoire. Pour chiffrer la partition racine, assurez-vous d'utiliser le type de table de partitions GPT au lieu du type MSDOS par défaut. Dans le cas contraire, le chargeur d'amorçage GRUB2 risque de ne pas disposer de suffisamment d'espace pour celui nécessaire à la deuxième étape.
Il est possible de créer des instantanés de sous-volumes Btrfs, manuellement ou automatiquement, selon les événements système. Par exemple, lorsque vous modifiez le système de fichiers, zypper
appelle la commande snapper
afin de créer des instantanés avant et après le changement. Cela se révèle particulièrement utile si la modification effectuée par zypper
ne vous convient pas et si vous souhaitez revenir à l'état précédent. Étant donné que snapper
appelé par zypper
crée des instantanés du système de fichiers racine par défaut, il est judicieux d'exclure des répertoires spécifiques des instantanés. C'est la raison pour laquelle YaST propose de créer les sous-volumes distincts suivants :
/boot/grub2/i386-pc
,/boot/grub2/x86_64-efi
,/boot/grub2/powerpc-ieee1275
,/boot/grub2/s390x-emu
Un retour à l'état initial de la configuration du chargeur de démarrage n'est pas pris en charge. Les répertoires ci-dessus sont spécifiques à l'architecture. Les deux premiers répertoires sont présents sur les machines AMD64/Intel 64, les deux derniers respectivement sur IBM POWER et IBM Z.
/home
Si le répertoire
/home
ne réside pas sur une partition distincte, il est exclu pour éviter les pertes de données lors des retours à l'état initial./opt
,/var/opt
Les produits tiers sont généralement installés sous
/opt
. Ce répertoire est exclu pour éviter la désinstallation de ces applications lors des retours à l'état initial./srv
Contient des données pour les serveurs Web et FTP. Il est exclu pour éviter les pertes de données lors des retours à l'état initial.
/tmp
,/var/tmp
,/var/cache
,/var/crash
Tous les répertoires contenant des fichiers temporaires et des caches sont exclus des instantanés.
/usr/local
Ce répertoire est utilisé lors de l'installation manuelle de logiciels. Il est exclu pour éviter la désinstallation de ces applications lors des retours à l'état initial.
/var/lib/libvirt/images
Emplacement par défaut des images de machine virtuelle gérées avec libvirt. Exclus pour veiller à ce que les images de machine virtuelle ne soient pas remplacées par d'anciennes versions lors d'un retour à l'état initial. Par défaut, ce sous-volume est créé avec l'option
no copy on write
./var/lib/mailman
,/var/spool
Les répertoires contenant des messages électroniques ou des files d'attente sont exclus pour éviter la perte de ces messages après un retour à l'état initial.
/var/lib/named
Contient les données de la zone pour le serveur DNS. Exclus des instantanés pour garantir le bon fonctionnement d'un serveur de noms après un retour à l'état initial.
/var/lib/mariadb
,/var/lib/mysql
,/var/lib/pgqsl
Ces répertoires contiennent des données d'une base de données. Par défaut, ces sous-volumes sont créés avec l'option
no copy on write
./var/log
Emplacement du fichier journal. Exclus des instantanés pour permettre l'analyse des fichiers journaux après le retour à l'état initial d'un système endommagé. Par défaut, l'emplacement
/var/log
a l'ensemble d'attributs No_COW, qui désactive la fonctionnalité de copie pour écriture, ce qui améliore les performances et réduit le nombre de blocs en double. Effectuez une vérification aveclsattr
:tux >
lsattr -l /var/ /var/log No_COW
Étant donné que les instantanés enregistrés nécessitent davantage d'espace disque, il est recommandé de réserver suffisamment d'espace pour Btrfs. La taille suggérée pour une partition Btrfs racine avec les sous-volumes proposés est de 20 Go.
12.1.2.1.1 Gestion de sous-volumes Btrfs à l'aide de YaST #
Les sous-volumes d'une partition Btrfs peuvent désormais être gérés avec le module
de YaST. Vous pouvez ajouter de nouveaux sous-volumes ou des sous-volumes existants.Démarrez le module
de YaST à l'aide de › .Sélectionnez
dans le volet de gauche.Sélectionnez la partition Btrfs dont vous souhaitez gérer les sous-volumes et cliquez ensuite sur
.Cliquez sur
. La liste de tous les sous-volumes existants de la partition Btrfs sélectionnée est alors affichée. Vous remarquerez plusieurs entrées@/.snapshots/xyz/snapshot
; chacun de ces sous-volumes appartient à un seul instantané existant.Procédez comme suit selon que vous souhaitez ajouter ou supprimer des sous-volumes :
Pour supprimer un sous-volume, sélectionnez-le dans la liste des
, puis cliquez sur .Pour ajouter un nouveau sous-volume, entrez son nom dans la zone de texte
, puis cliquez sur .Figure 12.2 : Sous-volumes Btrfs dans le partitionneur YaST #
Confirmez en sélectionnant
et .Pour quitter le partitionneur, cliquez sur
.
12.1.3 Modification d'une partition #
Lorsque vous créez une nouvelle partition ou que vous modifiez une partition existante, vous pouvez définir différents paramètres. Pour les nouvelles partitions, les paramètres par défaut définis par YaST sont généralement suffisants et ne nécessitent aucune modification. Pour modifier manuellement la configuration de votre partition, procédez de la façon suivante :
Sélectionnez la partition.
Cliquez sur
pour modifier la partition et fixer les paramètres :- ID du système de fichiers
Même si vous ne souhaitez pas formater la partition à ce stade, affectez-lui un ID de système de fichiers pour vous assurer qu'elle est correctement enregistrée. Les valeurs types sont
, , et .- Système de fichiers
Pour modifier le système de fichiers de la partition, cliquez sur
et sélectionnez le type de système de fichiers dans la liste .SUSE Linux Enterprise Server prend en charge plusieurs types de systèmes de fichiers. Btrfs est le système de fichiers Linux privilégié pour la partition racine en raison de ses fonctionnalités avancées. Il prend en charge la fonctionnalité de copie sur écriture, la création d'instantanés, la distribution multi-périphérique, les sous-volumes et autres techniques utiles. XFS, Ext3 et JFS sont des systèmes de fichiers de journalisation. Ces systèmes de fichiers peuvent restaurer le système très rapidement après un crash système en utilisant les processus d'écriture consignés en cours de fonctionnement. Ext2 n'est pas un système de fichiers de journalisation, mais convient pour les partitions plus petites car il requiert peu d'espace disque pour la gestion.
Le système de fichiers par défaut pour la partition racine est Btrfs. Ce système est XFS pour les partitions supplémentaires.
Swap est un format spécial permettant d'utiliser la partition comme mémoire virtuelle. Créez une partition Swap d'au moins 256 Mo. Toutefois, si vous utilisez tout votre espace d'échange, pensez à ajouter plus de mémoire sur votre système plutôt que davantage d'espace d'échange.
Avertissement : changement du système de fichiersLe changement de système de fichiers et le reformatage de partitions effacent irrémédiablement toutes les données de la partition.
Pour plus de détails sur les différents systèmes de fichiers, reportez-vous au Storage Administration Guide (Guide d'administration du stockage).
- Codage du périphérique
Si vous activez le codage, toutes les données seront écrites sur le disque dur sous forme codée. Cela accroît la sécurité des données sensibles, mais ralentit le système en raison du temps requis par le codage. Pour plus d'informations sur le codage des systèmes de fichiers, reportez-vous au Book “Security and Hardening Guide”, Chapter 12 “Encrypting Partitions and Files”.
- Point de montage
Définissez le répertoire au niveau duquel la partition doit être montée dans l'arborescence du système de fichiers. Sélectionnez l'une des propositions de YaST ou entrez un autre nom.
- Options Fstab
Définissez les divers paramètres compris dans le fichier d'administration du système de fichiers global (
/etc/fstab
). Les paramètres par défaut doivent convenir à la plupart des configurations. Vous pouvez, par exemple, modifier l'identification du système de fichiers et passer d'un nom de périphérique à une étiquette de volume. Pour l'étiquette de volume, vous pouvez utiliser tous les caractères à l'exception de la barre oblique (/
) et de l'espace.Pour obtenir des noms de périphériques permanents, utilisez l'option de montage SUSE Linux Enterprise Server, les noms de périphérique permanents sont activés par défaut.
, (Identifiant unique universel) ou . DansNote : IBM Z : montage par cheminSur les plates-formes IBM Z, le montage par ID est problématique en cas de copie disque à disque à des fins de clonage. Pour ces plates-formes, les périphériques sont donc, par défaut, montés par chemin à l'emplacement
/etc/fstab
.Si vous préférez monter la partition par son étiquette, vous devez en définir une dans l'entrée de texte
. Vous pouvez, par exemple, utiliser l'étiquette de partitionHOME
pour une partition à monter sur/home
.Si vous prévoyez d'utiliser des quotas sur le système de fichiers, utilisez l'option de montage Section 16.3.4, « Gestion des quotas ».
. Vous devez activer cette option pour pouvoir définir des quotas utilisateur dans le module YaST . Pour plus d'informations sur la configuration des quotas utilisateurs, reportez-vous à la
Sélectionnez
pour enregistrer les modifications.
Pour redimensionner un système de fichiers existant, sélectionnez la partition et cliquez sur
. Souvenez-vous qu'il est impossible de redimensionner une partition déjà montée. Pour redimensionner une partition, vous devez la démonter avant d'exécuter l'outil de partitionnement.12.1.4 Options avancées #
Après avoir sélectionné un disque dur (comme
) dans le volet , vous pouvez accéder au menu en bas à droite de la fenêtre . Le menu contient les options suivantes :- Créer une nouvelle table de partition
Cette option permet de créer une nouvelle table de partition sur le périphérique sélectionné.
Avertissement : création d'une nouvelle table de partitionLa création d'une nouvelle table de partition sur un périphérique supprime définitivement toutes les partitions et leurs données du périphérique.
- Cloner ce disque
Cette option vous permet de cloner la disposition de la partition du périphérique (et non les données) sur d'autres disques disponibles.
12.1.5 Options avancées #
Après avoir sélectionné le nom d'hôte de l'ordinateur (niveau supérieur de l'arborescence dans le volet
), vous pouvez accéder au menu situé dans la partie inférieure droite de la fenêtre . Le menu contient les options suivantes :- Configurer iSCSI
Pour accéder à SCSI sur les périphériques de bloc IP, vous devez d'abord configurer iSCSI. Cela entraîne l'affichage de périphériques disponibles supplémentaires dans la liste de la partition principale.
- Configurer multipath
Cette option permet de configurer l'amélioration multipath vers les périphériques de stockage de masse pris en charge.
12.1.6 Autres conseils de partitionnement #
Cette section présente quelques conseils et astuces sur le partitionnement qui vous aideront à prendre les bonnes décisions lors de la configuration de votre système.
Des outils de partition différents peuvent compter les cylindres d'une partition en commençant par 0
ou par 1
. Pour calculer le nombre de cylindres, calculez la différence entre le dernier et le premier numéros de cylindre, puis ajoutez 1.
12.1.6.1 Utilisation d'espace d'échange (swap
) #
L'espace d'échange (swap) est utilisé pour augmenter la mémoire physique disponible. Ainsi, il est possible d'utiliser davantage de mémoire que la mémoire physique RAM disponible. Jusqu'à la version 2.4.10, le système de gestion de la mémoire des kernels exigeait de l'espace d'échange pour des raisons de sécurité. Si vous n'aviez pas deux fois plus d'espace d'échange que de RAM, les performances du système en pâtissaient. Ces limitations ne sont plus d'actualité.
Linux utilise une page appelée « La moins récemment utilisée » (LRU) pour sélectionner les pages à déplacer de la mémoire vers le disque. Par conséquent, les applications en cours d'exécution disposent de plus de mémoire disponible et la mise en cache fonctionne mieux.
Si une application tente d'allouer autant de mémoire qu'elle peut en obtenir, des problèmes d'espace d'échange surviendront. Il existe trois cas principaux :
- Système sans espace d'échange
L'application se dote de toute la mémoire qui peut être libérée. Tous les caches sont libérés, donc toutes les autres applications en cours d'exécution sont ralenties. Après quelques minutes, le mécanisme OOM Killer (qui supprime les processus utilisant trop de mémoire) du kernel s'active et supprime le processus.
- Système avec espace d'échange moyen (128 à 512 Mo)
Le système est d'abord ralenti, comme un système sans espace d'échange. Une fois que toute la RAM physique a été utilisée, il passe sur l'espace d'échange. À ce moment, le système est très lent et il est impossible d'exécuter des commandes à distance. Il reste dans cet état pendant 10 à 15 minutes (selon la vitesse des disques durs qui exécutent l'espace mémoire d'échange) jusqu'à ce que l'outil OOM Killer du kernel résolve le problème. Vous aurez besoin d'une quantité relativement importante d'espace d'échange si l'ordinateur doit effectuer une « Hibernation » (sauvegarde du contenu de la mémoire vive sur le disque dur). Dans ce cas, l'espace d'échange doit être assez important pour contenir les données de la mémoire (512 Mo à 1 Go).
- Système avec grand espace de swap (plusieurs gigaoctets)
Dans ce cas, il est préférable de ne pas avoir d'application non contrôlée qui effectue frénétiquement des échanges. Si ce problème survient, le système mettra plusieurs heures à retrouver son état normal. D'autres processus risquent de subir des défaillances et délais d'attente importants, donc de quitter le système dans un état non défini, même si le processus défectueux est arrêté. Dans ce cas, éteignez, puis rallumez la machine et essayez de la faire fonctionner à nouveau. Un grand volume d'espace d'échange est inutile, sauf si une application nécessite cette configuration. Les applications concernées (notamment les bases de données ou les programmes de manipulation d'images) bénéficient souvent d'une option qui permet d'utiliser directement l'espace de disque dur dont elles ont besoin. Il est recommandé de tirer parti de cette option plutôt que d'utiliser beaucoup d'espace d'échange.
Si votre système est sous contrôle mais s'il a besoin de plus d'espace d'échange après quelque temps, vous pouvez augmenter l'espace d'échange en ligne. Si vous avez préparé une partition pour l'espace d'échange, ajoutez-la à l'aide de YaST. Si vous ne disposez d'aucune partition disponible, vous pouvez également utiliser un fichier d'échange pour augmenter l'espace d'échange. Ces fichiers sont généralement plus lents que les partitions, mais par rapport à la mémoire RAM physique, ces deux types d'éléments sont lents et la différence est négligeable.
Pour ajouter un fichier d'échange sur un système en cours d'exécution, procédez de la façon suivante :
Créez un fichier vide sur votre système. Par exemple, si vous souhaitez ajouter à
/var/lib/swap/swapfile
un fichier d'échange de 128 Mo, utilisez les commandes suivantes :mkdir -p /var/lib/swap dd if=/dev/zero of=/var/lib/swap/swapfile bs=1M count=128
Initialisez ce fichier d'échange grâce à la commande suivante :
mkswap /var/lib/swap/swapfile
Note : UUID modifié pour les partitions d'échange lors de leur mise en forme à l'aide demkswap
Si possible, évitez de reformater les partitions d'échange existantes avec
mkswap
. Le reformatage avecmkswap
modifie la valeur UUID de la partition d'échange. Vous pouvez reformater via YaST (mettra à jour/etc/fstab
) ou ajuster l'emplacement/etc/fstab
manuellement.Activez le fichier d'échange grâce à la commande :
swapon /var/lib/swap/swapfile
Pour désactiver ce fichier d'échange, utilisez la commande suivante :
swapoff /var/lib/swap/swapfile
Vérifiez les espaces d'échange disponibles actuellement grâce à la commande :
cat /proc/swaps
À ce stade, il ne s'agit que d'espace d'échange temporaire. Après le prochain redémarrage, il ne sera plus utilisé.
Pour activer ce fichier d'échange de façon permanente, ajoutez à
/etc/fstab
la ligne suivante :/var/lib/swap/swapfile swap swap defaults 0 0
12.1.7 Partitionnement et LVM #
Depuis le
, accédez à la configuration LVM en cliquant sur l'option dans le volet . Cependant, si une configuration LVM fonctionnelle existe déjà sur votre système, celle-ci s'active automatiquement dès que vous entrez pour la première fois en mode de configuration LVM au cours d'une session. Dans ce cas, aucun disque contenant une partition (appartenant à un groupe de volumes activé) ne peut être repartitionné. En effet, le kernel Linux ne peut pas lire la table de partition modifiée d'un disque dur si une partition du disque est en cours d'utilisation. Si vous disposez déjà d'une configuration LVM fonctionnelle sur votre système, aucun repartitionnement physique ne devrait être nécessaire. Modifiez plutôt la configuration des volumes logiques.
Au début de chaque volume physique, des informations sur le volume sont écrites dans la partition. Pour réutiliser une partition de ce type avec un gestionnaire différent de LVM, il est conseillé de supprimer le début de ce volume. Par exemple, avec le groupe de volumes system
et le volume physique /dev/sda2
, utilisez la commande dd
if=/dev/zero of=/dev/sda2 bs=512 count=1
.
Le système de fichiers utilisé pour le démarrage (système de fichiers root ou /boot
) ne doit pas être stocké sur un volume logique LVM. Stockez-le plutôt sur une partition physique normale.
Pour plus de détails sur LVM, reportez-vous au Book “Storage Administration Guide”.
12.2 Configuration de LVM #
Cette section explique les étapes spécifiques à effectuer lors de la configuration de LVM. Si vous avez besoin d'informations sur le Gestionnaire de volumes logiques en général, reportez-vous au Book “Storage Administration Guide”, Chapter 5 “LVM Configuration”, Section 5.1 “Understanding the Logical Volume Manager”.
L'utilisation de LVM peut induire une augmentation des risques, notamment en ce qui concerne la perte de données. Mais les risques comprennent également le crash des applications, les pannes de courant ou les commandes défectueuses. Aussi, avant d'implémenter LVM ou de reconfigurer des volumes, enregistrez vos données. Ne travaillez jamais sans avoir au préalable fait une sauvegarde.
12.2.1 Configuration de LVM avec YaST #
Pour configurer LVM avec YaST, utilisez le partitionnement en mode expert de YaST (voir Section 12.1, « Utilisation de l'outil de partitionnement de YaST ») dans du volet . L'outil de partitionnement en mode expert permet de modifier et de supprimer des partitions existantes, mais également d'en créer de nouvelles, destinées à être utilisées avec LVM. La première tâche à accomplir consiste à créer des PV qui fournissent de l'espace à un groupe de volumes :
Sélectionnez un disque dur dans
.Placez-vous sur l'onglet
.Cliquez sur
et indiquez la taille du PV souhaitée sur le disque.Cliquez sur
et remplacez l' par . Ne montez pas cette partition.Répétez cette procédure jusqu'à ce que vous ayez défini tous les volumes physiques souhaités sur les disques disponibles.
12.2.1.1 Création de groupes de volumes #
Si votre système ne comprend aucun groupe de volumes, vous devrez en ajouter un (reportez-vous à la Figure 12.3, « Création d'un groupe de volumes »). Il est possible de créer des groupes supplémentaires en cliquant sur l'option du volet , puis sur . En règle générale, un seul groupe de volumes suffit.
Entrez un nom pour le VG, par exemple
système
.Sélectionnez la
souhaitée. Cette valeur définit la taille d'un bloc physique dans un groupe de volumes. Tout l'espace disque d'un groupe de volumes est géré par l'intermédiaire de blocs de cette taille.Ajoutez les PV préparés au VG en sélectionnant le périphérique, puis en cliquant sur Ctrl tout en sélectionnant les périphériques.
. Vous pouvez sélectionner plusieurs périphériques à la fois. Pour ce faire, appuyez surSélectionnez
pour que le groupe de volumes soit disponible lors des prochaines étapes de la configuration.
Si plusieurs groupes de volumes sont définis et si vous souhaitez ajouter ou supprimer des PV, sélectionnez le groupe de volumes dans la liste
, puis cliquez sur . Le fenêtre suivante permet d'ajouter ou de supprimer des PV dans le groupe de volumes sélectionné.12.2.1.2 Configuration des volumes logiques #
Une fois le groupe de volumes peuplé de volumes physiques, définissez les volumes logiques que le système d'exploitation doit utiliser dans la boîte de dialogue suivante. Choisissez le groupe de volumes actuel et accédez à l'onglet
. Utilisez les options , , et des volumes logiques si nécessaire, jusqu'à épuisement de l'espace du groupe de volumes. Assignez au moins un LV à chaque groupe de volumes.Cliquez sur
et placez-vous sur la fenêtre contextuelle qui s'ouvre (elle ressemble à un assistant) :Entrez le nom du LV. Pour une partition à monter dans
/home
, vous pouvez utiliser un nom tel queHOME
.Sélectionnez le type du volume logique. Il peut s'agir de
, ou . Notez que vous devez d'abord créer un pool à allocation dynamique, lequel peut stocker des volumes à allocation dynamique. L'allocation fine et dynamique présente un avantage de taille : la somme totale de tous les volumes à allocation dynamique stockés dans un pool de ce type peut, en effet, dépasser la taille du pool proprement dit.Sélectionnez la taille et le nombre de segments du LV. Si vous n'avez qu'un seul PV, il est inutile de sélectionner plusieurs segments.
Choisissez le système de fichiers à utiliser sur le volume logique, ainsi que le point de montage.
L'utilisation de segments permet de distribuer le flux de données du LV parmi plusieurs PV (segmentation). Toutefois, la segmentation d'un volume ne peut être exécutée que sur des PV différents, chacun d'entre eux disposant au moins de l'espace du volume. Le nombre maximum de blocs est égal au nombre de PV, avec le bloc 1 signifiant « pas de segmentation ». La segmentation n'est utile que si les PV se trouvent sur différents disques durs, faute de quoi les performances risquent de s'affaiblir.
À ce stade, YaST ne peut pas vérifier l'exactitude de vos entrées relatives à la segmentation. Toute erreur à ce stade ne sera visible qu'au moment de l'implémentation de LVM sur le disque.
Si vous avez déjà configuré LVM sur votre système, vous pouvez également utiliser les volumes logiques existants. Avant de poursuivre, assignez à ces volumes logiques les points de montage appropriés. Cliquez sur
pour revenir au partitionnement en mode expert de YaST et terminer vos opérations grâce à cet outil.12.3 Configuration de Soft RAID avec YaST #
Cette section décrit les opérations requises pour créer et configurer les différents types de RAID. Si vous avez besoin d'informations de base sur RAID, reportez-vous au Book “Storage Administration Guide”, Chapter 7 “Software RAID Configuration”, Section 7.1 “Understanding RAID Levels”.
12.3.1 Configuration de Soft RAID avec YaST #
Pour configurer Section 12.1, « Utilisation de l'outil de partitionnement de YaST ». Cet outil de partitionnement permet de modifier et de supprimer des partitions existantes, et d'en créer de nouvelles pour les utiliser avec Soft RAID :
avec YaST, utilisez l'outil de partitionnement en mode expert de YaST, décrit à laSélectionnez un disque dur dans
.Placez-vous sur l'onglet
.Cliquez sur
et indiquez la taille de la partition RAID souhaitée sur ce disque.Cliquez sur
et remplacez l' par . Ne montez pas cette partition.Répétez cette procédure jusqu'à ce que vous ayez défini tous les volumes physiques souhaités sur les disques disponibles.
Pour RAID 0 et RAID 1, au moins deux partitions sont nécessaires ; pour RAID 1, vous devez même en avoir exactement deux, pas plus. Si vous utilisez RAID 5, vous devez disposez d'au moins trois partitions, et pour RAID 6 et RAID 10, il vous en faut au minimum quatre. Il est recommandé d'utiliser des partitions de même taille. Les partitions RAID doivent être situées sur des disques durs différents afin de diminuer le risque de perte de données au cas où l'une des partitions serait défectueuse (RAID 1 et 5) et afin d'optimiser les performances de RAID 0. Après avoir créé toutes les partitions à utiliser avec RAID, cliquez sur
› pour démarrer la configuration de RAID.Dans la boîte de dialogue suivante, choisissez entre les niveaux RAID 0, 1, 5, 6 ou 10. Sélectionnez ensuite toutes les partitions de type « Linux RAID » ou « Linux native »que doit utiliser le système RAID. Aucune partition d'échange ou DOS n'est affichée.
Dans le cas des types RAID où l'ordre des disques ajoutés a de l'importance, vous pouvez marquer chaque disque avec une lettre comprise entre A et E. Cliquez sur le bouton
, sélectionnez le disque et cliquez ensuite sur les boutons , où X correspond à la lettre que vous souhaitez assigner au disque. Utilisez cette méthode pour assigner tous les disques RAID disponibles, puis confirmez en cliquant sur . Vous pouvez facilement trier les disques classés à l'aide des boutons ou , ou encore ajouter un modèle à partir d'un fichier texte à l'aide de l'option .Pour ajouter une partition non assignée au volume RAID sélectionné, cliquez d'abord sur la partition, puis sur
. Assignez toutes les partitions réservées pour RAID. Sinon, l'espace de ces partitions reste inutilisé. Après avoir assigné toutes les partitions, cliquez sur pour sélectionner les disponibles.
Au cours de dernière étape, définissez le système de fichiers à utiliser, le chiffrement et le point de montage du volume RAID. Une fois la configuration terminée (cliquez sur /dev/md0
, ainsi que les autres, signalés par RAID dans le programme de partitionnement en mode expert.
12.3.2 Dépannage #
Reportez-vous au fichier /proc/mdstat
pour savoir si une partition RAID a été endommagée. En cas de défaillance système, arrêtez votre système Linux et remplacez le disque dur défectueux par un nouveau disque partitionné de la même manière. Redémarrez ensuite votre système et entrez la commande mdadm /dev/mdX --add /dev/sdX
. Remplacez « X » par vos identificateurs de périphérique. Cette commande intègre automatiquement le nouveau disque dur sur le système RAID et le reconstruit complètement.
Bien que vous puissiez accéder à toutes les données lors de la reconstruction, vous rencontrerez peut-être des problèmes de performances jusqu'à ce que le RAID soit complètement reconstruit.
12.3.3 Complément d'informations #
Vous trouverez des instructions de configuration, ainsi que d'autres détails sur Soft RAID, dans les HOWTO (Guides pratiques) à l'adresse suivante :
/usr/share/doc/packages/mdadm/Software-RAID.HOWTO.html
Des listes de diffusion concernant Linux RAID sont disponibles, notamment à l'adresse http://marc.info/?l=linux-raid.
13 Installation et suppression de logiciels #
Utilisez l'outil de gestion des logiciels de YaST pour rechercher les composants logiciels à ajouter ou à supprimer. YaST résout toutes les dépendances. Pour installer des paquetages non livrés avec le support d'installation, ajoutez des dépôts de logiciels à votre configuration et laissez YaST les gérer. Maintenez votre système à jour en gérant les mises à jour de logiciels à l'aide de l'applet de mise à jour.
Modifiez la collection de logiciels de votre système via le gestionnaire de logiciels YaST. Ce module YaST est disponible en deux variantes : une variante graphique pour X Window et une variante texte à utiliser sur la ligne de commande. La variante graphique est décrite ici. Pour plus d'informations sur la variante texte de Yast, consultez le Book “Administration Guide”, Chapter 5 “YaST in Text Mode”.
Lors de l'installation, de la mise à jour ou de la suppression de paquetages, les modifications apportées au gestionnaire de logiciels ne sont appliquées qu'une fois que vous avez cliqué sur
ou . YaST conserve une liste répertoriant toutes les actions, qui vous permet de vérifier et de modifier vos changements avant de les appliquer au système.13.1 Définition des termes utilisés #
- Dépôt
Répertoire local ou distant contenant des paquetages logiciels et des informations supplémentaires sur ces paquetages (métadonnées de paquetage).
- (Dépôt) Alias/Nom de dépôt
Nom court donné à un dépôt (appelé
Alias
dans Zypper et dans YaST). Il peut être choisi par l'utilisateur lors de l'ajout d'un dépôt ; il doit être unique.- Fichiers de description du dépôt
Chaque dépôt fournit des fichiers décrivant le contenu du dépôt (noms des paquetage, versions, etc.). Ces fichiers de description du dépôt sont téléchargés dans un cache local utilisé par YaST.
- Produit
Représente un produit complet, par exemple SUSE® Linux Enterprise Server.
- Modèle
Un modèle est un groupe de paquetages installable et ayant un rôle spécifique. Par exemple, le modèle
Ordinateur portable
contient tous les paquetages nécessaires dans un environnement d'informatique mobile. Les modèles définissent des dépendances de paquetages (comme les paquetages requis ou recommandés) et sont fournis avec une présélection de paquetages marqués en vue d'une installation. Ceci garantit que les paquetages les plus importants nécessaires dans un but spécifique sont disponibles sur votre système après l'installation du modèle. Si nécessaire, vous pouvez sélectionner ou désélectionner manuellement des paquetages dans un modèle.- Paquetage
Un paquetage est un fichier compressé au format
rpm
qui contient les fichiers d'un programme particulier.- Correctif
Un correctif comporte un ou plusieurs paquetages et peut être appliqué via des deltarpm. Il peut également introduire des dépendances dans les paquetages qui ne sont pas encore installés.
- Correctif
Terme générique désignant un produit, un modèle, un logiciel ou un correctif. Les types les plus utilisés sont le logiciel ou le correctif.
- deltarpm
Un deltarpm se compose uniquement des différentiels binaires compris entre deux versions définies d'un paquetage. Il a donc la taille de téléchargement la plus petite. Avant son installation, l'intégralité du paquetage RPM est reconstruit sur la machine locale.
- Dépendances des paquetages
Certains paquetages, comme les bibliothèques partagées, dépendent d'autres paquetages. En d'autres termes, un paquetage peut
nécessiter
la présence d'autres paquetages. Si les paquetages requis ne sont pas disponibles, le paquetage ne peut pas être installé. En plus des dépendances (exigences de paquetages) obligatoires, certains paquetagesrecommandent
la présence d'autres paquetages. Ces paquetages recommandés ne sont installés que s'ils sont actuellement disponibles. Dans le cas contraire, ils sont ignorés et le paquetage qui les recommande est installé malgré tout.
13.2 Enregistrement d'un système installé #
Si vous avez ignoré l'enregistrement lors de l'installation ou si vous souhaitez réenregistrer votre système, vous pouvez enregistrer le système à tout moment à l'aide du module YaST Enregistrement du produit ou de l'outil de ligne de commande SUSEConnect
.
13.2.1 Enregistrement avec YaST #
Pour enregistrer le système, démarrez YaST et accédez à
, puis .Par défaut, le système est enregistré auprès du Novell SUSE Customer Center. Si votre entreprise propose des serveurs d'enregistrement locaux, vous pouvez en choisir un dans la liste des serveurs détectés automatiquement ou fournir l'URL manuellement.
13.2.2 Enregistrement avec SUSEConnect #
Pour vous enregistrer à partir de la ligne de commande, utilisez la commande
tux >
sudo
SUSEConnect -r REGISTRATION_CODE -e EMAIL_ADDRESS
Remplacez REGISTRATION_CODE (CODE_ENREGISTREMENT) par le code d'enregistrement que vous avez reçu avec votre exemplaire de SUSE Linux Enterprise Server. Remplacez EMAIL_ADDRESS (ADRESSE_ÉLECTRONIQUE) par l'adresse électronique associée au compte SUSE que vous ou votre entreprise utilisez pour gérer les abonnements.
Pour effectuer l'enregistrement sur un serveur d'enregistrement local, fournissez également l'URL du serveur :
tux >
sudo
SUSEConnect -r REGISTRATION_CODE -e EMAIL_ADDRESS --url "URL"
13.3 Utilisation du gestionnaire de logiciels de YaST #
Démarrez le gestionnaire de logiciels à partir du
en sélectionnant › .13.3.1 Vues de recherche de paquetages ou de modèles #
Le gestionnaire de logiciels YaST peut installer des paquetages ou des modèles à partir de tous les dépôts actifs. Il offre plusieurs vues et filtres qui facilitent la recherche du logiciel. La vue
est la vue par défaut de la fenêtre. Pour changer de vue, cliquez sur et sélectionnez l'une des entrées suivantes dans la zone déroulante. La vue sélectionnée s'ouvre dans un nouvel onglet.- Schémas
Répertorie tous les modèles pouvant être installés sur votre système.
- Groupes de paquetages
Répertorie tous les paquetages classés par groupes tels que
, ou .- Groupes RPM
Répertorie tous les paquetages triés par fonctionnalité en groupes et en sous-groupes. Exemple :
› › .- Langues
Filtre permettant de répertorier tous les paquetages nécessaires pour ajouter une nouvelle langue système.
- Référentiels
Filtre permettant de trier les paquetages par dépôt. Pour sélectionner plusieurs dépôts, maintenez la touche Ctrl enfoncée tout en cliquant sur les noms des dépôts. Le « dépôt pseudo » répertorie tous les paquetages actuellement installés.
- Rechercher
Vous permet de rechercher un paquetage en fonction de certains critères. Entrez le mot sur lequel la recherche va être effectuée, puis appuyez sur Entrée. Affinez votre recherche en spécifiant les champs et en modifiant le champ . Par exemple, si vous ne connaissez pas le nom du paquetage, mais seulement celui de l'application recherchée, essayez d'inclure la du paquetage dans le processus de recherche.
- Résumé de l'installation
Si vous avez déjà sélectionné des paquetages en vue d'une installation, d'une mise à jour ou d'une suppression, cette vue affiche les modifications qui seront appliquées à votre système lorsque vous cliquerez sur Maj–F1 pour obtenir des détails sur les indicateurs d'état.
. Pour filtrer les paquetages par état dans cette vue, cochez ou décochez les cases correspondantes. Appuyez sur
Pour répertorier tous les paquetages qui n'appartiennent pas à un dépôt actif, sélectionnez
› › , puis › . Par exemple, cela s'avère utile si vous avez supprimé un dépôt et si vous souhaitez vous assurer qu'il ne reste plus de paquetages provenant de ce dépôt.13.3.2 Installation et suppression des paquetages ou des modèles #
Certains paquetages, comme les bibliothèques partagées, dépendent d'autres paquetages. Par ailleurs, certains paquetages ne peuvent pas coexister avec d'autres sur le système. Si possible, YaST résout automatiquement ces dépendances ou ces conflits. Si votre choix entraîne un conflit de dépendances qui ne peut être résolu automatiquement, vous devez le résoudre manuellement en suivant la procédure décrite dans la Section 13.3.4, « Contrôle des dépendances logicielles ».
Lors de la suppression de paquetages, YaST supprime par défaut les paquetages sélectionnés uniquement. Si vous souhaitez que YaST supprime également tous les autres paquetages devenus inutiles après la suppression du paquetage spécifié, sélectionnez
› dans le menu principal.Recherchez les paquetages conformément à la procédure décrite dans la Section 13.3.1, « Vues de recherche de paquetages ou de modèles ».
Les paquetages trouvés s'affichent dans le volet droit. Pour installer ou supprimer un paquetage, cliquez dessus avec le bouton droit de la souris et sélectionnez Maj–F1 pour obtenir de l'aide.
ou . Si l'option appropriée n'est pas disponible, vérifiez l'état du paquetage marqué par le symbole situé en regard de son nom. Appuyez surAstuce : application d'une action sur tous les paquetages répertoriésPour appliquer une action sur tous les paquetages répertoriés dans le volet droit, accédez au menu principal et choisissez une action dans
› .Pour installer un modèle, cliquez avec le bouton droit de la souris sur son nom et sélectionnez
.Il est impossible de supprimer un modèle en tant que tel. Sélectionnez plutôt les paquetages d'un modèle à supprimer et marquez-les pour suppression.
Pour sélectionner davantage de paquetages, répétez les étapes ci-dessus.
Avant d'appliquer vos modifications, vous pouvez les vérifier ou les modifier en cliquant sur
› . Tous les paquetages qui changeront d'état sont affichés par défaut.Pour restaurer l'état d'un paquetage, cliquez dessus avec le bouton droit de la souris et sélectionnez l'une des entrées suivantes :
si sa suppression ou sa mise à jour a été programmée ou si son installation a été programmée. Pour abandonner toutes les modifications et quitter le gestionnaire de logiciels, cliquez sur et .Lorsque vous avez terminé, cliquez sur
pour appliquer vos modifications.Si YaST a trouvé des dépendances sur d'autres paquetages, une liste des paquetages ayant été choisis pour l'installation, la mise à jour ou la suppression s'affiche. Cliquez sur
pour les accepter.Une fois que les paquetages sélectionnés sont installés, mis à jour ou supprimés, le gestionnaire de logiciels YaST termine le processus automatiquement.
Actuellement, le gestionnaire de logiciels YaST ne permet pas l'installation de paquetages sources. Pour y parvenir, utilisez l'outil de la ligne de commande zypper
. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 6 “Managing Software with Command Line Tools”, Section 6.1.2.5 “Installing or Downloading Source Packages”.
13.3.3 Mise à jour des paquetages #
Au lieu de mettre à jour des paquetages individuels, vous pouvez également mettre à jour tous les paquetages installés ou tous les paquetages provenant d'un dépôt spécifique. En cas de mise à jour de masse des paquetages, les points suivants sont généralement pris en compte :
Priorités des dépôts fournissant le paquetage
Architecture du paquetage (par exemple, AMD64/Intel 64)
Numéro de version du paquetage
Fournisseur du paquetage
Le point le plus important pour le choix des candidats à la mise à jour dépend de l'option de mise à jour que vous avez sélectionnée.
Pour mettre à jour tous les paquetages installés vers la dernière version, sélectionnez
› › dans le menu principal.Tous les dépôts sont sélectionnés en tant que candidats potentiels à la mise à jour conformément à la stratégie suivante : YaST commence par essayer de limiter la recherche aux paquetages ayant la même architecture et le même fournisseur que le paquetage installé. Si la recherche propose des résultats, le « meilleur » candidat à la mise à jour est sélectionné conformément au processus ci-dessous. Toutefois, si aucun paquetage comparable du même fournisseur n'est trouvé, la recherche est élargie à tous les paquetages ayant la même architecture. Si aucun paquetage correspondant n'est trouvé, tous les paquetages sont considérés et le « meilleur » candidat à la mise à jour est sélectionné en fonction des critères suivants :
Priorité du dépôt : privilégiez le paquetage provenant du dépôt ayant la priorité la plus élevée.
Si plusieurs paquetages sont sélectionnés, choisissez celui présentant la « meilleure » architecture (meilleur choix : faire correspondre l'architecture avec celle du paquetage installé).
Si le paquetage trouvé dispose d'un numéro de version supérieur à celui du paquetage installé, ce dernier sera mis à jour et remplacé par le candidat à la mise à jour sélectionné.
Cette option tente d'éviter les modifications au niveau de l'architecture et du fournisseur pour les paquetages installés, mais il arrive qu'elles soient tolérées.
Note : mise à jour inconditionnelleSi vous sélectionnez
› › , les mêmes critères s'appliquent, mais le paquetage candidat est installé de façon inconditionnelle. Cette option peut donc entraîner des mises à niveau vers des versions antérieures de certains paquetages.Pour s'assurer que le paquetage prévu pour une mise à jour de masse provient d'un dépôt spécifique, procédez comme suit :
Sélectionnez le dépôt à partir duquel vous souhaitez procéder à la mise à jour conformément à la procédure décrite dans la Section 13.3.1, « Vues de recherche de paquetages ou de modèles » .
À droite de la fenêtre, cliquez sur
. Ceci permet explicitement à YaST de modifier le fournisseur du paquetage lors du remplacement des paquetages.Lorsque vous cliquez sur
, tous les paquetages installés seront remplacés par des paquetages dérivés de ce dépôt, le cas échéant. Ceci peut entraîner des changements au niveau du fournisseur et de l'architecture, voire la mise à niveau vers une version antérieure de certains paquetages.Pour éviter ceci, cliquez sur
. Notez que vous ne pourrez plus annuler après avoir cliqué sur le bouton .
Avant d'appliquer vos modifications, vous pouvez les vérifier ou les modifier en cliquant sur
› . Tous les paquetages qui changeront d'état sont affichés par défaut.Si toutes les options sont définies conformément à vos besoins, confirmez vos modifications en cliquant sur
pour lancer la mise à jour de masse.
13.3.4 Contrôle des dépendances logicielles #
La plupart des paquetages dépendent d'autres paquetages. Par exemple, si un paquetage utilise une bibliothèque partagée, il dépend alors du paquetage fournissant cette bibliothèque. Par ailleurs, certains paquetages ne peuvent pas coexister sous peine d'engendrer un conflit (par exemple, vous pouvez installer un seul agent de transfert de messages électroniques : Sendmail ou Postfix). Lors de l'installation ou de la suppression d'un logiciel, le gestionnaire de logiciels s'assure que tous les conflits ou dépendances sont résolus pour garantir l'intégrité du système.
S'il n'existe qu'une solution permettant de résoudre une dépendance ou un conflit, ces derniers sont résolus automatiquement. Les solutions multiples entraînent toujours un conflit qui nécessite une résolution manuelle. Si la résolution du conflit implique un changement de fournisseur ou d'architecture, elle doit également être exécutée manuellement. Lorsque vous cliquez sur
pour appliquer les modifications dans le gestionnaire de logiciels, vous obtenez un aperçu de toutes les actions déclenchées par le résolveur automatique que vous devrez confirmer.Par défaut, les dépendances sont automatiquement contrôlées. Un contrôle est exécuté à chaque fois que l'état d'un paquetage change (par exemple, lors de la définition d'un paquetage en vue de son installation ou de sa suppression). En général, cette opération est utile mais peut vite devenir fastidieuse lors de la résolution manuelle d'un conflit de dépendances. Pour désactiver cette fonction, accédez au menu principal et désélectionnez
› . Pour exécuter un contrôle de dépendance manuel, sélectionnez › . Une vérification de cohérence est effectuée à chaque fois que vous confirmez votre sélection avec .Pour vérifier les dépendances d'un paquetage, cliquez dessus avec le bouton droit de la souris, puis sélectionnez
. Une carte des dépendances s'affiche. Les paquetages déjà installés s'affichent dans un cadre vert.Si vous n'êtes pas un utilisateur expérimenté, il est recommandé de suivre les suggestions de YaST relatives au traitement des conflits de paquetages pour pouvoir les résoudre. Gardez à l'esprit que toute modification peut déclencher d'autres conflits. Vous pouvez donc rapidement faire face à une accumulation de conflits. Dans de telles circonstances,
le gestionnaire de logiciels, toutes vos modifications, puis redémarrez.13.3.4.1 Gestion des recommandations de paquetage #
Outre les fortes dépendances matérielles requises pour exécuter un programme (par exemple une bibliothèque), un paquetage peut également avoir des dépendances dites « faibles », qui ajoutent par exemple une fonctionnalité supplémentaire ou des traductions. Ces dépendances faibles sont appelées recommandations de paquetage.
La façon de traiter ces recommandations a quelque peu changé depuis l'arrivée de SUSE Linux Enterprise Server 12 SP1. Rien ne change lors de l'installation d'un nouveau paquetage. Les paquetages recommandés sont toujours installés par défaut.
Avant SUSE Linux Enterprise Server 12 SP1, les recommandations manquantes pour les paquetages déjà installés étaient installées automatiquement. Désormais, ces paquetages ne seront plus installés automatiquement. Pour revenir à l'ancienne configuration par défaut, indiquez PKGMGR_REEVALUATE_RECOMMENDED="yes"
dans /etc/sysconfig/yast2
. Pour installer toutes les recommandations manquantes pour les paquetages déjà installés, démarrez › et sélectionnez › .
Pour désactiver l'installation des paquetages recommandés lors de l'installation de nouveaux paquetages, désactivez --no-recommends
.
13.4 Gestion des services et des dépôts de logiciels #
Pour installer un logiciel tiers, ajoutez des dépôts de logiciels supplémentaires à votre système. Par défaut, les dépôts de produit tels que le DVD de SUSE Linux Enterprise Server 12 SP5 et le dépôt de mise à jour correspondant, sont automatiquement configurés une fois le système enregistré. Pour plus d'informations sur l'enregistrement, reportez-vous à la Section 6.8, « Enregistrement auprès du SUSE Customer Center » ou à la Section 20.8, « Enregistrement de votre système ». En fonction du produit initialement sélectionné, un autre dépôt contenant des traductions, des dictionnaires, etc. peut également être configuré.
Pour gérer les dépôts, lancez YaST et sélectionnez
› . La boîte de dialogue s'ouvre. Vous pouvez gérer ici les abonnements aux en modifiant la dans le coin droit de la boîte de dialogue et en la définissant sur . Dans ce contexte, un service est un (RIS - Repository Index Service) qui peut contenir un ou plusieurs dépôts de logiciels. Un tel service peut être modifié de façon dynamique par son administrateur ou son fournisseur.Chaque dépôt fournit des fichiers décrivant le contenu du dépôt (noms des paquetage, versions, etc.). Ces fichiers de description du dépôt sont téléchargés dans un cache local utilisé par YaST. Pour garantir leur intégrité, les dépôts de logiciels peuvent être signés avec la clé GPG du mainteneur des dépôts. À chaque fois que vous ajoutez un nouveau dépôt, YaST vous propose d'importer sa clé.
Avant d'ajouter des dépôts de logiciels externes à votre liste de dépôts, assurez-vous qu'ils sont approuvés. SUSE n'est pas responsable en cas d'éventuels problèmes résultant de l'installation de logiciels à partir de dépôts tiers.
13.4.1 Ajout de dépôts de logiciels #
Vous pouvez ajouter des dépôts à partir d'un DVD/CD, de périphériques de stockage de masse amovibles (tels que des disques flash) ou encore d'une image ISO, d'un répertoire local ou d'une source réseau.
Pour ajouter des dépôts depuis la boîte de dialogue
dans YaST, procédez comme suit :Cliquez sur
.Sélectionnez l'une des options de la boîte de dialogue :
Figure 13.2 : Ajout d'un dépôt de logiciels #Pour analyser le réseau à la recherche des serveurs d'installation qui annoncent leurs services via SLP, sélectionnez
et cliquez ensuite sur .Pour ajouter un dépôt à partir d'un support amovible, sélectionnez l'option appropriée et insérez le support ou connectez le périphérique USB à la machine. Cliquez sur
pour démarrer l'installation.Pour la majorité des dépôts, vous êtes invité à indiquer le chemin d'accès (ou URL) au support après avoir sélectionné l'option appropriée et cliqué sur
. Vous n'êtes pas obligé d'indiquer un . Si aucun nom n'est renseigné, YaST utilise l'URL ou le nom du produit.
L'option
est activée par défaut. Si vous désactivez cette option, YaST téléchargera automatiquement les fichiers ultérieurement, si cela s'avère nécessaire.En fonction du dépôt que vous avez ajouté, vous pouvez être invité à importer la clé GPG de l'espace de stockage ou à accepter une licence.
Une fois les messages confirmés, YaST télécharge et analyse les métadonnées. Le logiciel ajoute alors le dépôt à la liste des
.Au besoin, définissez les Section 13.4.2, « Gestion des propriétés des dépôts ».
du dépôt en suivant la procédure décrite à laCliquez sur
pour confirmer vos modifications et fermer la boîte de dialogue de configuration.Une fois le dépôt ajouté, le gestionnaire de logiciels démarre et vous pouvez installer des paquetages à partir de cette source. Pour plus d'informations, reportez-vous au Chapitre 13, Installation et suppression de logiciels.
13.4.2 Gestion des propriétés des dépôts #
L'aperçu
des vous permet de modifier les propriétés des dépôts suivantes :- État
L'état du dépôt peut être
ou . Les paquetages que vous pouvez installer ne proviennent que des dépôts activés. Pour désactiver temporairement un dépôt, sélectionnez-le et désélectionnez l'option . Vous pouvez également double-cliquer sur le nom d'un dépôt pour changer son état. Pour supprimer totalement un dépôt, cliquez sur .- Rafraîchir
Lors du rafraîchissement d'un dépôt, la description de son contenu (noms des paquetages, versions, etc.) est téléchargée dans un cache local utilisé par YaST. Il suffit d'effectuer cette manipulation une fois pour les dépôts statiques, comme les CD ou les DVD, alors que les dépôts dont le contenu est souvent modifié doivent être rafraîchis fréquemment. La façon la plus simple de conserver le cache d'un dépôt à jour consiste à sélectionner
. Pour exécuter un rafraîchissement manuel, cliquez sur , puis sélectionnez l'une des options.Les paquetages des dépôts distants sont téléchargés avant d'être installés. Ils sont supprimés par défaut en cas d'installation réussie. L'activation de l'option
permet d'empêcher la suppression des paquetages téléchargés. L'emplacement de téléchargement est configuré dans/etc/zypp/zypp.conf
. Il s'agit par défaut du dossier/var/cache/zypp/packages
.La
d'un dépôt est une valeur comprise entre1
et200
, avec1
correspondant à la priorité la plus élevée et200
, la plus faible. Tout nouveau dépôt ajouté avec YaST est associé par défaut à une priorité de99
. Si vous n'accordez pas d'importance à la valeur de la priorité d'un dépôt spécifique, vous pouvez également la définir sur0
pour lui attribuer la priorité par défaut (99
). Si un paquetage est disponible dans plusieurs dépôts, le dépôt ayant la plus haute priorité est prioritaire. Ceci est utile si vous souhaitez éviter de télécharger des paquetages inutiles depuis Internet en attribuant à un dépôt local (un DVD par exemple) une priorité plus élevée.Important : priorité par rapport à la versionLe dépôt ayant la plus haute priorité est prioritaire dans tous les cas. Ainsi, assurez-vous que le dépôt de mise à jour a toujours la priorité la plus élevée, faute de quoi vous risquez d'installer une version obsolète qui ne sera pas mise à jour avant la prochaine mise à jour en ligne.
- Nom et URL
Pour modifier le nom ou l'URL d'un dépôt, sélectionnez-le dans la liste, puis cliquez sur
.
13.4.3 Gestion des clés de dépôts #
Pour garantir leur intégrité, les dépôts de logiciels peuvent être signés avec la clé GPG du mainteneur des dépôts. À chaque fois que vous ajoutez un nouveau dépôt, YaST vous propose d'importer sa clé. Vérifiez-la comme toutes les autres clés GPG et assurez-vous qu'elle ne change pas. Si vous détectez un changement de clé, il est possible que le dépôt soit à l'origine du problème. Désactivez le dépôt en tant que source d'installation jusqu'à ce que la cause du changement de clé soit identifiée.
Pour gérer toutes les clés importées, cliquez sur
dans la boîte de dialogue . Sélectionnez une entrée pour afficher les principales priorités en bas de la fenêtre. Cliquez sur , ou pour ajouter, modifier ou supprimer des clés.13.5 Maintien du système à jour #
SUSE propose en permanence des correctifs de sécurité logiciels pour votre produit. Vous pouvez les installer à l'aide du YaST Online Update. Des fonctionnalités avancées sont également proposées pour personnaliser l'installation de correctifs.
Le bureau GNOME s'accompagne également d'un outil permettant d'installer des correctifs, ainsi que des mises à jour de paquetages déjà installés. Contrairement à un Correctif, une mise à jour de paquetage est liée à un seul paquetage et en fournit une version plus récente. L'outil GNOME vous permet d'installer des correctifs et des mises à jour de paquetage en quelques clics, comme décrit à la Section 13.5.2, « Installation de correctifs et de mises à jour de paquetage ».
13.5.1 Programme de mise à jour de logiciels GNOME #
Lorsque de nouveaux correctifs ou mises à jour de paquetage sont disponibles, GNOME affiche une notification à ce sujet dans la partie inférieure du bureau (ou sur l'écran verrouillé).
13.5.2 Installation de correctifs et de mises à jour de paquetage #
Lorsque de nouveaux correctifs ou mises à jour de paquetage sont disponibles, GNOME affiche une notification à ce sujet dans la partie inférieure du bureau (ou sur l'écran verrouillé).
Pour installer des correctifs et des mises à jour, cliquez sur Alt–F2 et en entrant ensuite
(Installer les mises à jour) dans le message de notification. La visionneuse de mise à jour de GNOME s'ouvre. Vous pouvez également ouvrir cette visionneuse en cliquant sur › › ou en appuyant sur la touchegpk-update-viewer
.Toutes les
et sont présélectionnées. Il est vivement recommandé d'installer ces correctifs. D' peuvent être sélectionnées en cochant les cases correspondantes. Cliquez sur le titre d'un correctif ou d'une mise à jour de paquetage pour obtenir des informations détaillées à son sujet.Cliquez sur
pour lancer l'installation. Le système vous invite à saisir le mot de passe de l'utilisateurroot
.Entrez le mot de passe
root
dans la boîte de dialogue d'authentification et continuez la procédure.
13.5.3 Configuration du programme de mise à jour de logiciels de GNOME #
Pour configurer les notifications, sélectionnez
› › › et réglez les paramètres souhaités.Pour configurer la fréquence de vérification des mises à jour ou pour activer ou désactiver des dépôts, sélectionnez
› › › . Les onglets de la boîte de dialogue de configuration vous permettent de modifier les paramètres suivants :Définissez la fréquence de vérification des mises à jour :
, , ou .Définissez la fréquence de vérification des mises à niveau importantes :
, ou .- Vérifier les mises à jour en cas d'utilisation d'une large bande mobile
Cette option de configuration n'est disponible que sur les ordinateurs portables. Elle est désactivée par défaut.
- Check for updates on battery power (Vérifier les mises à jour en cas d'utilisation de la batterie)
Cette option de configuration n'est disponible que sur les ordinateurs portables. Elle est désactivée par défaut.
- Référentiels
Affiche la liste des dépôts dans lesquels les mises à jour de paquetage ou correctifs disponibles seront recherchés. Vous pouvez activer ou désactiver certains dépôts.
Important : faites en sorte que le dépôt demise à jour
reste activéPour être informé de la disponibilité de tout correctif ayant trait à la sécurité, faites en sorte que le dépôt
Updates
relatif à votre produit reste activé.
Des options supplémentaires sont configurables via gconf-editor
: › .
14 Installation de modules, extensions et produits complémentaires tiers #
Les modules et les extensions ajoutent des parties ou des fonctionnalités au système. Les modules sont des composants SUSE Linux Enterprise Server bénéficiant d'une prise en charge complète, avec un cycle de vie et un planning de mise à jour différents. Il s'agit d'un ensemble de paquetages, qui ont une étendue clairement définie et sont fournis via un canal en ligne uniquement.
Les extensions telles que Workstation Extension ou High Availability Extension ajoutent des fonctionnalités supplémentaires au système et nécessitent une clé d'enregistrement pouvant être payante. Les extensions sont distribuées par le biais d'un canal en ligne ou d'un support physique. L'enregistrement auprès du SUSE Customer Center ou d'un serveur d'enregistrement local est une condition préalable pour s'abonner aux canaux en ligne. Le concentrateur de paquetages (Section 14.6, « SUSE Package Hub ») et le SDK SUSE (Section 14.5, « Kit SDK SUSE 12 SP5 ») sont des exceptions qui ne nécessitent pas une clé d'enregistrement et ne sont pas couverts par des accords de support SUSE.
La liste des extensions et des modules pour votre produit est accessible après avoir enregistré votre système auprès du SUSE Customer Center ou d'un serveur d'enregistrement local. Si vous avez ignoré l'étape d'enregistrement, vous pourrez enregistrer votre système ultérieurement en utilisant le module Pour plus d'informations, reportez-vous à la Section 20.8, « Enregistrement de votre système ».
de YaST.
Certains produits complémentaires sont également fournis par des tiers ; ainsi, certains matériels exigent des pilotes binaires uniquement pour fonctionner correctement. Si cela concerne votre matériel, reportez-vous aux notes de version pour obtenir plus d'informations sur la disponibilité des pilotes binaires pour votre système. Les notes de version sont disponibles sur le site http://www.suse.com/releasenotes/, auprès de YaST ou dans le dossier /usr/share/doc/release-notes/
sur votre système installé.
14.1 Liste des modules facultatifs #
Outre le système d'exploitation du serveur de base, SUSE Linux Enterprise Server 12 propose des modules facultatifs inclus dans l'abonnement. Chaque module a un cycle de vie différent. Cette approche offre une intégration plus rapide avec les mises à jour en amont. Voici une liste de tous les modules facultatifs avec une brève description :
- Kit de développement logiciel
Il s'agit du kit de développement logiciel (Software Development Kit, SDK) de la gamme de produits SUSE Linux Enterprise. Cette extension gratuite s'adresse aux partenaires et clients qui travaillent avec SUSE Linux Enterprise Server, Desktop et les produits dérivés.
Pour plus d'informations sur le SDK SUSE, reportez-vous à la Section 14.5, « Kit SDK SUSE 12 SP5 ».
- Package Hub
SUSE Package Hub permet d'accéder à des paquetages gérés par la communauté et conçus pour s'exécuter sous SUSE Linux Enterprise Server. Compilés à partir des mêmes sources que celles utilisées dans les distributions openSUSE, ces paquetages de qualité fournissent des logiciels supplémentaires à ceux disponibles dans SUSE Linux Enterprise Server.
Pour plus d'informations sur SUSE Package Hub, reportez-vous à la Section 14.6, « SUSE Package Hub ».
- Module Advanced Systems Management
Ce module est constitué de trois composants destinés à aider les administrateurs système à automatiser des tâches dans le centre de données et le cloud : les outils de gestion de la configuration « CFEngine » et « Puppet », ainsi que la nouvelle infrastructure « Machinery ». Machinery est une boîte à outils de gestion des systèmes permettant d'inspecter les systèmes à distance, de stocker leur description système et de créer des images système à déployer au sein des centres de données et des clouds.
Pour plus d'informations sur le projet Machinery, reportez-vous à l'adresse http://machinery-project.org/.
- Module Containers (Conteneurs)
Ce module contient plusieurs paquetages relatifs aux conteneurs et aux outils associés, notamment Docker Open Source Engine et des images préalablement mises en paquetage pour SUSE Linux Enterprise Server 11 et SUSE Linux Enterprise Server 12.
- Module HPC
Le module HPC fournit un ensemble sélectionné d'outils et de composants utilisés dans les environnements HPC (High Performance Computing, calcul haute performance). Pour répondre à l'évolution des besoins des clients en matière de prise en charge des technologies HPC de pointe à la fois au niveau matériel et logiciel, ce module fournit des composants logiciels fréquemment mis à jour vers les dernières versions disponibles. La sélection des composants logiciels a été inspirée par (mais sans s'y limiter) ce qui est fourni dans le cadre du projet de communauté OpenHPC à l'adresse http://openhpc.community/.
- Module Legacy
Le module Legacy vous aide à migrer des applications à partir de systèmes plus anciens vers SUSE Linux Enterprise Server 12. Pour les entreprises migrant d'UNIX vers Linux, ce module peut être essentiel. De nombreuses applications plus anciennes nécessitent des paquetages qui ne sont plus disponibles avec la dernière version de SUSE Linux Enterprise Server. Ce module fournit ces paquetages. Il comprend des paquetages tels que sendmail, syslog-ng, IBM Java6 et plusieurs bibliothèques (par exemple, openssl-0.9.8).
- Module Public Cloud (Cloud public)
Le module Public Cloud est une collection d'outils pour créer et gérer des images de cloud public à partir de la ligne de commande. Lorsque vous créez vos propres images avec KIWI ou SUSE Studio, elles contiennent un code d'initialisation spécifique pour le cloud cible.
Le module Public Cloud contient quatre modèles :
Amazon–Web–Services (aws–cli, cloud–init)
Microsoft–Azure (WALinuxAgent)
Google–Cloud–Platform (gcimagebundle, google–api–python–client, google–cloud–sdk, google–daemon, google–startup–scripts)
OpenStack (OpenStack–heat–cfntools, cloud–init)
- Module SUSE Cloud Application Platform Tools
Le module SUSE Cloud Application Platform Tools est un ensemble d'outils qui vous permet d'interagir avec le produit SUSE Cloud Application Platform lui-même, notamment en fournissant le client de la ligne de commande.
Le module a un cycle de vie différent de celui de SUSE Linux Enterprise Server. Reportez-vous aux Notes de version pour plus de détails.
- Module Toolchain
Ce module offre aux développeurs de logiciels une chaîne d'outils actuelle composée de GNU Compiler Collection (GCC) et des paquetages associés, ainsi que des applications mises à jour, des améliorations, de nouvelles normes et des fonctions matérielles supplémentaire. Il permet aux développeurs de logiciels de tirer avantage des nouvelles fonctions de la version la plus récente de GCC ; il améliore la prise en charge des langues, de la plupart des modifications C++14, ainsi que de Fortran 2008 et 2015, et offre de nombreuses optimisations. Pour plus de détails, reportez-vous à la section https://gcc.gnu.org/gcc-5/changes.html.
- Module Web and Scripting
Le module Web and Scripting propose un ensemble complet de langages de script, de structures et d'outils connexes pour aider les développeurs et les administrateurs système à accélérer la création d'applications Web stables et modernes. Le module comprend les versions récentes de langages dynamiques, tels que PHP et Python. Si vous envisagez d'exécuter un serveur Web ou des applications hôtes qui possèdent des portails Web ou exigent des scripts côté serveur, le module Web and Scripting est indispensable.
14.2 Liste des extensions disponibles #
Les extensions fournissent des fonctionnalités avancées pour des tâches telles que l'application de correctifs à chaud et la mise en grappe haute disponibilité pour SUSE Linux Enterprise Server. Elles sont proposées sous forme d'abonnements et nécessitent une clé d'enregistrement payante. En règle générale, les extensions ont leurs propres de notes de version qui sont disponibles à l'adresse https://www.suse.com/releasenotes.
- High Availability
SUSE Linux Enterprise High Availability fournit des technologies de mise en grappe haute disponibilité Open Source matures et leaders du secteur, à la fois faciles à configurer et à utiliser. Cette extension peut être déployée dans des environnements physiques et/ou virtuels, et peut regrouper des serveurs physiques, des serveurs virtuels ou n'importe quelle combinaison des deux pour répondre aux besoins de votre entreprise.
La prise en charge de la haute disponibilité est incluse dans les abonnements pour SUSE Linux Enterprise Server for SAP Applications et SUSE Linux Enterprise Server for High performance Computing, et est également disponible sous forme d'extension pour SUSE Linux Enterprise Server.
- GEO Clustering for High Availability
Geo Clustering for SUSE Linux Enterprise High Availability Extension est un système de haute disponibilité Open Source de pointe conçu pour gérer les serveurs de clusters dans les centres de données partout dans le monde.
- Live Patching
Avec SUSE Linux Enterprise Live Patching, vous pouvez appliquer des correctifs de kernel essentiels sans arrêter votre système, ce qui réduit le besoin de temps hors service planifiés et augmente la disponibilité des services.
- Extension Workstation
L'extension Workstation étend les fonctionnalités de SUSE Linux Enterprise Server avec des paquetages de SUSE Linux Enterprise Desktop, tels que des bibliothèques et des applications de bureau supplémentaires. Elle permet de combiner les deux produits pour créer un poste de travail aux fonctionnalités complètes.
- Serveur SUSE Manager
SUSE Manager vous permet de gérer efficacement des systèmes Linux physiques, virtuels et basés sur le cloud. Il fournit des fonctionnalités automatisées et économiques de gestion de la configuration, des logiciels et des ressources, ainsi que de provisioning des systèmes.
- Proxy SUSE Manager
Les proxys SUSE Manager étendent les environnements SUSE Manager de grande taille et/ou géographiquement dispersés afin de diminuer la charge sur le serveur SUSE Manager, de réduire les besoins en bande passante et de fournir des mises à jour locales plus rapides.
- SUSE OpenStack Cloud 9
SUSE OpenStack Cloud est optimisé par OpenStack, le projet communautaire d'infrastructure cloud Open Source leader, et est fourni avec SUSE Linux Enterprise Server. Le produit est entièrement intégré à l'infrastructure de prise en charge et de maintenance SUSE. Il s'agit d'une solution idéale pour les clients souhaitant déployer un cloud avec des niveaux de stabilité et de support à l'échelle de l'entreprise.
- SUSE OpenStack Cloud Crowbar 9
SUSE OpenStack Cloud Crowbar est une solution logicielle Open Source qui dispose des fonctions fondamentales pour déployer et gérer une infrastructure cloud optimisée par OpenStack, le projet communautaire d'infrastructure cloud Open Source leader. Il gère les workloads et en assure le provisioning en toute transparence au sein d'un environnement cloud hétérogène de manière sécurisée, conforme et entièrement prise en charge.
14.3 Installation de modules et extensions à partir des canaux en ligne #
À partir de SUSE Linux Enterprise 12, SUSE Linux Enterprise Desktop n'est plus seulement disponible comme produit distinct, mais aussi en tant qu'extension Workstation pour SUSE Linux Enterprise Server. Si vous vous enregistrez auprès du SUSE Customer Center, l'extension Workstation est proposée à des fins d'installation. Son installation nécessite une clé d'enregistrement valide.
Pour effectuer la procédure suivante, vous devez enregistrer votre système auprès de SUSE Customer Center ou d'un serveur d'enregistrement local. Lors de l'enregistrement de votre système, vous verrez une liste d'extensions et de modules immédiatement après avoir terminé l'Étape 4 de la Section 20.8, « Enregistrement de votre système ». Dans ce cas, ignorez les étapes suivantes et passez à l'Étape 2.
Pour afficher les produits complémentaires déjà installés, démarrez YaST et sélectionnez
(Logiciels) (Produits complémentaires).Démarrez YaST et sélectionnez
(Logiciel) (Ajouter des modules ou extensions système).YaST se connecte au serveur d'enregistrement et affiche une liste des
.Note : extensions et modules disponiblesLa quantité de modules et d'extensions disponibles dépend du serveur d'enregistrement. Il se peut qu'un serveur d'enregistrement local ne propose que des dépôts de mises à jour sans aucune extension supplémentaire.
Note : cycles de vie des modulesLes dates de fin de cycle de vie des modules sont disponibles sur le site https://scc.suse.com/docs/lifecycle/sle/12/modules.
Cliquez sur une entrée pour en afficher la description.
Cochez les cases correspondant aux entrées que vous souhaitez installer.
Figure 14.1 : Installation des extensions de système #Cliquez sur
pour continuer.En fonction des dépôts à ajouter pour l'extension ou le module, vous pouvez être invité à importer la clé GPG du dépôt ou à accepter une licence.
Une fois les messages confirmés, YaST télécharge et analyse les métadonnées. Les dépôts correspondant aux extensions sélectionnées sont ajoutés à votre système ; aucune source d'installation supplémentaire n'est requise.
Au besoin, définissez les Section 13.4.2, « Gestion des propriétés des dépôts ».
du dépôt en suivant la procédure décrite à la
Livre blanc des Modules SUSE Linux Enterprise Server 12.
14.4 Installation d'extensions et de produits complémentaires tiers à partir d'un support #
En cas d'installation d'une extension ou d'un produit complémentaire à partir d'un support, vous pouvez sélectionner différents types de support : DVD/CD, périphériques de stockage de masse amovibles (comme des disques flash), une image ISO ou un répertoire local. Le support peut également être fourni par un serveur réseau ; via HTTP, FTP, NFS ou Samba, par exemple.
Démarrez YaST et sélectionnez
› . Vous pouvez également démarrer le module YaST à partir de la ligne de commande en entrant la commandesudo yast2 add-on
.La boîte de dialogue affiche un aperçu des produits complémentaires, modules et extensions déjà installés.
Figure 14.2 : Liste des produits complémentaires, modules et extensions installés #Sélectionnez
pour installer un nouveau produit complémentaire.Dans la boîte de dialogue
, sélectionnez l'option correspondant au type de support à partir duquel vous souhaitez l'installer :Figure 14.3 : Installation d'un produit complémentaire ou d'une extension #Pour analyser le réseau à la recherche des serveurs d'installation qui annoncent leurs services via SLP, sélectionnez
et cliquez ensuite sur .Pour ajouter un dépôt à partir d'un support amovible, sélectionnez l'option appropriée et insérez le support ou connectez le périphérique USB à la machine. Cliquez sur
pour démarrer l'installation.Pour la plupart des types de support, vous êtes invité à indiquer le chemin d'accès (ou URL) au support après avoir sélectionné l'option appropriée et cliqué sur
. Vous n'êtes pas obligé d'indiquer un . Si aucun nom n'est renseigné, YaST utilise l'URL ou le nom du produit comme nom pour le dépôt.
L'option
est activée par défaut. Si vous désactivez cette option, YaST téléchargera automatiquement les fichiers ultérieurement, si cela s'avère nécessaire.En fonction du dépôt que vous avez ajouté, vous pouvez être invité à importer la clé GPG de l'espace de stockage ou à accepter une licence.
Une fois les messages confirmés, YaST télécharge et analyse les métadonnées. Le logiciel ajoute alors le dépôt à la liste des
.Au besoin, définissez les Section 13.4.2, « Gestion des propriétés des dépôts ».
du dépôt en suivant la procédure décrite à laCliquez sur
pour confirmer vos modifications et fermer la boîte de dialogue de configuration.Après avoir ajouté avec succès le dépôt du produit complémentaire, le gestionnaire de logiciels démarre et vous pouvez installer les paquetages. Pour plus d'informations, reportez-vous au Chapitre 13, Installation et suppression de logiciels.
14.5 Kit SDK SUSE 12 SP5 #
Le kit de développement logiciel SUSE 12 SP5 est une extension pour SUSE Linux Enterprise 12 SP5. Il s'agit d'un ensemble d'outils permettant de développer des applications. En fait, pour fournir un système complet, le SDK SUSE 12 SP 5 inclut tous les outils Open Source utilisés pour créer le produit SUSE Linux Enterprise Server. De cette façon, si vous êtes un développeur, un éditeur de logiciels (ISV, Independent Software Vendor) ou un constructeur indépendant de matériel (IHV, Independent Hardware Vendor), vous disposez de tous les outils nécessaires pour acheminer les applications vers toutes les plates-formes prises en charge par SUSE Linux Enterprise Desktop et SUSE Linux Enterprise Server.
Le SDK SUSE ne nécessite pas de clé d'enregistrement et n'est pas couvert par les accords de support SUSE.
Le SDK SUSE contient également des environnements de développement intégrés (IDE), des débogueurs, des éditeurs de code et d'autres outils associés. Il prend en charge la plupart des langages de programmation, y compris C, C++, Java et la majorité des langages de script. Pour plus de facilité, le SDK SUSE comprend plusieurs paquetages Perl qui ne sont pas inclus dans SUSE Linux Enterprise.
L'extension SDK est disponible via un canal en ligne à partir du SUSE Customer Center. Vous pouvez également vous rendre sur le site http://download.suse.com/, rechercher SUSE Linux Enterprise Software Development Kit
et le télécharger à partir de là. Reportez-vous au Chapitre 14, Installation de modules, extensions et produits complémentaires tiers pour obtenir des informations détaillées.
14.6 SUSE Package Hub #
Dans la liste Available Extensions and Modules (Extensions et modules disponibles), vous trouverez SUSE Package Hub (concentrateur de paquetages SUSE). Il est disponible sans frais supplémentaires. Il fournit un grand nombre de paquetages supplémentaires mis à la disposition de la communauté pour SUSE Linux Enterprise qui peuvent être facilement installés, mais qui ne sont pas pour autant pris en charge par SUSE.
Pour plus d'informations sur SUSE Package Hub et comment y apporter votre contribution, consultez le site https://packagehub.suse.com/.
N'oubliez pas que les paquetages fournis dans le hub SUSE Package Hub ne sont pas officiellement pris en charge par SUSE. SUSE prend uniquement en charge l'activation du dépôt Package Hub et l'aide dans le cadre de l'installation ou du déploiement des paquetages RPM.
15 Installation de plusieurs versions du kernel #
SUSE Linux Enterprise Server prend en charge l'installation parallèle de plusieurs versions du kernel. Lorsque vous installez un deuxième kernel, une entrée de démarrage et un fichier initrd sont automatiquement créés. Aucune autre configuration manuelle n'est donc requise. Lorsque vous redémarrez la machine, le nouveau kernel est disponible sous la forme d'une option de démarrage supplémentaire.
Cette fonctionnalité vous permet de tester les mises à jour de kernel en toute sécurité, tout en ayant la possibilité de revenir au kernel opérationnel précédent. Pour ce faire, n'utilisez pas les outils de mise à jour (tels que YaST Online Update ou l'applet de mise à jour), mais suivez la procédure décrite dans ce chapitre.
Sachez que vous perdrez votre droit au support sur la machine en cas d'installation d'un kernel tiers ou auto-compilé. Seuls les kernels livrés avec SUSE Linux Enterprise Server et ceux distribués via les canaux de mise à jour officiels pour SUSE Linux Enterprise Server sont pris en charge.
Il est conseillé de vérifier la configuration de votre chargeur de démarrage après avoir installé un autre kernel afin de définir l'entrée de démarrage par défaut de votre choix. Pour plus d'informations, reportez-vous au Book “Administration Guide”, Chapter 13 “The Boot Loader GRUB 2”, Section 13.3 “Configuring the Boot Loader with YaST”.
15.1 Activation et configuration de la prise en charge de plusieurs versions #
L'installation de plusieurs versions d'un paquetage logiciel (prise en charge multiversion) est activée par défaut à partir de SUSE Linux Enterprise 12. Pour vérifier ce paramètre, procédez comme suit :
Ouvrez
/etc/zypp/zypp.conf
avec l'éditeur de votre choix en tant qu'utilisateurroot
.Recherchez la chaîne
multiversion
. Si la prise en charge multiversion est activée pour tous les paquetages de kernels disposant de cette fonction, la ligne suivante s'affiche, sans commentaire :multiversion = provides:multiversion(kernel)
Pour limiter cette prise en charge à certaines versions de kernel, ajoutez les noms de paquetage sous la forme d'une liste séparée par des virgules à l'option
multiversion
dans/etc/zypp/zypp.conf
. Par exemple :multiversion = kernel-default,kernel-default-base,kernel-source
Enregistrez vos modifications.
Assurez-vous que les modules de kernels requis (KMP) proposés par les fournisseurs sont également installés pour le kernel nouvellement mis à jour. Le processus de mise à jour de kernels ne signale pas les éventuels modules de kernels manquants car les conditions liées aux paquetages sont toujours remplies par l'ancien kernel conservé sur le système.
15.1.1 Suppression automatique des kernels inutilisés #
Lorsque vous testez fréquemment des nouveaux kernels sur lesquels la prise en charge de plusieurs versions est activée, il devient rapidement difficile de s'y retrouver dans le menu de démarrage. Dans la mesure où une partition /boot
dispose généralement d'un espace limité, des problèmes de débordement /boot
peuvent apparaître. Bien que vous puissiez supprimer manuellement les versions de kernel inutilisées à l'aide de YaST ou Zypper (comme décrit ci-dessous), vous pouvez également configurer libzypp
de manière à supprimer automatiquement les kernels qui ne sont plus utilisés. Par défaut, aucun kernel n'est supprimé.
Ouvrez
/etc/zypp/zypp.conf
avec l'éditeur de votre choix en tant qu'utilisateurroot
.Recherchez la chaîne
multiversion.kernels
et activez cette option en annulant la mise en commentaire de la ligne. Cette option adopte une liste des valeurs suivantes séparées par des virgules :4.4.126-48
: conserve le kernel avec le numéro de version spécifiélatest
: conserve le kernel ayant le numéro de version le plus élevélatest-N
: conserve le kernel ayant le Nième numéro de version le plus élevérunning
: conserve le kernel en cours d'exécutionoldest
: conserve le kernel ayant le numéro de version le plus petit (celui livré initialement avec SUSE Linux Enterprise Server)oldest+N
: conserve le kernel ayant le Nième numéro de version le plus petitEn voici quelques exemples
multiversion.kernels = latest,running
Conserve le kernel le plus récent et celui en cours d'exécution. Cela équivaut à désactiver la fonction « multiversion », si ce n'est que l'ancien kernel est supprimé après le redémarrage suivant, et non immédiatement après l'installation.
multiversion.kernels = latest,latest-1,running
Conserve les deux derniers kernels et celui en cours d'exécution.
multiversion.kernels = latest,running,4.4.126-48
Conserve le dernier kernel, celui en cours d'exécution et 4.4.126-48.
Astuce : maintien de l'exécution du kernelÀ moins d'utiliser une configuration spéciale, gardez toujours le kernel marqué comme en cours d'exécution (
running
).Si vous ne maintenez pas le kernel en cours d'exécution, il sera supprimé lors de sa mise à jour. Cela signifie qu'ensuite, tous les modules du kernel en cours d'exécution seront également supprimés et ne pourront plus être chargés.
Si vous décidez de ne pas maintenir le kernel en cours d'exécution, redémarrez toujours immédiatement après une mise à niveau du kernel pour éviter des problèmes avec les modules.
15.1.2 Cas d'utilisation : suppression d'un ancien kernel uniquement après le redémarrage #
Vous souhaitez être certain que l'ancien kernel ne sera supprimé qu'après avoir redémarré le système avec le nouveau kernel.
Remplacez la ligne suivante dans /etc/zypp/zypp.conf
:
multiversion.kernels = latest,running
Les paramètres précédents indiquent au système de ne conserver la dernière version du kernel et celle en cours d'exécution que si elles sont différentes.
15.1.3 Cas d'utilisation : conservation des anciens kernels comme solution de secours #
Vous souhaitez conserver une ou plusieurs versions de kernel afin d'en avoir un ou plusieurs « de rechange ».
Cela peut s'avérer utile si vous avez besoin de kernels à des fins de test. En cas de problème (si votre ordinateur ne démarre pas, par exemple), vous pouvez toujours utiliser une ou plusieurs versions de kernel valides connues.
Remplacez la ligne suivante dans /etc/zypp/zypp.conf
:
multiversion.kernels = latest,latest-1,latest-2,running
Lorsque vous redémarrez votre système après l'installation d'un nouveau kernel, le système conserve trois kernels : le kernel actuel (configuré en tant que latest,running
) et ses deux prédécesseurs immédiats (configurés en tant que latest-1
et latest-2
).
15.1.4 Cas d'utilisation : conservation d'une version de kernel spécifique #
Vous effectuez régulièrement des mises à jour système et installez de nouvelles versions de kernel. Toutefois, vous compilez également votre propre version du kernel et voulez être certain que le système les conserve.
Remplacez la ligne suivante dans /etc/zypp/zypp.conf
:
multiversion.kernels = latest,3.12.28-4.20,running
Lorsque vous redémarrez votre système après l'installation d'un nouveau kernel, le système conserve deux kernels : le nouveau kernel qui est celui en cours d'exécution (configuré en tant que latest,running
et celui compilé par vos soins (configuré en tant que 3.12.28-4.20
).
15.2 Installation/suppression de plusieurs versions de kernel avec YaST #
Démarrez YaST et ouvrez le gestionnaire de logiciels via
› .Dressez la liste de tous les paquetages capables de fournir plusieurs versions en sélectionnant
› › .Figure 15.1 : Gestionnaire de logiciels : affichage multiversion #Sélectionnez un paquetage et ouvrez l'onglet
correspondant dans le volet situé en bas à gauche.Pour installer un paquetage, cliquez sur la case à cocher en regard de celui-ci. Une coche verte indique que le paquetage est sélectionné pour être installé.
Pour supprimer un paquetage déjà installé (signalé par une coche blanche), cochez la case en regard de celui-ci jusqu'à ce qu'un
X
rouge indique qu'il a été sélectionné en vue de la suppression.Cliquez sur
pour démarrer l'installation.
15.3 Installation/suppression de plusieurs versions de kernel avec Zypper #
Utilisez la commande
zypper se -s 'kernel*'
pour afficher la liste de tous les paquetages de kernel disponibles :S | Name | Type | Version | Arch | Repository --+----------------+------------+-----------------+--------+------------------- v | kernel-default | package | 2.6.32.10-0.4.1 | x86_64 | Alternative Kernel i | kernel-default | package | 2.6.32.9-0.5.1 | x86_64 | (System Packages) | kernel-default | srcpackage | 2.6.32.10-0.4.1 | noarch | Alternative Kernel i | kernel-default | package | 2.6.32.9-0.5.1 | x86_64 | (System Packages) ...
Indiquez la version exacte lors de l'installation :
zypper in kernel-default-2.6.32.10-0.4.1
Lorsque vous désinstallez un kernel, utilisez les commandes
zypper se -si 'kernel*'
pour afficher la liste de tous les kernels installés etzypper rm
VERSION-NOM PAQUETAGE pour supprimer le paquetage.
16 Gestion des utilisateurs avec YaST #
Lors de l'installation, vous pouvez avoir créé un utilisateur local pour votre système. Le module
de YaST vous permet d'ajouter davantage d'utilisateurs ou de modifier des utilisateurs existants. Il vous permet également de configurer votre système afin d'authentifier les utilisateurs auprès d'un serveur réseau.16.1 Boîte de dialogue Gestion des utilisateurs et des groupes #
Pour gérer les utilisateurs et les groupes, démarrez YaST et cliquez sur sudo yast2 users &
.
Un ID utilisateur (UID) est attribué à chaque utilisateur à l'échelle du système. En dehors des utilisateurs qui peuvent se connecter à votre machine, il existe également plusieurs utilisateurs système destinés exclusivement à un usage interne. Chaque utilisateur est affecté à un ou plusieurs groupes. Comme pour les utilisateurs système, il existe également des groupes système destinés à un usage interne.
En fonction de l'ensemble d'utilisateurs que vous choisissez d'afficher et de modifier dans la boîte de dialogue (utilisateurs locaux, utilisateurs réseau, utilisateurs système), la fenêtre principale présente plusieurs onglets. Ces derniers vous permettent d'exécuter les tâches suivantes :
- Gestion des comptes utilisateur
À partir de l'onglet Section 16.2, « Gestion des comptes utilisateur ». Pour en savoir plus sur les options avancées, telles que l'application des stratégies de mot de passe, l'utilisation de répertoires privés codés ou la gestion des quotas de disque, reportez-vous à la Section 16.3, « Options supplémentaires des comptes utilisateur ».
, vous pouvez créer, modifier, supprimer ou désactiver temporairement les comptes utilisateur, comme décrit à la- Modification des paramètres par défaut
Les comptes utilisateur locaux sont créés en fonction des paramètres définis dans l'onglet Section 16.4, « Modification des paramètres par défaut des utilisateurs locaux ».
. Pour en savoir plus sur la modification de l'affectation aux groupes et le chemin d'accès par défaut ou les autorisations d'accès aux répertoires, reportez-vous à la- Affectation des utilisateurs à des groupes
Pour savoir comment modifier l'affectation d'utilisateurs individuels à des groupes, reportez-vous à la Section 16.5, « Affectation des utilisateurs à des groupes ».
- Gestion des groupes
L'onglet Section 16.6, « Gestion des groupes » pour obtenir des informations sur cette procédure.
vous permet d'ajouter, de modifier ou de supprimer des groupes existants. Reportez-vous à la- Modification de la méthode d'authentification des utilisateurs
Si votre machine est connectée à un réseau fournissant des méthodes d'authentification des utilisateurs, telles que NIS ou LDAP, vous pouvez choisir parmi plusieurs méthodes d'authentification dans l'onglet Section 16.7, « Modification de la méthode d'authentification des utilisateurs ».
. Pour plus d'informations, reportez-vous à la
Pour la gestion des utilisateurs et des groupes, la boîte de dialogue offre une fonctionnalité similaire. Vous pouvez facilement passer de la gestion des utilisateurs à celle des groupes en sélectionnant l'onglet approprié en haut de la boîte de dialogue.
Les options de filtre vous permettent de définir l'ensemble d'utilisateurs ou de groupes que vous souhaitez modifier : sous l'onglet
ou , cliquez sur pour afficher et modifier les utilisateurs ou les groupes en fonction de certaines catégories comme ou , par exemple (si vous faites partie d'un réseau utilisant LDAP). Les options › vous permettent également de définir et d'utiliser un filtre personnalisé.En fonction du filtre sélectionné, les options suivantes ne seront pas toutes accessibles dans la boîte de dialogue.
16.2 Gestion des comptes utilisateur #
YaST permet de créer, de modifier, de supprimer ou de désactiver temporairement des comptes utilisateur. Ne modifiez les comptes utilisateur que si vous êtes un utilisateur expérimenté ou un administrateur.
La propriété des fichiers est liée à l'ID de l'utilisateur, et non à son nom. Suite à la modification d'un ID utilisateur, les fichiers du répertoire privé de l'utilisateur appliquent automatiquement cette modification. Néanmoins, après une telle modification, l'utilisateur n'est plus propriétaire des fichiers qu'il a créés ailleurs que sur le système de fichiers, sauf si la propriété de ces fichiers a été modifiée manuellement.
La section suivante explique comment définir des comptes utilisateur par défaut. Pour plus d'options, reportez-vous à la Section 16.3, « Options supplémentaires des comptes utilisateur ».
Ouvrez la boîte de dialogue
dans YaST et cliquez sur l'onglet .Sélectionnez l'option
pour définir l'ensemble d'utilisateurs que vous souhaitez gérer. La boîte de dialogue répertorie les utilisateurs du système et les groupes auxquels ils appartiennent.Pour modifier les options d'un utilisateur existant, sélectionnez une entrée et cliquez sur
.Pour créer un nouveau compte utilisateur, cliquez sur
.Entrez les données de l'utilisateur appropriées dans le premier onglet, comme les paramètres
(utilisé pour se connecter) et . Ces données sont suffisantes pour créer un nouvel utilisateur. Si vous cliquez sur maintenant, le système affectera automatiquement un ID utilisateur et définira toutes les autres valeurs en fonction des paramètres par défaut.Activez l'option
si vous souhaitez qu'un quelconque type de notifications système soit diffusé dans la boîte aux lettres de cet utilisateur. Cette opération crée un alias de messagerie pour l'utilisateurroot
. L'utilisateur peut ainsi lire le message système sans devoir se connecter en tant qu'utilisateurroot
au préalable.Les messages envoyés par les services système sont stockés dans la boîte aux lettres locale
/var/spool/mail/
USERNAME, où USERNAME est le nom de connexion de l'utilisateur sélectionné. Pour lire les messages électroniques, vous pouvez utiliser la commandemail
.Pour modifier des détails supplémentaires comme l'ID ou le chemin d'accès au répertoire privé de l'utilisateur, sélectionnez l'onglet
.Si vous devez déplacer le répertoire privé d'un utilisateur existant, entrez le chemin d'accès au nouveau répertoire privé ici et transférez le contenu du répertoire actuel à l'aide de l'option
. Faute de quoi, le nouveau répertoire ne contiendra aucune donnée existante.Pour obliger les utilisateurs à modifier régulièrement leur mot de passe ou définir d'autres options de mot de passe, sélectionnez Section 16.3.2, « Applications des stratégies de mot de passe ».
et modifiez les options. Pour plus d'informations, reportez-vous à laUne fois toutes les options modifiées, cliquez sur
.Cliquez sur
pour fermer la boîte de dialogue de gestion et enregistrer les modifications. Un utilisateur qui vient d'être ajouté peut désormais se connecter au système à l'aide du nom de connexion et du mot de passe que vous avez créés.Pour enregistrer toutes les modifications sans quitter la boîte de dialogue
, vous pouvez également cliquer sur › .
Pour un nouvel utilisateur (local) d'ordinateur portable qui doit également s'intégrer à un environnement réseau dans lequel il possède déjà un ID utilisateur, il est utile de faire correspondre l'ID utilisateur (local) avec celui du réseau. Cela garantit que la propriété des fichiers créés par l'utilisateur « hors ligne » est identique à la propriété des fichiers qui auraient été créés directement sur le réseau.
Ouvrez la boîte de dialogue
dans YaST et cliquez sur l'onglet .Pour désactiver temporairement un compte utilisateur sans le supprimer, sélectionnez l'utilisateur dans la liste, puis cliquez sur
. Activez l'option . L'utilisateur ne peut pas se connecter à votre machine tant que vous n'avez pas réactivé le compte.Pour supprimer un compte utilisateur, sélectionnez un utilisateur dans la liste, puis cliquez sur
. Choisissez si vous souhaitez également supprimer le répertoire privé de cet utilisateur ou si vous préférez conserver les données qu'il contient.
16.3 Options supplémentaires des comptes utilisateur #
En plus des paramètres d'un compte utilisateur par défaut, SUSE® Linux Enterprise Server propose des options supplémentaires, telles que l'application de stratégies de mot de passe, l'utilisation de répertoires privés codés ou la définition de quotas de disque pour les utilisateurs et les groupes.
16.3.1 Connexion automatique et connexion sans mot de passe #
Si vous utilisez un environnement de bureau GNOME, vous pouvez configurer une connexion automatique (Auto Login) pour un utilisateur spécifique, ainsi qu'une Connexion sans mot de passe pour tous les utilisateurs. La fonction de connexion automatique connecte automatiquement l'utilisateur à l'environnement du bureau au démarrage de l'ordinateur. Cette fonctionnalité ne peut être activée que pour un utilisateur à la fois. Avec la connexion sans mot de passe, tous les utilisateurs peuvent se connecter au système après avoir saisi leur nom d'utilisateur dans le gestionnaire de connexion.
L'activation des options Connexion automatique ou Connexion sans mot de passe sur une machine à laquelle plusieurs personnes peuvent accéder présente un risque de sécurité. Si les utilisateurs n'ont pas besoin de s'authentifier, ils pourront accéder à votre système et à vos données. Si votre système contient des données confidentielles, n'utilisez pas cette fonctionnalité.
Pour activer les options de connexion automatique ou de connexion sans mot de passe, accédez à la section
dans YaST, puis sélectionnez (Options avancées) (Paramètres de login).16.3.2 Applications des stratégies de mot de passe #
Sur tout système comportant plusieurs utilisateurs, il est judicieux d'appliquer au moins des stratégies de base en matière de sécurité des mots de passe. Les utilisateurs doivent modifier leurs mots de passe régulièrement et utiliser des mots de passe forts qui ne peuvent pas être exploités facilement. Pour les utilisateurs locaux, procédez comme suit :
Ouvrez la boîte de dialogue
dans YaST, puis sélectionnez l'ongletSélectionnez l'utilisateur pour lequel vous souhaitez modifier les options du mot de passe, puis cliquez sur
.Sélectionnez l'onglet
. La modification du dernier mot de passe de l'utilisateur s'affiche sur l'onglet.Pour que l'utilisateur modifie son mot de passe à sa prochaine connexion, sélectionnez
.Pour obliger les utilisateurs à modifier leur mot de passe, renseignez les paramètres
et .Pour rappeler à l'utilisateur de modifier son mot de passe avant qu'il n'expire, définissez un nombre comme
.Pour limiter la période durant laquelle l'utilisateur peut continuer de se connecter après l'expiration de son mot de passe, modifiez la valeur du paramètre
.Vous pouvez également spécifier une date d'expiration particulière pour le compte. Renseignez le paramètre
au format AAAA-MM-JJ. Notez que ce paramètre n'est pas lié au mot de passe, mais plutôt au compte proprement dit.Pour plus d'informations sur les options et les valeurs par défaut, cliquez sur
.Cliquez sur
pour appliquer vos modifications.
16.3.3 Gestion des répertoires privés codés #
Pour protéger les données des répertoires privés contre le vol et la suppression du disque dur, vous pouvez créer des répertoires privés codés pour les utilisateurs. Ceux-ci sont codés avec LUKS (Linux Unified Key Setup), qui génère une image et une clé d'image pour l'utilisateur. La clé d'image est protégée par le mot de passe de connexion de l'utilisateur. Lorsque l'utilisateur se connecte au système, son répertoire privé codé est monté et l'utilisateur peut accéder à son contenu.
YaST vous permet de créer des répertoires privés codés pour les utilisateurs nouveaux et existants. Pour coder ou modifier les répertoires privés codés d'utilisateurs existants, vous devez connaître leur mot de passe de connexion actuel. Par défaut, toutes les données des utilisateurs existants sont copiées sur le nouveau répertoire privé codé, mais ne sont pas supprimées du répertoire non codé.
Le codage du répertoire privé d'un utilisateur n'offre pas une sécurité élevée par rapport aux autres utilisateurs. Si un niveau de sécurité élevé est requis, le système ne doit pas être physiquement partagé.
Pour plus d'informations sur les répertoires privés codés et les actions à entreprendre pour augmenter la sécurité, reportez-vous au Book “Security and Hardening Guide”, Chapter 12 “Encrypting Partitions and Files”, Section 12.2 “Using Encrypted Home Directories”.
Ouvrez la boîte de dialogue
dans YaST, puis cliquez sur l'onglet .Pour coder le répertoire privé d'un utilisateur existant, sélectionnez l'utilisateur, puis cliquez sur
.Vous pouvez également cliquer sur
pour créer un nouveau compte utilisateur et entrer les données de l'utilisateur appropriées dans le premier onglet.Dans l'onglet
, sélectionnez . L'option vous permet de spécifier la taille du fichier image codé à créer pour cet utilisateur.Cliquez sur
pour appliquer vos paramètres.Entrez le mot de passe actuel de connexion de l'utilisateur si YaST vous y invite.
Cliquez sur
pour fermer la boîte de dialogue de gestion et enregistrer les modifications.Pour enregistrer toutes les modifications sans quitter la boîte de dialogue
, vous pouvez également cliquer sur › .
Évidemment, vous pouvez également désactiver le codage d'un répertoire privé ou modifier la taille du fichier image à tout moment.
Ouvrez la boîte de dialogue
dans YaST, puis sélectionnez la vue .Sélectionnez un utilisateur dans la liste, puis cliquez sur
.Pour désactiver le chiffrement, accédez à l'onglet
et désactivez l'option (Utiliser un répertoire personnel chiffré).Si vous souhaitez agrandir ou diminuer la taille du fichier image codé pour cet utilisateur, modifiez le paramètre
.Cliquez sur
pour appliquer vos paramètres.Entrez le mot de passe actuel de connexion de l'utilisateur si YaST vous y invite.
Cliquez sur
pour fermer la boîte de dialogue de gestion et enregistrer les modifications.Pour enregistrer toutes les modifications sans quitter la boîte de dialogue
, vous pouvez également cliquer sur › .
16.3.4 Gestion des quotas #
Pour éviter l'épuisement des capacités du système sans notification, les administrateurs peuvent définir des quotas pour les utilisateurs et les groupes. Les quotas peuvent être définis pour un ou plusieurs systèmes de fichiers et restreindre la quantité d'espace disque pouvant être utilisée et le nombre d'inodes (index nodes - nœuds d'index) pouvant être créés ici. Les inodes sont des structures de données sur un système de fichiers qui stockent des informations de base sur un fichier ordinaire, un répertoire ou un autre objet du système de fichiers. Ils stockent tous les attributs d'un objet du système de fichiers (comme la propriété des utilisateurs et des groupes, les autorisations de lecture, d'écriture ou d'exécution), à l'exception du nom et du contenu du fichier.
SUSE Linux Enterprise Server permet l'utilisation de quotas souples
et stricts
. En outre, il est possible de définir des intervalles bonus qui permettent aux utilisateurs ou aux groupes de dépasser temporairement leur quota, sous certaines limites.
- Quotas souples
Définit un niveau d'avertissement qui, lorsqu'il est atteint, avertit les utilisateurs qu'ils approchent de la limite. Les administrateurs invitent les utilisateurs à nettoyer et à réduire leurs données sur la partition. La limite de quota souple est généralement inférieure à la limite de quota ferme.
- Quota ferme
Définit la limite à partir de laquelle les demandes d'écriture sont refusées. Lorsque le quota ferme est atteint, plus aucune donnée supplémentaire ne peut être stockée et les applications peuvent se bloquer.
- Période bonus
Définit l'intervalle de temps entre le dépassement des quotas souples et l'envoi d'un avertissement. Elle est généralement définie sur une valeur relativement faible : une ou plusieurs heures.
Pour configurer des quotas pour certains utilisateurs et groupes, vous devez commencer par activer la prise en charge des quotas pour la partition concernée dans l'outil de partitionnement en mode expert de YaST.
Les quotas des partitions Btrfs sont traités différemment. Pour plus d'informations, reportez-vous au Book “Storage Administration Guide”, Chapter 1 “Overview of File Systems in Linux”, Section 1.2.5 “Btrfs Quota Support for Subvolumes”.
Dans YaST, sélectionnez
› , puis cliquez sur pour poursuivre.Dans le
, sélectionnez la partition pour laquelle vous souhaitez activer les quotas, puis cliquez sur .Cliquez sur
et activez l'option . Si le paquetagequota
n'est pas déjà installé, il le sera une fois que vous aurez confirmé le message approprié en cliquant sur .Confirmez vos modifications et quittez le
.Vérifiez que le service
quotaon
est en cours d'exécution en entrant la commande suivante :systemctl status quotaon
Il doit être marqué comme étant actif (
active
). À défaut, démarrez-le à l'aide de la commandesystemctl start quotaon
.
Vous pouvez désormais définir des quotas souples ou stricts pour des utilisateurs ou des groupes spécifiques, ainsi que des délais sous forme d'intervalles bonus.
Dans la section
de YaST, sélectionnez l'utilisateur ou le groupe pour lequel vous souhaitez définir les quotas, puis cliquez sur .Dans l'onglet
, sélectionnez l'entrée , puis cliquez sur pour ouvrir la boîte de dialogue .Dans
, sélectionnez la partition à laquelle vous souhaitez appliquer le quota.Sous
, limitez la quantité d'espace disque. Entrez le nombre de blocs de 1 Go que l'utilisateur ou le groupe peut avoir sur cette partition. Spécifiez une valeur pour les champs et .Par ailleurs, vous pouvez limiter le nombre d'inodes que l'utilisateur ou le groupe peut avoir sur cette partition. Sous
, entrez les valeurs des champs et .Vous ne pouvez définir des intervalles bonus que si l'utilisateur ou le groupe a déjà dépassé la limite douce de taille ou d'inodes spécifiée. Dans le cas contraire, les zones de texte relatives au délai ne seront pas activées. Spécifiez le délai pendant lequel l'utilisateur ou le groupe est autorisé à dépasser les limites définies ci-dessus.
Cliquez sur
pour confirmer vos paramètres.Cliquez sur
pour fermer la boîte de dialogue de gestion et enregistrer les modifications.Pour enregistrer toutes les modifications sans quitter la boîte de dialogue
, vous pouvez également cliquer sur › .
SUSE Linux Enterprise Server fournit également des outils de ligne de commande comme repquota
ou warnquota
. Les administrateurs système peuvent utiliser ces outils pour contrôler l'utilisation du disque ou envoyer des notifications par courrier électronique aux utilisateurs dépassant leur quota. À l'aide de quota_nld
, les administrateurs peuvent également transmettre à D-BUS les messages du kernel relatifs aux quotas dépassés. Pour plus d'informations, reportez-vous aux pages du manuel repquota
, warnquota
et quota_nld
.
16.4 Modification des paramètres par défaut des utilisateurs locaux #
Lorsque vous créez de nouveaux utilisateurs locaux, certains paramètres par défaut sont utilisés par YaST. Ces paramètres incluent par exemple le groupe principal et les groupes secondaires auxquels appartient l'utilisateur ou les autorisations d'accès au répertoire privé de l'utilisateur. Vous pouvez modifier ces paramètres par défaut selon vos besoins :
Ouvrez la boîte de dialogue
dans YaST et sélectionnez l'onglet .Pour modifier le groupe principal auquel les nouveaux utilisateurs doivent automatiquement appartenir, sélectionnez un autre groupe dans
.Pour modifier les groupes secondaires des nouveaux utilisateurs, ajoutez ou changez les groupes dans
. Les noms des groupes doivent être séparés par des virgules.Si vous ne voulez pas utiliser
/home/USERNAME
comme chemin d'accès par défaut aux répertoires personnels des nouveaux utilisateurs, modifiez le paramètre (Préfixe du chemin d'accès pour le répertoire personnel).Pour modifier les répertoires privés récemment créés, changez la valeur umask dans Book “Security and Hardening Guide”, Chapter 11 “Access Control Lists in Linux” et à la page de manuel
. Pour plus d'informations sur la valeur umask, reportez-vous auumask
.Pour obtenir des informations sur les options individuelles, cliquez sur
.Cliquez sur
pour appliquer vos modifications.
16.5 Affectation des utilisateurs à des groupes #
Les utilisateurs locaux sont affectés à plusieurs groupes en fonction des paramètres par défaut accessibles depuis la boîte de dialogue Section 16.4, « Modification des paramètres par défaut des utilisateurs locaux ».
, dans l'onglet . La section suivante explique comment modifier l'affectation d'un utilisateur individuel à un groupe. Si vous devez modifier les affectations aux groupes par défaut pour les nouveaux utilisateurs, reportez-vous à laOuvrez la boîte de dialogue
dans YaST et cliquez sur l'onglet . Il répertorie les utilisateurs et les groupes auxquels les utilisateurs appartiennent.Cliquez sur
et sélectionnez l'onglet .Pour modifier le groupe principal auquel l'utilisateur appartient, cliquez sur
et sélectionnez le groupe dans la liste.Pour affecter l'utilisateur à des groupes secondaires supplémentaires, cochez les cases correspondantes dans la liste
.Cliquez sur
pour appliquer vos modifications.Cliquez sur
pour fermer la boîte de dialogue de gestion et enregistrer les modifications.Pour enregistrer toutes les modifications sans quitter la boîte de dialogue
, vous pouvez également cliquer sur › .
16.6 Gestion des groupes #
Avec YaST, vous pouvez également ajouter, modifier ou supprimer des groupes en toute simplicité.
Ouvrez la boîte de dialogue
dans YaST, puis cliquez sur l'onglet .L'option
permet de définir l'ensemble de groupes que vous souhaitez gérer. La boîte de dialogue répertorie les groupes contenus sur le système.Pour créer un nouveau groupe, cliquez sur
.Pour modifier un groupe existant, sélectionnez-le et cliquez sur
.Vous pouvez entrer ou modifier les données dans la boîte de dialogue suivante. La liste de droite présente un aperçu de tous les utilisateurs et utilisateurs système disponibles qui peuvent être membres du groupe.
Pour ajouter des utilisateurs existants au nouveau groupe, sélectionnez-les dans la liste
en cochant la case correspondante. Décochez la case pour les supprimer du groupe.Cliquez sur
pour appliquer vos modifications.Cliquez sur
pour fermer la boîte de dialogue de gestion et enregistrer les modifications.Pour enregistrer toutes les modifications sans quitter la boîte de dialogue
, vous pouvez également cliquer sur › .
Pour pouvoir supprimer un groupe, celui-ci ne doit contenir aucun membre. Pour supprimer un groupe, sélectionnez-le dans la liste, puis cliquez sur
. Cliquez sur pour fermer la boîte de dialogue de gestion et enregistrer les modifications. Pour enregistrer toutes les modifications sans quitter la boîte de dialogue , vous pouvez également cliquer sur › .16.7 Modification de la méthode d'authentification des utilisateurs #
Si votre machine est connectée à un réseau, vous pouvez modifier la méthode d'authentification. Les options suivantes sont disponibles :
- NIS
Les utilisateurs sont gérés de façon centralisée sur un serveur NIS, pour tous les systèmes membres du réseau. Pour plus de détails, reportez-vous au Book “Security and Hardening Guide”, Chapter 3 “Using NIS”.
- SSSD
Le service System Security Services Daemon (SSSD) peut localement mettre en cache les données utilisateur, puis autoriser les utilisateurs à utiliser les données même si le service d'annuaire réel est (temporairement) inaccessible. Pour plus de détails, reportez-vous au Book “Security and Hardening Guide”, Chapter 4 “Setting Up Authentication Servers and Clients Using YaST”, Section 4.3 “SSSD”.
- Samba
L'authentification SMB est souvent employée dans les réseaux mixtes Linux et Windows. Pour plus de détails, reportez-vous au Book “Administration Guide”, Chapter 30 “Samba”.
Pour modifier la méthode d'authentification, procédez comme suit :
Ouvrez la boîte de dialogue
dans YaST.Cliquez sur l'onglet
pour afficher un aperçu des méthodes d'authentification disponibles et des paramètres actuels.Pour changer de méthode d'authentification, cliquez sur
et sélectionnez la méthode d'authentification que vous souhaitez modifier. Cela vous permet d'accéder directement aux modules YaST relatifs à la configuration des clients. Pour plus d'informations sur la configuration du client approprié, reportez-vous aux sections suivantes :NIS : Book “Security and Hardening Guide”, Chapter 3 “Using NIS”, Section 3.2 “Configuring NIS Clients”
LDAP : Book “Security and Hardening Guide”, Chapter 4 “Setting Up Authentication Servers and Clients Using YaST”, Section 4.2 “Configuring an Authentication Client with YaST”
Samba : Book “Administration Guide”, Chapter 30 “Samba”, Section 30.5.1 “Configuring a Samba Client with YaST”
Après avoir accepté la configuration, revenez à l'aperçu
.Cliquez sur
pour fermer la boîte de dialogue de gestion.
17 Modification des paramètres de langue et de pays avec YaST #
Si vous travaillez dans différents pays ou dans un environnement multilingue, votre ordinateur nécessite une configuration spécifique. SUSE® Linux Enterprise Server peut gérer différents paramètres locaux
en parallèle. Un paramètre local est un ensemble de paramètres qui définit les paramètres de langue et de pays utilisés dans l'interface utilisateur.
La langue principale du système a été sélectionnée au cours de l'installation et les paramètres du clavier et du fuseau horaire ont été modifiés. Toutefois, vous pouvez installer des langues supplémentaires sur votre système et déterminer les langues installées à utiliser par défaut.
Pour ce faire, utilisez le module YaST relatif aux langues, comme indiqué à la Section 17.1, « Modification de la langue du système ». Installez des langues secondaires pour obtenir des localisations facultatives si vous devez démarrer des applications ou des bureaux dans des langues autres que la langue principale.
En dehors de cela, le module YaST relatif au fuseau horaire vous permet de régler les paramètres de pays et de fuseau de votre ordinateur de façon appropriée. Il permet également de synchroniser l'horloge de votre système par rapport au serveur horaire. Pour plus d'informations, reportez-vous à la Section 17.2, « Modifications des paramètres du pays et de l'heure ».
17.1 Modification de la langue du système #
Selon la façon dont vous utilisez votre bureau et si vous souhaitez faire basculer l'intégralité du système vers une autre langue, ou uniquement l'environnement du bureau, plusieurs possibilités s'offrent à vous :
- Modification globale de la langue du système
Procédez comme indiqué à la Section 17.1.1, « Modification des langues système avec YaST » et à la Section 17.1.2, « Modification de la langue système par défaut » pour installer des paquetages localisés supplémentaires avec YaST et définir la langue par défaut. Les modifications seront prises en compte lors de votre prochaine connexion. Pour vous assurer que les modifications ont été appliquées dans tout le système, redémarrez ce dernier ou fermez, puis redémarrez tous les services, applications et programmes en cours d'exécution.
- Modification de la langue du bureau uniquement
Si vous avez déjà installé les paquetages de langue souhaités pour votre environnement de bureau avec YaST, comme décrit ci-dessous, vous pouvez changer la langue de votre bureau à l'aide du centre de contrôle du bureau. Après le redémarrage du serveur X, l'ensemble du bureau s'affiche dans la nouvelle langue. Les applications qui ne font pas partie de l'environnement de votre bureau ne sont pas affectées par cette modification et peuvent toujours apparaître dans la langue définie dans YaST.
- Modification temporaire de la langue dans une seule application
Vous pouvez définir une seule application dans une autre langue (qui a déjà été installée avec YaST). Pour ce faire, démarrez l'application depuis la ligne de commande en spécifiant le code de langue, comme décrit dans la Section 17.1.3, « Changement de langue pour les applications Standard X et GNOME ».
17.1.1 Modification des langues système avec YaST #
YaST distingue deux catégories de langues :
- Langue principale
La langue principale définie dans YaST s'applique à l'ensemble du système, y compris YaST et l'environnement de bureau. Cette langue est utilisée lorsqu'elle est disponible, sauf si vous spécifiez une autre langue.
- Langues secondaires
Installez des langues secondaires pour transformer votre système en système multilingue. Les langues secondaires installées peuvent être sélectionnées manuellement pour une situation spécifique. Vous pouvez ainsi utiliser une langue secondaire pour démarrer une application dans une certaine langue, par exemple pour effectuer du traitement de texte dans cette langue.
Avant d'installer des langues supplémentaires, déterminez celle qui sera utilisée par défaut par le système (langue principale).
Pour accéder au module YaST relatif aux langues, démarrez YaST et cliquez sur sudo yast2 language &
.
Lors de l'installation de langues supplémentaires, YaST permet également de définir des paramètres locaux différents pour l'utilisateur root
(voir Étape 4). L'option détermine la façon dont les variables locales (LC_*
) du fichier /etc/sysconfig/language
sont définies pour l'utilisateur root
. Vous pouvez soit les définir sur le même paramètre local que pour les utilisateurs normaux, et aucune modification de langue ne les affectera, soit définir uniquement la variable RC_LC_CTYPE
sur les mêmes valeurs que pour les utilisateurs normaux. Cette variable définit l'emplacement des appels de fonction spécifiques aux langues.
Pour ajouter des langues dans le module YaST relatif aux langues, sélectionnez les
que vous souhaitez installer.Pour définir une langue en tant que langue par défaut, définissez-la en tant que
.En outre, adaptez le clavier pour la nouvelle langue principale, ainsi que le fuseau horaire, le cas échéant.
Astuce : paramètres avancésPour accéder aux options avancées du clavier ou du fuseau horaire, sélectionnez Section 11.1, « Configuration de la disposition de votre clavier système » et à la Section 17.2, « Modifications des paramètres du pays et de l'heure ».
› ou › dans YaST pour ouvrir les boîtes de dialogue correspondantes. Pour plus d'informations, reportez-vous à laPour modifier les paramètres de langue spécifiques à l'utilisateur
root
, cliquez sur .Définissez
sur la valeur souhaitée. Pour plus d'informations, cliquez sur .Décidez si vous souhaitez ou non
pour l'utilisateurroot
.
Si votre paramètre local n'a pas été inclus dans la liste des langues principales disponibles, essayez de le spécifier à l'aide de l'option
. Toutefois, certaines localisations peuvent être incomplètes.Confirmez vos modifications en cliquant sur
dans les boîtes de dialogue. Si vous avez sélectionné des langues secondaires, YaST installe les paquetages logiciels localisés des langues supplémentaires.
Votre système est désormais multilingue. Cependant, pour démarrer une application dans une langue autre que la langue principale, vous devez définir explicitement la langue souhaitée, comme expliqué dans la Section 17.1.3, « Changement de langue pour les applications Standard X et GNOME ».
17.1.2 Modification de la langue système par défaut #
Pour modifier globalement la langue système par défaut, démarrez le module YaST relatif aux langues.
Sélectionnez la langue de votre choix en tant que
.Important : suppression des anciennes langues systèmeSi vous basculez vers une autre langue principale, les paquetages logiciels localisés de l'ancienne langue principale seront supprimés du système. Pour modifier la langue du système par défaut tout en conservant l'ancienne langue principale en tant que langue supplémentaire, ajoutez-la en tant que
en cochant la case correspondante.Modifiez les options du clavier et du fuseau horaire si nécessaire.
Confirmez vos modifications en cliquant sur
.Une fois que YaST a appliqué les modifications, redémarrez les sessions X en cours (par exemple, en vous déconnectant, puis en vous reconnectant) pour que YaST et les applications du bureau s'affichent dans la nouvelle langue.
17.1.3 Changement de langue pour les applications Standard X et GNOME #
Après avoir installé la langue de votre choix avec YaST, vous pouvez exécuter une application dans une autre langue.
Lancez l'application en utilisant la commande suivante :
LANG=LANGUAGE application
Par exemple, pour démarrer f-spot en allemand, exécutez LANG=de_DE f-spot
. Pour les autres langues, utilisez le code de langue approprié. Pour obtenir une liste de tous les codes de langues disponibles, exécutez la commande locale
-av
.
17.2 Modifications des paramètres du pays et de l'heure #
À l'aide du module YaST relatif à la date et à l'heure, réglez la date, l'heure et les informations du fuseau horaire de votre système en fonction de la région dans laquelle vous travaillez. Pour accéder au module YaST, démarrez YaST et cliquez sur sudo yast2 timezone &
.
Commencez par sélectionner une région générale, comme l'
. Sélectionnez le pays dans lequel vous travaillez, par exemple, l' .En fonction des systèmes d'exploitation exécutés sur votre poste de travail, réglez les paramètres de l'horloge matérielle de façon appropriée :
Si un autre système d'exploitation est exécuté sur votre machine, par exemple Microsoft Windows*, il est probable que votre système utilise l'heure locale plutôt que l'heure UTC. Si tel est le cas, désactivez
.Si seul Linux est exécuté sur votre machine, définissez l'horloge matérielle sur UTC et demandez que le changement entre heure standard et heure d'été se fasse automatiquement.
Le passage de l'heure standard à l'heure d'été (et inversement) ne peut être effectué automatiquement que si l'horloge matérielle (horloge CMOS) est réglée sur UTC. Cela s'applique également si vous utilisez la synchronisation horaire automatique avec NTP. En effet, la synchronisation automatique n'est effectuée que si la différence d'heure entre l'horloge matérielle et l'horloge système est inférieure à 15 minutes.
Étant donné qu'une heure incorrecte sur le système peut provoquer de sérieux problèmes (sauvegardes non effectuées, perte de messages électroniques, échecs de montage sur des systèmes de fichiers distants, etc.), il est vivement conseillé de toujours régler l'horloge matérielle sur UTC.
Vous pouvez modifier la date et l'heure manuellement ou opter pour la synchronisation de votre machine avec un serveur NTP, en permanence ou simplement pour régler votre horloge matérielle.
Dans le module YaST relatif au fuseau horaire, cliquez sur
pour régler la date et l'heure.Sélectionnez
et saisissez les valeurs de date et d'heure.Confirmez vos modifications.
Cliquez sur
pour régler la date et l'heure.Sélectionnez
.Entrez l'adresse d'un serveur NTP si elle n'est pas prédéfinie.
Cliquez sur
pour que l'heure de votre système soit correctement définie.Pour utiliser NTP en permanence, cochez la case
.Le bouton Book “Administration Guide”, Chapter 26 “Time Synchronization with NTP”, Section 26.1 “Configuring an NTP Client with YaST”.
vous permet d'accéder à la configuration avancée du serveur NTP. Pour plus de détails, reportez-vous auConfirmez vos modifications.
Partie VI Mise à jour et mise à niveau de SUSE Linux Enterprise #
- 18 Cycle de vie et support
Ce chapitre fournit des informations générales sur la terminologie, les versions de Service Pack et les cycles de vie des produits SUSE, ainsi que sur les stratégies de mise à niveau recommandées.
- 19 Mise à niveau de SUSE Linux Enterprise
SUSE® Linux Enterprise (SLE) permet de mettre à niveau un système existant vers la nouvelle version. Aucune installation nouvelle n'est requise. Les données existantes, telles que les répertoires privés et de données, ainsi que la configuration du système, sont conservées. Vous pouvez effectuer la mise à jour à partir d'un lecteur de CD ou de DVD local ou à partir d'une source d'installation réseau centrale.
Ce chapitre explique comment effectuer une mise à niveau manuelle de votre système SUSE Linux Enterprise, que ce soit à partir d'un DVD, du réseau, d'un processus automatisé ou de SUSE Manager.
- 20 Mise à niveau en mode hors ligne
Ce chapitre décrit la procédure de mise à niveau d'une installation SUSE Linux Enterprise existante à l'aide de YaST, qui est démarré à partir d'un support d'installation. Le programme d'installation de YaST peut, par exemple, être démarré à partir d'un DVD, du réseau ou du disque dur qui héberge le système.
- 21 Mise à niveau en ligne
SUSE offre un outil graphique intuitif et un outil de ligne de commande simple pour effectuer la mise à niveau d'un système en cours d'exécution vers un nouveau Service Pack. Ces outils permettent un « retour à l'état initial » des Service Packs et bien plus encore. Ce chapitre explique comment effectuer une mise à niveau de Service Pack étape par étape à l'aide de ces outils.
- 22 Code source du rétroportage
SUSE fait un usage intensif du rétroportage, par exemple, pour la migration des fonctions et correctifs logiciels actuels vers les paquetages publiés de SUSE Linux Enterprise. Les informations de ce chapitre expliquent en quoi comparer les numéros de version peut s'avérer trompeur dans le cadre de l'évaluation des fonctionnalités et de la sécurité des paquetages logiciels SUSE Linux Enterprise. Ce chapitre explique également comment SUSE préserve la sécurité des logiciels système et vous permet de disposer en permanence de la version la plus récente, tout en gérant la compatibilité de vos applications en plus des produits SUSE Linux Enterprise. Vous découvrirez également comment vérifier les solutions proposées réellement par le logiciel SUSE Linux Enterprise pour remédier aux problèmes de sécurité publics, ou encore comment vérifier l'état actuel de vos logiciels.
18 Cycle de vie et support #
Ce chapitre fournit des informations générales sur la terminologie, les versions de Service Pack et les cycles de vie des produits SUSE, ainsi que sur les stratégies de mise à niveau recommandées.
18.1 Terminologie #
Différents termes sont employés dans cette section. Afin de bien comprendre les informations, lisez les définitions ci-après :
- Rétroportage
Le rétroportage consiste à adapter une modification développée pour une nouvelle version d'un logiciel afin d'en faire bénéficier une version plus ancienne. Le cas le plus courant porte sur la correction des failles de sécurité dans les composants logiciels plus anciens. En règle générale, le rétroportage fait également partie d'un modèle de maintenance visant à fournir des améliorations ou (plus rarement) de nouvelles fonctionnalités.
- deltarpm
Un deltarpm se compose uniquement des différentiels binaires compris entre deux versions définies d'un paquetage. Il a donc la taille de téléchargement la plus petite. Avant son installation, l'intégralité du paquetage RPM est reconstruit sur la machine locale.
- Downstream (En aval)
Ce terme est une métaphore utilisée pour qualifier le développement de logiciels dans le monde Open Source (à comparer à Upstream (En amont). Le terme Downstream désigne des personnes ou des entreprises, telles que SUSE, qui intègrent le code source (en amont) dans d'autres logiciels afin de créer une distribution qui sera ensuite utilisée par des utilisateurs finaux. Le flux logiciel s'écoule donc des développeurs vers les utilisateurs finaux en passant pas les intégrateurs.
- Extensions, Produits complémentaires
Les extensions et produits complémentaires tiers apportent une plus-value au produit SUSE Linux Enterprise Server ou des fonctionnalités supplémentaires. Ils sont fournis par SUSE et ses partenaires, et sont enregistrés et installés en plus du produit de base SUSE Linux Enterprise Server.
- LTSS
LTSS est l'abréviation de Long Term Service Pack Support, qui est disponible en tant qu'extension de SUSE Linux Enterprise Server.
- Version majeure, Version de disponibilité générale (GA)
La version majeure de SUSE Linux Enterprise (ou de tout produit logiciel) est une nouvelle version qui offre de nouveaux outils et fonctionnalités, met hors service les anciens composants obsolètes et s'accompagne de modifications non rétrocompatibles. Par exemple, SUSE Linux Enterprise 11 ou 12 sont des versions majeures.
- Migration
Méthode qui consiste à mettre à jour un Service Pack (SP) en utilisant les outils de mise à jour en ligne ou un support d'installation pour installer les correctifs correspondants. Elle met à jour tous les paquetages du système installé vers l'état le plus récent.
- Cibles de migration
Ensemble de produits compatibles vers lequel un système peut être migré. Il contient la version des produits/extensions et l'URL du dépôt. Les cibles de migration peuvent évoluer au fil du temps et dépendent des extensions installées. Plusieurs cibles de migration peuvent être sélectionnées, par exemple SLE 12 SP2 et SES2 ou SLE 12 SP2 et SES3.
- modules
Les modules sont des composants de SUSE Linux Enterprise Server bénéficiant d'une prise en charge complète, avec un cycle de vie différent. Ils présentent une étendue clairement définie et sont distribués uniquement via un canal en ligne. Vous devez être enregistré auprès du SUSE Customer Center, SMT (Subscription Management Tool) ou SUSE Manager pour pouvoir vous abonner à ces canaux.
- Paquetage
Un paquetage est un fichier compressé au format
rpm
qui contient tous les fichiers d'un programme donné, y compris les composants en option tels que la configuration, des exemples et la documentation.- Correctif
Un correctif comporte un ou plusieurs paquetages et peut être appliqué via des deltarpm. Il peut également introduire des dépendances dans les paquetages qui ne sont pas encore installés.
- Service packs (SP)
Compile plusieurs correctifs en une forme facile à installer ou à déployer. Les service packs sont numérotés et contiennent généralement des correctifs de sécurité, des mises à jour, des mises à niveau ou des améliorations de programmes.
- Upstream (En amont)
Ce terme est une métaphore utilisée pour qualifier le développement de logiciels dans le monde Open Source (à comparer à Downstream). Le terme upstream désigne le projet d'origine, auteur ou mainteneur d'un logiciel distribué comme code source. Les commentaires, correctifs, améliorations de fonctionnalités ou autres optimisations en provenance des utilisateurs finaux ou des contributeurs parviennent aux développeurs en amont. C'est à eux que revient la décision d'intégrer ou de rejeter la requête.
Si les membres du projet décident d'intégrer la requête, elle s'affiche dans les versions plus récentes du logiciel. Une requête acceptée profite à toutes les parties concernées.
Le rejet d'une requête peut être motivé par plusieurs raisons. Elle n'est pas conforme aux directives du projet, elle n'est pas valide, elle a déjà été intégrée, elle n'est pas conforme à l'intérêt du projet ou ne figure pas sur sa feuille de route. Une requête rejetée rend plus difficile la tâche des développeurs en amont, dans la mesure où ils doivent synchroniser leurs correctifs avec le code en amont. On évite généralement de recourir à cette méthode. Cependant, elle s'avère parfois nécessaire.
- Mise à jour
L'installation d'une nouvelle version mineure plus récente d'un paquetage, qui contient généralement la sécurité et corrections de bogues.
- Mise à niveau
Installation d'une version plus récente (majeure) d'un paquetage ou d'une distribution qui offre de nouvelles fonctionnalités.
18.2 Cycle de vie d'un produit #
SUSE applique les cycles de vie suivants à ses produits :
SUSE Linux Enterprise Server présente un cycle de vie de 13 ans, soit 10 ans de support général et 3 ans de support étendu.
SUSE Linux Enterprise Desktop présente un cycle de vie de 10 ans, soit 7 ans de support général et 3 ans de support étendu.
Des versions majeures sont publiées tous les 4 ans. Des service packs sont disponibles tous les 12 à 14 mois.
SUSE prend en charge les Service Packs antérieurs pendant une période de 6 mois après la sortie du nouveau Service Pack. La Figure 18.1, « Versions majeures et Service Packs » illustre certains aspects mentionnés.
Si vous avez besoin de plus de temps pour concevoir, valider et tester vos plans de mise à niveau, le support à long terme des service packs vous offre une extension de support de 12 à 36 mois supplémentaires, par incréments de 12 mois, ce qui vous garantit un support total de 2 à 5 ans quel que soit le service pack (voir Figure 18.2, « Support à long terme au niveau des service packs »).
Pour plus d'informations, consultez l'adresse https://www.suse.com/products/long-term-service-pack-support/.
Pour les cycles de vie de tous les produits, reportez-vous à l'adresse https://www.suse.com/lifecycle/.
18.3 Cycles de vie des modules #
Avec SUSE Linux Enterprise 12, SUSE introduit une création de paquetages modulaire. Les modules sont des ensembles distincts de paquetages regroupés au sein de leur propre canal de maintenance et mis à jour indépendamment des cycles de vie des Service Packs. Vous pouvez ainsi obtenir en temps opportun un accès aisé aux dernières technologies dans des domaines où l'innovation se produit à un rythme rapide. Pour plus d'informations sur les cycles de vie des modules, reportez-vous à l'adresse https://scc.suse.com/docs/lifecycle/sle/12/modules.
18.4 Génération du rapport périodique de cycle de vie #
SUSE Linux Enterprise Server peut rechercher régulièrement les changements d'état de prise en charge de tous les produits installés et envoyer le rapport par courrier électronique en cas de modifications. Pour générer le rapport, vous devez installer zypper-lifecycle-plugin
avec zypper in zypper-lifecycle-plugin
.
Activez la génération du rapport sur votre système avec la commande systemctl
:
root #
systemctl
enable lifecycle-report
Le destinataire et l'objet du message électronique de rapport, ainsi que la période pour la génération du rapport peuvent être configurés dans le fichier /etc/sysconfig/lifecycle-report
avec n'importe quel éditeur de texte. Les paramètres MAIL_TO
et MAIL_SUBJ
définissent le destinataire et l'objet, tandis que DAYS
définit l'intervalle auquel le rapport est généré.
Le rapport affiche les modifications de l'état de prise en charge après le changement, et non pas à l'avance. Si le changement se produit juste après la génération du dernier rapport, cela peut prendre jusqu'à 14 jours avant que vous en soyez averti. Tenez-en compte lors de la définition de l'option DAYS
. Modifiez les entrées de configuration suivantes pour répondre à vos besoins :
MAIL_TO='root@localhost' MAIL_SUBJ='Lifecycle report' DAYS=14
Le rapport le plus récent est disponible dans le fichier /var/lib/lifecycle/report
. Celui-ci contient deux sections : la première informe de la fin de la prise en charge de produits utilisés ; la deuxième répertorie les paquetages avec leur date de fin de prise en charge et la disponibilité de mises à jour.
18.5 Niveaux de support #
Les niveaux de support étendu sont valables entre la dixième année et la treizième année. Ces niveaux de support proposent des diagnostics permanents de niveau technique L3 et des résolutions réactives des bogues critiques. Ces niveaux de support vous permettent de recevoir des mises à jour contre les exploits racines facilement exploitables dans le kernel et d'autres exploits racines directement exécutables sans intervention de l'utilisateur. Ils prennent également en charge les workloads, les piles logicielles et le matériel existants avec une liste d'exclusion de paquetages limitée. Voir Tableau 18.1, « Mises à jour de sécurité et résolution des bogues » pour découvrir une présentation.
Support étendu pour les Service Packs les plus récents |
Support général pour les Service Packs précédents, avec LTSS |
Support étendu avec LTSS | |||
---|---|---|---|---|---|
Fonctionnalité |
Années 1 à 5 |
Années 6 et 7 |
Années 8 à 10 |
Années 4 à 10 |
Années 10 à 13 |
Services techniques |
Oui |
Oui |
Oui |
Oui |
Oui |
Accès aux correctifs |
Oui |
Oui |
Oui |
Oui |
Oui |
Accès à la documentation et à la base de connaissances |
Oui |
Oui |
Oui |
Oui |
Oui |
Support des piles et workloads existants |
Oui |
Oui |
Oui |
Oui |
Oui |
Support des nouveaux déploiements |
Oui |
Oui |
Limité (sur la base des demandes des partenaires et des clients) |
Limité (sur la base des demandes des partenaires et des clients) |
Non |
Demandes d'amélioration |
Oui |
Limité (sur la base des demandes des partenaires et des clients) |
Limité (sur la base des demandes des partenaires et des clients) |
Non |
Non |
Activation et optimisation du matériel |
Oui |
Limité (sur la base des demandes des partenaires et des clients) |
Limité (sur la base des demandes des partenaires et des clients) |
Non |
Non |
Mises à jour de pilotes via le programme SUSE SolidDriver (précédemment PLDP) |
Oui |
Oui |
Limité (sur la base des demandes des partenaires et des clients) |
Limité (sur la base des demandes des partenaires et des clients) |
Non |
Rétroportage des correctifs des Service Packs récents |
Oui |
Oui |
Limité (sur la base des demandes des partenaires et des clients) |
S/O |
S/O |
Mises à jour de sécurité critiques |
Oui |
Oui |
Oui |
Oui |
Oui |
Résolution des défauts |
Oui |
Oui |
Limité (défauts de niveaux de gravité 1 et 2 uniquement) |
Limité (défauts de niveaux de gravité 1 et 2 uniquement) |
Limité (défauts de niveaux de gravité 1 et 2 uniquement) |
18.6 Modèle de dépôt #
La disposition des dépôts correspond aux cycles de vie des produits. Les sections suivantes contiennent une liste de tous les dépôts pertinents.
- Mises à jour
Mises à jour de maintenance dans le dépôt
Noyau
ouPool
correspondant.- Pool
Contient tous les RPM binaires du support d'installation, ainsi que des informations de modèle et des métadonnées d'état du support.
- Debuginfo-Pool, Debuginfo-Updates
Ces dépôts comprennent du contenu statique. Parmi ces deux dépôts, seul
Debuginfo-Updates
reçoit des mises à jour. Activez ces dépôts si vous devez installer des bibliothèques avec des informations de débogage en cas de problème.
Avec la mise à jour vers SUSE Linux Enterprise 12, seuls deux dépôts sont disponibles : SLES12-GA-Pool
et SLES12-GA-Updates
. Les éventuels dépôts précédents provenant de SUSE Linux Enterprise 11 ne sont plus visibles.
18.6.1 Dépôts requis pour SUSE Linux Enterprise Server #
- SLES 12
SLES12-GA-Pool
SLES12-GA-Updates
- SLES 12 SP1
SLES12-SP1-Pool
SLES12-SP1-Updates
- SLES 12 SP2
SLES12-SP2-Pool
SLES12-SP2-Updates
- SLES 12 SP3
SLES12-SP3-Pool
SLES12-SP3-Updates
- SLES 12 SP4
SLES12-SP4-Pool
SLES12-SP4-Updates
- SLES 12 SP5
SLES12-SP5-Pool
SLES12-SP5-Updates
18.6.2 Dépôts facultatifs pour SUSE Linux Enterprise Server #
- SLES 12
SLES12-GA-Debuginfo-Core
SLES12-GA-Debuginfo-Updates
- SLES 12 SP1
SLES12-SP1-Debuginfo-Core
SLES12-SP1-Debuginfo-Updates
- SLES 12 SP2
SLES12-SP2-Debuginfo-Core
SLES12-SP2-Debuginfo-Updates
- SLES 12 SP3
SLES12-SP3-Debuginfo-Core
SLES12-SP3-Debuginfo-Updates
- SLES 12 SP4
SLES12-SP4-Debuginfo-Core
SLES12-SP4-Debuginfo-Updates
- SLES 12 SP5
SLES12-SP5-Debuginfo-Core
SLES12-SP5-Debuginfo-Updates
18.6.3 Dépôts spécifiques au module pour SUSE Linux Enterprise Server #
La liste suivante contient uniquement les principaux dépôts pour chaque module, mais pas les dépôts Debuginfo
ou Source
.
- Modules disponibles pour SLES 12 GA/SP1/SP2/SP3/SP4/SP5
Module Advanced Systems Management : CFEngine, Puppet et l'outil Machinery
SLE-Module-Adv-Systems-Management12-Pool
SLE-Module-Adv-Systems-Management12-Updates
Module Certifications : paquetages spécifiques à la certification FIPS 140-2 (non disponibles sous AArch64 et POWER)
SLE-Module-Certifications12-Pool
SLE-Module-Certifications12-Updates
Module Containers : Docker Open Source Engine, outils, images mises au préalable en paquetage
SLE-Module-Containers12-Pool
SLE-Module-Containers12-Updates
Module Anciennes applications : Sendmail, ancienne pile IMAP, ancien Java, etc. (non disponible sur AArch64)
SLE-Module-Legacy12-Pool
SLE-Module-Legacy12-Updates
Module Cloud public : code d'initialisation de cloud public et outils
SLE-Module-Public-Cloud12-Pool
SLE-Module-Public-Cloud12-Updates
Module Toolchain : GCC (GNU Compiler Collection)
SLE-Module-Toolchain12-Pool
SLE-Module-Toolchain12-Updates
Module Web et de script : PHP, Python, Ruby on Rails
SLE-Module-Web-Scripting12-Pool
SLE-Module-Web-Scripting12-Updates
- Modules disponibles pour SLES 12 SP2/SP3/SP4/SP5
Module HPC : outils et bibliothèques liés à l'informatique hautes performances (High Performance Computing)
SLE-Module-HPC12-Pool
SLE-Module-HPC12-Updates
18.6.4 Dépôts requis pour SUSE Linux Enterprise Desktop #
- SLED 12
SLED12-GA-Pool
SLED12-GA-Updates
- SLED 12 SP1
SLED12-SP1-Pool
SLED12-SP1-Updates
- SLED 12 SP2
SLED12-SP2-Pool
SLED12-SP2-Updates
- SLED 12 SP3
SLED12-SP3-Pool
SLED12-SP3-Updates
- SLED 12 SP4
SLED12-SP4-Pool
SLED12-SP4-Updates
- SLED 12 SP5
SLED12-SP5-Pool
SLED12-SP5-Updates
18.6.5 Dépôts facultatifs pour SUSE Enterprise Linux Desktop #
- SLED 12
SLED12-GA-Debuginfo-Core
SLED12-GA-Debuginfo-Updates
- SLED 12 SP1
SLED12-SP1-Debuginfo-Core
SLED12-SP1-Debuginfo-Updates
- SLED 12 SP2
SLED12-SP2-Debuginfo-Core
SLED12-SP2-Debuginfo-Updates
- SLED 12 SP3
SLED12-SP3-Debuginfo-Core
SLED12-SP3-Debuginfo-Updates
- SLED 12 SP4
SLED12-SP4-Debuginfo-Core
SLED12-SP4-Debuginfo-Updates
- SLED 12 SP5
SLED12-SP5-Debuginfo-Core
SLED12-SP5-Debuginfo-Updates
18.6.6 Enregistrement et annulation des enregistrements des dépôts avec SUSEConnect #
Lors de votre inscription, le système reçoit des dépôts de la part du SUSE Customer Center (consultez la page https://scc.suse.com/) ou d'un proxy d'enregistrement local tel que SMT. Les noms de dépôts pointent vers des URI spécifiques du SUSE Customer Center. Pour répertorier tous les dépôts disponibles sur votre système, utilisez zypper
comme suit :
root #
zypper
repos -u
Vous obtenez alors la liste de tous les dépôts disponibles sur votre système. L'alias et le nom sont indiqués pour chaque dépôt. Vous pouvez également savoir si le dépôt est activé et s'il sera rafraîchi. L'option -u
vous permet, en outre, de connaître l'URI d'origine.
Pour enregistrer votre machine, exécutez SUSEConnect, par exemple comme suit :
root #
SUSEConnect
-r REGCODE
Si vous voulez annuler l'enregistrement de votre machine, à partir du SP1, vous pouvez aussi utiliser SUSEConnect :
root #
SUSEConnect
--de-register
Pour vérifier quels produits sont installés localement ainsi que leur statut, utilisez la commande suivante :
root #
SUSEConnect
-s
19 Mise à niveau de SUSE Linux Enterprise #
SUSE® Linux Enterprise (SLE) permet de mettre à niveau un système existant vers la nouvelle version. Aucune installation nouvelle n'est requise. Les données existantes, telles que les répertoires privés et de données, ainsi que la configuration du système, sont conservées. Vous pouvez effectuer la mise à jour à partir d'un lecteur de CD ou de DVD local ou à partir d'une source d'installation réseau centrale.
Ce chapitre explique comment effectuer une mise à niveau manuelle de votre système SUSE Linux Enterprise, que ce soit à partir d'un DVD, du réseau, d'un processus automatisé ou de SUSE Manager.
19.1 Chemins de mise à niveau pris en charge vers SLE 12 SP5 #
Les mises à niveau entre architectures, comme une mise à niveau depuis une version 32 bits de SUSE Linux Enterprise Server vers la version 64 bits, ou d'un format Big Endian vers un mode Little Endian, ne sont pas prises en charge !
En particulier, la mise à niveau de SLE 2 sur POWER (Big Endian) vers SLE 12 SP1 sur POWER (nouveauté : Little Endian) n'est pas prise en charge.
De plus, étant donné que SUSE Linux Enterprise 12 est une version exclusivement 64 bits, les mises à niveau à partir d'un système SUSE Linux Enterprise 11 32 bits vers SUSE Linux Enterprise 12 ou version ultérieure ne sont pas prises en charge.
Pour effectuer une mise à niveau entre architectures, vous devez procéder à une nouvelle installation.
Le chemin le plus sûr pour la mise à niveau consiste à progresser étape par étape et à installer consécutivement tous les Service Packs. Dans certains cas, il est toutefois envisageable d'ignorer 1 ou 2 Service Packs. Pour plus d'informations, reportez-vous à la section Chemins de mise à niveau pris en charge par version et à la Figure 19.1, « Aperçu des chemins de mise à niveau pris en charge ». Il est cependant recommandé de ne pas ignorer de Service Pack.
Nous vous recommandons d'effectuer une nouvelle installation lors de la mise à niveau vers une nouvelle version majeure.
- Mise à niveau à partir de SUSE Linux Enterprise 10 (tout Service Pack)
Aucun chemin de migration direct vers SUSE Linux Enterprise 12 n'est pris en charge. Il est recommandé dans ce cas d'effectuer une nouvelle installation.
- Mise à niveau de SUSE Linux Enterprise 11 GA / SP1 / SP2 / SP3
Aucun chemin de migration direct vers SUSE Linux Enterprise 12 n'est pris en charge. Avant de pouvoir passer à SLE 12 SP5, vous devez au minimum disposer de SLE 11 SP4.
Si vous ne pouvez pas effectuer une nouvelle installation, commencez par mettre à niveau le Service Pack SLE 11 installé vers SLE 11 SP4. Ces étapes sont décrites dans le Guide de déploiement de SUSE Linux Enterprise 11 : https://documentation.suse.com/sles-11/ .
- Mise à niveau à partir de SUSE Linux Enterprise 11 SP4
La mise à niveau de SLE 11 SP5 vers SLE 12 SP4 est uniquement prise en charge via une mise à niveau hors ligne. Reportez-vous au Chapitre 20, Mise à niveau en mode hors ligne (« Guide d'administration », chapitre 12 « Chargeur de démarrage GRUB 2 ») pour obtenir des informations détaillées.
- Mise à niveau de SUSE Linux Enterprise 12 GA/SP1/SP2 vers SP5
Les mises à niveau directes de SLE 12 GA, SP1 ou SP2 vers SP5 ne sont pas prises en charge. Effectuez d'abord une mise à niveau vers SLE 12 SP3 ou SP4.
- Mise à niveau de SUSE Linux Enterprise 12 SP3/SP4 vers SP5
La mise à niveau de SUSE Linux Enterprise 12 SP3 ou SP4 vers SP5 est prise en charge.
- Mise à niveau de SUSE Linux Enterprise 12 LTSS GA/SP1 vers SP5
Les mises à niveau directes de SUSE Linux Enterprise 12 LTSS GA ou SP1 vers SP5 ne sont pas prises en charge. Commencez par une mise à niveau vers SLE 12 LTSS SP2.
- Mise à niveau de SUSE Linux Enterprise 12 LTSS SP2/SP3/SP4 vers SP5
La mise à niveau de SUSE Linux Enterprise 12 LTSS SP2, SP3 ou SP4 vers SP5 est prise en charge.
19.2 Mise à niveau en ligne et hors ligne #
SUSE prend en charge deux méthodes différentes de mise à niveau et de migration. Pour plus d'informations sur la terminologie, reportez‑vous à la Section 18.1, « Terminologie ». Les méthodes existantes sont les suivantes :
- En ligne
Toutes les mises à niveau exécutées à partir du système en cours d'exécution sont considérées comme étant en ligne. Exemples : connexion par le biais du SUSE Customer Center, de Subscription Management Tool (SMT), de SUSE Manager à l'aide de Zypper ou de YaST.
Lors de la migration entre des Service Packs de la même version majeure, suivez les instructions de la Section 21.4, « Mise à niveau à l'aide de l'outil de migration en ligne (YaST) » ou de la Section 21.5, « Mise à niveau avec zypper ».
- Hors ligne
Les méthodes hors ligne démarrent généralement un autre système d'exploitation à partir duquel la version de SLE installée est mise à niveau. Exemples : DVD, disque flash, image ISO, AutoYaST, « RPM simple » ou démarrage PXE.
Si votre machine est gérée par SUSE Manager, la procédure de mise à niveau doit être démarrée dans l'interface de gestion. Pour plus de détails, reportez-vous à la Section 20.6, « Mise à jour via SUSE Manager ».
19.3 Préparation du système #
Avant de lancer la procédure de mise à niveau, assurez-vous que votre système est prêt. Cette préparation implique notamment la sauvegarde des données et la consultation des notes de version.
19.3.1 Assurez-vous que le système est à jour #
La mise à niveau du système est prise en charge uniquement à partir du niveau de correctif le plus récent. Assurez-vous que les dernières mises à jour système sont installées, en exécutant le correctif zypper
ou en démarrant le module YaST .
19.3.2 Lecture des notes de version #
Les notes de version contiennent des informations supplémentaires sur les modifications apportées depuis la version précédente de SUSE Linux Enterprise Server. Consultez les notes de version pour vérifier les aspects suivants :
Votre matériel doit tenir compte de certaines considérations spéciales;
Les paquetages logiciels utilisés ont été considérablement modifiés;
Des précautions spéciales sont nécessaires pour votre installation.
Les notes de version incluent également des informations de dernière minute qui, faute de temps, n'ont pas pu être intégrées au manuel. Elles contiennent également des notes concernant les problèmes connus.
Si vous omettez d'installer un ou plusieurs Service Packs, consultez néanmoins les notes de version de ces Service Packs ignorés. Les notes de version contiennent généralement uniquement les changements effectués entre deux versions successives. Vous risquez de manquer des changements importants si vous lisez uniquement les notes de version actuelles.
Les notes de version sont disponibles en local dans le répertoire /usr/share/doc/release-notes
ou en ligne à l'adresse https://www.suse.com/releasenotes/.
19.3.3 Exécution d'une sauvegarde #
Avant de procéder à la mise à jour, copiez les fichiers de configuration existants sur un support distinct (comme un périphérique à bande, un disque dur amovible, etc.) pour sauvegarder les données. Cela concerne principalement les fichiers stockés dans le répertoire /etc
, ainsi que certains répertoires et fichiers sous /var
et /opt
. Vous pouvez également écrire les données de l'utilisateur de /home
(les répertoires HOME
) dans un support de sauvegarde. Sauvegardez ces données en tant que root
. Seul l'utilisateur root
a des droits de lecture sur tous les fichiers locaux.
Si vous avez sélectionné /etc/sysconfig
. Il ne s'agit toutefois pas d'une sauvegarde complète, dans la mesure où il manque tous les autres répertoires importants mentionnés ci-dessus. Recherchez la sauvegarde dans le répertoire /var/adm/backup
.
19.3.3.1 Liste des paquetages et dépôts installés #
Il est souvent utile de disposer d'une liste des paquetages installés, par exemple pour effectuer une nouvelle installation d'une nouvelle version majeure de SLE ou pour revenir à l'ancienne version.
N'oubliez pas que les paquetages installés ou dépôts utilisés ne sont pas tous disponibles dans les versions plus récentes de SUSE Linux Enterprise. Certains ont parfois été renommés et d'autres remplacés. Il se peut aussi que certains paquetages restent disponibles pour des raisons d'héritage, mais qu'un autre paquetage soit utilisé par défaut. Par conséquent, une modification manuelle des fichiers peut s'avérer nécessaire. Elle peut être réalisée avec n'importe quel éditeur de texte.
Créez un fichier nommé repositories.bak
contenant une liste de tous les dépôts utilisés :
root #
zypper
lr -e repositories.bak
Créez un fichier nommé installed-software.bak
contenant une liste de tous les paquetages utilisés :
root #
rpm
-qa --queryformat '%{NAME}\n' > installed-software.bak
Sauvegardez les fichiers. Les dépôts et paquetages installés peuvent être restaurés à l'aide des commandes suivantes :
root #
zypper
ar repositories.bakroot #
zypper
install $(cat installed-software.bak)
Un système mis à niveau vers une nouvelle version majeure (SLE X+1) peut contenir plus de paquetages que le système initial (SLE X). Il en contient aussi davantage qu'une nouvelle installation de SLE X+1 avec la même sélection de modèle. Il existe plusieurs raisons à cela :
Les paquetages ont été divisés pour permettre une sélection plus rigoureuse de l'ensemble. Par exemple, 37 paquetages texlive dans SLE 11 ont été divisés en 422 paquetages dans SLE 12.
Lorsqu'un paquetage a été divisé en plusieurs autres, tous les nouveaux paquetages sont installés de manière à conserver les mêmes fonctionnalités que la version précédente en cas de mise à niveau. Toutefois, la nouvelle configuration par défaut pour une nouvelle installation de SLE X+1 ne consiste pas forcément à installer tous les paquetages.
Les paquetages hérités de SLE X peuvent être conservés pour des raisons de compatibilité.
Les dépendances de paquetages et l'étendue des modèles peuvent avoir changé.
19.3.4 Migration de votre base de données MySQL #
À partir de la version 12 de SUSE Linux Enterprise, SUSE est passé de MySQL à MariaDB. Avant de lancer une mise à niveau, il est vivement recommandé de sauvegarder votre base de données.
Pour effectuer la migration de la base de données, procédez comme suit :
Connectez-vous à votre machine SUSE Linux Enterprise 11.
Créer un fichier de vidage :
root #
mysqldump
-u root -p --all-databases > mysql_backup.sqlPar défaut,
mysqldump
ne vide pas la base de donnéesINFORMATION_SCHEMA
niperformance_schema
. Pour plus d'informations, consultez la page https://dev.mysql.com/doc/refman/5.5/en/mysqldump.html.Enregistrez votre fichier de vidage, le fichier de configuration
/etc/my.cnf
ainsi que le répertoire/etc/mysql/
pour le consulter ultérieurement (PAS le répertoire d'installation) dans un endroit sûr.Effectuez la mise à niveau. Après la mise à niveau, votre ancien fichier de configuration
/etc/my.cnf
reste inchangé. La nouvelle configuration est disponible dans le fichier/etc/my.cnf.rpmnew
.Configurez votre base de données MariaDB selon vos besoins. N'utilisez PAS les anciens répertoire et fichier de configuration. Vous pouvez toutefois les adapter et vous en servir ultérieurement comme références.
Assurez-vous que vous démarrez le serveur MariaDB :
root #
systemctl
start mysqlSi vous voulez lancer le serveur MariaDB à chaque démarrage, activez ce service :
root #
systemctl
enable mysqlVérifiez que MariaDB s'exécute correctement en vous connectant à la base de données :
root #
mysql
-u root -p
19.3.5 Migration de votre base de données PostgreSQL #
Une version plus récente de la base de données PostgreSQL est fournie en tant que mise à jour de maintenance. En raison du travail de migration requis pour la base de données, le processus de mise à niveau n'est pas automatique. De ce fait, le passage d'une version à l'autre doit être effectué manuellement.
La migration est exécutée à l'aide de la commande pg_upgrade
. Elle constitue une méthode qui diffère du vidage et du rechargement classique. Par rapport à la méthode de « vidage et rechargement », la migration effectuée par le biais de la commande pg_upgrade
est plus rapide.
Les fichiers programmes de chaque version PostgreSQL sont stockés dans des répertoires différents selon la version, par exemple, dans /usr/lib/postgresql96/
pour la version 9.6 et dans /usr/lib/postgresql10/
pour la version 10. Notez que la stratégie de contrôle des versions de PostgreSQL a changé entre les versions majeures 9.6 et 10. Pour plus de détails, consultez l'adresse https://www.postgresql.org/support/versioning/.
Lors de la mise à niveau à partir de SLE 11, postgresql94
sera désinstallé et ne pourra plus être utilisé pour la migration de la base de données vers une version ultérieure de PostgreSQL. Par conséquent, veillez à migrer la base de données PostgreSQL avant de mettre à niveau votre système.
La procédure ci-dessous décrit la migration de la base de données de la version 9.6 vers la version 10. Lorsque vous utilisez une version différente comme source ou comme cible, remplacez les numéros de version en conséquence.
Pour effectuer la migration de la base de données, procédez comme suit :
Assurez-vous que les conditions préalables suivantes sont remplies :
Si ce n'est déjà fait, mettez à niveau les paquetages de l'ancienne version de PostgreSQL vers la version la plus récente par le biais d'une mise à jour de maintenance.
Créez une sauvegarde de votre base de données existante.
Installez les paquetages de la nouvelle version majeure de PostgreSQL. Pour SLE12 SP5, cela implique d'installer postgresql10-server et tous les paquetages dont il dépend.
Installez le paquetage postgresql10-contrib qui contient la commande
pg_upgrade
.Assurez-vous que vous disposez de suffisamment d'espace disponible dans la zone de stockage des données PostgreSQL, par défaut
/var/lib/pgsql/data
. Si l'espace risque d'être insuffisant, essayez de réduire la taille à l'aide de la commande SQL suivante sur chaque base de données (cette opération risque d'être très longue) :VACUUM FULL
Arrêtez le serveur PostgreSQL avec une des commandes suivantes :
root #
/usr/sbin/rcpostgresql
stopou
root #
systemctl stop postgresql.service(Selon la version SLE que vous utilisez comme version de départ pour la mise à niveau).
Renommez votre ancien répertoire de données :
root #
mv
/var/lib/pgsql/data /var/lib/pgsql/data.oldInitialisez votre nouvelle instance de base de données, soit manuellement avec
initdb
, soit en démarrant et arrêtant PostgreSQL, qui le fera automatiquement :root #
/usr/sbin/rcpostgresql
startroot #
/usr/sbin/rcpostgresql
stopou
root #
systemctl start postgresql.serviceroot #
systemctl stop postgresql.service(Selon la version SLE que vous utilisez comme version de départ pour la mise à niveau).
Si vous avez modifié les fichiers de configuration dans l'ancienne version, pensez à transférer ces modifications vers les nouveaux fichiers de configuration. Cela peut concerner les fichiers
postgresql.auto.conf
,postgresql.conf
,pg_hba.conf
etpg_ident.conf
. Les anciennes versions de ces fichiers se trouvent dans/var/lib/pgsql/data.old/
; les nouvelles versions sont disponibles dans/var/lib/pgsql/data
.Notez qu'il est déconseillé de vous contenter de copier les anciens fichiers de configuration, car cela peut écraser de nouvelles options, de nouvelles valeurs par défaut et des commentaires modifiés.
Démarrez le processus de migration en tant qu'utilisateur
postgres
:root #
su - postgres postgres >pg_upgrade
\ --old-datadir "/var/lib/pgsql/data.old" \ --new-datadir "/var/lib/pgsql/data" \ --old-bindir "/usr/lib/postgresql96/bin/" \ --new-bindir "/usr/lib/postgresql10/bin/"Démarrez votre nouvelle instance de base de données avec l'une des commandes suivantes :
root #
/usr/sbin/rcpostgresql
startou
root #
systemctl start postgresql.service(Selon la version SLE que vous utilisez comme version de départ pour la mise à niveau).
Vérifiez si la migration a réussi. L'étendue du test dépend de votre cas d'utilisation. Il n'existe pas d'outil général permettant d'automatiser cette étape.
Supprimez les anciens paquetages PostgreSQL et votre ancien répertoire de données :
root #
zypper
search -s postgresql96 | xargs zypper rm -uroot #
rm
-rf /var/lib/pgsql/data.old
19.3.6 Création de certificats de serveur non-MD5 pour les applications Java #
Au cours de la mise à jour du SP1 vers SP2, les certificats basés sur MD5 ont été désactivés dans le cadre d'un correctif de sécurité. Si vous disposez de certificats créés à l'aide de l'algorithme MD5, recréez vos certificats en procédant comme suit :
Ouvrez un terminal et connectez-vous en tant qu'utilisateur
root
.Créez une clé privée :
root #
openssl
genrsa -out server.key 1024si vous souhaitez une clé renforcée, remplacez
1024
par un nombre plus élevé, par exemple4096
.Créez une requête de signature de certificat (CSR) :
root #
openssl
req -new -key server.key -out server.csrAuto-signez le certificat :
root #
openssl
x509 -req -days 365 -in server.csr -signkey server.key -out server.crtCréez le fichier PEM :
root #
cat
server.key server.crt > server.pemPlacez les fichiers
server.crt
,server.csr
,server.key
etserver.pem
dans les répertoires respectifs contenant les clés. Pour Tomcat, il s'agit par exemple du répertoire/etc/tomcat/ssl/
.
19.3.7 Arrêt des invités de machine virtuelle #
Si votre machine fait office de serveur hôte de machine virtuelle pour KVM ou Xen, veillez à arrêter correctement tous les invités de machine virtuelle actifs avant de procéder à la mise à jour. Dans le cas contraire, l'accès aux invités peut s'avérer impossible après la mise à jour.
19.3.8 Ajustement de la configuration du client SMT #
Si la machine que vous souhaitez mettre à niveau est enregistrée comme client auprès d'un serveur SMT, procédez comme suit :
Vérifiez si la version du script clientSetup4SMT.sh
sur votre hôte est à jour. Le fichier clientSetup4SMT.sh
des anciennes versions de SMT ne peut pas gérer les clients SMT 12. Si vous appliquez régulièrement des correctifs logiciels à votre serveur SMT, la dernière version du fichier clientSetup4SMT.sh
est toujours disponible à l'emplacement <NOM_HÔTE_SMT>/repo/tools/clientSetup4SMT.sh
.
En cas d'échec de la mise à niveau de votre machine vers une version supérieure de SUSE Linux Enterprise Server, annulez l'enregistrement de la machine auprès du serveur SMT, comme décrit à la Procédure 19.1. Ensuite, redémarrez le processus de mise à niveau.
Connectez-vous à la machine client.
L'étape suivante dépend du système d'exploitation actuel du client :
Pour SUSE Linux Enterprise 11, exécutez les commandes suivantes :
tux >
sudo
suse_register -Etux >
sudo
rm -f /etc/SUSEConnecttux >
sudo
rm -rf /etc/zypp/credentials.d/*tux >
sudo
rm -rf /etc/zypp/repos.d/*tux >
sudo
rm -f /etc/zypp/services.d/*tux >
sudo
rm -f /var/cache/SuseRegister/*tux >
sudo
rm -f /etc/suseRegister*tux >
sudo
rm -f /var/cache/SuseRegister/lastzmdconfig.cachetux >
sudo
rm -f /etc/zmd/deviceidtux >
sudo
rm -f /etc/zmd/secretPour SUSE Linux Enterprise 12, exécutez les commandes suivantes :
tux >
sudo
SUSEConnect --de-registertux >
sudo
SUSEConnect --cleanuptux >
sudo
rm -f /etc/SUSEConnecttux >
sudo
rm -rf /etc/zypp/credentials.d/*tux >
sudo
rm -rf /etc/zypp/repos.d/*tux >
sudo
rm -f /etc/zypp/services.d/*
Connectez-vous au serveur SMT.
Vérifiez si l'enregistrement du client a été annulé avec succès en répertoriant tous les enregistrements de clients :
tux >
sudo
smt-list-registrationsSi le nom d'hôte du client est toujours répertorié dans la sortie de cette commande, obtenez l'
ID unique
du client à partir de la première colonne. (Le client peut être répertorié avec plusieurs ID).Supprimez l'enregistrement pour ce client :
tux >
sudo
smt-delete-registration -g UNIQUE_IDSi le client est répertorié avec plusieurs ID, répétez l'étape ci-dessus pour chacun de ses ID uniques.
Vérifiez si l'enregistrement du client a maintenant été annulé avec succès en réexécutant :
tux >
sudo
smt-list-registrations
19.3.9 Espace disque #
La taille des logiciels tend à augmenter de versions en versions. Il convient donc de vérifier l'espace disponible sur la partition avant d'effectuer la mise à jour. Si vous pensez que vous allez manquer d'espace disque, sauvegardez vos données avant d'augmenter l'espace disponible en redimensionnant des partitions, par exemple. Il n'existe pas de règle précise concernant l'espace de chaque partition. L'espace requis dépend de votre profil particulier de partitionnement et du logiciel sélectionné.
Au cours de la procédure de mise à jour, YaST vérifie la quantité d'espace disque disponible et affiche un avertissement si la taille de l'installation risque de dépasser la quantité d'espace disponible. Dans ce cas, la mise à jour risque de rendre le système inutilisable ! Si vous savez exactement ce que vous faites (en ayant effectué des tests au préalable), vous pouvez ignorer l'avertissement et poursuivre la mise à jour.
19.3.9.1 Vérification de l'espace disque sur des systèmes de fichiers racines non-Btrfs #
Utilisez la commande df
pour obtenir une liste de l'espace disque disponible. Dans l'Exemple 19.1, « List with df -h
», la partition root à écrire est /dev/sda3
(montée en tant que /
).
df -h
#Filesystem Size Used Avail Use% Mounted on /dev/sda3 74G 22G 53G 29% / tmpfs 506M 0 506M 0% /dev/shm /dev/sda5 116G 5.8G 111G 5% /home /dev/sda1 44G 4G 40G 9% /data
19.3.9.2 Vérification de l'espace disque sur des systèmes de fichiers racines Btrfs #
Si vous utilisez Btrfs en tant que systèmes de fichiers racines sur votre machine, assurez-vous qu'il dispose de suffisamment d'espace libre. Dans le pire des cas, une mise à niveau a besoin d'autant d'espace disque que le système de fichiers racine actuel (sans le répertoire /.snapshot
) pour un nouvel instantané. Pour afficher l'espace disque disponible, utilisez la commande suivante :
root #
df
-h /
Vérifiez également l'espace disponible sur toutes les autres partitions montées. Les recommandations suivantes ont fait leurs preuves :
Pour tous les systèmes de fichiers comprenant Btrfs, vous avez besoin de suffisamment d'espace disque disponible pour télécharger et installer des RPM volumineux. L'espace occupé par les anciens RPM n'est libéré qu'après l'installation des nouveaux RPM.
Pour Btrfs avec des instantanés, vous avez au minimum besoin d'une quantité d'espace libre égale à celle occupée par votre installation actuelle. Il est recommandé de disposer de deux fois plus d'espace libre que celui occupé par l'installation actuelle.
Si vous ne disposez pas de suffisamment d'espace, vous pouvez tenter de supprimer les anciens instantanés à l'aide de
snapper
:root #
snapper
listroot #
snapper
delete NUMBERToutefois, cela ne fonctionne pas toujours. Avant la migration, la plupart des instantanés n'occupent pas tellement d'espace.
19.3.10 Désactivation temporaire de la prise en charge de plusieurs versions du kernel #
SUSE Linux Enterprise Server (SLES) permet d'installer plusieurs versions de kernel en activant les paramètres correspondants sous /etc/zypp/zypp.conf
. La prise en charge de cette fonctionnalité doit pourtant être désactivée temporairement pour effectuer une mise à niveau vers un Service Pack. Une fois la mise à jour terminée, la prise en charge de plusieurs versions peut être réactivée. Pour désactiver la prise en charge de plusieurs versions, commentez les lignes correspondantes sous /etc/zypp/zypp.conf
. Le résultat doit ressembler à ceci :
#multiversion = provides:multiversion(kernel) #multiversion.kernels = latest,running
Pour réactiver cette fonction après une mise à jour réussie, supprimez les signes de commentaire. Pour plus d'informations sur la prise en charge de plusieurs versions, reportez-vous à la Section 15.1, « Activation et configuration de la prise en charge de plusieurs versions ».
19.4 Mise à niveau sur IBM Z #
La mise à niveau d'une installation SUSE Linux Enterprise sur IBM Z nécessite Upgrade=1
comme paramètre de kernel, par exemple via le fichier parmfile. Reportez-vous au Section 4.3, « Fichier parmfile : automatisation de la configuration du système ».
19.5 IBM POWER : démarrage d'un serveur X #
Sous SLES 12 pour IBM POWER, le gestionnaire d'affichage est configuré pour ne pas démarrer un serveur X local par défaut. Ce paramètre a été annulé sous SLES 12 SP1. Le gestionnaire d'affichage démarre désormais un serveur X.
Pour éviter des problèmes au cours de la mise à niveau, le paramètre SUSE Linux Enterprise Server n'est pas modifié automatiquement. Si vous souhaitez que le gestionnaire d'affichage démarre un serveur X après la mise à niveau, modifiez le paramètre DISPLAYMANAGER_STARTS_XSERVER
sous /etc/sysconfig/displaymanager
comme suit :
DISPLAYMANAGER_STARTS_XSERVER="yes"
20 Mise à niveau en mode hors ligne #
Ce chapitre décrit la procédure de mise à niveau d'une installation SUSE Linux Enterprise existante à l'aide de YaST, qui est démarré à partir d'un support d'installation. Le programme d'installation de YaST peut, par exemple, être démarré à partir d'un DVD, du réseau ou du disque dur qui héberge le système.
20.1 Présentation conceptuelle #
Avant d'entamer la mise à niveau de votre système, consultez le Section 19.3, « Préparation du système ».
Pour mettre à niveau votre système, démarrez à partir d'une source d'installation, comme vous le feriez pour une nouvelle installation. Toutefois, lorsque l'écran de démarrage apparaît, vous devez sélectionner
(au lieu d' ). La mise à niveau peut être démarrée à partir des éléments suivants :Support amovible. Il peut notamment s'agir d'un CD, d'un DVD ou d'un périphérique de stockage de masse USB. Pour plus d'informations, reportez-vous à la Section 20.2, « Démarrage de la mise à niveau à partir d'un support d'installation ».
Ressource réseau. Vous pouvez démarrer à partir d'un support local, puis sélectionner le type d'installation réseau respectif ou démarrez via PXE. Pour plus d'informations, reportez-vous à la Section 20.3, « Démarrage de la mise à niveau à partir d'une source réseau ».
20.2 Démarrage de la mise à niveau à partir d'un support d'installation #
La procédure ci-dessous décrit le démarrage à partir d'un DVD, mais vous pouvez également utiliser un support d'installation local comme une image ISO sur un périphérique de stockage de masse USB. Le support et la méthode de démarrage à sélectionner dépendent de l'architecture système et du fait que la machine dispose d'un BIOS traditionnel ou UEFI.
Sélectionnez et préparez un support de démarrage (voir Section 6.2, « Démarrage du système pour l'installation »).
Insérez le DVD 1 du support d'installation de SUSE Linux Enterprise 12 SP5 et démarrez votre machine. L'écran
s'affiche, suivi de l'écran de démarrage.Démarrez le système en sélectionnant Mise à niveau dans le menu de démarrage.
Effectuez la procédure de mise à niveau, comme décrit à la Section 20.5, « Mise à niveau de SUSE Linux Enterprise ».
20.3 Démarrage de la mise à niveau à partir d'une source réseau #
Pour démarrer une mise à niveau à partir d'une source d'installation réseau, veillez à respecter les conditions suivantes :
- Source d'installation réseau
Une source d'installation réseau est configurée conformément au Chapitre 8, Configuration du serveur qui contient les sources d'installation.
- Connexion réseau et services réseau
Le serveur d'installation et la machine cible doivent disposer d'une connexion réseau qui fonctionne. Les services réseau requis sont les suivants :
Service de noms de domaines
DHCP (uniquement nécessaire pour un lancement via PXE ; l'adresse IP peut être définie manuellement lors de la configuration)
OpenSLP (facultatif)
- Support de démarrage
Vous disposez du 1er DVD de SUSE Linux Enterprise Server (ou d'une image ISO locale) pour démarrer le système cible ou un système cible qui est configuré pour le démarrage via PXE comme indiqué à la Section 9.5, « Préparation du système cible pour le démarrage PXE ». Reportez-vous au Chapitre 10, Installation à distance pour obtenir des informations détaillées sur le démarrage d'une mise à niveau à partir d'un serveur distant.
20.3.1 Mise à niveau manuelle via une source d'installation réseau - démarrage à partir d'un DVD #
Cette procédure fournit l'exemple d'un démarrage à partir d'un DVD, mais vous pouvez également utiliser tout autre support d'installation local comme une image ISO sur un périphérique de stockage de masse USB. La façon de sélectionner la méthode de démarrage et de démarrer le système à partir du support dépend de l'architecture système. Vous devez également savoir si la machine est équipée d'un BIOS ou UEFI traditionnel. Pour plus de détails, reportez-vous aux liens ci-dessous.
Insérez le DVD 1 du support d'installation SUSE Linux Enterprise 12 SP5 et démarrez votre machine. L'écran
s'affiche, suivi de l'écran de démarrage.Sélectionnez le type de source d'installation réseau que vous souhaitez utiliser (FTP, HTTP, NFS, SMB ou SLP). En général, ce choix est disponible en appuyant sur la touche F4, mais si votre machine est équipée d'UEFI au lieu d'un BIOS traditionnel, vous devrez peut-être adapter manuellement les paramètres de démarrage. Pour plus de détails, reportez-vous à la section Installation à partir d'un serveur réseau du Chapitre 6, Installation avec YaST.
Effectuez la procédure de mise à niveau, comme décrit à la Section 20.5, « Mise à niveau de SUSE Linux Enterprise ».
20.3.2 Mise à niveau manuelle via une source d'installation réseau - démarrage à partir de PXE #
Pour effectuer une mise à niveau à partir d'une source d'installation réseau à l'aide d'un démarrage PXE, procédez comme suit :
Ajustez la configuration de votre serveur DHCP afin de fournir les informations relatives à l'adresse indispensables à un démarrage à l'aide de PXE. Pour plus de détails, reportez-vous à la Section 9.5, « Préparation du système cible pour le démarrage PXE ».
Configurez un serveur TFTP qui devra contenir l'image de démarrage requise pour un démarrage à l'aide de PXE. Pour ce faire, utilisez le DVD 1 du support d'installation de SUSE Linux Enterprise 12 SP5 ou suivez les instructions de la Section 9.2, « Configuration d'un serveur TFTP ».
Préparez le démarrage de PXE et de Wake-on-LAN sur l'ordinateur cible.
Lancez le démarrage du système cible et utilisez VNC pour vous connecter à distance à la routine d'installation s'exécutant sur cet ordinateur. Pour plus d'informations, reportez-vous à la Section 10.3.1, « Installation VNC ».
Effectuez la procédure de mise à niveau, comme décrit à la Section 20.5, « Mise à niveau de SUSE Linux Enterprise ».
20.4 Activation de la mise à niveau automatique #
Le processus de mise à niveau peut être exécuté automatiquement. Pour activer la mise à jour automatique, le paramètre de kernel autoupgrade = 1
doit être défini. Le paramètre peut être défini lors du démarrage dans le champ Options de démarrage
. Pour plus de détails, consultez le Book “AutoYaST”, Chapter 1 “Introduction” (« Guide d'AutoYaST », chapitre 4 « Options de configuration et d'installation », Section 4.10 « Mise à niveau »).
20.5 Mise à niveau de SUSE Linux Enterprise #
Avant de mettre à niveau votre système, lisez d'abord le Section 19.3, « Préparation du système ». Pour effectuer une migration automatisée, procédez comme suit :
Après avoir démarré (à partir d'un support d'installation ou du réseau), sélectionnez l'entrée Section 20.4, « Activation de la mise à niveau automatique ».
dans l'écran de démarrage. Si vous souhaitez effectuer la mise à niveau comme décrit dans les étapes suivantes manuellement, vous devez désactiver le processus de mise à niveau automatique. Reportez-vous à laAvertissement : un choix erroné risque de vous faire perdre des donnéesSi vous sélectionnez
au lieu de , vous risquez de perdre des données ultérieurement. Veillez particulièrement à ne pas détruire vos partitions de données en effectuant une nouvelle installation.Veillez à bien sélectionner
dans ce cas.YaST démarre le système d'installation.
Dans l'écran
, sélectionnez la et le , puis acceptez l'accord de licence. Cliquez ensuite sur .YaST recherche dans vos partitions les systèmes SUSE Linux Enterprise déjà installés.
Dans l'écran
, sélectionnez la partition à mettre à niveau et cliquez sur .YaST monte la partition sélectionnée et affiche tous les dépôts trouvés sur la partition que vous souhaitez mettre à niveau.
Dans l'écran
, adaptez le statut des dépôts : cochez ceux que vous souhaitez inclure dans le processus de mise à niveau et désactivez ceux dont vous n'avez plus besoin. Cliquez ensuite sur .Dans l'écran Section 20.8, « Enregistrement de votre système ».
, indiquez si vous voulez enregistrer le système mis à niveau maintenant (en introduisant vos données d'enregistrement et en cliquant sur ) ou si vous préférez pour l'instant. Pour plus d'informations sur l'enregistrement de votre système, reportez-vous à laPassez en revue les
de la mise à niveau, notamment les . Sélectionnez l'une des options suivantes :Note : choix du poste de travailSi vous utilisiez KDE avant la mise à niveau vers SUSE Linux Enterprise 12 (
DEFAULT_WM)
dans/etc/sysconfig/windowmanager
avait été défini surKDE*)
, votre environnement de bureau sera automatiquement remplacé par GNOME après la mise à niveau. Par défaut, le gestionnaire d'affichage KDM sera remplacé par GDM.Pour modifier l'environnement de bureau ou le gestionnaire de fenêtres, sélectionnez d'autres logiciels en cliquant sur
.Si tous les paramètres vous conviennent, démarrez la procédure d'installation et de suppression en cliquant sur
.Une fois que le processus de mise à niveau a abouti, vérifiez l'éventuelle présence de « paquetages orphelins ». Les paquetages orphelins sont des paquetages qui n'appartiennent plus à aucun dépôt actif. La commande suivante vous permet d'obtenir une liste de ces paquetages :
zypper packages --orphaned
Cette liste vous permet de déterminer si un paquetage est toujours nécessaire ou peut être désinstallé en toute sécurité.
Si la machine à mettre à niveau est un client SMT et que la mise à niveau échoue, reportez-vous à la Procédure 19.1, « annulation de l'enregistrement d'un client SUSE Linux Enterprise auprès d'un serveur SMT » et redémarrez la procédure de mise à niveau ultérieurement.
20.6 Mise à jour via SUSE Manager #
SUSE Manager est une solution serveur pour fournir des mises à jour et des correctifs pour les clients SUSE Linux Enterprise. Il s'accompagne d'un ensemble d'outils et d'une interface utilisateur Web pour les tâches de gestion. Pour plus d'informations sur SUSE Manager, consultez l'adresse https://www.suse.com/products/suse-manager/.
SUSE Manager peut vous aider pour la migration d'un Service Pack ou la mise à niveau d'un système complet.
- Migration de Service Pack
La migration de Service Pack permet de migrer d'un Service Pack (SP) vers un autre au sein d'une version principale (par exemple, à partir de SLES 12 SP1 vers SLES 12 SP2). Pour plus d'informations, consultez le manuel SUSE Manager Best Practices Guide (Guide des meilleures pratiques de SUSE Manager), chapitre « Client Migration » (Migration du client) : https://documentation.suse.com/external-tree/en-us/suma/3.2/susemanager-best-practices/html/book.suma.best.practices/bp.client.migration.html
- Mise à niveau du système
SUSE Manager vous permet d'effectuer une mise à niveau du système. Grâce à l'intégration de la technologie AutoYaST, il est possible d'effectuer des mises à niveau d'une version majeure vers l'autre (par exemple, SLES 11 SP3 vers SLES 12 SP2). Pour plus d'informations, consultez le manuel SUSE Manager Best Practices Guide (Guide des meilleures pratiques de SUSE Manager), chapitre « Client Migration » (Migration du client) : https://documentation.suse.com/external-tree/en-us/suma/3.2/susemanager-best-practices/html/book.suma.best.practices/bp.client.migration.html
20.7 Mise à jour de l'état d'enregistrement après un retour à l'état initial #
Lorsque vous effectuez la mise à niveau d'un Service Pack, vous devez modifier la configuration sur le serveur d'enregistrement pour donner accès aux nouveaux dépôts. Si le processus de mise à niveau a été interrompu ou annulé (par le biais d'une restauration à partir d'une sauvegarde ou d'un instantané), les informations sur le serveur d'enregistrement ne reflètent pas l'état du système. Dès lors, vous risquez de ne pas avoir accès aux dépôts de mise à jour ou à des dépôts incorrects utilisés sur le client.
Lorsqu'un retour à l'état initial est effectué via Snapper, le système avertit le serveur d'enregistrement pour garantir que l'accès aux dépôts appropriés est configuré au cours du processus de démarrage. Si le système a été restauré d'une autre façon ou si la communication avec le serveur d'enregistrement a échoué pour une quelconque raison (par exemple, le serveur n'était pas accessible en raison de problèmes réseau), déclenchez manuellement le retour à l'état initial sur le client en entrant la commande :
snapper
rollback
Nous suggérons de toujours vérifier que les dépôts corrects sont configurés sur le système, en particulier après le rafraîchissement du service à l'aide de la commande:
zypper
ref -s
Cette fonctionnalité est disponible dans le paquetage rollback-helper .
20.8 Enregistrement de votre système #
Si vous avez ignoré l'étape d'enregistrement pendant l'installation, vous pourrez enregistrer votre système par la suite à l'aide du module
de YaST.L'enregistrement de vos systèmes vous offre les avantages suivants :
Vous pouvez bénéficier du support.
Vous avez accès aux mises à jour de sécurité et aux correctifs de bogues.
Vous avez accès au SUSE Customer Center.
Démarrez YaST et sélectionnez
› pour ouvrir la boîte de dialogue .Indiquez l'https://scc.suse.com/) pour en créer un.
associée au compte SUSE que vous ou votre entreprise utilisez pour gérer les abonnements. Si vous ne disposez pas encore de compte SUSE, rendez-vous sur la page d'accueil du SUSE Customer Center (Entrez le SUSE Linux Enterprise Server.
que vous avez reçu avec votre exemplaire dePour commencer l'enregistrement, poursuivez en sélectionnant
. Si un ou plusieurs serveurs d'enregistrement locaux sont disponibles sur votre réseau, vous pouvez en sélectionner un dans la liste. Vous pouvez également sélectionner pour ignorer les serveurs d'enregistrement locaux et vous enregistrer auprès du serveur SUSE par défaut.Au cours de l'enregistrement, les dépôts de mise à jour en ligne sont ajoutés à votre configuration de mise à niveau. Une fois l'opération terminée, vous pouvez choisir d'installer les versions de paquetage les plus récentes disponibles à partir de ces dépôts. Vous obtenez alors un nouveau chemin de mise à niveau pour tous les paquetages et êtes ainsi certain que SUSE Linux Enterprise Server est mis à niveau avec les dernières mises à jour de sécurité disponibles. Si vous cliquez sur , tous les paquetages sont installés à partir du support d'installation. Cliquez ensuite sur .
Une fois l'enregistrement réussi, YaST affiche la liste des extensions, produits complémentaires et modules disponibles pour votre système. Pour les sélectionner et les installer, passez à la Section 14.3, « Installation de modules et extensions à partir des canaux en ligne ».
21 Mise à niveau en ligne #
SUSE offre un outil graphique intuitif et un outil de ligne de commande simple pour effectuer la mise à niveau d'un système en cours d'exécution vers un nouveau Service Pack. Ces outils permettent un « retour à l'état initial » des Service Packs et bien plus encore. Ce chapitre explique comment effectuer une mise à niveau de Service Pack étape par étape à l'aide de ces outils.
21.1 Présentation conceptuelle #
Avant d'entamer la mise à niveau de votre système, consultez la Section 19.3, « Préparation du système ».
SUSE publie régulièrement de nouveaux Service Packs pour la gamme de produits SUSE Linux Enterprise. Pour faciliter la migration vers un nouveau Service Pack et minimiser les temps hors service, SUSE prend en charge la migration en ligne pendant que le système est en cours d'exécution.
À partir de SLE 12, YaST Wagon a été remplacé par la migration YaST (pour l'interface graphique) et la migration Zypper (pour la ligne de commande). Les fonctions prises en charge sont les suivantes :
Le système est toujours dans un état défini jusqu'à la mise à jour du premier RPM.
L'annulation est possible jusqu'à la mise à jour du premier RPM.
La récupération est simple en cas d'erreur.
« Retour à l'état initial » à l'aide des outils système ; aucune sauvegarde/restauration nécessaire.
Utilisation de tous les dépôts actifs.
La possibilité d'ignorer un Service Pack.
Si le système à mettre à niveau est un client SUSE Manager, l'opération ne peut pas être effectuée par la migration en ligne YaST ni par la migration Zypper
. Utilisez plutôt la procédure de migration de client. Elle est décrite dans le manuel SUSE Manager Upgrade Guide (Guide de mise à niveau de SUSE Manager), disponible à l'adresse https://documentation.suse.com/suma/.
21.2 Déroulement de la migration des Service Packs #
Une migration de Service Pack peut être exécutée à l'aide des outils YaST, zypper
ou AutoYaST.
Avant de pouvoir démarrer la migration d'un Service Pack, votre système doit être enregistré auprès du SUSE Customer Center ou d'un serveur SMT local. Il est également possible d'utiliser SUSE Manager.
Quelle que soit la méthode utilisée, la migration de Service Packs comporte les étapes suivantes :
L'identification de cibles de migration possibles sur vos systèmes enregistrés
La sélection d'une cible de migration
La demande et l'activation de nouveaux dépôts
L'exécution de la migration
La liste des cibles de migration dépend des produits que vous avez installés et enregistrés. Si vous avez une extension installée pour laquelle le nouveau Service Pack n'est pas encore disponible, il se peut qu'aucune cible de migration ne vous soit proposée.
La liste des cibles de migration disponibles pour votre hôte sera toujours récupérée à partir du SUSE Customer Center et dépend des produits ou des extensions installées.
21.3 Annulation de la migration d'un Service Pack #
La migration d'un Service Pack peut uniquement être annulée à certains stades au cours du processus de migration :
Jusqu'au démarrage de la mise à niveau du paquetage, les modifications sur le système sont minimes et concernent par exemple, les services et dépôts. Restaurez
/etc/zypp/repos.d/*
pour revenir à l'état précédent.Après le démarrage de la mise à niveau du paquetage, vous pouvez revenir à l'état précédent à l'aide d'un instantané Snapper (reportez-vous au Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper”).
Une fois la cible de migration sélectionnée, SUSE Customer Center modifie les données du dépôt. Pour rétablir cet état manuellement, utilisez
SUSEConnect
--rollback
.
21.4 Mise à niveau à l'aide de l'outil de migration en ligne (YaST) #
Pour effectuer une migration de Service Packs à l'aide de YaST, utilisez l'outil de
. Par défaut, YaST n'installe pas les paquetages à partir d'un dépôt tiers. Si un paquetage a été installé à partir d'un dépôt tiers, YaST empêche le remplacement des paquetages par les mêmes provenant de SUSE.Lorsque vous effectuez la migration de Service Packs, YaST installe tous les paquetages recommandés. En particulier dans le cas d'installations minimales personnalisées, cela peut augmenter considérablement la taille de l'installation sur le système.
Pour modifier ce comportement par défaut et autoriser uniquement les paquetages requis, réglez l'option solver.onlyRequires
dans /etc/zypp/zypp.conf
.
solver.onlyRequires = true
En outre, modifiez le fichier /etc/zypp/zypper.conf
et changez l'option installRecommends
.
installRecommends=false
Cette opération modifie le comportement de toutes les opérations de paquetages, telles que l'installation de correctifs ou de nouveaux paquetages.
Pour démarrer la migration de Service Packs, procédez comme suit :
Désactivez toutes les extensions non utilisées sur votre serveur d'enregistrement pour éviter les futurs conflits de dépendance. Si vous oubliez une extension, YaST détectera ultérieurement les dépôts d'extension inutilisés et les désactivera.
Si vous êtes connecté à une session GNOME en cours d'exécution sur la machine que vous allez mettre à jour, basculez vers une console de texte. L'exécution de la mise à jour à partir d'une session GNOME n'est pas recommandée. Notez que cela ne s'applique pas lorsque vous êtes connecté à partir d'une machine distante (sauf si vous exécutez une session VNC avec GNOME).
Si vous êtes abonné à LTSS, vous devez désactiver le dépôt LTSS. Cela n'est pas possible avec YaST. Au lieu de cela, vous devez exécuter les commandes suivantes, en utilisant le numéro de version du dépôt installé :
tux >
sudo
SUSEConnect -d -p SLES-LTSS/12.2/x86_64tux >
sudo
zypper ref -sPour plus d'informations, reportez-vous au rapport de support « zypper migration with LTSS repo results in "No migration available" » à l'adresse https://www.suse.com/support/kb/doc/?id=7022381.
Installez le paquetage yast2-migration et ses dépendances (dans YaST sous › ).
Redémarrez YaST, car dans le cas contraire, le nouveau module installé ne s'affiche pas dans SUSE Control Center.
Dans YaST, choisissez la SUSE Linux Enterprise Server (SLES) que vous mettez à niveau, ce module est classé comme ou ). YaST affiche les cibles de migration possibles ainsi qu'un récapitulatif. Si plusieurs cibles de migration sont disponibles pour votre système, sélectionnez-en une dans la liste.
(selon la version deSélectionnez une cible de migration à partir de la liste et cliquez sur
.Si l'outil de migration propose des dépôts de mise à jour, il est recommandé de cliquer sur
.Si l'outil de migration en ligne détecte des dépôts obsolètes provenant d'un DVD ou d'un serveur local, il est vivement recommandé de les désactiver. Les dépôts obsolètes proviennent d'un ancien Service Pack. Tous les anciens dépôts de SCC ou SMT sont automatiquement supprimés.
Vérifiez le récapitulatif et procédez à la migration en cliquant sur
. Confirmez en cliquant sur (Démarrer la mise à jour).Une fois la migration réussie, redémarrez votre système.
21.5 Mise à niveau avec zypper #
Pour effectuer une migration de Service Packs à l'aide de Zypper, utilisez l'outil de ligne de commande zypper
migration
du paquetage
zypper-migration-plugin.
Lorsque vous effectuez la migration de Service Packs, YaST installe tous les paquetages recommandés. En particulier dans le cas d'installations minimales personnalisées, cela peut augmenter considérablement la taille de l'installation sur le système.
Pour modifier ce comportement par défaut et autoriser uniquement les paquetages requis, réglez l'option solver.onlyRequires
dans /etc/zypp/zypp.conf
.
solver.onlyRequires = true
En outre, modifiez le fichier /etc/zypp/zypper.conf
et changez l'option installRecommends
.
installRecommends=false
Cette opération modifie le comportement de toutes les opérations de paquetages, telles que l'installation de correctifs ou de nouveaux paquetages. Pour modifier le comportement de Zypper pour une seule invocation, ajoutez le paramètre --no-recommends
à votre ligne de commande.
Pour démarrer la migration de Service Packs, procédez comme suit :
Si vous êtes connecté à une session GNOME en cours d'exécution sur la machine que vous allez mettre à jour, basculez vers une console de texte. L'exécution de la mise à jour à partir d'une session GNOME n'est pas recommandée. Notez que cela ne s'applique pas lorsque vous êtes connecté à partir d'une machine distante (sauf si vous exécutez une session VNC avec GNOME).
Enregistrez votre machine SUSE Linux Enterprise si ce n'est pas déjà fait :
sudo
SUSEConnect
--regcode YOUR_REGISTRATION_CODESi vous êtes abonné à LTSS, vous devez désactiver le dépôt LTSS. Exécutez les commandes suivantes, en utilisant le numéro de version du dépôt installé :
tux >
sudo
SUSEConnect -d -p SLES-LTSS/12.2/x86_64tux >
sudo
zypper ref -sPour plus d'informations, reportez-vous au rapport de support « zypper migration with LTSS repo results in "No migration available" » à l'adresse https://www.suse.com/support/kb/doc/?id=7022381.
Installez les dernières mises à jour :
sudo
zypper
patchInstallez le paquetage zypper-migration-plugin et ses dépendances :
sudo
zypper
in zypper-migration-pluginExécutez
zypper
migration
:tux >
sudozypper
migration Executing 'zypper patch-check' Refreshing service 'SUSE_Linux_Enterprise_Server_12_x86_64'. Loading repository data... Reading installed packages... 0 patches needed (0 security patches) Available migrations: 1 | SUSE Linux Enterprise Server 12 SP1 x86_64 2 | SUSE Linux Enterprise Server 12 SP2 x86_64Quelques remarques concernant le processus de migration :
Si plusieurs cibles de migration sont disponibles pour votre système, Zypper vous autorise à sélectionner un Service Pack dans la liste. Cette opération revient à ignorer un ou plusieurs Service Packs. N'oubliez pas, la migration en ligne pour les produits de base (SLES, SLED) reste uniquement disponible entre les Service Packs d'une version majeure.
Par défaut, Zypper utilise l'option
--no-allow-vendor-change
transmise àzypper
dup
Si un paquetage a été installé à partir d'un dépôt tiers, cette option empêche le remplacement des paquetages par les mêmes provenant de SUSE.Si Zypper détecte des dépôts obsolètes provenant d'un DVD ou d'un serveur local, il est vivement recommandé de les désactiver. Les anciens dépôts de SCC ou SMT sont supprimés automatiquement.
Passez en revue toutes les modifications, en particulier les paquetages qui vont être supprimés. Poursuivez en saisissant
y
(le nombre exact de paquetages à mettre à niveau peut varier sur votre système) :266 packages to upgrade, 54 to downgrade, 17 new, 8 to reinstall, 5 to remove, 1 to change arch. Overall download size: 285.1 MiB. Already cached: 0 B After the operation, additional 139.8 MiB will be used. Continue? [y/n/? shows all options] (y):
Utilisez les touches de défilement Maj–Page ↑ ou Maj–Page ↓ dans votre shell.
Une fois la migration réussie, redémarrez votre système.
21.6 Mise à niveau à l'aide de Plain Zypper #
Si vous ne pouvez pas utiliser la migration YaST ou Zypper, vous pouvez toujours effectuer la migration à l'aide de Zypper brut et de certaines interactions manuelles. Pour démarrer une migration de Service Packs, procédez comme suit :
Si vous êtes connecté à une session GNOME en cours d'exécution sur la machine que vous allez mettre à jour, basculez vers une console de texte. L'exécution de la mise à jour à partir d'une session GNOME n'est pas recommandée. Notez que cela ne s'applique pas lorsque vous êtes connecté à partir d'une machine distante (sauf si vous exécutez une session VNC avec GNOME).
Mettez à jour les outils de gestion des paquetages avec les anciens dépôts SUSE Linux Enterprise :
sudo
zypper
patch --updatestack-onlySi le système a été enregistré, vous devez annuler son enregistrement :
sudo
SUSEConnect
--de-registerSupprimez les anciens dépôts et sources d'installation et ajustez les dépôts tiers.
Ajoutez les nouvelles sources d'installation, qu'elles soient locales ou distantes (pour la marque de réservation DÉPÔT, reportez-vous à la Section 18.6, « Modèle de dépôt ») :
sudo
zypper
addrepo REPOSITORYVous pouvez également utiliser l'outil SMT ou SUSE Customer Center. La commande pour SUSE Linux Enterprise 12 SP1 sous x86-64 est la suivante :
sudo
SUSEConnect
-p SLES/12.2/x86_64 OPTIONSN'oubliez pas que les mises à niveau simultanées sur plusieurs architectures ne sont pas prises en charge.
Zypper affiche un conflit entre l'ancien et le nouveau kernel. Choisissez la solution 1 pour continuer.
Problem: product:SLES-12.2-0.x86_64 conflicts with kernel < 4.4 provided by kernel-default-VERSION Solution 1: Following actions will be done: replacement of kernel-default-VERSION with kernel-default-VERSION deinstallation of kernel-default-VERSION Solution 2: do not install product:SLES-12.2-0.x86_64
Finalisez la migration :
sudo
zypper
ref -f -s sudozypper
dup --no-allow-vendor-change --no-recommendsLa première commande mettra à jour tous les services et dépôts. La seconde commande effectue une mise à niveau de distribution. Ici, les deux dernières options sont importantes :
-no-allow-vendor-change
permet de s'assurer que les RPM tiers n'écrasent pas ceux du système de base. L'option--no-recommends
permet de s'assurer que les paquetages désélectionnés au cours de l'installation initiale ne sont pas ajoutés à ce stade.
21.7 Restauration de l'état initial d'un Service Pack #
Si un Service Pack ne fonctionne pas pour vous, SUSE Linux Enterprise prend en charge le rétablissement de l'état qu'il avait avant le démarrage de la migration de ce Service Pack. Vous devez toutefois disposer d'une partition racine Btrfs avec des instantanés activés (il s'agit de la valeur par défaut lorsque vous installez SLES 12). Reportez-vous au Book “Administration Guide”, Chapter 7 “System Recovery and Snapshot Management with Snapper” pour plus d'informations.
Obtenez une liste des instantanés Snapper :
sudo snapper list
Passez en revue la sortie pour localiser l'instantané créé juste avant le début de la migration du Service Pack. La colonne
contient une instruction correspondante et l'instantané est marqué commeimportant
dans la colonne . Mémorisez le numéro de l'instantané indiqué dans la colonne ainsi que la date reprise dans la colonne .Redémarrez le système. Dans le menu de démarrage, sélectionnez
(Démarrer le chargeur de démarrage à partir d'un instantané en lecture seule), puis choisissez l'instantané avec la date et le numéro mémorisé à l'étape précédente. Un second menu de démarrage (celui de l'instantané) est chargé. Sélectionnez l'entrée commençant parSLES 12
et démarrez-la.Le système démarre en utilisant son état précédent avec la partition système montée en lecture seule. Connectez-vous en tant qu'utilisateur
root
et vérifiez si vous avez sélectionné l'instantané approprié. Vérifiez également que tout fonctionne comme prévu. Notez que puisque le système de fichiers root est monté en lecture seule, les fonctionnalités peuvent être limitées.En cas de problème ou si vous n'avez pas démarré l'instantané approprié, redémarrez et choisissez un autre instantané à partir duquel démarrer. À ce stade, aucune modification permanente n'a été effectuée. Si l'instantané est correct et fonctionne comme prévu, confirmez la modification pour la rendre définitive en exécutant la commande suivante :
snapper rollback
Veuillez ensuite redémarrer. Dans l'écran de démarrage, sélectionnez l'entrée de démarrage par défaut pour redémarrer sur le système rétabli.
Vérifiez si la configuration du dépôt a bien été réinitialisée. En outre, vérifiez si tous les produits sont correctement enregistrés. Si l'un d'entre eux ne l'est pas, le système risque de ne plus pouvoir être mis à jour par la suite ou risque d'être mis à jour avec des dépôts de paquetage incorrects.
Assurez-vous que le système a accès à Internet avant de démarrer cette procédure.
Rafraîchissez les dépôts et les services en exécutant la commande suivante :
sudo zypper ref -fs
Obtenez une liste des dépôts actifs en exécutant la commande suivante :
sudo zypper lr
Vérifiez attentivement la sortie de cette commande. Aucun service ni dépôt ajoutés pour la mise à jour ne doivent être répertoriés. Si, par exemple, vous effectuez un retour à l'état initial à partir d'une migration de Service Pack de SLES 12 SP2 vers SLES 12 SP1, la liste ne doit pas contenir les dépôts
SLES12-SP2-Pool
niSLES12-SP2-Updates
, mais plutôt ceux des versionsSP1
.Si les dépôts répertoriés sont incorrects, supprimez-les et, si nécessaire, remplacez-les par les versions correspondant à votre version du produit ou du Service Pack. Pour obtenir la liste des dépôts et les chemins de migration pris en charge, reportez-vous à la Section 18.6, « Modèle de dépôt ».
Enfin, vérifiez l'état d'enregistrement de tous les produits installés en exécutant la commande suivante :
SUSEConnect --status
Tous les produits doivent être signalés comme étant
Enregistré
. Si ce n'est pas le cas, réparez l'enregistrement en exécutant la commandeSUSEConnect --rollback
Vous avez à présent réinitialisé le système dans l'état capturé immédiatement avant le début de la migration du Service Pack.
22 Code source du rétroportage #
SUSE fait un usage intensif du rétroportage, par exemple, pour la migration des fonctions et correctifs logiciels actuels vers les paquetages publiés de SUSE Linux Enterprise. Les informations de ce chapitre expliquent en quoi comparer les numéros de version peut s'avérer trompeur dans le cadre de l'évaluation des fonctionnalités et de la sécurité des paquetages logiciels SUSE Linux Enterprise. Ce chapitre explique également comment SUSE préserve la sécurité des logiciels système et vous permet de disposer en permanence de la version la plus récente, tout en gérant la compatibilité de vos applications en plus des produits SUSE Linux Enterprise. Vous découvrirez également comment vérifier les solutions proposées réellement par le logiciel SUSE Linux Enterprise pour remédier aux problèmes de sécurité publics, ou encore comment vérifier l'état actuel de vos logiciels.
22.1 Arguments en faveur du rétroportage #
Les développeurs en amont s'intéressent principalement à faire progresser le logiciel qu'ils développent. Souvent, ils combinent la correction de bogues et l'introduction de nouvelles fonctionnalités qui n'ont pas encore fait l'objet de tests poussés et qui peuvent, à leur tour, provoquer de nouveaux bogues.
Dans le cas des développeurs de distribution, il est important de faire la distinction entre :
les corrections de bogues avec un potentiel limité en ce qui concerne la perturbation des fonctionnalités et
les modifications susceptibles de perturber les fonctionnalités existantes.
D'habitude, les développeurs de distribution ne suivent pas toutes les modifications en amont lorsqu'un paquetage a intégré une distribution publiée. En règle générale, ils s'en tiennent à la version en amont qu'ils ont publiée initialement et créent des correctifs sur la base des modifications en amont afin de corriger les bogues. Cette technique est connue sous le nom de rétroportage (ou backporting en anglais).
Les développeurs de distribution ne lancent généralement une nouvelle version de logiciel que dans deux cas bien précis :
lorsque les modifications entre leurs paquetages et les versions en amont sont devenues à ce point importantes que le rétroportage n'est plus possible ;
pour les logiciels qui, par nature, vieillissent mal, comme par exemple, les logiciels de lutte contre les programmes malveillants.
SUSE fait un usage intensif du rétroportage pour qu'il soit possible de trouver un juste équilibre entre plusieurs préoccupations formulées au sujet des logiciels d'entreprise. La principale préoccupation est la suivante :
Disposer d'interfaces (API) stables sur lesquelles les éditeurs de logiciels peuvent compter lors de la création de produits à utiliser sur les solutions d'entreprise de SUSE.
S'assurer que les paquetages utilisés dans la version des produits d'entreprise de SUSE présentent une qualité optimale et ont fait l'objet de tests intensifs, tant en interne que dans le cadre du produit d'entreprise dans son intégralité.
Gérer les différentes certifications des produits d'entreprise de SUSE par d'autres éditeurs, telles que les certifications pour les produits Oracle ou SAP.
Permettre aux développeurs de SUSE de s'atteler au développement d'une nouvelle version du produit qui soit aussi bonne que possible, plutôt que de se disperser sur un grand nombre de versions.
Assurer un suivi clair de ce que contient une version d'entreprise particulière, de manière à ce que notre service de support puisse fournir des informations précises et opportunes.
22.2 Arguments contre le rétroportage #
En règle générale, aucune nouvelle version en amont d'un paquetage n'est introduite dans nos produits d'entreprise. Il ne s'agit toutefois pas d'une règle absolue. Pour certains paquetages (notamment pour les logiciels anti-virus), les problèmes de sécurité pèsent davantage que l'approche conservatrice qui est préférable sur le plan de l'assurance qualité. Dans ce cas de figure, il arrive que des versions plus récentes soient introduites dans une version publiée d'une gamme de produits d'entreprise.
Pour d'autres types de paquetages, il arrive également que l'on opte pour l'introduction d'une nouvelle version plutôt que de recourir au rétroportage. On fait appel à cette méthode lorsque la génération d'un « backport » n'est pas possible d'un point de vue économique ou lorsque l'introduction d'une nouvelle version se justifie pleinement sur le plan technique.
22.3 Implications du rétroportage sur l'interprétation des numéros de version #
En raison de la pratique du rétroportage, il est tout simplement impossible de comparer des numéros de version pour déterminer si un paquetage SUSE contient un correctif pour un problème spécifique ou si une fonctionnalité donnée y a été ajoutée. Avec le rétroportage, la partie en amont du numéro de version d'un paquetage SUSE indique simplement la version en amont sur laquelle il est basé. Le paquetage peut contenir des correctifs de bogue et des fonctionnalités qui ne figurent pas dans la version en amont correspondante, mais qui ont fait l'objet d'un rétroportage.
Lorsque le rétroportage est appliqué, cette valeur limitée de numéros de version peut occasionner des problèmes au niveau des outils d'analyse de la sécurité. Certains outils de recherche des vulnérabilités en matière de sécurité (ou des tests spécifiques réalisés par ces outils) opèrent uniquement sur les informations de version. Ces outils et tests ont donc tendance à générer des « faux positifs » (lorsqu'un logiciel est faussement identifié comme vulnérable) en cas de rétroportage. Lors de l'évaluation des rapports issus d'outils d'analyse de sécurité, vérifiez toujours si une entrée est basée sur un numéro de version ou sur un test de vulnérabilité réel.
22.4 Comment vérifier les bogues qui ont été corrigés et les fonctionnalités qui ont fait l'objet d'un rétroportage et qui sont disponibles ? #
Les informations relatives aux correctifs et fonctionnalités ayant fait l'objet d'un rétroportage sont stockées à plusieurs emplacements :
Journal des modifications du paquetage :
rpm -q --changelog name-of-installed-package rpm -qp --changelog packagefile.rpm
La sortie documente brièvement l'historique des modifications du paquetage.
Le journal des modifications du paquetage peut contenir des entrées telles que
bsc#1234
(« Bugzilla SUSE.C.om ») qui font référence à des bogues sur le système de suivi SUSE Bugzilla ou des liens vers d'autres systèmes de suivi. Il se peut que vous ne puissiez pas accéder à l'ensemble de ces informations en raison des politiques de confidentialité en vigueur.Un paquetage peut comporter un fichier
/usr/share/doc/NOM_PAQUETAGE/README.SUSE
contenant des informations générales et de haut niveau spécifiques au paquetage SUSE.Le paquetage source RPM contient les correctifs qui ont été appliqués lors de la création des RPM binaires ordinaires sous la forme de fichiers distincts qu'il est possible d'interpréter si vous êtes rompu à la lecture de code source. Reportez-vous au Book “Administration Guide”, Chapter 6 “Managing Software with Command Line Tools”, Section 6.1.2.5 “Installing or Downloading Source Packages” pour installer des sources de logiciels SUSE Linux Enterprise, consultez le Book “Administration Guide”, Chapter 6 “Managing Software with Command Line Tools”, Section 6.2.5 “Installing and Compiling Source Packages” pour créer des paquetages sur SUSE Linux Enterprise et consultez le site Maximum RPM (RPM maximum) pour connaître le fonctionnement interne des versions des paquetages SUSE Linux Enterprise.
Pour les correctifs des bogues de sécurité, consultez les annonces de sécurité de SUSE. Les bogues sont généralement désignés par des noms standard, tels que
CAN-2005-2495
, dont la gestion est assurée dans le cadre du projet CVE (Common Vulnerabilities and Exposures).
A GNU licenses #
This appendix contains the GNU Free Documentation License version 1.2.
GNU Free Documentation License #
Copyright (C) 2000, 2001, 2002 Free Software Foundation, Inc. 51 Franklin St, Fifth Floor, Boston, MA 02110-1301 USA. Everyone is permitted to copy and distribute verbatim copies of this license document, but changing it is not allowed.
0. PREAMBLE #
The purpose of this License is to make a manual, textbook, or other functional and useful document "free" in the sense of freedom: to assure everyone the effective freedom to copy and redistribute it, with or without modifying it, either commercially or non-commercially. Secondarily, this License preserves for the author and publisher a way to get credit for their work, while not being considered responsible for modifications made by others.
This License is a kind of "copyleft", which means that derivative works of the document must themselves be free in the same sense. It complements the GNU General Public License, which is a copyleft license designed for free software.
We have designed this License to use it for manuals for free software, because free software needs free documentation: a free program should come with manuals providing the same freedoms that the software does. But this License is not limited to software manuals; it can be used for any textual work, regardless of subject matter or whether it is published as a printed book. We recommend this License principally for works whose purpose is instruction or reference.
1. APPLICABILITY AND DEFINITIONS #
This License applies to any manual or other work, in any medium, that contains a notice placed by the copyright holder saying it can be distributed under the terms of this License. Such a notice grants a world-wide, royalty-free license, unlimited in duration, to use that work under the conditions stated herein. The "Document", below, refers to any such manual or work. Any member of the public is a licensee, and is addressed as "you". You accept the license if you copy, modify or distribute the work in a way requiring permission under copyright law.
A "Modified Version" of the Document means any work containing the Document or a portion of it, either copied verbatim, or with modifications and/or translated into another language.
A "Secondary Section" is a named appendix or a front-matter section of the Document that deals exclusively with the relationship of the publishers or authors of the Document to the Document's overall subject (or to related matters) and contains nothing that could fall directly within that overall subject. (Thus, if the Document is in part a textbook of mathematics, a Secondary Section may not explain any mathematics.) The relationship could be a matter of historical connection with the subject or with related matters, or of legal, commercial, philosophical, ethical or political position regarding them.
The "Invariant Sections" are certain Secondary Sections whose titles are designated, as being those of Invariant Sections, in the notice that says that the Document is released under this License. If a section does not fit the above definition of Secondary then it is not allowed to be designated as Invariant. The Document may contain zero Invariant Sections. If the Document does not identify any Invariant Sections then there are none.
The "Cover Texts" are certain short passages of text that are listed, as Front-Cover Texts or Back-Cover Texts, in the notice that says that the Document is released under this License. A Front-Cover Text may be at most 5 words, and a Back-Cover Text may be at most 25 words.
A "Transparent" copy of the Document means a machine-readable copy, represented in a format whose specification is available to the general public, that is suitable for revising the document straightforwardly with generic text editors or (for images composed of pixels) generic paint programs or (for drawings) some widely available drawing editor, and that is suitable for input to text formatters or for automatic translation to a variety of formats suitable for input to text formatters. A copy made in an otherwise Transparent file format whose markup, or absence of markup, has been arranged to thwart or discourage subsequent modification by readers is not Transparent. An image format is not Transparent if used for any substantial amount of text. A copy that is not "Transparent" is called "Opaque".
Examples of suitable formats for Transparent copies include plain ASCII without markup, Texinfo input format, LaTeX input format, SGML or XML using a publicly available DTD, and standard-conforming simple HTML, PostScript or PDF designed for human modification. Examples of transparent image formats include PNG, XCF and JPG. Opaque formats include proprietary formats that can be read and edited only by proprietary word processors, SGML or XML for which the DTD and/or processing tools are not generally available, and the machine-generated HTML, PostScript or PDF produced by some word processors for output purposes only.
The "Title Page" means, for a printed book, the title page itself, plus such following pages as are needed to hold, legibly, the material this License requires to appear in the title page. For works in formats which do not have any title page as such, "Title Page" means the text near the most prominent appearance of the work's title, preceding the beginning of the body of the text.
A section "Entitled XYZ" means a named subunit of the Document whose title either is precisely XYZ or contains XYZ in parentheses following text that translates XYZ in another language. (Here XYZ stands for a specific section name mentioned below, such as "Acknowledgements", "Dedications", "Endorsements", or "History".) To "Preserve the Title" of such a section when you modify the Document means that it remains a section "Entitled XYZ" according to this definition.
The Document may include Warranty Disclaimers next to the notice which states that this License applies to the Document. These Warranty Disclaimers are considered to be included by reference in this License, but only as regards disclaiming warranties: any other implication that these Warranty Disclaimers may have is void and has no effect on the meaning of this License.
2. VERBATIM COPYING #
You may copy and distribute the Document in any medium, either commercially or non-commercially, provided that this License, the copyright notices, and the license notice saying this License applies to the Document are reproduced in all copies, and that you add no other conditions whatsoever to those of this License. You may not use technical measures to obstruct or control the reading or further copying of the copies you make or distribute. However, you may accept compensation in exchange for copies. If you distribute a large enough number of copies you must also follow the conditions in section 3.
You may also lend copies, under the same conditions stated above, and you may publicly display copies.
3. COPYING IN QUANTITY #
If you publish printed copies (or copies in media that commonly have printed covers) of the Document, numbering more than 100, and the Document's license notice requires Cover Texts, you must enclose the copies in covers that carry, clearly and legibly, all these Cover Texts: Front-Cover Texts on the front cover, and Back-Cover Texts on the back cover. Both covers must also clearly and legibly identify you as the publisher of these copies. The front cover must present the full title with all words of the title equally prominent and visible. You may add other material on the covers in addition. Copying with changes limited to the covers, as long as they preserve the title of the Document and satisfy these conditions, can be treated as verbatim copying in other respects.
If the required texts for either cover are too voluminous to fit legibly, you should put the first ones listed (as many as fit reasonably) on the actual cover, and continue the rest onto adjacent pages.
If you publish or distribute Opaque copies of the Document numbering more than 100, you must either include a machine-readable Transparent copy along with each Opaque copy, or state in or with each Opaque copy a computer-network location from which the general network-using public has access to download using public-standard network protocols a complete Transparent copy of the Document, free of added material. If you use the latter option, you must take reasonably prudent steps, when you begin distribution of Opaque copies in quantity, to ensure that this Transparent copy will remain thus accessible at the stated location until at least one year after the last time you distribute an Opaque copy (directly or through your agents or retailers) of that edition to the public.
It is requested, but not required, that you contact the authors of the Document well before redistributing any large number of copies, to give them a chance to provide you with an updated version of the Document.
4. MODIFICATIONS #
You may copy and distribute a Modified Version of the Document under the conditions of sections 2 and 3 above, provided that you release the Modified Version under precisely this License, with the Modified Version filling the role of the Document, thus licensing distribution and modification of the Modified Version to whoever possesses a copy of it. In addition, you must do these things in the Modified Version:
Use in the Title Page (and on the covers, if any) a title distinct from that of the Document, and from those of previous versions (which should, if there were any, be listed in the History section of the Document). You may use the same title as a previous version if the original publisher of that version gives permission.
List on the Title Page, as authors, one or more persons or entities responsible for authorship of the modifications in the Modified Version, together with at least five of the principal authors of the Document (all of its principal authors, if it has fewer than five), unless they release you from this requirement.
State on the Title page the name of the publisher of the Modified Version, as the publisher.
Preserve all the copyright notices of the Document.
Add an appropriate copyright notice for your modifications adjacent to the other copyright notices.
Include, immediately after the copyright notices, a license notice giving the public permission to use the Modified Version under the terms of this License, in the form shown in the Addendum below.
Preserve in that license notice the full lists of Invariant Sections and required Cover Texts given in the Document's license notice.
Include an unaltered copy of this License.
Preserve the section Entitled "History", Preserve its Title, and add to it an item stating at least the title, year, new authors, and publisher of the Modified Version as given on the Title Page. If there is no section Entitled "History" in the Document, create one stating the title, year, authors, and publisher of the Document as given on its Title Page, then add an item describing the Modified Version as stated in the previous sentence.
Preserve the network location, if any, given in the Document for public access to a Transparent copy of the Document, and likewise the network locations given in the Document for previous versions it was based on. These may be placed in the "History" section. You may omit a network location for a work that was published at least four years before the Document itself, or if the original publisher of the version it refers to gives permission.
For any section Entitled "Acknowledgements" or "Dedications", Preserve the Title of the section, and preserve in the section all the substance and tone of each of the contributor acknowledgements and/or dedications given therein.
Preserve all the Invariant Sections of the Document, unaltered in their text and in their titles. Section numbers or the equivalent are not considered part of the section titles.
Delete any section Entitled "Endorsements". Such a section may not be included in the Modified Version.
Do not retitle any existing section to be Entitled "Endorsements" or to conflict in title with any Invariant Section.
Preserve any Warranty Disclaimers.
If the Modified Version includes new front-matter sections or appendices that qualify as Secondary Sections and contain no material copied from the Document, you may at your option designate some or all of these sections as invariant. To do this, add their titles to the list of Invariant Sections in the Modified Version's license notice. These titles must be distinct from any other section titles.
You may add a section Entitled "Endorsements", provided it contains nothing but endorsements of your Modified Version by various parties--for example, statements of peer review or that the text has been approved by an organization as the authoritative definition of a standard.
You may add a passage of up to five words as a Front-Cover Text, and a passage of up to 25 words as a Back-Cover Text, to the end of the list of Cover Texts in the Modified Version. Only one passage of Front-Cover Text and one of Back-Cover Text may be added by (or through arrangements made by) any one entity. If the Document already includes a cover text for the same cover, previously added by you or by arrangement made by the same entity you are acting on behalf of, you may not add another; but you may replace the old one, on explicit permission from the previous publisher that added the old one.
The author(s) and publisher(s) of the Document do not by this License give permission to use their names for publicity for or to assert or imply endorsement of any Modified Version.
5. COMBINING DOCUMENTS #
You may combine the Document with other documents released under this License, under the terms defined in section 4 above for modified versions, provided that you include in the combination all of the Invariant Sections of all of the original documents, unmodified, and list them all as Invariant Sections of your combined work in its license notice, and that you preserve all their Warranty Disclaimers.
The combined work need only contain one copy of this License, and multiple identical Invariant Sections may be replaced with a single copy. If there are multiple Invariant Sections with the same name but different contents, make the title of each such section unique by adding at the end of it, in parentheses, the name of the original author or publisher of that section if known, or else a unique number. Make the same adjustment to the section titles in the list of Invariant Sections in the license notice of the combined work.
In the combination, you must combine any sections Entitled "History" in the various original documents, forming one section Entitled "History"; likewise combine any sections Entitled "Acknowledgements", and any sections Entitled "Dedications". You must delete all sections Entitled "Endorsements".
6. COLLECTIONS OF DOCUMENTS #
You may make a collection consisting of the Document and other documents released under this License, and replace the individual copies of this License in the various documents with a single copy that is included in the collection, provided that you follow the rules of this License for verbatim copying of each of the documents in all other respects.
You may extract a single document from such a collection, and distribute it individually under this License, provided you insert a copy of this License into the extracted document, and follow this License in all other respects regarding verbatim copying of that document.
7. AGGREGATION WITH INDEPENDENT WORKS #
A compilation of the Document or its derivatives with other separate and independent documents or works, in or on a volume of a storage or distribution medium, is called an "aggregate" if the copyright resulting from the compilation is not used to limit the legal rights of the compilation's users beyond what the individual works permit. When the Document is included in an aggregate, this License does not apply to the other works in the aggregate which are not themselves derivative works of the Document.
If the Cover Text requirement of section 3 is applicable to these copies of the Document, then if the Document is less than one half of the entire aggregate, the Document's Cover Texts may be placed on covers that bracket the Document within the aggregate, or the electronic equivalent of covers if the Document is in electronic form. Otherwise they must appear on printed covers that bracket the whole aggregate.
8. TRANSLATION #
Translation is considered a kind of modification, so you may distribute translations of the Document under the terms of section 4. Replacing Invariant Sections with translations requires special permission from their copyright holders, but you may include translations of some or all Invariant Sections in addition to the original versions of these Invariant Sections. You may include a translation of this License, and all the license notices in the Document, and any Warranty Disclaimers, provided that you also include the original English version of this License and the original versions of those notices and disclaimers. In case of a disagreement between the translation and the original version of this License or a notice or disclaimer, the original version will prevail.
If a section in the Document is Entitled "Acknowledgements", "Dedications", or "History", the requirement (section 4) to Preserve its Title (section 1) will typically require changing the actual title.
9. TERMINATION #
You may not copy, modify, sublicense, or distribute the Document except as expressly provided for under this License. Any other attempt to copy, modify, sublicense or distribute the Document is void, and will automatically terminate your rights under this License. However, parties who have received copies, or rights, from you under this License will not have their licenses terminated so long as such parties remain in full compliance.
10. FUTURE REVISIONS OF THIS LICENSE #
The Free Software Foundation may publish new, revised versions of the GNU Free Documentation License from time to time. Such new versions will be similar in spirit to the present version, but may differ in detail to address new problems or concerns. See https://www.gnu.org/copyleft/.
Each version of the License is given a distinguishing version number. If the Document specifies that a particular numbered version of this License "or any later version" applies to it, you have the option of following the terms and conditions either of that specified version or of any later version that has been published (not as a draft) by the Free Software Foundation. If the Document does not specify a version number of this License, you may choose any version ever published (not as a draft) by the Free Software Foundation.
ADDENDUM: How to use this License for your documents #
Copyright (c) YEAR YOUR NAME. Permission is granted to copy, distribute and/or modify this document under the terms of the GNU Free Documentation License, Version 1.2 or any later version published by the Free Software Foundation; with no Invariant Sections, no Front-Cover Texts, and no Back-Cover Texts. A copy of the license is included in the section entitled “GNU Free Documentation License”.
If you have Invariant Sections, Front-Cover Texts and Back-Cover Texts, replace the “with...Texts.” line with this:
with the Invariant Sections being LIST THEIR TITLES, with the Front-Cover Texts being LIST, and with the Back-Cover Texts being LIST.
If you have Invariant Sections without Cover Texts, or some other combination of the three, merge those two alternatives to suit the situation.
If your document contains nontrivial examples of program code, we recommend releasing these examples in parallel under your choice of free software license, such as the GNU General Public License, to permit their use in free software.