Déployer un cluster hyperconvergé espaces de stockage direct dans VMM
Cet article explique comment configurer un cluster hyperconvergé exécutant espaces de stockage direct (S2D) dans System Center Virtual Machine Manager (VMM). En savoir plus sur S2D.
Vous pouvez déployer un cluster S2D hyperconvergé en approvisionnant un cluster Hyper-V et en activant S2D à partir d’hôtes Hyper-V existants ou en approvisionnant à partir de serveurs nus.
Vous ne pouvez pas activer S2D dans un déploiement hyperconvergé sur un cluster Hyper-V déployé à partir d’ordinateurs nus avec le système d’exploitation Nano.
Remarque
Vous devez activer S2D avant d’ajouter le fournisseur de stockage à VMM.
Pour activer S2D, accédez à Configuration>générale Spécifiez le nom du cluster et le groupe hôte, puis sélectionnez l’option Activer espaces de stockage direct, comme indiqué ci-dessous :
Après avoir activé un cluster avec S2D, VMM effectue les opérations suivantes :
- Le rôle Serveur de fichiers et la fonctionnalité de clustering de basculement sont activés.
- Le réplica de stockage et la déduplication des données sont activés.
- Le cluster est éventuellement validé et créé.
- S2D est activé et un tableau de stockage est créé avec le même nom que celui que vous fournissez dans l’Assistant.
Si vous utilisez PowerShell pour créer un cluster hyperconvergé, le pool et le niveau de stockage sont automatiquement créés avec l’option Enable-ClusterS2D autoconfig=true .
Avant de commencer
- Vérifiez que vous exécutez VMM 2016 ou version ultérieure.
- Les hôtes Hyper-V d’un cluster doivent exécuter Windows Server 2016 ou version ultérieure avec le rôle Hyper-V installé et être configurés pour héberger des machines virtuelles.
Remarque
VMM 2019 UR3 et versions ultérieures prend en charge l’infrastructure Hyper Convergd Azure Stack (HCI, version 20H2).
Remarque
VMM 2022 prend en charge l’infrastructure hyperconvergée Azure Stack (HCI, versions 20H2 et 21H2).
- Vérifiez que vous exécutez VMM 2019 ou version ultérieure.
- Les hôtes Hyper-V d’un cluster doivent exécuter Windows Server 2019 ou version ultérieure avec le rôle Hyper-V installé et être configurés pour héberger des machines virtuelles.
Remarque
VMM 2025 prend en charge l’infrastructure Convergée Azure Stack (HCI, version 23H2 et 22H2).
Une fois ces prérequis en place, vous provisionnez un cluster et configurez des ressources de stockage sur celui-ci. Vous pouvez ensuite déployer des machines virtuelles sur le cluster ou exporter le stockage vers d’autres ressources à l’aide de SOFS.
Étape 1 : Provisionner le cluster
Vous pouvez approvisionner un cluster de la manière suivante :
- À partir d’hôtes Hyper-V
- À partir de machines nues
Sélectionnez l’onglet requis pour les étapes de provisionnement d’un cluster :
Procédez comme suit pour provisionner un cluster à partir d’hôtes Hyper-V :
- Si vous devez ajouter les hôtes Hyper-V à l’infrastructure VMM, procédez comme suit. S’ils se trouvent déjà dans l’infrastructure VMM, passez à l’étape suivante.
- Suivez les instructions pour provisionner un cluster à partir d’hôtes Hyper-V autonomes gérés dans l’infrastructure VMM.
Remarque
- Lorsque vous configurez le cluster, veillez à sélectionner l’option Activer espaces de stockage direct dans la page Configuration générale de l’Assistant Création d’un cluster Hyper-V. Dans Type de ressource, sélectionnez Serveurs existants exécutant un système d’exploitation Windows Server, puis sélectionnez les hôtes Hyper-V à ajouter au cluster.
- Si S2D est activé, vous devez valider le cluster. Ignorer cette étape n’est pas pris en charge.
Étape 2 : Configurer la mise en réseau du cluster
Une fois le cluster approvisionné et géré dans l’infrastructure VMM, vous devez configurer la mise en réseau pour les nœuds de cluster.
- Commencez par créer un réseau logique pour mettre en miroir votre réseau de gestion physique.
- Vous devez configurer un commutateur logique avec Switch Embedded Teaming (SET) activé afin que le commutateur soit conscient de la virtualisation. Ce commutateur est connecté au réseau logique de gestion et dispose de toutes les cartes virtuelles hôtes requises pour fournir l’accès au réseau de gestion ou configurer la mise en réseau de stockage. S2D s’appuie sur un réseau pour communiquer entre les hôtes. Les adaptateurs compatibles RDMA sont recommandés.
- Créez des réseaux de machines virtuelles.
Remarque
La fonctionnalité suivante s’applique à VMM 2019 UR1.
Étape 3 : Configurer les paramètres DCB sur le cluster S2D
Remarque
La configuration des paramètres DCB est une étape facultative pour obtenir des performances élevées pendant le flux de travail de création de cluster S2D. Passez à l’étape 4 si vous ne souhaitez pas configurer les paramètres DCB.
Recommandations
Si vous avez déployé des cartes réseau virtuelles, pour des performances optimales, nous vous recommandons de mapper tous vos cartes réseau virtuelles avec les cartes réseau virtuelles correspondantes. Les affinités entre la carte réseau virtuelle et la carte réseau réseau sont définies de manière aléatoire par le système d’exploitation, et il peut y avoir des scénarios où plusieurs cartes réseau virtuelles sont mappées à la même carte réseau. Pour éviter de tels scénarios, nous vous recommandons de définir manuellement l’affinité entre la carte réseau virtuelle et la carte réseau pNIC en suivant les étapes répertoriées ici.
Lorsque vous créez un profil de port de carte réseau, nous vous recommandons d’autoriser la priorité IEEE. Plus d’informations Vous pouvez également définir la priorité IEEE à l’aide des commandes PowerShell suivantes :
PS> Set-VMNetworkAdapterVlan -VMNetworkAdapterName SMB2 -VlanId "101" -Access -ManagementOS PS> Set-VMNetworkAdapter -ManagementOS -Name SMB2 -IeeePriorityTag on
Avant de commencer
Assurez-vous de ce qui suit :
- Vous exécutez VMM 2019 ou version ultérieure.
- Les hôtes Hyper-V du cluster exécutent Windows Server 2019 ou version ultérieure avec le rôle Hyper-V installé et configuré pour héberger des machines virtuelles.
Avant de commencer
Assurez-vous de ce qui suit :
- Vous exécutez VMM 2019 ou version ultérieure.
- Les hôtes Hyper-V du cluster exécutent Windows Server 2019 ou version ultérieure avec le rôle Hyper-V installé et configuré pour héberger des machines virtuelles.
Remarque
- Vous pouvez configurer les paramètres DCB sur le cluster Hyper-V S2D (hyperconvergé) et le cluster SOFS S2D (désagrégé).
- Vous pouvez configurer les paramètres DCB pendant le flux de travail de création de cluster ou sur un cluster existant.
- Vous ne pouvez pas configurer les paramètres DCB lors de la création du cluster SOFS ; Vous ne pouvez configurer que sur un cluster SOFS existant. Tous les nœuds du cluster SOFS doivent être gérés par VMM.
- La configuration des paramètres DCB lors de la création du cluster est prise en charge uniquement lorsque le cluster est créé avec un serveur Windows existant. Il n’est pas pris en charge avec le workflow de déploiement nu/système d’exploitation.
Pour configurer les paramètres DCB, procédez comme suit :
Créez un cluster Hyper-V, puis sélectionnez Activer espaces de stockage direct. L’option configuration DCB est ajoutée au flux de travail de création de cluster Hyper-V.
Dans la configuration DCB, sélectionnez Configurer le pontage du centre de données.
Fournissez des valeurs de priorité et de bande passante pour le trafic SMB-Direct et Cluster Heartbeat.
Remarque
Les valeurs par défaut sont affectées à Priority et à Bande passante. Personnalisez ces valeurs en fonction des besoins de l’environnement de votre organisation.
Valeurs par défaut :
Classe de trafic Priorité Bande passante (%) Pulsation du cluster 7 1 SMB-Direct 3 50 Sélectionnez les cartes réseau utilisées pour le trafic de stockage. RDMA est activé sur ces cartes réseau.
Remarque
Dans un scénario de carte réseau convergée, sélectionnez les cartes réseau virtuelles de stockage. Les cartes réseau sous-jacentes doivent être compatibles RDMA pour que les cartes réseau virtuelles soient affichées et disponibles pour la sélection.
Vérifiez le résumé et sélectionnez Terminer.
Un cluster S2D est créé et les paramètres DCB sont configurés sur tous les nœuds S2D.
Remarque
- Les paramètres DCB peuvent être configurés sur les clusters Hyper-V S2D existants en accédant à la page Propriétés du cluster et en accédant à la page de configuration DCB.
- Toute modification hors bande des paramètres DCB sur l’un des nœuds entraîne la non-conformité du cluster S2D dans VMM. Une option de correction est fournie dans la page de configuration DCB des propriétés du cluster, que vous pouvez utiliser pour appliquer les paramètres DCB configurés dans VMM sur les nœuds du cluster.
Étape 4 : Gérer le pool et créer des CSV
Vous pouvez maintenant modifier les paramètres du pool de stockage et créer des disques virtuels et des CSV.
Sélectionnez Tableaux de stockage>Fabric.>
Cliquez avec le bouton droit sur le cluster >Gérer le pool, puis sélectionnez le pool de stockage qui a été créé par défaut. Vous pouvez modifier le nom par défaut et ajouter une classification.
Pour créer un volume partagé de cluster, cliquez avec le bouton droit sur le cluster, >Propriétés>Volumes partagés.
Dans le type de stockage De l’Assistant >Création de volume, spécifiez le nom du volume et sélectionnez le pool de stockage.
Dans Capacité, vous pouvez spécifier la taille du volume, le système de fichiers et les paramètres de résilience.
Sélectionnez Configurer les paramètres de stockage et de hiérarchisation avancés pour configurer ces options.
Cliquez sur Suivant.
Dans Paramètres de stockage, spécifiez les paramètres de fractionnement, de capacité et de résilience du niveau de stockage.
Dans Résumé, vérifiez les paramètres et terminez l’Assistant. Un disque virtuel est créé automatiquement lorsque vous créez le volume.
Si vous utilisez PowerShell, le pool et le niveau de stockage sont créés automatiquement avec l’option Enable-ClusterS2D autoconfig=true .
Étape 5 : Déployer des machines virtuelles sur le cluster
Dans une topologie hyperconvergée, les machines virtuelles peuvent être déployées directement sur le cluster. Leurs disques durs virtuels sont placés sur les volumes que vous avez créés à l’aide de S2D. Vous créez et déployez ces machines virtuelles comme vous le feriez pour n’importe quelle autre machine virtuelle.
Étape 3 : Gérer le pool et créer des CSV
Vous pouvez maintenant modifier les paramètres du pool de stockage et créer des disques virtuels et des CSV.
Sélectionnez Tableaux de stockage>Fabric.>
Cliquez avec le bouton droit sur le cluster >Gérer le pool, puis sélectionnez le pool de stockage qui a été créé par défaut. Vous pouvez modifier le nom par défaut et ajouter une classification.
Pour créer un volume partagé de cluster, cliquez avec le bouton droit sur le cluster, >Propriétés>Volumes partagés.
Dans le type de stockage De l’Assistant >Création de volume, spécifiez le nom du volume et sélectionnez le pool de stockage.
Dans Capacité, vous pouvez spécifier la taille du volume, le système de fichiers et les paramètres de résilience.
Sélectionnez Configurer les paramètres de stockage et de hiérarchisation avancés pour configurer ces options.
Cliquez sur Suivant.
Dans Paramètres de stockage, spécifiez les paramètres de fractionnement, de capacité et de résilience du niveau de stockage.
Dans Résumé, vérifiez les paramètres et terminez l’Assistant. Un disque virtuel est créé automatiquement lorsque vous créez le volume.
Si vous utilisez PowerShell, le pool et le niveau de stockage sont créés automatiquement avec l’option Enable-ClusterS2D autoconfig=true .
Étape 4 : Déployer des machines virtuelles sur le cluster
Dans une topologie hyperconvergée, les machines virtuelles peuvent être déployées directement sur le cluster. Leurs disques durs virtuels sont placés sur les volumes que vous avez créés à l’aide de S2D. Vous créez et déployez ces machines virtuelles comme vous le feriez pour n’importe quelle autre machine virtuelle.