Partie 1 : Présentation des nœuds capacitifs Nutanix « Storage only node» NX-6035C
Partie 2 : Comment intégrer au NDFS les appliances Nutanix NX-6035C sous Acropolis Hypervisor
Nos Nutanix livrés, rackés et comme pour tout nouveau bloc Nutanix, on passe via la procédure de déploiement Nutanix Foundation (à venir prochainement sur vRoomBlog.com)
Récapitulatif :
- Serveurs rackés et connectés au réseau (10Gb et IPMI)
- Acropolis hypervisor est installé sur les noeuds
- Les CVM poussées
Nous allumons nos serveurs, et via la carte IPMI on se connecte à notre premier hyperviseur.
Login par défaut : ADMIN / ADMIN (Sauf si changé lors de du mastering Foundation)
Sous remote Control => Console Redirection
Launch Console
On se logue dans l’hyperviseur
Login : root
Mot de passe : nutanix/4u
Adresse IP
Comme pour une machine Linux mettre une IP :
Configurer IPADDR, MASK, Gateway puis sauvegarder
# vi edit /etc/sysconfig/network-scripts/ifcfg-br0
Mettre un vlan au réseau de management (Si besoin)
#ovs-vsctl set port br0 tag= « vlan ID »
Redémarrer les services
#service network restart or ifdown br0&&ifup br0
Vérifiez votre config via :
# ovs-vsctl show
Faite un test Ping
Configuration de l’Open vSwitch Bridge
Voici le réseau logique d’Acropolis Host avec Open vSwitch
Depuis notre Host nous allons faire un SSH sur notre CVM
# ssh nutanix@192.168.5.254
Exécuter la commande :
nutanix@cvm$ allssh ‘ssh root@192.168.5.1 /usr/bin/ovs-vsctl add-br bridge br1 && echo success’
Nous créons un bridge de nom “br1”
La sortie devrait ressembler à ça :
Executing ssh root@192.168.5.1 /usr/bin/ovs-vsctl add-br br1 && echo success on the cluster
================== 192.0.2.203 =================
FIPS mode initialized
Nutanix KVM
success
…
Nous allons connecter nos cartes réseaux à notre agrégat virtuel « Bound0 »
Toujours depuis la CVM, on check nos interfaces actuelles
On identifie nos interfaces UP et 10Gbs
nutanix@cvm$ manage_ovs show_interfaces
On ajoute nos cartes réseaux UP et 10Gbs à notre Bond0
nutanix@cvm$ manage_ovs –interfaces eth2,eth3 update_uplinks
De retour sur notre host Acropolis en SSH
On contrôle la configuration actuelle de notre bond0
# ovs-appctl bond/show bond0
Configuration réseau des CVM
Les IPs sont poussées lors du déploiement initial via Foundation, il nous reste donc à spécifier le TAG vLAN du réseau CVM
nutanix@cvm$ change_cvm_vlan vlan_id
Étendre le NDFS
A la suite de cette procédure votre hôte et CVM doivent être disponible sur le réseau
Il ne vous reste plus qu’à faire un « Expand cluster » sous votre interface Prism.
Sélectionner vos 2 nodes et faire un expand de votre stockage.
Leave A Comment