Partie 1 : Présentation des nœuds capacitifs Nutanix « Storage only node» NX-6035C

Partie 2 : Comment intégrer au NDFS les appliances Nutanix NX-6035C sous Acropolis Hypervisor

 

Nos Nutanix livrés, rackés et comme pour tout nouveau bloc Nutanix, on passe via la procédure de déploiement Nutanix Foundation (à venir prochainement sur vRoomBlog.com)

 

 

Récapitulatif :

  • Serveurs rackés et connectés au réseau (10Gb et IPMI)
  • Acropolis hypervisor est installé sur les noeuds
  • Les CVM poussées

http://www.joshodgers.com/wp-content/uploads/2013/10/Nutanix5NodeCluster.jpg

 

 

Nous allumons nos serveurs, et via la carte IPMI on se connecte à notre premier hyperviseur.

 

 

Login par défaut : ADMIN / ADMIN (Sauf si changé lors de du mastering Foundation)

 

 

 

Sous remote Control => Console Redirection

Launch Console

 

 

On se logue dans l’hyperviseur

Login : root

Mot de passe : nutanix/4u

 

 

Adresse IP

Comme pour une machine Linux mettre une IP :

Configurer IPADDR, MASK, Gateway puis sauvegarder

# vi edit /etc/sysconfig/network-scripts/ifcfg-br0

 

 

 

Mettre un vlan au réseau de management (Si besoin)

#ovs-vsctl set port br0 tag= « vlan ID »

 

 

 

Redémarrer les services

#service network restart or ifdown br0&&ifup br0

 

 

 

Vérifiez votre config via :

# ovs-vsctl show

 

Faite un test Ping

 

 

Configuration de l’Open vSwitch Bridge

Voici le réseau logique d’Acropolis Host avec Open vSwitch

 

 

Depuis notre Host nous allons faire un SSH sur notre CVM

# ssh nutanix@192.168.5.254

 

 

 

Exécuter la commande :

nutanix@cvm$ allssh ‘ssh root@192.168.5.1 /usr/bin/ovs-vsctl add-br bridge br1 && echo success’


Nous créons un bridge de nom “br1”

La sortie devrait ressembler à ça :

Executing ssh root@192.168.5.1 /usr/bin/ovs-vsctl add-br br1 && echo success on the cluster

================== 192.0.2.203 =================

FIPS mode initialized

Nutanix KVM

success

 

 

 

Nous allons connecter nos cartes réseaux à notre agrégat virtuel « Bound0 »

Toujours depuis la CVM, on check nos interfaces actuelles

On identifie nos interfaces UP et 10Gbs

nutanix@cvm$ manage_ovs show_interfaces

 

 

 

On ajoute nos cartes réseaux UP et 10Gbs à notre Bond0

nutanix@cvm$ manage_ovs –interfaces eth2,eth3 update_uplinks

 

 

 

De retour sur notre host Acropolis en SSH

On contrôle la configuration actuelle de notre bond0

# ovs-appctl bond/show bond0

 

 

 

Configuration réseau des CVM

Les IPs sont poussées lors du déploiement initial via Foundation, il nous reste donc à spécifier le TAG vLAN du réseau CVM

nutanix@cvm$ change_cvm_vlan vlan_id

 

 

 

Étendre le NDFS

 

A la suite de cette procédure votre hôte et CVM doivent être disponible sur le réseau

Il ne vous reste plus qu’à faire un « Expand cluster » sous votre interface Prism.

Sélectionner vos 2 nodes et faire un expand de votre stockage.

 

 

 

 

 

 

 

Share