Nutanix Foundation : Installation de noeuds

Nutanix Foundation est un utilitaire/service permettant de réaliser une installation complète de nœuds Nutanix

Cet utilitaire est disponible pour les employés Nutanix et partenaires principalement.

On distingue 2 Foundations :

  • Foundation (in CVM on va dire), aussi appelé CVMF qui est un service porté par les CVM afin de réaliser les upgrades et extensions d’un cluster existant
  • Foundation Standalone : qui est une VM donc portable afin d’installer les serveurs qui sont tout juste ‘Out of the Box’

Nous allons donc voir la version Standalone

Quelques prérequis :

Matériel:

  • Un PC portable avec assez de RAM pour y faire tourner une VM de 4Go/2vCPU/40Go de disque
  • Un Switch 1Go, surtout le plus basique possible sans aucune configuration (vlan,…)
  • 1 câble Ethernet par nœud + 1 pour votre laptop

Documentation officielle :

https://portal.nutanix.com/#/page/docs/details?targetId=Field-Installation-Guide-v4-1:Field-Installation-Guide-v4-1

 

Step 1 :

  • Déployer la VM téléchargée sur VMware Workstation ou Virtual box.
  • Login / Mot de passe : nutanix / nutanix/4u
  • Configurer le réseau de la VM pour être sur le même réseau de l’hyperviseur/CVM qui va être déployé via le script sur le bureau, et vérifier que le laptop et VM se ping (laptop RJ45 sur le même réseau)

Step 2 : Préparer les images

  • Copier vos ISOs d’Hyperviseurs dans le dossier correspondent
    /home/nutanix/foundation/isos/hypervisor
  • AOS dans :
    /home/nutanix/foundation/nos

Step 3 : Préparation des serveurs

 

Step 4 : Foundation

  • Lancer l’utilitaire Foundation depuis l’icône sur le bureau

 

Next

 

Bien choisir le nombre de nœuds selon le block.

    • Si vous avez déjà les IP des IPMI alors première option
    • Si vous souhaitez tout reconfigurer dont les IPMI seconde option

 

  • Network

Rappel : CVM et hyperviseur sur le même segment réseau, IPMI peut être sur un autre réseau

    • Relever les MAC sur l’étiquette IPMI avec le nœud correspondant et entrer les IP necessaires

 

Renseigner les informations réseau

  • Si vous souhaitez créer le cluster dès la fin de l’installation de manière automatisée, renseigner les infos ou si comme moi vous préférez le faire en ligne de commande, cocher la première case Si uniquement si IMPI / CVM sur réseau diffèrent
  • Si l’IMPI se trouve sur un réseau diffèrent, cocher la case tout en bas et renseigner les informations réseau, ce qui va provoquer la création d’une seconde NIC virtuelle dans la VM afin de rendre possible la communication  sur 2 réseaux différents simultanéments.

Sélectionner la version d’AOS souhaitée (si plusieurs binaires présents)

 

De même avec l’hyperviseur

 

Login et Mot de passe des IPMI

Si serveur ‘out of box’ avec Login et MP par défaut, sélectionner juste la version de hardware pour renseigner automatiquement les champs

Lancement de l’installation

Ici configuration des IPMI pour débuter l’installation, si erreur vérifier la connexion des interfaces

 

 

Attendre la fin de l’installation tout doit être au vert.

 

 

  • Création du cluster manuellement
    • Se connecter a une CVM en SSH depuis terminal :

 

Lancer la commande

 

 

Après quelques minutes faîtes la commande ci dessous pour vérifier que tous les services sont UP

 

 

 

 

 

Share

Cluster Health service down après upgrade Ncc

 

Après l’upgrade d’un Ncc 2.3.0 vers 2.3.1 avec succès, nous avons lancé un cluster status sur notre cluster et nous avons constaté que le service ClusterHealth était down sur deux nodes du cluster :

 

 

Dans le log out du service cluster health, nous avions le message suivant :

Traceback (most recent call last):

File « /home/nutanix/ncc/bin/run_scheduler.py », line 19, in <module>

import ncc.scheduler.run_scheduler as run_scheduler

ImportError: No module named ncc.scheduler.run_scheduler

Le ncc health_checks ne fonctionne également pas :

 

 

Pour résoudre ce problème, il suffit de faire un genesis restart sur le node qui pose problème et lancer un cluster start :

 

Après le cluster start :

 

 

Share

Supprimer une tâche stuck dans Prism

 

Lorsque vous upgrader NCC ou effectuer une autre opération sur le cluster Nutanix, celles-ci peuvent rester bloquées dans la console Prism à 0%

 

Pour vérifier l’état de vos tâches, connectez vous en ssh sur votre cluster et taper la commande « ncli progress-monitor list.

Dans notre cas, la tâche « Upgrading NCC on cluster – Pre Upgrade Steps » était en queued à 0% alors que les tâches d’upgrade NCC sur les nodes étaient terminées.

 

Vous pouvez également utiliser la commande « progress_monitor_cli fetchall et vous retrouverez les informations de la tâche bloquée telles que son id, le type d’opération et le nom de l’opération.

Ces infos vous seront nécessaire pour annuler la tâche bloquée.

 

Afin d’annuler la tâche bloquée, récupérer l’id de la tâche, l’opération et le type et utiliser la commande : “progress_monitor_cli –entity_id= »xxxx » –operation=upgrade_ncc –entity_type=cluster –delete :

 

 

nutanix-logo

 

Share

Upgrade VMware VCSA 5.x to 6.0

 

Dans cet article, nous allons faire un upgrade de notre appliance VCSA 5.5 vers 6.0. On ne va pas ici faire un upgrade à proprement parlé mais nous allons déployer une nouvelle appliance VCSA 6.0 et nous allons importer les données et la configuration de la VCSA 5.5 vers cette nouvelle appliance.

Ci-dessous les étapes :

Faites un snapshot de votre VCSA 5.5. 

Récupérer ensuite l’iSO de votre VCSA 6.0. Monter l’ISO et allez dans le dossier vcsa. Installez le VMware-ClientIntegrationPlugin-6.0.0.exe sur une machine windows :

 

upgrade-vcsa6-0

 

Et lancez le vcsa-setup.html qui se trouve à la racine de l’ISO :

 

upgrade-vcsa6-01

 

Cliquez sur Upgrade. Un pop-up s’ouvre vous affichant les versions éligibles :

 

upgrade-vcsa6-02

 

Cliquez sur Ok. Acceptez la licence :

 

upgrade-vcsa6-03

 

Renseignez l’ip ou le DNS de l’ESXi sur lequel vous souhaitez déployer votre appliance :

 

upgrade-vcsa6-04

 

Acceptez le certificat :

 

upgrade-vcsa6-05

 

Renseigner le nom de votre nouvelle VM :

 

upgrade-vcsa6-06

 

Ici, vous devez choisir la version de votre VCSA existante. Dans notre case 5.5. Ensuite renseignez l’ip ou le nom FQDN de votre VCSA existante, le mot de passe du compte SSO, le port s’il est différent, le mot de passe root. Vous pouvez cochez la case pour la migration des données existante dans votre nouvelle VCSA.

Ensuite spécifiez les informations concernant l’ESXi qui héberge actuellement la VCSA d’origine. Puis cliquez sur Suivant :

 

upgrade-vcsa6-07

 

À cette étape, nous avons rencontré un problème. Il faut régénérer les certificats de l’appliance VCSA 5.5 pour que qu’il corresponde au nom du vCenter. Après avoir suivi le KB suivant ça a fonctionné :

http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2110772

 

La prochaine étape peut prendre un peu de temps :

 

upgrade-vcsa6-08

 

Un pop-up s’affiche :

 

upgrade-vcsa6-09

 

Cliquez sur Yes. Choisissez la taille de votre nouvelle appliance :

 

upgrade-vcsa6-10

 

Sélectionnez le datastore pour votre nouvelle appliance :

 

upgrade-vcsa6-11

 

Ici, vous allez configurer le réseau temporaire pour la nouvelle appliance. Afin de récupérer les informations depuis la VCSA 5.5, la nouvelle appliance doit pouvoir communiquer avec celle-ci via le réseau :

 

upgrade-vcsa6-12

 

À noter, qu’une fois la nouvelle appliance déployée, l’ip, le nom du vCenter, etc seront les mêmes que sur l’appliance existante. Vous n’avez donc rien à changer au niveau de vos DNS.

Vérifiez les informations et cliquez sur Finish :

 

upgrade-vcsa6-13

 

L’appliance VCSA 6.0 est en cours de déploiement :

 

upgrade-vcsa6-14

 

À cette étape, vous devez voir l’appliance VCSA 6.0 en cours de déploiement sur l’ESXi que vous avez renseigné :

 

upgrade-vcsa6-15

 

Une fois déployée, l’appliance est allumée automatiquement et des opérations de transferts de fichiers sont initiées.

 

upgrade-vcsa6-16

 

 L’upgrade à mis environ 25 minutes dans notre lab. Cliquez sur Close.

upgrade-vcsa6-17

Installer le nouveau client lourd ou le plug-in pour vCenter 6.0 et connectez-vous sur votre vCenter via vSPhere Client ou le client Web. Vous devez récupérer votre infrastructure précédente dans la version 6 :

 

upgrade-vcsa6-18

 

Votre VCSA est à jour en version 6.0.

 

 

Share