Sortir un nœud Nutanix du cluster NDFS

 

Comme vous savez dans votre cluster NDFS vos données sont répliquées aux travers de tous les nœuds.

Ce mécanisme est nommé Disk Blancing

Disk Balancing - Storage Only Node

 

Les raisons pour sortit un nœuds intégralement de cluster NDFS sont diverses :

  • Maintenance à long terme
  • Changement d’hyperviseur
  • Nœuds qui seront bougés pour faire un DR
  • Sortir des nœuds de POC

 

 

 

Une fois votre nœuds vide de toute VM, vous pouvez procéder au retrait.

Pour se faire rien de plus simple tout se passe dans Prism

 

Hardware => Diagrame => Sélectionner votre Noeud => Remove

 

 

 

 

 

 

Vous verrez un nombre de tache se lancer représentant le nombre de disque à vider.

C’est assez long à tout sortir mais au moins c’est fait proprement.

 

 

On voit que les MetaData sont mis à jour rapidement mais que c’est Curator (gestionnaire de la répartition des blocs) qui a un boulot monstre.

 

 

 

 

 

 

 

 

 

 

 

Share

Nutanix : Désenregistrer manuellement Prism Central de vos clusters Nutanix

La version d’Acropolis 4.6 avec son gros lot de nouveautés offre au Prism Central (Console d’administration central de vos clusters Nuta) une nouvelle architecture système.

Vous aurez : 

  • Moteur de recherche simplifié (VM, Hyperviseur, Containers,…)
  • Dashboard customisable
  • Outil de capacity planning 

 

Du coup pour la mise à jour pas de One-Click Upgrade comme pour vos NOS. Il vous sera nécessaire de redéployer une appliance Prism Central et d’enregistrer de nouveau vos clusters.

 

Mais avant désenregistrer depuis Prism vos cluster avant de les enregistrer sur le nouveau Prism Central.

 

Si comme moi, vous vous êtes raté et que vous avez supprimé tout de suite le Prism Central 4.X avant de désenregistrer vos clusters vous aurez l’erreur :

 

“Error Unregistering Cluster”

Prism Central Error

 

 

 

Il va falloir passer en mode manuelle.

Vous connecter a une de vos CVM  et faite :

 ncli multicluster get-cluster-state

 

2016-04-01_16h35_41

 

 

Récupérer votre Cluster ID et ensuite faire:

ncli multicluster delete-cluster-state cluster-id=cluster_id

2016-04-01_16h39_01

 

Passer sur toutes vos CVMs pour controler la bonne suppression de l’ancien Prism Central

 ncli multicluster get-cluster-state

2016-04-01_16h38_01

 

 

Si tout est OK vous pouvez vous lancer le déploiement et réenregistrement de vos clusters Nuta sur Prism Central :

 

Voir : 

 

 

 

 

 

 

 

Share

vRealize Log Insight : Ajout de Content packs

Log Insight est un magnifique outil de collecte de Logs et depuis l’update licensing vRealize Cloud 7, il est inclus dés la version Standard alors que précédemment c’était un produit payant.

 

 

Les content Packs :

Il est possible de rendre Log Insight encore plus intelligent, en y ajoutant des “Contents Pack” in french “Pack de contenu” on va garder la version anglaise.
Ces modules permettent de pouvoir traiter des logs provenant d’autres systèmes et de les corréler avec ceux de VMware pour une analyse fine est intelligente.

 

Il en existe pour les produits VMware et autres constructeurs :

  • VMware NSX
  • vRealize Operation
  • VMware Evo Rail
  • Microsoft
  • Cisco
  • Hitachi
  • Brocade
  • EMC

 

 

Pour en ajouter 2 manières 

Se rendre à la page Solution Exchange : https://solutionexchange.vmware.com

Et télécharger le fichier XXXX.PAK

 

 

 

Ou directement depuis votre portail Log Insight

Tout en haut à droite cliquer sur : Packs de contenu

2016-03-30_16h22_19

 

 

 

 

 

 

 

Nous allons installer le pack pour vRealize Operations

Cliquer sur l’icone puis installer

2016-03-30_16h23_52

 

 

Puis tout en haut à droite dans “Administration”

2016-03-30_16h27_21

 

 

 

 

 

 

 

 

Renseigner les infos de votre vRops

2016-03-30_16h28_09

 

 

 

 

Aussi simple que ça

 

2016-03-30_16h30_18

 

 

 

 

 

 

 

 

 

 

Share

HP StoreVirtual VSA – Partie 3 : Enregistrement des licences VSA

 

 

Partie 1 : HP StoreVirtual VSA – Partie 3 : Installation et deploiement sur ESXi

Partie 2 : HP StoreVirtual VSA – Partie 2 : Configuration du cluster VSA

Partie 3 : HP StoreVirtual VSA – Partie 3 : Enregistrement des licences VSA

 

 

Enregistrement de la licence

Le licensing des appliances est particulier donc un petit post présentant la procédure n’est pas du luxe.

 

Il vous faut référencer les MAC adresses de vos VSA et se connecter à son portail HP

Se loguer avec ses ID HP, et accéder à ses contrats

registervsa

 

 

 

Récupérer l’adresse MAC de la première carte Ethernet d’une VSAxx.

 

 

 

L’inscrire sur le portail HP, sous Product Activation

 

Download

Sauvegarder votre clef en local sur votre PC

 

 

Save du fichier DAT

 

 

 

Le fichier DAT une fois téléchargé est à ouvrir avec un éditeur de txt

 

 

 

Copier la clef

 

 

 

Sous le portail de configuration HP StoreVirtual

Sous VSA0X coller la clef qui convient

 

 

 

Edit licence key et coller la clef

 

 

 

Votre VSA est enregistrée

 

 

 

Procédure à faire pour chaque VSA déployées

 

 

 

 

 

 

Share

HP StoreVirtual VSA – Partie 2 : Configuration du cluster VSA

 

 

 

Partie 1 : HP StoreVirtual VSA – Partie 3 : Installation et deploiement sur ESXi

Partie 2 : HP StoreVirtual VSA – Partie 2 : Configuration du cluster VSA

Partie 3 : HP StoreVirtual VSA – Partie 3 : Enregistrement des licences VSA

 

 

Apres l’installation des Appliances VSA sur chacun des ESXi, voici comment créer votre cluster de stockage partagé

 

 

 

 

Ouvrir la management console installé précédemment

 

 

 

On vérifie que nos 3 systèmes sont découverts, sinon redémarrer vos VMs.

Si VM toujours non découverte vérifier votre connexion réseau (Ping,…), si toujours rien supprimer et redéployer le ou les VSA down en CLI.

 

 

 

On débute la configuration via :

Getting Started

 

 

 

On clic sur Management Groups, Clusters,…

 

 

 

New Group

C’est un groupe de management, celui-ci peut contenir plusieurs clusters VSA

 

 

 

 

Création du Groupe de management

 

 

 

Donner un login et MP

 

 

 

Mise à l’heure, idéalement via un NTP

 

 

 

Donner un nom DNS à votre management group

 

 

 

 

Cluster Standard car 1 site

 

 

 

 

Nom du cluster VSA

 

 

 

 

IP virtuel pour la connexion iSCSI

C’est une nouvelle IP à attribuer sur laquelle pointerons les ESX pour la connexion iSCSI

 

 

 

 

Création du volume, nous donnons 1020Go car nous optons pour 2 disques en miroirs.

En effet nous avons donné 1To à chacune des VMs vue qu’elles sont en miroir nous auront 1To de disponible.

 

 

 

 

La création est en cours

 

 

 

 

 

Ajout des serveurs

Une fois le volume créé, nous ajoutons les serveurs (Nos ESXi) qui seront autorisés à se connecter au volume partagé.

 

 

 

 

 

Ajout de l’ESXi 1 puis 2, avec leur ID de l’adaptateur iSCSI des ESXi (Celui-ci se trouve dans les propriétés de la carte iSCSI de l’ESXi)

 

 

 

 

Une fois les ESXi ajoutés, nous autorisons les hyperviseur à se connecter au volume

Sur notre volume clic droit => Assign and Unassign Servers

 

 

 

On sélectionne nos 2 ESXi

 

 

 

Nos 2 ESXi autorisés nous pouvons leur mapper le nouveau volume

Pour plus de détail voir cette article :
 http://vroomblog.com/ajouter-une-lun-a-un-esxi-via-un-adaptateur-iscsi/

Sous chaque ESXi

Faite découvrir le volume via l’IP virtuel

Propriété sur la carte iSCSI

 

 

 

Sous Details un nouveau device doit apparaitre après le RESCAN

 

 

 

 

Ajout du volume

 

 

 

Dernière partie l’enregistrement des Appliances

 

 

Share