VMware : ERROR: 1, join vmdir failed – Suite a migration vCenter Windows to VCSA

 

 

 

Lors de la migration de notre vCenter 5.5 U3 Windows vers VCSA 6.5, nous avons été confronté à l’erreur :

ERROR: 1, join vmdir failed

À savoir qu’a l’origine nous avions un SSO 5.5 Embedded à notre vCenter 5.5 (SSO + vCenter installé dans la même VM Windows)

Dans un premier temps nous avons migré ce SSO Embedded vers un SSO 5.5 Windows externe puis ce dernier convertie vers PSC 6.5 avec succès

Du coup dans notre PSC réside toujours l’entrée du SSO Embedded au vCenter, il est donc nécessaire d’aller nettoyer a la main cette entrée obsolète, car lors de la migration le nouveau vCenter PSC cherche a pointer vers cette ancien SSO.

 

Pour se faire connectez-vous à votre PSC actuel en root, puis ouvrez un shell via la commande « shell »

Se rendre dans le répertoire :

Windows

 

Si PSC :

 

Puis exécuter la commande :

Pour Windows

 

Pour PSC Linux

 

 

On recommence tout, en supprimant notre VCSA 6.5 déployé et en rallumant notre vCenter Windows 5.5 sans oublié de relancer l’utilitaire de migration.

Puis relancer votre migration et cela devrait mieux se passer

 

 

Source :

https://docs.vmware.com/en/VMware-vSphere/6.0/com.vmware.vsphere.install.doc/GUID-14307A58-5C7D-42BE-A7B3-F03ACBAC2CA7.html

https://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2117378

 

 

 

 

Share

VMware : Decoder les erreurs ESXi sense code de stockage

 

Nous avons eu récemment un ESXi présentant d’énorme latence disque alors que ce dernier était très peu chargé.

 

Le nez dans les logs ESXi, nous pouvons observer de nombreuses erreurs iSCSI.

Ces codes sont des messages envoyés par la baie à l’ESXi pour lui dire ce qui ne va pas.

Pour y voir plus clair, il faut décoder un peu tout ça.

Voici le site de référence : http://www.t10.org/lists/1spc-lst.htm

Ci-dessous les CSV des erreurs

 

Mais merci à Florian Grehl du blog http://www.virten.net/, de nous fournir ce filtre automatisé

http://www.virten.net/vmware/esxi-scsi-sense-code-decoder/?host=8&device=0&plugin=0&sensekey=b&asc=c0&ascq=0

 

En appliquant les codes :

H:0x   D:0x   P:0x    Sense data: 0x   0x   0x
 

 

Et H:0x   D:0x   P:0x    Sense data: 0x   0x   0x

 

On voit que les erreurs ce coup ci proviennent de l’ESXi

Basé sur ce KB1003433 : 

https://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=1003433

 

On observe un problème d’accès à la LUN et en effet notre ESXi avait un driver qui ne répondait pas à la matrice de compatibilité Hardware ESXi.

 

Juste une petite trouvaille que je souhaitais partager afin de décoder ce charabia Hexadécimal plus rapidement

 

 

 

 

 

Share

Endpoint Issue vRA / Exception occured when retrieving work from VRM

 

Après l’ajout de votre endpoint dans vRA vous pouvez rencontrer l’erreur suivante :

 

Exception occured when retrieving work from VRM: There was no endpoint listening at https://fqdniaas/VMPS2Proxy that could accept the message. This is often caused by an incorrect address or SOAP action. See InnerException, if present, for more details. Inner Exception: The remote server returned an error: (404) Not Found.

 

Macintosh HD:Users:albanlecorps:Documents:Virtual Machines.localized:share:issuevra.jpg

 

Cette erreur apparaît la plupart du temps lorsque le serveur Iaas ou le serveur de base de données a été cloné et donc le MS DTC Globally unique identifier (GUID) est le même que la VM source.

Dans notre cas, ce n’était pas ça mais une première installation du Iaas qui avait échoué suite à une mauvaise communication entre la base de données et le serveur Iaas.

Pour corriger ce problème, nous avons désinstaller msdtc sur le serveur iaas et sur la base de données et nous l’avons réinstaller par la suite :

 

 

Vérifier également si les paramètres de MSDTC sont les bons comme ci-dessous :

 

 

 

Share

Exception during request callback with id / vRA Issue Reconfigure Action

 

Lorsqu’on lance une reconfiguration d’une VM via le portail vRA, nous obtenons l’erreur suivante :

 

Exception during request callback with id 608e66d9-76a6-49d3-888e-bb4d9cd8f472 for item 9e603fcb-96fe-4731-988b-0f476dbe9719. Error Message: [Error code: 42000 ] – [Error Msg: Infrastructure service provider error]

 

 

 

Après quelques recherches, il semblerait que ce soit un problème lié aux paramètres de langages configurés sur le serveur IaaS.

Voici les paramètres que nous avions :

Dans Control Panel -> Clock, Language, and Region -> Language nous avions les paramètres suivants :

  • Formats : « French (France) »
  • Location : « France »
  • Administrative -> Language for non-Unicode programs : « French (France) »

 

Voici les paramètres à positionner pour corriger ce problème :

  • Formats : « English (United States) »
  • Location : « United States»
  • Administrative -> Language for non-Unicode programs : « English (United States) »

 

Validez ces paramètres et redémarrer le serveur IaaS.

Relancer une reconfiguration de votre VM via le portail, elle devrait désormais fonctionner.

 

Share

Nutanix : Comment faire un Factory Reset d’une CVM

2016-08-30_17h43_22

 

 

Petite manip bien pratique permettant de faire un factory Reset d’une CVM sans avoir besoin de la réinstaller.

Dans notre cas après avoir perdu la main sur un de nos nœud pour un souci réseau, nous l’avons supprimé du cluster NDFS via cette procédure :

 

Une fois notre problème réseau résolu, le nœud posant problème semble toujours configuré mais bien supprimer du cluster Nuta.

via cette commande, vous aurez toutes les IPs des CVM intégrées au cluster NDFS

 

 

Au lieu de tout réinstaller pour réintégrer via foundation une petite commande sympa et bien pratique pour remettre notre CVM à 0.

Mais attention cette commande n’est pas à prendre à la légère elle peut détruire votre cluster si elle est effectuée sur le mauvais nœud.

 

Sous le dossier Nutanix

 

 

Créer un fichier nommé “.node_unconfigure”

 

 

On redemarre Genesis

Stopping genesis (pids [2876, 2913, 2935, 2936])
Genesis started on pids [25076]

 

Un cluster Status, on vois notre CVM sans service tournant

2016-08-26 06:32:04 WARNING genesis_utils.py:842 Failed to reach a node where Genesis is up. Retrying… (Hit Ctrl-C to abort)
2016-08-26 06:32:06 WARNING genesis_utils.py:842 Failed to reach a node where Genesis is up. Retrying… (Hit Ctrl-C to abort)
2016-08-26 06:32:07 WARNING genesis_utils.py:842 Failed to reach a node where Genesis is up. Retrying… (Hit Ctrl-C to abort)
2016-08-26 06:32:08 WARNING genesis_utils.py:842 Failed to reach a node where Genesis is up. Retrying… (Hit Ctrl-C to abort)

 

 

 

 

Jettons un oeil sur les logs

 

 

On voit notre CVM prete à être découverte

2016-08-26 06:33:01 ERROR node_manager.py:4519 Zookeeper mapping is unconfigured
2016-08-26 06:33:01 INFO service_utils.py:293 Starting foundation with rlimits {5: 1073741824}
2016-08-26 06:33:01 INFO service_utils.py:311 Starting foundation with cmd /home/nutanix/foundation/bin/foundation –foreground |& /home/nutanix/cluster/bin/logpipe -o /home/nutanix/data/logs/foundation.out
2016-08-26 06:33:01 INFO service_utils.py:241 Setting oom score 100 for foundation with process id 26587.
2016-08-26 06:33:01 INFO firewall_utils.py:114 Adding iptables rule using command sudo iptables -A WORLDLIST -p tcp -m tcp –dport 8000 -j ACCEPT -m comment –comment foundation
2016-08-26 06:33:02 INFO firewall_utils.py:114 Adding iptables rule using command sudo ip6tables -A INPUT -p tcp -m tcp –dport 8000 -j ACCEPT -m comment –comment foundation
2016-08-26 06:33:02 INFO node_manager.py:4546 Waiting for node to become configured through RPC.
2016-08-26 06:33:26 ERROR node_manager.py:4519 Zookeeper mapping is unconfigured
2016-08-26 06:33:26 INFO disk.py:746 Disk /dev/sdf is not a self encrypting drive
2016-08-26 06:33:26 INFO disk.py:746 Disk /dev/sdc is not a self encrypting drive
2016-08-26 06:33:26 INFO disk.py:746 Disk /dev/sde is not a self encrypting drive
2016-08-26 06:33:26 INFO disk.py:746 Disk /dev/sdb is not a self encrypting drive
2016-08-26 06:33:26 INFO disk.py:746 Disk /dev/sdd is not a self encrypting drive
2016-08-26 06:33:26 INFO disk.py:746 Disk /dev/sda is not a self encrypting drive

 

 

On voit clairement :

INFO node_manager.py:4546 Waiting for node to become configured through RPC

 

 

 

 

 

 

Share