HP StoreVirtual VSA – Partie 1 : Installation et deploiement sur ESXi

 

 

http://www.adeoinformatique.com/blog/wp-content/uploads/2014/01/virtualstore.jpg

 

 

Partie 1 : HP StoreVirtual VSA – Partie 3 : Installation et deploiement sur ESXi

Partie 2 : HP StoreVirtual VSA – Partie 2 : Configuration du cluster VSA

Partie 3 : HP StoreVirtual VSA – Partie 3 : Enregistrement des licences VSA

 

 

 

Update Septembre 2015 :

Nouvelle version de VSA lefthand OS 12.5  

  • –  prise en charge vSphere 6.0
  • –  Pour un cluster de 2 ESXi plus besoin de FOM (Quorum inter VSA) 

Voir : http://h20564.www2.hpe.com/hpsc/doc/public/display?docId=c04735172

 

 

HP StoreVirtual est l’un des pionniers du stockage partagé, aujourd’hui il devient très à la mode avec la monté et la confiance donné à l’hyper-convergence.

 

 

 

Reprenons en 1 ligne quesaco le VSA (Virtual Storage Appliance) : Vous avez plusieurs hyperviseurs avec du stockage local, HP VSA vous créez un stockage partagé depuis ces disques locaux.
Ainsi une réplique des VM stocké de ce nouveau DataStore VSA est répliquée entre tous les Hosts.

 

 

http://www.richardsoneyres.com/wp-content/uploads/blog-images/2014/03/VMware_.jpg

 

 

 

Prise en compte aussi des hyperviseurs OpenStack et Hyper-v

http://www.www8-hp.com/emea_africa/fr/images/FreeVSAScreenShot_28308x220_29_tcm133_1767590_tcm133_1720611_tcm133-1767590.jpg

 

 

Sur un de nos anciens postes nous avons présentés rapidement HP VSA qui reprenait le flambeau à merveille, de la défunte solution de VMware VSA.

http://vroomblog.com/vmware-vsa-storage-appliance-fin-de-commercialisation-1er-avril-2014-vsan-svsan-hp-vsa-openfiler/

 

 

Mais surtout HP offre cette solution gratuitement à la hauteur de 1To par appliance.

Nous allons donc vous présenter son installation

 

 

Prérequis

Pour la version 12 d’HP StoreVirtual les prérequis sont :

  • Minimum de 2 ESX
  • vCenter et ESXi sous version 5.5 (La 6 est dans les tuyaux)
  • 1 Giga Network
  • Stockage Local
  • Chaque VSA fait 4GO RAM + 2 Go pour la FOM
  • Avoir un stockage tierce NFS, iSCSI partagé d’au moins 50 Go pour la FOM (Pour une config de 2 ESXi)

Dans notre cas de figure nous déployons un cluster de 2 ESXi, avec 1 VSA installée en local sur chaque hyperviseur.
Mais nous devons avoir aussi 1 FOM (FailOver Manager) qui est une petite VM qui fait office de Quorum. Son boulot c’est le contrôle des données.

Cette VM est idéalement à héberger sur un autre système. Mais pour les petites structures ou LAB on peut la stocker sur nos ESXi hébergeant VSA par contre sur un stockage partagé tierce afin de la relancer via HA si il y a coupure d’un ESXi.

Idéalement lire cet article reprenant les BEST practice design HP VSA

http://www.its-technidata.de/blog-archiv/blog-artikel-details/hp-storevirtual-manager-requirements/527db2c2c11acfdd08d535d94f91b921/

 

 

 

Download

Avant tous il faut s’enregistrer chez HP et ça se passe ICI

http://www8.hp.com/fr/fr/products/data-storage/server-vsa.html

 

Puis télécharger le package requis pour vSphere

  • HP StoreVirtual VSA 2014 Installer for VMware

 

 

 

Installation

 

Nous optons pour une question de simplicité et management d’installer la console  HP StoreVirtual sur notre vCenter Windows

On exécute sur le serveur :

 

 

HP StoreVirtual VSA 2014 Installer for VMware

 

 

On extrait le Contenu sous C :

 

 

 

En GUI mais si vous rencontrez des soucis de déploiement

Erreur lors du déploiement

Non prise en compte des paramétrages IP,…

Passer via le déploiement en CLI

 

 

Cette utilitaire nous permet le déploiement des VMs VSA et FOM (FailOverManager)

Nous installons dans un premier temps 1 VSA par ESXi

 

 

Ici Nous installerons la console de Management et l’outil de déploiement

 

 

Ici à vous de choisir de faire pointer l’ESX ou vCenter

Nous déployons la 1ere VSA sur le 1 er ESXi, puis la seconde sur le second ESXi,…

 

 

Nous choisissons notre 1er ESXi

 

 

 

Choix du DataStore Local

 

 

Renseigner l’adressage de la VSA

 

 

Son petit nom

 

 

 

Nous attribuons à chaque VSA 1024 Go (1To) vu que nous sommes sur la version gratuite

 

 

Une fois la 1ere VSA déployée faire de même avec la seconde

FOM

 

Update Septembre 2015 :

Nouvelle version de VSA lefthand OS 12.5  

  • –  prise en charge vSphere 6.0
  • –  Pour un cluster de 2 ESXi plus besoin de FOM (Quorum inter VSA) 

Voir : http://h20564.www2.hpe.com/hpsc/doc/public/display?docId=c04735172

 

Nous déployons en plus une VM FOM chargée du contrôle d’intégrité des données

Ici nous la déployons sur 1 de nos 2 ESXi et sur un stockage externe partagé avec le second ESXi.

 

 

 

Nous choisissons une VM FOM

 

 

 

Adressage de la FOM

 

 

 

Félicitation nous avons nos 3 VMs deployées

 

 

 

Next Step la configuration du clustering VSA

 

 

 

 

Share

Stockage : Data Ontap Simulator – Réplication des données “SnapMirror”

images

 

 

Ce post fait suite à celui-ci

Installation et configuration de-netapp data ontap 8-2-1 simulator

 

Installation

 

Ou nous avons vue comment installer le simulateur Netapp DataOntap 8.2.1

Ici nous allons vous présenter la réplication d’un volume avec une autre machine NetAPP

Ceci est même un prérequis pour ceux qui souhaite tester VMware SRM (VMware vCenter Site recovery manager)

Donc nous devons installer une seconde machine sur un DataCenter virtuel distant.
La procédure de déploiement est exactement la même que pour la 1ere, via VMware Converter.

 

Mais ici au premier démarrage nous allons modifier le numéro de série du système.

Si nous gardons le même, la réplication est impossible car cela est vue comme la même baie.

Pour se faire au premier démarrage sans faire aucune configuration (important car les disques, à la configuration sont assignés au numéro de série)

 

Au démarrage après quelques secondes, il vous est demandé de faire « entrée » ou une autre touche

Taper donc une autre touche

 

Vous arrivez sur cette fenêtre ici faite

D:\ScreenShot\ScreenHunter_250 May. 06 10.52.jpg

set bootarg.nvram.sysid=4082368508

set SYS_SERIAL_NUM=4082368508

boot

 

 

Selon notre paquage de VM « V8.2.1 » ce numéro de série correspond à la licence pour machine non ESX (Workstation, virtualbox,…)

 

 

 

Votre machine démarre, puis faite la configuration comme pour la 1ere mais bien sûr avec Hostname et IP diffèrent

 

Et pareillement faite la même config post Install :

  • Ouverture portail web
  • Licences (voir ci-dessous)
  • Ajout de disques
  • Création d’un agrégat de disque
  • Creation Volume
  • Creation NFS

 

 

Copier / coller ces numéros de licences

  • CIFS MDCRSXCUTXKZOFABGAAAAAAAAAAA CIFS protocol
  • FCP KSXUTXCUTXKZOFABGAAAAAAAAAAA Fibre Channel Protocol
  • FlexClone GWOCWXCUTXKZOFABGAAAAAAAAAAA FlexClone
  • Insight_Balance MJZCAYCUTXKZOFABGAAAAAAAAAAA OnCommand Insight and Balance products
  • iSCSI YXZFTXCUTXKZOFABGAAAAAAAAAAA iSCSI protocol
  • NFS AJECSXCUTXKZOFABGAAAAAAAAAAA NFS protocol
  • SnapLock ELKGXXCUTXKZOFABGAAAAAAAAAAA SnapLock Compliance
  • SnapLock_Enterprise APBOZXCUTXKZOFABGAAAAAAAAAAA SnapLock Enterprise
  • SnapManager QFIVXXCUTXKZOFABGAAAAAAAAAAA SnapManager and SnapDrive products
  • SnapMirror UBRNVXCUTXKZOFABGAAAAAAAAAAA SnapMirror, including synchronous SnapMirror
  • SnapProtect CAGKYXCUTXKZOFABGAAAAAAAAAAA SnapProtect Applications
  • SnapRestore IHTYUXCUTXKZOFABGAAAAAAAAAAA SnapRestore
  • SnapVault SQMRWXCUTXKZOFABGAAAAAAAAAAA SnapVault primary and secondary

 

 

Une fois la 2 eme machine configurée nous la considérons comme notre VM de secours de PRA (Plan de reprise d’activité)

 

 

Activation du mirroring « SnapMirror »

 

 

Se loguer et activer la réplication « Snapmirror » sur la source et destination

options snapmirror.enable

Il est sur OFF

options snapmirror.enable On

Destination

options snapmirror.access

Ce doit être sur legacy

 

 

Autorisation

 

Dans la VM de destination PRA et la source nous allons autoriser la communication bi directionnelle

Ici pas de VI ou nano mais des commandes Netapp

Rdfile => lire

Wrfile = écrire

wrfile /etc/snapmirror.allow

Mettre vos IP source ou destinations avec nom

Et « Crtl+C » pour enregistrer

Et lire pour confirmer avec

rdfile /etc/snapmirror.allow

 

Source

 

Destination

 

Initialisation du miroir

Vos 2 volumes créés précédemment, doivent avoir la même taille ou le volume de destination plus grand que la source

 

Faite sur la destination « PRA »

Vol status

 

Nous avons le nom de nos volumes et nous devons le passer en mode Restrict

vol restrict vol1

 

 

La synchronisation unidirectionnel est initié par la machine de destination « PRA »

Donc nous initialisons depuis la destination

snapmirror initialize -S 192.168.7.50:vol1 -w dataontappra:vol1

192.168.7.50 : source

Dataontappra : bien mettre le nom local

 

 

Une fois que la synchro est bien paramétrée, nous mettons une VM dans notre DataStore répliqué

 

On relance la replication

 

 

On va sur notre console VMware et on lance

Snapmirror status

La réplication est bien en marche

 

 

 

Planification de la réplication

 

Comme la synchronisation est initiée par la destination, nous allons créer un Crontab sur notre VM PRA

Ici synchro toute les heures

wrfile /etc/snapmirror.conf

192.168.7.50:vol1 dataontappra:vol1 – 0 * * * 

 

 

 

 

Et voilà, manque plus qu’à tester SRM

Share

Stockage : Installation et configuration de Netapp Data Ontap 8.2.1 simulator

 

images

 

 

Nous allons vous présenter ici comment installer le simulateur Netapp 8.1.2 sous un ESXi

 

 

Avant tous il est nécessaire de télécharger le simulateur via votre compte NetApp depuis :

http://now.netapp.com/NOW/cgi-bin/simulator

Ou en fouillant un peu sur le net

Prendre la dernière version compatible ESXi, ici nous sommes sous la 8.2.1.

 

 

 

Extraire le fichier « vsim_esx-7cm »qui suffisant pour notre installation de node indépendant.

Le fichier « vim_esx-cm » est pour la mise en place d’un cluster non traité ici

 

 

Vous aurez donc

Faite un V2V de votre VM avec VMware Converter

Source : machine Workstation

Destination : Infrastructure

 

 

Vous pouvez allumer votre VM

Une fois la machine allumée, lorsque vous voyez cet écran fait « Crtl+C »

 

 

 

Vous aurez

 

 

Reset de configuration :

4 “Clean configuration and initialize all disks”

Appuyer “Y” pour valider

L’opération va prendre un peu de temps ensuite votre VM va rebooter

 

 

Hostname

 

 

Configure Interface Group : n

 

 

 

Inscrire les IP de vos interfaces

 

 

 

Pour le reste faite « Entrée » pour accepter les valeurs par défauts et mettre un mot de passe pour “root”

 

 

 

 

Télécharger et installer le client Netapp « netapp system manager »

Nous nous sommes procuré la version :

sysmgr-setup-3-1-2RC2-win.exe

La version de Java 7 minimum est requise

Lancer l’utilitaire :

 

 

Mettre l’IP précédemment créée (la première du pool)

 

 

 

Attacher le système à la première carte

 

 

 

Ouvrez en double cliquant sur notre baie

 

 

 

Vous aurez très probablement une erreur de login ( 500 connection refused ), pas de panique voir ci-dessous

 

 

Pour débloquer le login http faite :

Sous SSH ou console VMware

options httpd

 

Vous avez :

httpd.admin.enable off

httpd.admin.ssl.enable off

Passer les 2 paramètres à true

Options httpd.admin.enable true

Options httpd.admin.ssl.enable true

 

options httpd

 

 

On se relogue

 

 

 

Bienvenue dans l’interface

 

 

 

Activation des modules de Netapp

Dans le dossier de notre VM téléchargée nous avons un TXT avec les licences à coller au serveur afin d’activer tous les modules ci-dessous

 

 

Sous Configuration => System Tools => Licences

Copier / coller simplement le bloc ci-dessous pour tout activer

Licence :

COXCBSUQACAAAAABGAAAAAAAAAAA,ADTGCSUQACAAAAABGAAAAAAAAAAA,WGKOESUQACAAAAABGAAAAAAAAAAA,CUUOISUQACAAAAABGAAAAAAAAAAA,OIVRBSUQACAAAAABGAAAAAAAAAAA,QTZNASUQACAAAAABGAAAAAAAAAAA,UVFSFSUQACAAAAABGAAAAAAAAAAA,QZWZHSUQACAAAAABGAAAAAAAAAAA,GQDHGSUQACAAAAABGAAAAAAAAAAA,KMMZDSUQACAAAAABGAAAAAAAAAAA,SKBWGSUQACAAAAABGAAAAAAAAAAA,YROKDSUQACAAAAABGAAAAAAAAAAA,IBIDFSUQACAAAAABGAAAAAAAAAAA

 

Sur notre interface de nouveaux modules apparaissent

 

 

 

Augmentation de l’espace de stockage

Dans les propriétés de la VM nous voyons plus de 250 GO

 

 

 

Storage => Aggregates

Nous n’avons qu’un agrégat de moins de 1Go correspondant au système

 

 

 

Afin de récupérer l’intégralité de l’espace nous avons suivi ce petit tuto

https://someitnotes.wordpress.com/2013/09/18/netapp-simulator-increasing-capacity-to-250-gb/

Via SSH faire copier / coller de ces command

priv set advanced

useradmin diaguser unlock

useradmin diaguser password

Mettre un password

systemshell

login: diag

Password:

setenv PATH “${PATH}:/usr/sbin”

echo $PATH

Vous devez avoir ceci

/sbin:/bin:/usr/sbin:/usr/bin:/usr/games:/usr/local/sbin:/usr/local/bin:/var/home/diag/bin:/usr/sbin

cd /sim/dev

ls ,disks/

sudo vsim_makedisks -n 14 -t 31 -a 2

sudo vsim_makedisks -n 14 -t 31 -a 3

ls ,disks/

exit

useradmin diaguser lock

priv set admin

reboot

 

Pour plus de détails voir le lien fournis plus haut

 

 

 

Une fois le reboot, de nouveau en SSH faite

disk assign all

Tous les disques sont maintenant assignés à notre baie

 

 

 

Sous l’interface

Storage => Aggregates => Create

 

 

Select Disks

 

 

 

Sélectionner le pool de 106Go

 

 

 

Create

 

 

 

Volumes = >Create

 

 

 

Nom vol1

Size : 80Go

Thin provisionning

 

 

 

Activation du service NFS

 

 

 

Service activé

 

 

 

Partage NFS

Storage => Exports

Supprimer l’export créé par défaut

ScreenHunter_264 May. 11 12.34

 

 

A créer en CLI via putty (Surtout pour les utilisateurs de SRM)

 exportfs -p rw=192.168.7.0/24,root=192.168.7.0/24 /vol/vol1

 

 

 

Ajout dans notre ESXi

 

 

Montage NFS réalisé

 

 

 

Pourquoi ne pas maintenant réaliser un miroir avec une autre VM Netapp

 

 

 

 

 

Share

LAB EMC VNx Simulator : Configuration d’un partage NFS pour ESXi

 

Cette installation se compose en 4 parties

LAB EMC VNx Simulator : INSTALLATION d’une Baie NAS EMC virtuelle

LAB EMC VNx Simulator : Configuration du Data Mover

LAB EMC VNx Simulator : Configuration d’un partage CIFS

LAB EMC VNx Simulator : Configuration d’un partage NFS pour ESXi

 

 

Pour la Demo nous avons créé un partage CIFS que nous allons maintenant supprimer, si ce dernier n’a pas été créé ou que vous tombez directement sur ce post passer directement à la création quelques ScreenShot plus bas

 

 

Storage => CIFS

Delete et OK

Dans notre cas et comme pour tout lab ça ne marche jamais du premier coups, on a du supprimer le montage via CLI et pourquoi pas faire l’ensemble de la config ainsi.

 

 

 

 

Dans

System => a droite Run Command

 

 

 

On démonte le point CIFS éxistant

server_umount server_2 -perm  Pool1

 

Puis suppression

nas_fs -delete Pool1 -o umount=yes

 

 

Création du nouveau File System

On créer le FS de 90Go

nas_fs -n fs_test2 -create size=90000M pool=clar_r5_performance -option mover=server_2

 

 

On monte un point de montage NFS avec pour nom “NFS02”

server_mount server_2 fs_test2 /NFS02

 

 

Puis on export les points de montages afin de les présenter aux ESXi

server_export server_2 -P nfs /NFS02

server_export server_2 -P nfs -o root=192.168.7.0/24 /NFS02

server_export server_2 -P nfs -o rw=192.168.7.0/24 /NFS02

 

 

 

On contrôle

On trouve bien notre FS

 

 

 

Dans FS Export on trouve bien notre export

 

 

 

On se dirige vers notre ESXi

Et on monte notre point NFS

 

 

 

Notre petit tour du simulateur s’arrête ici maintenant a vous de voir pour vous créer vos propre test.

  • Snapshot
  • Data Migration
  • PRA
  • Replication

 

 

 

Enjoiy !!!

 

 

 

 

 

 

Share

LAB EMC VNx Simulator : Configuration d’un partage CIFS

 

Cette installation se compose en 4 parties

LAB EMC VNx Simulator : INSTALLATION d’une Baie NAS EMC virtuelle

LAB EMC VNx Simulator : Configuration du Data Mover

LAB EMC VNx Simulator : Configuration d’un partage CIFS

LAB EMC VNx Simulator : Configuration d’un partage NFS pour ESXi

 

 

 

La configuration du partage CIFS est lancée tous de suite après celui du Data Mover, à vous de voir si vous souhaitez passer par cette étape pour simuler la création de partage d’entreprise, ou vous pouvez passer directement à la création du partage NFS pour ESX dans l’article suivant

 

 

Configuration du partage CIFS

 

 

Next

 

 

Nous gardons par défaut

 

 

Next : Nous optons pour celui qui a plus de place

 

 

Nom du pool : Pool1

Taille Maximum

Découpage de l’espace en volume logique

Déduplication Activé

VAAI pour fast copy

 

 

Nous passons en thin provisionning sur notre stockage

Avec une limitation a + 25% overprovisionnée

 

 

Sans Quota

 

 

Submit

 

 

Next

 

 

No

 

 

Yes

 

 

Next

 

 

Next

 

 

Next par défaut

 

 

Create

 

 

Next

 

 

Next

 

 

Pour simplifier nous optons pour un serveur StandAlone

 

 

Next

 

 

Mettre un Mot de passe

 

 

Workgroup Standard

 

 

Donner un nom

 

 

Next

 

 

Démarrage du service

 

 

Submit

 

 

Next

 

 

Select de notre serveur et Next

 

 

Donner un nom au partage

 

 

Submit

 

 

Next

 

 

No

 

 

On souffle un bon coup et c’est terminé

 

 

 

Vous pouvez passer à la configuration du partage NFS pour ESXi

 

 

 

 

Share