[:fr]

  • Source : https://www.guillaume-leduc.fr/mise-en-place-dun-cluster-proxmox-ve.html

Etape 1 : Noeud Proxmox + backup

Etape 2 : Multi noeud et migration a chaud

Source : https://memo-linux.com/proxmox-migration-a-chaud-dune-machine-virtuelle/

Etape 3 : Replication de VM

Source : https://memo-linux.com/proxmox-5-cluster-2-noeuds-avec-un-stockage-replique/

Attention ne fonctionne que en ZFS

Avantages : PAs besoin de stockage externe comme le NAS ou le SAN

Etape 4 : Creation de cluster HA avec Ceph

Tuto : https://memo-linux.com/proxmox-5-mise-en-place-dun-cluster-ha-avec-ceph/

Commande utile

Step 2: Create Backup

cd /var/lib/vz/dump
 
# create backup
 
vzdump 100
 
# this will create backup for vm id 100
 

Step 3: Move backup file via scp

cd /var/lib/vz/dump
 
scp vzdumpqemu1222016_09_1314_12_32.vma root@192.168.1.1:/var/lib/vz/dump/vzdumpqemu1222016_09_1314_12_32.vma
 

Step 4: Restore the backup

 
# this is one single command
 
qmrestore vzdumpqemu1222016_09_1314_12_32.vma 500

Avec ceph

Avec des tests : https://indico.math.cnrs.fr/event/800/session/2/contribution/15/material/slides/0.pdf

KVM : utilisé par Red Hat Virtualization et proxmox ( Faire un petit résumé )

Autre info proxmox : https://neverendingsecurity.wordpress.com/tag/proxmox-ve/

Exemple de cluster proxmox

Je poursuis mes expériences avec mon projet de fin d’année. Après avoir préparé le partage de stockage en réseau NFS, je peux attaquer le cluster de virtualisation.

Je vous en avais déjà parlé par ici mais comme j’ai abandonné iSCSI au profit de NFS, j’ai dû recommencer mes articles. Néanmoins ce qu’il y est dit est toujours valable. D’ailleurs, vous pouvez suivre la procédure pour installer deux Proxmox séparément afin d’en faire un cluster.

L’infrastructure a légèrement évolué. Je cherche a obtenir quelque chose qui ressemblerait à ça :

Schéma-cluster-HA

Création du cluster

Je propose de commencer par un cluster à deux nœuds (les étapes restant les mêmes pour ajouter des nouveaux nœuds…). Tout va se faire avec le Proxmox VE cluster management toolkit, que nous allons utiliser grâce à la commande pvecm.

Avant de démarrer, choisissez bien vos adresses IP (fixes…) vos noms de machine et le nom de votre cluster carplus rien ne pourra être modifié ensuite.

MISE EN PLACE

Si vous êtes prêt, connectez-vous en SSH ou CLI à la première machine du cluster, afin d’y créer celui-ci (chez moi je commence par la machine nommée atlas, à l’adresse 192.168.100.20 et mon cluster s’appelle « titans ») :

root@atlas:~# pvecm create titans
Restarting pve cluster filesystem: pve-cluster[dcdb] notice: wrote new cluster config '/etc/cluster/cluster.conf'
.
Starting cluster:
   Checking if cluster has been disabled at boot... [  OK  ]
   Checking Network Manager... [  OK  ]
   Global setup... [  OK  ]
   Loading kernel modules... [  OK  ]
   Mounting configfs... [  OK  ]
   Starting cman... [  OK  ]
   Waiting for quorum... [  OK  ]
   Starting fenced... [  OK  ]
   Starting dlm_controld... [  OK  ]
   Tuning DLM kernel config... [  OK  ]
   Unfencing self... [  OK  ]

Le cluster est maintenant créé, vous pouvez avoir des informations dessus avec la commande suivante :

root@atlas:~# pvecm status
Version: 6.2.0
Config Version: 1
Cluster Name: titans
Cluster Id: 7043
Cluster Member: Yes
Cluster Generation: 4
Membership state: Cluster-Member
Nodes: 1
Expected votes: 1
Total votes: 1
Node votes: 1
Quorum: 1
Active subsystems: 5
Flags:
Ports Bound: 0
Node name: atlas
Node ID: 1
Multicast addresses: 239.192.27.158
Node addresses: 192.168.100.20

Et même savoir rapidement quels sont les nœuds qui le composent :

root@atlas:~# pvecm nodes
Node  Sts   Inc   Joined               Name
   1   M      4   2013-05-18 22:51:30  atlas

Facile non ? Vous allez voir, la suite l’est tout autant !

AJOUTER UN DEUXIÈME NŒUD

Pour ajouter votre deuxième nœud, connectez-vous en SSH à celui-ci (chez moi c’est epimethee, sur 192.168.100.21). Tout se joue ensuite en une commande :

root@epimethee:~# pvecm add 192.168.100.20
The authenticity of host '192.168.100.20 (192.168.100.20)' cant be established.
ECDSA key fingerprint is 84:4f:0b:24:a5:54:44:80:34:fc:e3:1e:04:90:03:92.
Are you sure you want to continue connecting (yes/no)? yes
root@192.168.100.20s password:
copy corosync auth key
stopping pve-cluster service
Stopping pve cluster filesystem: pve-cluster.
backup old database
Starting pve cluster filesystem : pve-clustercant create shared ssh key database '/etc/pve/priv/authorized_keys'
.
Starting cluster:
   Checking if cluster has been disabled at boot... [  OK  ]
   Checking Network Manager... [  OK  ]
   Global setup... [  OK  ]
   Loading kernel modules... [  OK  ]
   Mounting configfs... [  OK  ]
   Starting cman... [  OK  ]
   Waiting for quorum... [  OK  ]
   Starting fenced... [  OK  ]
   Starting dlm_controld... [  OK  ]
   Tuning DLM kernel config... [  OK  ]
   Unfencing self... [  OK  ]
generating node certificates
merge known_hosts file
restart services
Restarting PVE Daemon: pvedaemon.
Restarting PVE API Proxy Server: pveproxy.
successfully added node 'epimethee' to cluster.

Alors c’était dur ? Si vous retournez sur la première machine et que vous refaites la commande pvecm nodes, vous obtiendrez :

root@atlas:~# pvecm nodes
Node  Sts   Inc   Joined               Name
   1   M      4   2013-05-18 22:51:30  atlas
   2   M      8   2013-05-18 22:55:07  epimethee
:)

Le deuxième nœud est apparu Et si vous passez par l’interface web :

Cluster-Proxmox-VE

 [:en]

  • Source : https://www.guillaume-leduc.fr/mise-en-place-dun-cluster-proxmox-ve.html

KVM : utilisé par Red Hat Virtualization et proxmox ( Faire un petit résumé )

Autre info proxmox : https://neverendingsecurity.wordpress.com/tag/proxmox-ve/

Exemple de cluster proxmox

Je poursuis mes expériences avec mon projet de fin d’année. Après avoir préparé le partage de stockage en réseau NFS, je peux attaquer le cluster de virtualisation.

Je vous en avais déjà parlé par ici mais comme j’ai abandonné iSCSI au profit de NFS, j’ai dû recommencer mes articles. Néanmoins ce qu’il y est dit est toujours valable. D’ailleurs, vous pouvez suivre la procédure pour installer deux Proxmox séparément afin d’en faire un cluster.

L’infrastructure a légèrement évolué. Je cherche a obtenir quelque chose qui ressemblerait à ça :

Schéma-cluster-HA

Création du cluster

Je propose de commencer par un cluster à deux nœuds (les étapes restant les mêmes pour ajouter des nouveaux nœuds…). Tout va se faire avec le Proxmox VE cluster management toolkit, que nous allons utiliser grâce à la commande pvecm.

Avant de démarrer, choisissez bien vos adresses IP (fixes…) vos noms de machine et le nom de votre cluster carplus rien ne pourra être modifié ensuite.

MISE EN PLACE

Si vous êtes prêt, connectez-vous en SSH ou CLI à la première machine du cluster, afin d’y créer celui-ci (chez moi je commence par la machine nommée atlas, à l’adresse 192.168.100.20 et mon cluster s’appelle « titans ») :

root@atlas:~# pvecm create titans
Restarting pve cluster filesystem: pve-cluster[dcdb] notice: wrote new cluster config '/etc/cluster/cluster.conf'
.
Starting cluster:
   Checking if cluster has been disabled at boot... [  OK  ]
   Checking Network Manager... [  OK  ]
   Global setup... [  OK  ]
   Loading kernel modules... [  OK  ]
   Mounting configfs... [  OK  ]
   Starting cman... [  OK  ]
   Waiting for quorum... [  OK  ]
   Starting fenced... [  OK  ]
   Starting dlm_controld... [  OK  ]
   Tuning DLM kernel config... [  OK  ]
   Unfencing self... [  OK  ]

Le cluster est maintenant créé, vous pouvez avoir des informations dessus avec la commande suivante :

root@atlas:~# pvecm status
Version: 6.2.0
Config Version: 1
Cluster Name: titans
Cluster Id: 7043
Cluster Member: Yes
Cluster Generation: 4
Membership state: Cluster-Member
Nodes: 1
Expected votes: 1
Total votes: 1
Node votes: 1
Quorum: 1
Active subsystems: 5
Flags:
Ports Bound: 0
Node name: atlas
Node ID: 1
Multicast addresses: 239.192.27.158
Node addresses: 192.168.100.20

Et même savoir rapidement quels sont les nœuds qui le composent :

root@atlas:~# pvecm nodes
Node  Sts   Inc   Joined               Name
   1   M      4   2013-05-18 22:51:30  atlas

Facile non ? Vous allez voir, la suite l’est tout autant !

AJOUTER UN DEUXIÈME NŒUD

Pour ajouter votre deuxième nœud, connectez-vous en SSH à celui-ci (chez moi c’est epimethee, sur 192.168.100.21). Tout se joue ensuite en une commande :

root@epimethee:~# pvecm add 192.168.100.20
The authenticity of host '192.168.100.20 (192.168.100.20)' cant be established.
ECDSA key fingerprint is 84:4f:0b:24:a5:54:44:80:34:fc:e3:1e:04:90:03:92.
Are you sure you want to continue connecting (yes/no)? yes
root@192.168.100.20s password:
copy corosync auth key
stopping pve-cluster service
Stopping pve cluster filesystem: pve-cluster.
backup old database
Starting pve cluster filesystem : pve-clustercant create shared ssh key database '/etc/pve/priv/authorized_keys'
.
Starting cluster:
   Checking if cluster has been disabled at boot... [  OK  ]
   Checking Network Manager... [  OK  ]
   Global setup... [  OK  ]
   Loading kernel modules... [  OK  ]
   Mounting configfs... [  OK  ]
   Starting cman... [  OK  ]
   Waiting for quorum... [  OK  ]
   Starting fenced... [  OK  ]
   Starting dlm_controld... [  OK  ]
   Tuning DLM kernel config... [  OK  ]
   Unfencing self... [  OK  ]
generating node certificates
merge known_hosts file
restart services
Restarting PVE Daemon: pvedaemon.
Restarting PVE API Proxy Server: pveproxy.
successfully added node 'epimethee' to cluster.

Alors c’était dur ? Si vous retournez sur la première machine et que vous refaites la commande pvecm nodes, vous obtiendrez :

root@atlas:~# pvecm nodes
Node  Sts   Inc   Joined               Name
   1   M      4   2013-05-18 22:51:30  atlas
   2   M      8   2013-05-18 22:55:07  epimethee
:)

Le deuxième nœud est apparu Et si vous passez par l’interface web :

Cluster-Proxmox-VE

 [:]