La reconversion de nombreuses organisations vers Proxmox VE n’est plus une tendance : c’est un projet en cours. D’ici 2025, la combinaison de coûts, simplicité opérationnelle et maturité technique amène les équipes IT à privilégier la voie VMware → Proxmox VE, avec des objectifs clairs : réduire la complexité et le TCO, maintenir (ou améliorer) la résilience et minimiser les temps d’indisponibilité.
Ce rapport technique présente, de manière structurée, ce qu’il faut vraiment savoir et faire : architecture de base de Proxmox, options de stockage et réseau, méthodes de migration concrètes (automatiques et manuelles), des checklists préparatoires, la configuration optimale des VM, HA, sauvegardes et les détails fins qui peuvent compromettre un projet si l’on ne s’y prépare pas à l’avance.
Proxmox VE en 5 idées clés (l’essentiel)
- Plateforme : basé sur Debian GNU/Linux, noyau Linux, QEMU/KVM pour les VM et LXC pour les conteneurs. Gestion via GUI web, CLI et REST API.
- Cluster : multi-masters avec quorum (Corosync). Recommandé ≥ 3 nœuds; pour un cluster à 2 nœuds, ajouter un QDevice.
- Stockage : plugins natifs (Ceph RBD, ZFS, LVM/firewall, répertoire, NFS/SMB, iSCSI/FC). Les contenus (disques, ISO, sauvegardes) sont déclarés au niveau Datacenter.
- Configuration de Proxmox : fichiers standards dans /etc/pve, sauvegardés par pmxcfs et répliqués sur tous les nœuds.
- Licence : logiciel FLOSS (AGPLv3); les abonnements donnent accès au dépôt Enterprise (stabilisé) et support technique, mais toutes les fonctionnalités sont disponibles sans coût supplémentaire.
Réseau et stockage : décisions clés pour la migration
Réseau
- vmbrX = ponts Linux (commutateurs virtuels de l’hôte).
- VLAN : par NIC invité ou à n’importe quel niveau (ex.,
bond0.20comme bridge-port). - Bonds pour LAG/LACP.
- Corosync: liaison dédiée et redondante (faible latence et absence de congestion).
- SDN : zones VLAN, VXLAN, etc., selon la conception du réseau.
Stockage (résumé pratique)
- Ceph RBD (recommandé partagé) : premier choix pour HA/migration en live.
- NFS/SMB : simple et flexible ; avec qcow2 possibles instantanés pour VM (pas pour conteneurs).
- ZFS local : excellent dans un petit cluster + réplication ZFS (asynchrone ; RPO > 0).
- SAN (FC/iSCSI) :
- LVM-thick partagé : simple ; snapshots non natifs.
- Dans Proxmox VE 9.0 (août 2025), arrive “Snapshots as Volume-Chain” (vue technique) qui permet des snapshots de type qcow2 sur LVM-thick (sauf état TPM).
- Un LUN par disque : snapshot en cabine mais opération très coûteuse (à éviter à grande échelle).
- ZFS sur iSCSI : viable avec des baies compatibles et outillage supporté.
- Multipath : indispensable si la SAN dispose de chemins redondants.
Checklist préalable (pré-vol) — n’entamez pas la migration sans cela
- Version : Proxmox VE 8 ou supérieur, à jour.
- Inventaire : BIOS/UEFI, disques et contrôleurs, vTPM (si chiffrement), IPs et réservations DHCP, vSAN (si utilisé), chaîne de snapshots.
- Outils & pilotes invité : désinstaller VMware Tools; préparer VirtIO (Windows) et vérifier virtio-scsi dans initramfs (Linux).
- Sécurité : si chiffrement complet du disque avec clés dans vTPM, désactiver vTPM et conserver les clés en lieu sûr (vTPM ne migre pas).
- Réseau/Corosync : liaisons dédiées, VLAN, bonds ; prévoir les ponts
vmbrde l’hôte. - Stockage : définir cible pour chaque VM (Ceph/NFS/ZFS/SAN).
- Sauvegardes : choisir Proxmox Backup Server (déduplication + incrémental + live-restore) ou vzdump.
- Plan de coupure et de restauration : essais avec 1-2 VM, fenêtre de maintenance, procédure de rollback écrite.
Meilleures pratiques pour les VM sous Proxmox VE (pour éviter les surprises)
- CPU
- Même modèle sur tous les nœuds →
host. - Mélange de CPU/montée en charge future → générique
x86-64-v(pour préserver la migration en direct).
- Même modèle sur tous les nœuds →
- NIC
- VirtIO par défaut (faible surcharge). e1000/rtl8139 uniquement pour anciens OS sans VirtIO.
- Mémoire
- Ballooning Device activé (pour la télémétrie, même sans ballooning).
- Disques
- Buses SCSI +
virtio-scsi-single; discard/trimming sur thin ; IO thread pour charge IO importante.
- Buses SCSI +
- Agent
- Installer qemu-guest-agent pour des arrêtages propres, IP, hooks, etc.
- Démarrage
- BiOS/Legacy ou OVMF/UEFI selon la source. En cas d’échec UEFI, créer une entrée EFI et ajouter un EFI Disk.
Méthodes de migration (de moins à plus d’intervention)
1) Import automatique depuis ESXi (rapide et supporté)
Proxmox dispose d’un importeur ESXi (via GUI/API) :
- Datacenter → Storage → Add → ESXi. Utiliser les identifiants du hôte ESXi (vCenter fonctionne mais plus lent).
- Vérifier les VM disponibles dans le panneau d’importation.
- Sélectionner le stockage de destination, le pont réseau et ajuster le hardware (modèle NIC, ISO, stockage par disque, etc.).
- Éteindre la VM sur ESXi pour éviter les incohérences.
- Lancer l’import dans Proxmox et démarrer. Installer VirtIO/agent QEMU. Vérifier MAC/DHCP/IP.
Précautions :
- vSAN : les disques en vSAN ne s’importent pas ; il faut les déplacer en premier vers un autre datastore.
- Disques cryptés : déchiffrer si nécessaire.
- Datastores avec caractères spéciaux (ex., ‘+’) : renommer avant importation.
- Snapshots volumineux en origine : ralentissement de l’importation.
Importation en direct : permet de lancer la VM au début de l’importation, limitant le downtime. Attention : durant cette opération, le résultat peut contenir des données non synchronisées si le processus échoue. Tester en laboratoire au préalable.
Pour une importation en masse : limiter la concurrence (≤ 4 disques simultanés). L’API d’ESXi limite la vitesse ; l’outil esxi-folder-fuse peut aider, mais évitez de multiplier les importations parallèles. Surveillez la RAM (cache en lecture).
2) Exporter OVF/OVA + qm importovf
En cas d’impossibilité d’importation directe :
# Exporter avec ovftool (ESXi)
./ovftool vi://root@ESXI-FQDN/NOM-VM /exports/NOM-VM/
# Ou depuis vCenter
./ovftool vi://utilisateur:motdepasse@VCENTER/DC/vm/NOM-VM /exports/NOM-VM/
# Importer dans Proxmox
qm importovf NOM-VM.ovf
# Ajustements recommandés
qm set --cpu x86-64-v2-AES --scsihw virtio-scsi-single
Pour Windows, démarrer en mode IDE/SATA, installer virtio drivers, puis passer en VirtIO SCSI.
3) qm disk import (importation/conversion directe VMDK)
Si Proxmox détecte des *.vmdk (en NFS/SMB) :
# Créer une VM sans disque par défaut
# Importer et convertir directement
qm disk import Server.vmdk --format qcow2
# La VM apparaît comme "Unused" ; il faut attacher le disque en SCSI/VirtIO et définir l’ordre de boot
4) Attacher et déplacer (downtime quasi nul)
Si ESXi et Proxmox partagent un datastore :
- Ajouter le partage à Proxmox en tant que storage (type Disk Image).
- Créer la VM dans Proxmox avec le disque OS dans ce storage, en format vmdk (Proxmox crée le descriptor).
- Remplacer le descriptor par le VMDK source, et pointer l’Extent vers le
*-flat.vmdkoriginel (chemin relatif). - Démarrer la VM en Proxmox (démarre depuis le fichier -flat.vmdk).
- Déplacer à chaud le disque vers le stockage final (Disk Action → Move Storage).
- Désinstaller VMware Tools, installer l’agent QEMU/VirtIO et changer en VirtIO SCSI.
Haute disponibilité (HA) sans mauvaises surprises
- Corosync : latence faible et liaison dédiée ; en cas de surcharge (sauvegarde/stockage), les timeouts augmentent et peut se produire un self-fence.
- Fencing : si un nœud perd le quorum, il se re-reboote pour assurer la cohérence avant de redémarrer les VM sur un autre nœud.
- Disques : pour un failover efficace, les VM doivent être sur un stockage partagé ou utiliser la réplication ZFS asynchrone (avec RPO minime).
- Sans COLO : à partir de 2024/25, aucune exécution en lockstep de 2 VM simultanées (fonction COLO de QEMU en cours de développement upstream).
Sauvegarde et récupération : intégrez Proxmox Backup Server
- Proxmox Backup Server (PBS) : déduplication indépendante du FS, incrémentale (juste les changements), sauvegardes à chaud rapides et live-restore (lancer la VM en même temps que la restauration).
- vzdump : méthode classique basée sur des fichiers.
- Stratégie : planifier des sauvegardes quotidiennes incrémentielles et hebdomadaires complètes, valider les restaurations, étiqueter selon le SLA et prévoir une test de reprise après sinistre.
Calendriers et opérations : combien de temps cela prend réellement
- VM moyenne (200 Go) dans le même centre de données (10 GbE)
- Préparations/tests : 30–60 min
- Importation automatique : 15–45 min
- Réglages post-importation (drivers/réseau) : 10–20 min
- Downtime typique : 10–30 min (ou moins avec live-import)
- Boucle de 20 VM (tailles variées)
- Planification par lots (≤ 4 disques simultanés), de préférence en nuit
- Equipe dédiée : 1 surveille API ESXi et limiteur de débit, 1 ajuste drivers/agents, 1 valide applications
Renforcement rapide après coupure (10 minutes)
- Réattribuer les réservations DHCP ou IP statiques (changer la MAC).
- Activer discard et IO thread là où nécessaire.
- Installer qemu-guest-agent et VirtIO sur toutes les VM invitées.
- Planifier les sauvegardes vers PBS (et tester le live-restore).
- Migration à chaud entre nœuds (test de migration en direct).
- Vérifier le firewall (Datacenter/Nœud/VM) et le monitoring (CPU steal, balloon, latences).
Tableau de référence rapide (décision technique & SEO)
| Thème | VMware (ESXi/vCenter) | Proxmox VE |
|---|---|---|
| Licences | Propriétaire | FLOSS (AGPLv3) + abonnement optionnel |
| Format disque | VMDK | QCOW2/RAW (assume import VMDK) |
| Import ESXi | — | Intégré (GUI/API), live-import |
| Cluster/HA | vSphere HA/DRS | Corosync + HA, migration en direct |
| Sauvegardes | Écosystème VADP | Proxmox Backup Server (déduplication, incrémentiel, live-restore) |
| Réseau/SDN | vDS/NSX | Linux bridge/Bond/VLAN + SDN |
Erreurs courantes (et comment ne pas les répéter)
- UEFI sans chemin : ajouter une entrée EFI et un EFI Disk.
- Échec au démarrage après passage en VirtIO : démarrer avec IDE/SATA, installer les pilotes VirtIO, revenir en VirtIO SCSI.
- vSAN : déplacer les disques vers un autre datastore avant importation.
- vTPM : l’état ne migre pas ; désactiver et conserver les clés, en lieu sûr.
- Importations bloquées : surcharge, réduire la concurrence, consolider les snapshots, éviter vCenter si performance maximale voulue ; tester en laboratoire.
Conclusion : migrer de VMware à Proxmox sans stress (et plus simple en 2025)
Avec l’importeur ESXi intégré, le live-import, une architecture de stockage flexible et la sauvegarde avancée, Proxmox VE offre une voie réaliste pour migrer vos charges critiques avec un downtime maîtrisé. La clé ne réside pas dans un bouton magique, mais dans la conception (réseau, stockage), la phase préparatoire, un pilotage avec VM test, et un runbook précis pour chaque méthode de migration.
Questions fréquentes (SEO friendly)
Comment passer rapidement de VMware à Proxmox VE avec peu de downtime ?
Utilisez l’importeur ESXi avec live-import ou la méthode Attacher et Déplacer sur un datastore partagé. Préparez les pilotes VirtIO et le qemu-guest-agent avant l’arrêt.
Comment convertir un VMDK en QCOW2 sous Proxmox ?
Avec qm disk import :
qm disk import disque.vmdk --format qcow2
Puis attachez le disque (SCSI/VirtIO) et définissez l’ordre de boot.
Est-il possible d’importer directement depuis vCenter ?
Oui, mais il est souvent plus efficace d’importer via l’hôte ESXi. Alternativement, exportez l’OVF/OVA avec ovftool et utilisez qm importovf dans Proxmox.
Faut-il trois nœuds pour un cluster Proxmox en production ?
Pour un quorum stable, oui: au moins 3 votes. Avec 2 nœuds, ajoutez un QDevice pour le troisième vote logique. Isoler Corosync sur un réseau dédié.
Que faire des vTPM et disques chiffrés lors de la migration vers Proxmox ?
Le vTPM ne se migre pas. Désactivez-le temporairement et sauvegardez les clés. Les disques chiffrés en VMware doivent être déchiffrés avant l’importation.
Si vous souhaitez migrer vers Proxmox VE sans arrêter la moitié de votre infrastructure, cette démarche est votre guide : préparez, importez, validez et sécurisez. Ensuite, Proxmox vous offre la possibilité de croître : Ceph ou NFS selon les cas, HA bien câblée, backups déduplication avec live-restore… et une stack ouverte qui réduit la friction (et la facture) au quotidien.
Anguilla et le boom de l’IA : comment un ccTLD de 1995 est devenu la mine d’or (quasi) inattendue de l’IA