Administration

Installation et configuration de Proxmox chez OVH et Dedibox

Update 19/05/2014 : Ce billet a été écrit en 2012. Les managers coté OVH et Online ayant (heureusement) évolués depuis, les informations et captures données dans ce billet ne sont plus forcément à jour. J’essaierai d’actualiser la partie OVH mais je ne pourrai le faire pour Online, n’ayant plus de services chez eux. Bonne lecture !

Après avoir utilisé VMware  Server pendant plus d’un an, je me suis décidé l’année dernière à passer sur Proxmox. Pourquoi ? Simplement parce qu’hébergeant principalement des VMs Linux et ayant peu de moyens (financiers) pour faire tourner le tout, je me suis dit qu’il serait bon de pouvoir profiter d’une solution de type container qui permet de mieux mutualiser les ressources (noyau) tout en gardant le principe d’isolation (OpenVZ). Proxmox étant chaudement recommandé sur les mailing lists OVH et un peu partout sur le web, je me suis donc lancé dans l’aventure.

J’ai installé pour la première fois Proxmox sur un serveur OVH, j’avais laissé le partitionnement par défaut. Le problème est que, par défaut, ce partitionnement ne permet pas de profiter d’une feature plus qu’intéressante de Proxmox : La sauvegarde en mode « snapshot ».

Pour rappel : Pour pouvoir faire ce type de sauvegarde, proxmox a besoin d’un espace libre (i.e. non partitionné) dans votre groupe LV où il va monter une partiton virtuelle, faire un rsync entre la partition où est stockée la VM que vous voulez sauvegarder et la nouvelle partiton. Une fois le rsync fait, proxmox en relancera un pour copier les fichiers qui auraient pu changer au cours de la copie. Une fois fini, il a donc accès à « un instantané » de la VM que vous souhaitez backuper. Il peut donc faire un tar de la vm tranquilement, qu’il enregistrera dans /vz/dump (par exemple), puis il supprimera la partition qu’il a créée à la volée.

Donc pour pouvoir profiter de ce mode de sauvegarde, il faut … un espace vierge.

Installation chez OVH

Par défaut chez OVH, vous aurez ce type de partitionnement :

Comme nous l’avons vu précédemment, il nous faudrait de l’espace libre et puis personnellement j’aime bien faire une partition pour « /var/lib/vz/dump« , cela me permet de ne pas remplir /vz en cas de problème.

Choisissez donc dans le manager « Partitionnement personnalisé » au lieu du « Partitionnement par défaut de la distribution Proxmox ». Cela va nous permettre d’ajouter nous-mêmes nos partitions :

NB : Sur ce serveur il y a un disque dur de 2To, je ferai donc un partitionnement en conséquence. Adaptez-le à votre capacité de stockage.

Ajoutons maintenant les partitions :

  1. Commençons par la principale : « / » (slash). Personnellement je lui mets une taille de 20Go, je trouve ça amplement suffisant.
  2. Passons au SWAP. Il n’est plus très utilisé vu l’augmentation de la capacité de la ram mais le manager oblige à l’ajouter. Je mets en général 1 ou 2Go, histoire de dire…
  3. Passons maintenant aux choses sérieuses : LVM. Comme 3ème partition nous ajouterons « /var/lib/vz« , vous devez obligatoirement commencer par le dossier le plus haut. Sur un disque de 2To, en général je mets ~1,70 To.
  4. Passons maintenant au dossier « dump », donc « /var/lib/vz/dump » qu’il faut donc ajouter après « /var/lib/vz » et non avant. Personnellement 150/200Go me suffisent, car une fois les backups faits ils partent sur un FTP et je les efface. Ce n’est donc qu’un espace temporaire.

Donc si on résume :

On peut maintenant lancer l’installation. 🙂

Installation sur une Dédibox

Sur OVH, comme vous avez pu le constater si vous l’avez lu, c’est… simple. Sur une Dédibox chez Online c’est une autre affaire. Le manager ne permet pas d’avoir une configuration un poil complexe.

Voilà le partitionnement par défaut :

Autant dire que ça ne laisse pas rêveur. 🙂 On peut refaire la même configuration que chez OVH, avec du LVM :

Le problème est que cette configuration (aux dernières nouvelles, confirmé sur le forum d’Online) plante lamentablement pendant l’installation.

Il faut donc le faire manuellement ! C’est à dire que nous allons créer une seule partition, la racine, depuis le manager. Le reste sera créé en ligne de commande une fois l’installation finie.

Création des partitions

Cette partie sera malheureusement plus simple que celle d’OVH puisque nous allons simplement créer la partition racine qui recevra le système (i.e. Proxmox).

Je vous laisse dérouler la suite de l’opération.

Ajout des partitions manuellement

Une fois que l’installation s’est correctement déroulée et que vous avez accès à votre serveur en ssh, connectez vous dessus.

Installation des packages

Pour bien commencer, installons les packages nécessaires à la manipulation de LVM :

[sourcecode language= »bash »]aptitude install lvm2[/sourcecode]

Ajout d’une partition LVM

Commençons par ajouter une partition de type LVM qui prendra le reste du disque :

[sourcecode language= »bash »]fdisk /dev/sda[/sourcecode]

Voici une copie (approximative, cela varie) de ce que vous devez faire, j’ai mis en surbrillance les champs que vous devrez remplir :

[sourcecode language= »text » highlight= »1,14,16,18,19,20,22,25,39,40,41,44,58″]
Command (m for help): p

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x0005efa4

Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1        2550    20478976+  83  Linux
/dev/sda2            2550        2678     1022976   82  Linux swap / Solaris

Command (m for help): n
Command action
e extended
p primary partition (1-4)
p
Partition number (1-4): 3
First cylinder (2678-243201, default 2678):
Using default value 2678
Last cylinder, +cylinders or +size{K,M,G} (2678-243201, default 243201):
Using default value 243201

Command (m for help): p

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x0005efa4

Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1        2550    20478976+  83  Linux
/dev/sda2            2550        2678     1022976   82  Linux swap / Solaris
/dev/sda3            2678      243201  1932008032   83  Linux

Command (m for help): t
Partition number (1-4): 3
Hex code (type L to list codes): 8e
Changed system type of partition 3 to 8e (Linux LVM)

Command (m for help): p

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x0005efa4

Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1        2550    20478976+  83  Linux
/dev/sda2            2550        2678     1022976   82  Linux swap / Solaris
/dev/sda3            2678      243201  1932008032   8e  Linux LVM

Command (m for help): w
The partition table has been altered!

Calling ioctl() to re-read partition table.
Syncing disks.[/sourcecode]

Chouette ! Nous avons maintenant notre partition LVM, il faut quand même l’initialiser :

[sourcecode language= »bash »]pvcreate /dev/sda3
Writing physical volume data to disk « /dev/sda3 »
Physical volume « /dev/sda3 » successfully created[/sourcecode]

Maintenant la partition est prête.

Création du groupe virtuel (VG)

Nous allons créer un groupe « pve » qui regroupera les futures partitions virtuelles :

[sourcecode language= »bash »]vgcreate pve /dev/sda3
Volume group « pve » successfully created[/sourcecode]

Maintenant le groupe virtuel « pve » est initialisé sur la partition sda3 que nous avons précédemment créée. Jetons un oeil :

[sourcecode language= »text »]vgdisplay -v pve

Using volume group(s) on command line
Finding volume group « pve »
— Volume group —
VG Name pve
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 1
Act PV 1
VG Size 1.80 TiB
PE Size 4.00 MiB
Total PE 471681
Alloc PE / Size 0 / 0
Free PE / Size 471681 / 1.80 TiB
VG UUID YBUEUF-8c7s-lwNv-kZF0-cwYO-rVqg-uqlBNA

— Physical volumes —
PV Name /dev/sda3
PV UUID tCBqu3-9EwC-8hNn-G5eo-yOqd-BAp1-oTlJ4G
PV Status allocatable
Total PE / Free PE 471681 / 471681

[/sourcecode]

Parfait ! Nous avons bien créée un VG sur /dev/sda3 et il est vide, nous allons maintenant le remplir. 😉

Création des partitions virtuelles (LV)

Nous allons commencer par créer la partition la plus haute d’un point de vue hiérarchique. C’est à dire « /var/lib/vz« . En général je lui laisse les 3/4 du disque, par exemple sur 2TO, 1,75To :

[sourcecode language= »bash »]lvcreate -L1750000 -n vz pve

Logical volume « vz » created[/sourcecode]

Regardons maintenant le résultat :

[sourcecode language= »text »]lvdisplay -v /dev/pve/vz
Using logical volume(s) on command line
— Logical volume —
LV Path /dev/pve/vz
LV Name vz
VG Name pve
LV UUID CYYvpg-IsGB-U25i-kSiF-9NaR-7A19-gzZNxq
LV Write Access read/write
LV Creation host, time ks397148, 2012-05-27 16:03:28 -0400
LV Status available
# open 0
LV Size 1.67 TiB
Current LE 437500
Segments 1
Allocation inherit
Read ahead sectors auto
– currently set to 256
Block device 253:0[/sourcecode]

Le « LE » est le nombre d’unités de PE affectées à votre volume logique et ce même « LE » fait 4Mo, donc si on prend 437500 LE et qu’on le multiplie par 4, on obtient bien 1750000. Parfait !

Création du système de fichier

Maintenant que nous avons notre partition, il faut lui ajouter une dernière couche de peinture, le système de fichiers !
PS : J’utilise ext4 tant qu’à faire mais chacun ses goûts. 😉

[sourcecode language= »text »]#mkfs.ext4 /dev/pve/vz

mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=1 blocks, Stripe width=0 blocks
112001024 inodes, 448000000 blocks
22400000 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
13672 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
102400000, 214990848

Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

This filesystem will be automatically checked every 33 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.[/sourcecode]

Maintenant que la partition est prête, nous allons monter « /dev/pve/vz/ » sur « /var/lib/vz » :

[sourcecode language= »bash »]mount /dev/pve/vz /var/lib/vz[/sourcecode]

Voilà ! C’est maintenant fini pour la partition vz. Je vous laisse refaire la même chose avec la partition qui sera montée sur « /var/lib/vz/dump« .

N’oubliez pas de laisser un espace vide conséquent dans le VG ! Il sera utilisé par Proxmox lors des snapshots.

Modification de la table de montage

Pour ne pas avoir à remonter les partitions à chaque reboot, nous allons modifier la table de montage. Ce qui permettra au système de remonter les LV automatiquement. Prenez votre éditeur de texte favori et éditez « /etc/fstab » :

[sourcecode language= »text »]# /etc/fstab: static file system information.
#
# <file system> <mount point> <type> <options> <dump> <pass>
proc /proc proc defaults 0 0

/dev/disk/by-uuid/38ccdbab-4be0-4037-b57f-4970ce37f38e / ext4 defaults,errors=remount-r\
o 0 1
/dev/disk/by-uuid/e79a69e6-d1b2-4b11-92b6-96efd94f2d1c none swap sw 0 0

/dev/pve/vz /var/lib/vz ext4 defaults 1 2
/dev/pve/dump /var/lib/vz/dump ext4 defaults 1 2[/sourcecode]

PS : Attention à bien mettre vz en premier !

Voilà, c’est maintenant fini, profitez bien de Proxmox et des snapshots. 😉

Si vous avez des questions ou des remarques, n’hésitez pas à laisser un commentaire, ça me permettra d’améliorer l’article. 🙂

Pour plus d’informations sur LVM, il y a cet excellent article sur lequel je me suis basé : http://linux.developpez.com/lvm/

41 réflexions sur “Installation et configuration de Proxmox chez OVH et Dedibox

  1. Merci pour cet article. Cela fait plusieurs années que je travaille avec Proxmox et j’avais pour habitude de créer un partition /var/freespace que je supprimais par la suite.
    Je vais essayer de ne pas la créer du tout (c’est peut être parce que OVH imposait d’utiliser tout l’espace disponible à l’époque)

    Par contre, j’ai découverts le « pourquoi » de cette partition avec les doubles rSync, merci pour cette info.

    D’ailleurs, j’en profite pour te poser une question. Si je prévois d’avoir une VM openVZ de 200 Go de disque utilisé. L’espace non partitionné devrait donc être d’au moins 200 Go si je veux pouvoir faire des snapshots ?

    Merci

    PS : N’oubliez pas de vérifier les logs de vos snapshots car si ça ne marche pas, le backup se fera quand même mais en mode suspens. Vous pouvez donc avec des backups qui fonctionnent avec le partitionnement par défaut mais ça ne sera jamais en mode snapshots

    1. Hello,

      Content que l’article t’intéresse. 🙂 Si tu as un container de 200Go, il faudra que tu ais effectivement 200Go de libre… N’oublies pas non plus que proxmox zippera le backup si tu lui as demandé, donc il te faudra encore plus d’espace libre !

      Ceci étant dit, je te conseille surtout de faire des containers légers en « exportant » tes données ailleurs puis de faire un mount dans ta vm pour que tu puisses y accéder. Ca te permettra d’avoir un cycle de backup rapide. Pour backuper tes données un rsync ou autre suffira.

      J’ai par exemple fait ça sur un container où j’ai mon serveur mail. Les mails ne sont pas dans la vm directement mais sont dans un dossier qui est monté sur la vm. Du coup le backup de mon container ne contient que la config du serveur. backup qui se fait en quelques minutes à peine.

      1. Merci pour cette confirmation. Je vais donc essayer de voir mes nouvelles partitions en conséquence sur mon deuxième Proxmox que je suis en train d’installer.

        Je note l’idée de monter un support de stockage pour plus tard car ce nouveau support devra également être backupé et ce n’est pas prévu dans notre politique de sauvegarde d’aujourd’hui ^^

        D’ailleurs, j’ai cru comprendre que tu avais installé plusieurs Proxmox (Online et OVH). Je suis en train de créer un nouveau Proxmox 2.2 pour migrer mon 1.9 mais je compte prendre un autre 2.2 en cas de problème pour basculer les IP FailOver sur cette nouvelle machine.
        Je crois que le mode cluster Haute Dispo n’est possible qu’à partir de 3 serveurs car il faut un serveur de surveillance. A ton avis, qu’est ce qui est le mieux avec seulement 2 serveurs ? un rSync ?

        Merci d’avance 😉

        1. Je ne sais pas pourquoi ça ne marche pas chez moi. Le snapshot ne se fait pas a cause d’un espace trop faible (j’ai laissé 80 Go ^^). Proxmox ne voit que 4 Mo de libre.
          Du coup, j’ai réinstallé une second fois à ta manière et même problème.

          J’ai repris ma technique de créer une partition de 80 Go que je supprime ensuite une fois l’OS installé et ça fonctionne maintenant.

      2. Salut,

        Juste une précision sur ce que tu m’as dis.
        En réalité, tu n’as pas besoin d’un espace libre de la taille de ta VM car l’espace n’est pas utilisé pour la sauvegarde, il est utilisé pour écrire toutes les écritures du disque durant la sauvegarde. D’ailleurs, même si tu laisse 200 Go, il est configuré par défaut sur 1 Go.
        Si, durant le snapshot, ton CT télécharge plus d’1GO de données, tu auras des erreurs.
        Voila pour l’info.

  2. Bonjour,

    J’ai trouver ton tuto très interessant. Mais mon soucis a moi, c’est que déjà lors de l’installation par default d’OVH de proxmox, j’ai aucun mot de passe. Avec mon pass root fonctionne pas.

    Que dois-je faire ?

  3. Bonjour,
    Tout d’abord Un grand merci à toi pour cette article.
    Je suis actuellement de faire mon projet sur proxmox après de nombreux tests, je n’arrivais pas à faire de snapshot. J’ai donc refais une installation à l’aide de ton article. Et au moment de faire le snapshot j’ai un problème, rien ne se passe, le système reste bloqué sur ce message :
    « INFO: trying to get global lock – waiting… »

    Je ne comprend pas pourquoi, as tu une idée?

    Merci par avance.

  4. Encore moi, désolé je viens de voir ma boulette, le montage n’était pas correcte peux tu supprimer mon commentaire précédant? En outre j’ai exactement le même problème que j’ai déjà pu avoir…

    « INFO: starting new backup job: vzdump 101 –remove 0 –mode snapshot –storage snapshot_P1 –node proxmox1
    INFO: Starting Backup of VM 101 (qemu)
    INFO: status = running
    INFO: backup mode: snapshot
    INFO: ionice priority: 7
    INFO: Logical volume « vzsnap-proxmox1-0″ created
    INFO: creating archive ‘/mnt/pve/snapshot_P1/dump/vzdump-qemu-101-2013_02_25-11_28_49.tar’
    INFO: adding ‘/mnt/pve/snapshot_P1/dump/vzdump-qemu-101-2013_02_25-11_28_49.tmp/qemu-server.conf’ to archive (‘qemu-server.conf’)
    INFO: adding ‘/mnt/vzsnap0/images/101/vm-100-disk-1.qcow2’ to archive (‘vm-disk-sata0.qcow2’) »

    Je ne vais jamais plus loin….

    Peux tu m’aider ?

    Merci.

    1. Finalement j’ai trouvé. Dans mes explications il manquait de détail, puisque je fais actuellement mes tests sur de simple machines physiques. Du coup je me connecte en ssh sur ces deux machines. Et c’est ici qu’est le problème je n’ai pas pu voir l’erreur que le système me renvoyait qui était :

      « info task nfsd:2107 blocked for more than 120 seconds »

      Cette erreur à été réglé en modifiant le fichier /etc/sysctl.conf en modifiant la valeur de « vm.dirty_ration=40 » à 10.

      Merci en tout cas. Je peux enfin faire des snapshot 😀

  5. Bonjour,
    Promox m’intéresse beaucoup. Pour bien comprendre comment fonctionne la virtualisation, je me pose une question concernant le partage des ressources.
    Avec un serveur 4 coeurs et 8go de ram,
    Je crée 2 machines virtuelle. Est-ce que je peux attribuer 4 coeur pour chaque machine vituelle et 8 Go de ram ?
    Est ce que ca fonctionne Ou bien est-que je dois faire un partage cohérent ?
    Merci.
    Michaël

    1. Ce que tu cherches à faire est du thin provisioning. Proxmox le gère sans souci.

      Oui, tu peux allouer davantage de ressources aux environnements virtuels (gérés via OpenVZ) et machines virtuelles (gérés via KVM) que ce dont dispose le serveur physique, que ce soit en termes de CPU, de disque, ou de RAM.

      En effet, tes ressources matérielles sont allouées dynamiquement aux besoins de virtualisation, à savoir que lorsqu’un environnement ou machine virtuels ont besoin de davantage de ressources, Proxmox les leur fournit dans la limite des ressources matérielles. Lorsqu’un environnement ou machine virtuels n’ont plus besoin de ces ressources, Proxmox peut les allouer ailleurs, ou les laisser vacants.

      Bien sûr, cela pose un évident problème théorique : que se passe-t-il dans le cas où tous tes environnements et machines virtuels ont besoin de toutes les ressources réservées au même moment. La réponse est que ça rame ou ça bloque. Le CPU va ramer, la RAM exploitera le swap, et côté disque, une fois que c’est plein… bâh… c’est plein.

      Toutefois, ce problème ne se pose pas dans la pratique sur une machine aux ressources convenablement allouées. En effet, la quasi-totalité du temps, la quasi-totalité des services sous-exploitent les ressources à leur disposition, n’en ayant besoin que ponctuellement, ou à des intervales de temps limités. Il convient alors d’estimer — à la louche, via des statistiques plus poussées, ou tout simplement à l’expérience — les besoins réels moyens/totaux des environnements et machines virtuels. Une surconsommation théorique est évitée en se laissant un peu de marge par rapport à l’utilisation typique.

      Le thin provisioning ne doit pourtant pas pousser à surévaluer démesurément les ressources virtuelles allouées. Il est fréquent que des logiciels s’allouent des ressources supplémentaires dont ils pourraient aisément se passer. Je pense notamment à divers mécanismes de cache intégrées à divers logiciels qui ont certainement des raisons d’être, mais dont il est pertinent de définir des limites pour éviter des abus.

      Un autre point est à considérer sur un serveur virtualisé : souvent, c’est le disque dur qui limite les performances de l’ensemble. Concrètement, si tous les environnements et machines virtuels déclenchent des tâches planifiées à la même heure (typique : un cron de sauvegarde à 3 h de la nuit), l’ensemble va mettre le serveur à genoux.

      Pour limiter une telle situation sur mon serveur (~30 VE), je préfère lancer des tâches planifiées gourmandes de manière séquentielle, à savoir environnement virtuel par environnement virtuel, plutôt que tous à la fois. Concrètement, la mise à jour des OS se fait depuis un serveur tiers qui se connecte en SSH à un environnement virtuel, lance la mise à jour, attend sa fin, puis passe à l’environnement virtuel suivant. (Mais j’aurais pu déclencher ce même processus depuis l’hôte Proxmox, ou même un environnement virtuel quelconque, peu importe.)

      Voilà. J’espère ne pas avoir dit trop de bêtises. Je compte sur vous pour me corriger le cas échéant ! 🙂

      1. C’est géniale ce système ! C’est exactement ce dont j’ai besoin.
        Merci beaucoup pour ta réponse Martin. J’ai appris plein de chose. notamment ce qu’est le Thin provisioning!
        Je pense utiliser des containers. Car j’ai besoin que de linux.
        Merci à la communauté du libre.

  6. Bonjour,

    j’ai une question sur un élément de pveperf avec tes installations.

    Chez moi, il me retourne une valeur très faible pour Fsync/Sec (il devrait être > 500, et chez moi c’est moins de 10 !)

    J’ai formaté mon dédié de manière custom, en faisant attention à l’alignement des partitions, et en utilisant ext4.
    Ce dernier point semble être la source du ralentissement (vu ici : http://forum.ovh.com/showthread.php?p=521742#post521742 )

    Est-ce que d’autres observent ce phénomène ?
    Est-ce que vous êtes en ext3 ou ext4 ?

    Config : EG 64G Hybrid chez OVH

    $> pveperf
    CPU BOGOMIPS: 57598.08
    REGEX/SECOND: 1618839
    HD SIZE: 9.84 GB (/dev/md1)
    BUFFERED READS: 162.86 MB/sec
    AVERAGE SEEK TIME: 0.22 ms
    FSYNCS/SECOND: 6.47
    DNS EXT: 43.22 ms
    DNS INT: 3.05 ms (ovh.net)

    $> uname -a
    Linux ns2267630 2.6.32-17-pve #1 SMP Wed Nov 28 07:15:55 CET 2012 x86_64 GNU/Linux

    $> sudo pveversion –verbose
    pve-manager: 2.3-13 (pve-manager/2.3/7946f1f1)
    running kernel: 2.6.32-17-pve
    proxmox-ve-2.6.32: 2.3-93
    pve-kernel-2.6.32-17-pve: 2.6.32-83
    pve-kernel-2.6.32-19-pve: 2.6.32-93
    pve-kernel-2.6.32-18-pve: 2.6.32-88
    lvm2: 2.02.95-1pve2
    clvm: 2.02.95-1pve2
    corosync-pve: 1.4.4-4
    openais-pve: 1.1.4-2
    libqb: 0.10.1-2
    redhat-cluster-pve: 3.1.93-2
    resource-agents-pve: 3.9.2-3
    fence-agents-pve: 3.1.9-1
    pve-cluster: 1.0-36
    qemu-server: 2.3-18
    pve-firmware: 1.0-21
    libpve-common-perl: 1.0-49
    libpve-access-control: 1.0-26
    libpve-storage-perl: 2.3-6
    vncterm: 1.0-3
    vzctl: 4.0-1pve2
    vzprocps: 2.0.11-2
    vzquota: 3.1-1
    pve-qemu-kvm: 1.4-8
    ksm-control-daemon: 1.1-1

    1. Hello Gilles,

      C’est vrai que c’est étrange. J’ai un KS R-8G et voilà ce que j’obtiens :

      prox(~)# pveperf
      CPU BOGOMIPS: 27136.64
      REGEX/SECOND: 1498833
      HD SIZE: 19.38 GB (/dev/md1)
      BUFFERED READS: 154.85 MB/sec
      AVERAGE SEEK TIME: 7.44 ms
      FSYNCS/SECOND: 47.45
      DNS EXT: 105.58 ms
      DNS INT: 25.87 ms (kimsufi.com)

      Pourtant j’ai comme toi du ext4 !

  7. Bonjour,

    Très bon post 😉

    Cependant j’ai quelque question.
    Pourquoi à ton besoin de LVM ? pour les snapshot ?
    Et pour NFS, il y a un intérêt ou pas ?

    Merci pour vos futurs réponses.

    1. Hello,

      Merci 🙂

      Exactement, sans LVM, pas de snapshot ! Ceci dit fait attention, quand on a du LVM il vaut mieux avoir du RAID derrière. 😉

      Pour NFS… Ça dépend du besoin (et du budget :)). Quel est le tien ?

  8. Bonjour,
    C’est encore moi ^^
    J’ai une question, même deux.
    As ton besoin de NFS et/ou pour faire des sauvegardes? et pourquoi ?

    Merci pour vos futur réponses.

    1. 🙂

      Non tu n’as pas besoin de NFS pour faire tes sauvegardes. Personnellement je les envoie sur un autre serveur (ssh). Actuellement je test PCS/PCA d’OVH pour voir si ça pourrait remplacer mon espace de stockage.

      Mais j’aurais pu aussi monter un nfs mais je ne vois aucun avantage par rapport à ssh ou rsync. 🙂 Mais ce n’est pas très pertinent comme avis, n’ayant pas de besoin ni vraiment d’expériences.

          1. ha d’accord, du coup il faut absolument que ton disque soit partionner avec du LVM et qu’il y est un espace suffisant pour les écritures temporairen, non?
            C’est tu ce qu’il écrit, et ou ?
            Désolé de toute ces questions, mais faut que je comprenne ^^

            Merci encore =)

          2. Comme expliqué dans l’article, tu as une partition primaire et un groupe LV. Ce groupe LV contient /vz, /vz/dump et tout ce que tu veux, mais tu dois laisser de l’espace pour que vzdump puisse monter une autre partition à la volée.
            Pendant le snapshot, les écritures de ta vm sont stockées dans cette partition montée si j’ai bien compris.
            Pas de soucis mais je ne pense pas que je puisse aller plus loin dans l’explication, je ne me suis pas assez penché sur la question. :p

          3. Okay merci =) donc oui une taille assez importante en fonction des VMs. Donc si je dit pas de bêtises si je rajoute un disque pour le stockage des VMs il faut qu’il soit de type LVM pour faire des snapshots sur ce même disue.

  9. Salut florent, Je viens encore t’embêter :S

    Je voulais savoir si tu avais des informations concernant la configuration réseau de Proxmox. Car il propose soit du bridge soit du Bond. Le Bridge je connais mais pas le Bond, de plus il y a différents mode (active-backup, balance-rr, …). As tu des infos sur ces différetns mode ?

    Merci par avance.

        1. Car enfet, moi je souhaite que mes virtuelles aient une adresse IP différentes de celle du serveur physique, et je souhaite mettre également une seconde carte réseau pour équilibrer la charge, ou en cas de backup mais je vois pas trop comment faire, j’ai les idées brouillé. Mais le lien m’a permit de voir les différents mode et je t’en remerci ^^

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.