1707 private links
apt-get install qemu-guest-agent
Par exemple, installer un invité Windows Server avec Hyper-V fonctionnel dans une VM KVM.
Vérifier le prérequis :
cat /sys/module/kvm_intel/parameters/nested
Si il répond "Y", tout est bon on continue, sinon ("N"), on active et on redémarre après l'activation :
echo 'options kvm_intel nested=1' >> /etc/modprobe.d/qemu-system-x86.conf
Seul problème, avec le modèle de processeur par défaut dans Proxmox (kvm64), Hyper-V refuse toujours de s'installer, en basculant sur le type de processeur hôte directement, tout va bien, et Hyper-V s'installe et fonctionne.
Problème du jour : installer un Proxmox 4.4 en ZFS sur 4 disques plus cache.
L'installation se passe bien, mais gros bordel au reboot, impossible de trouver le pool ZFS, peu importe la configuration.
En vérifiant les disques, on voit des partitions de type "vmfs_volume_member".
Oui, les disques étaient dans un serveur esxi, mais sont sensés avoir été nettoyés. Même un dd if=/dev/zero avait été effectué, MAIS. Mais sur un bs=512.
Les superblocks vmfs commencent à 1M, la blague. Le FS commence à 2M.
dd if=/dev/zero of=/dev/sda bs=4M count=1
On lui vire 4M pour être bien sur, et ho, miracle, l'installation et le reboot passent en ZFS. Saloperie de "vmfs_volume_member".
vboxmanage clonehd <orig-disque>.vdi <temp-disque>.img --format raw
qemu-img convert -f raw <temp-disque>.img -O qcow2 <final-disque>.qcow2
Installation des tools Dell Openmanage sous Proxmox
On vérifie le contenu du fichier .ova :
tar -tf <mon-appliance>.ova
On extrait :
tar -xvf <mon-appliance>.ova
On récupère l'image disque au format vmdk :
<mon-appliance>.ovf
<mon-appliance>.vmdk
On convertit l'image disque :
qemu-img convert -O qcow2 <mon-appliance>.vmdk <mon-appliance>.qcow2
Proxmox VE + Docker + Portainer GUI
Décompression rapide lzop :
apt-get install lzop
lzop -d backup.lzo