Migration proxmox 5.4 vers 6.x (attention avec lxc)

#1

je suis sous proxmox 5.x (dernière maj).
je voulais savoir si on peut avoir debian buster ct/lxc sur un proxmox 5.x sans tout peter ?
je dis ça car je crois que le lxc partage le noyau de l’hyperviseur … auquel cas pas possible ?

#2

Pour avoir testé/cassé, tu peux créer un conteneur Buster depuis le template Proxmox officiel. Ça coûte rien de tester et ça devrait passer sans problèmes.

Par contre si tu fait un dist-upgrade du conteneur vers Buster sous Proxmox 5, là tu pètes ton conteneur. #my2bits

#3

pour info : avec une vm (migrée vers buster) le dist-upgrade passe sur proxmox 5.4.

#4

… donc il faut d’abord migrer l’hyperviseur proxmox ?

#5

j’ai trouvé ça, je partage.
attention pas encore testé :
https://memo-linux.com/proxmox-cluster-ceph-migration-version-5-vers-6/

officielle :
https://pve.proxmox.com/wiki/Upgrade_from_5.x_to_6.0

#6

Oui, c’est ce qui en est ressorti. Je crois pas avoir mis à jour de conteneur depuis le passage en 6 cela dit, bien que ce ne serait trop tarder.

#7

en plus je combine avec ceph … :hot_face:
on va voir si il se comporte bien …

#8

Sous proxmox 5.4, j’ai dist-upgrade la plupart des LXC de stretch (officiel promox) vers buster, c’est le kernel pve 4.15 de l’hôte que tourne alors que buster est passé sur 4.19.
Un seul problème: dovecot. j’ai du faire tourner le container en nested (erreur APPARMOR)

/etc/pve/lxc/xxxxx.conf

features: nesting=1

Ça doit dépendre de ce que tu fais tourner dans le LXC si t’as besoin des nouvelles fonctionnalités du kernel 4.19. Il y a apparemment aussi un bug avec systemd.
Dans tous les cas il faut tout migrer pour des questions de sécurité: http://lkml.iu.edu/hypermail/linux/kernel/1801.3/02794.html

#9

J’ai migré mon cluster proxmox en v6 il y a déjà quelques temps.

Le principal problème que j’ai eu venait d’une combinaison de bugs entre corosync3 et le driver ethernet bnx2 (si j’ai bien compris). Le quorum se perdait régulièrement et avait bien du mal à revenir :frowning:

Il y a un thread sur le forum proxmox à ce sujet: https://forum.proxmox.com/threads/pve-5-4-11-corosync-3-x-major-issues.56124/

Proxmox est passé en 6.1 il y a quelques jours… là j’ai rencontré un petit pépin sur mes bond infiniband, que j’ai désactivé pour revenir à un port unique. Sinon, tout est ok, mais pas de ceph installé sur mon cluster.

#10

cela va à l’encontre de ce que dit popi …

sur un kernel 4.15 d’un 5.4 (promox ) … tu passes une buster censée mettre un kernel 4.19 : ca marche comment ton truc ?

#11

À priori c’est la liaison userspace / kernelspace qui permet ça. Au final les appels au kernel depuis le container sont limités aux appels hardware donc ça change pas massivement d’une version de kernel à une autre.

#12

Mes conteneurs sont en mode ‘privilégié’ (j’ai enfin trouvé comment les convertir, c’est dans les tuyaux mais pas simple à automatiser), possible que ça ai joué un rôle… Tu peux toujours tester @ledufakademy, fais juste un backup avant (!)

Chez moi le LXC m’envoyait bouler direct.

#13

pour l’instant je ne bouge pas … je me documente sur comment migrer , le plan de bataille quoi !
la va falloir, pas possible de faire à l’arrache. mouahhh :innocent: