Autohébergement + IP failover

D’où mon utilisation de ZFS, de ses snapshots (pour revenir en arrière), de ses send/recv de snapshots pour garder une copie distante avec persistance de snapshots… mais aussi du cache multi-niveaux (RAM, SSD, puis HDD), de la compression, du chiffrement, de zed pour le monitoring, etc.

Merci pour vos retours instructif.
Il faut donc que je revois peut être mon idée de base de mettre un drdb entre un dédié et un auto-hébergement du à la latence ou du moins que je fasse des tests.
Ce qui est intéressant est aussi de voir et comprendre les problèmes rencontrés comme certains ont exposés car c’est là que l’on se rend compte réellement de la fiabilité de notre installation.
Pour ZFS ou BTRFS, c’est un peu similaire et je dois dire que j’ai pris l’habitude du BTRFS mais il y a les même fonctionnalités de snapshot, de sauvegarde distance et persistantes…après je ne parle de mon expérience que pour des pc locaux ou petits serveurs.
Par contre pour les cache multi-niveaux je n’ai pas tout à fait compris…

Oui du CEPH ou autre techno sont certainement plus opportune quand on a les moyens de déployé le nombre de serveur nécessaire pour ce genre d’infrastructure.
C’est la toute la réalité entre des service proposé, certains sont capables de mettre des moyens pseudo professionnel, d’autre non ou avec le temps en mutualisant, grandissant.

La difficulté justement des chois, des bons niveaux de service par rapport à ce que l’on veut proposer.

Très intéressant pour ma part, merci pour ces échanges :wink:

1 Like

ZFS permet d’avoir plusieurs niveaux de caches utiles quand on a un mix SSD+HDD:

  • ARC: celui en RAM (pour lectures ET écritures) avec deux logiques combinées, conserver les données récemment utilisées (LRU) + celles fréquemment utilisées (MFU) ce qui évite de vider le cache sur la lecture d’un paquet de gros fichiers
  • L2ARC: cache en lecture typiquement mis sur un SSD qui va compléter l’ARC, et est maintenant persistant entre reboot depuis ZFS 2.0.x
  • ZIL: un cache dédié à l’écriture… typiquement aussi sur SSD qui permet deux choses: sécuriser les écritures rapidement sans attendre que ça soit stocké dans le pool de disques + permettre de mieux réorganiser les données avant leur écriture définitive dans le pool, ce qu’on ne peut pas faire quand il faut écrire tout de suite sur les disques pour rendre la main au niveau applicatif.

Il y a même la possibilité de dédier un disque (plus exactement un vdev) plus rapide que d’autres dans le pool pour y stocker en priorité certaines données comme les metadata.

C’est très facile à mettre en oeuvre et totalement transparent à l’usage.

BTRFS est très bien en desktop, ZFS va bien plus loin et est plus adapté sur de plus grosses config multi-disques sur un serveur.

2 Likes

merci pour l’explication :slight_smile:

zfs à l’air très puissant, mais pour ma part , c’est l’inconnue.
Aurais-tu un tuto assez basique pour expliquer sa mise en place ?
Sur du proxmox, est-ce ce qu’il y a de mieux ( hormis CEPH, mais overkill ) ?

J’utilise ZFS sur proxmox (mais pas que)… et pour ne plus trop polluer cette discussion, on peut continuer sur :

Merci pour ces informations complémentaires, je vais aussi y jeter un oeil :wink: