Adoption de HTTP3 par les chatons

À l’occasion d’un échange sur les réseaux sociaux des chatons, le chaton de la contrevoie publiait un post au sujet de leur fameux service nitter

Ce service utilise HTTP3 . À priori, c’est le premier service déployé par un chaton qui propose HTTP3. Le post, par ailleurs, met en avant cela.

Une discussion sur pourquoi l’adoption de ce protocole a été initiée. Il a été proposé de poursuivre sur le forum en ouvrant un sujet dédié. Cependant cela n’a pas été fait. Donc, mea culpa @neil , je le fais maintenant.

Stéphane Bortzmeyer a fait de nombreux articles sur le sujet de HTTP3. On les trouvera notamment sur son blog (note pour + tard → mettre des liens)

Il semblerait qu’il se dessine une controverse entre les grands opérateurs du marché. Pour faire court, les gagnants seraient les services portés par les grands hébergeurs de service comme par exemple youtube, netflix, amazon prime, les perdants les FAI et opérateur réseaux qui vous amènent ces paquets jusque dans votre poche ou à la maison.

En effet, HTTP3 permet d’optimiser au mieux les ressources coté serveur car l’essentiel du flux est transmis en une fois et sur un temps très court. Ce qui permet logiquement d’augmenter la disponibilité du matériel pour servir de plus nombreux clients. (Je fais court) C’est ce qu’on appelle un effet rebond. Il se trouve que l’effet en question est parfaitement observé par les gens qui font de la qoe comme par exemple sandivine.

Cela permet, en creux, de comprendre comment ces hébergeurs arrivent à produire des rapports environnementaux enviable et envié par toute l’industrie.

Du coup, @neil , est-ce que vous avez eu un débat sur ce sujet? C’est à dire adopter HTTP/3 comme une avancée technologique enviable, et, après tout, pourquoi pas. Ou certain·es d’entre vous on émit des réserves pour exprimer un souhait d’une forme de décroissance de nos usages, qui reste à définir, mais sur laquelle il serait bon de s’attarder ?

Merci par avance pour vos réponses.

2 « J'aime »

Bonjour Stéphane,

Je te remercie de (re)lancer ce sujet, et je te prie d’excuser par ailleurs ma réaction défensive sur les réseaux, ayant d’abord cru que cette critique de notre usage de ce protocole relevait d’une forme de pureté militante, alors qu’il me semble simplement que nous nous soyons mal compris.

J’imagine que tu parles de cet article, par exemple : https://www.bortzmeyer.org/9114.html

J’ajoute en complément sa conférence à Paris Web sur le sujet (que je recommande s’il y a besoin de vulgarisation :slight_smile: ).

Tout d’abord, la raison pour laquelle nous sommes passé·es à HTTP/3, c’est parce que nous avons décidé d’abandonner Nginx pour nous orienter vers Caddy, un autre serveur HTTP (écrit en Go).

Caddy propose notamment l’automatisation complète de la gestion des certificats, propose des paramètres de sécurité et des suites de chiffrement très corrects par défaut, le support natif de l’agrafage OCSP, de l’algorithme de compression Brotli et de HTTP/3.

C’est cet ensemble de fonctionnalités qui nous a intéressés à la base, car cela simplifie la gestion de notre infrastructure (plus besoin de nos occuper des agrafages OCSP et du renouvellement des certificats, c’est le serveur HTTP qui gère tout seul). Et le support natif de HTTP/3 est un « bonus » non négligeable à tout cela.

Oui en effet, le protocole QUIC ayant été (à la base) développé par Google pour ses besoins, il a été pensé pour améliorer la performance des gros serveurs avant tout. Je précise par ailleurs que Google a par ailleurs également développé SPDY, qui est à l’origine de HTTP/2 (que fort heureusement tout le monde utilise aujourd’hui, y compris chez les CHATONS).

Je ne vois pas en quoi les FAI et les autres opérateurs réseau sont perdants, puisque le but du protocole est d’améliorer les performances :thinking:

Non, nous ne voyons (toujours) aucune controverse à ce sujet donc nous n’en avons pas discuté, je dirais même qu’il y a eu consensus pour activer le support HTTP/3 puisque Caddy nous le propose.

Je pense que nous sommes déjà dans la décroissance de nos usages avec notre minuscule infrastructure :smile:
Je te renvoie à la présentation vidéo de notre infrastructure si cela t’intéresse.

Et sur le principe, nous utiliserions volontiers des outils et des protocoles plus modernes qui allègeraient encore plus notre infrastructure (bien que je doute que HTTP/3 ait un tel impact).

En tout cas, refuser HTTP/3 pour des raisons de sobriété numérique ne me semble pas censé, puisque c’est une avancée technologique qui est à notre portée et qui ne nous coûte absolument rien. À l’échelle d’un CHATONS, on pourrait dire que cela reviendrait à refuser HTTP/2 pour les mêmes raisons.

Par ailleurs, il n’est pas impossible que HTTP/3 ait un réel impact sur les performances de notre serveur, puisque notre service Nitter traite un flux assez important de requêtes, aux dernières mesures :

  • 58.4 millions de requêtes par semaine
  • 42 888 utilisateur·ice·s uniques par jour en moyenne
  • Consommation totale de bande passante sur ce service uniquement : 2.4 To par semaine

Nous hébergeons actuellement notre Nitter sur une très petite machine : 2 vCPU et 2 GB de RAM, avec une bande passante plafonnée à 100 Mbps. Cette machine étant très fortement sollicitée par le flux de requêtes de Nitter, donc si HTTP/3 nous permet d’améliorer (même un tout petit peu !) les performances de notre petite installation (la latence, la consommation de CPU, la bande passante…), on prend volontiers.

J’espère que j’ai pu éclairer tes interrogations et inquiétudes. :slight_smile:

2 « J'aime »

Je rejoins l’avis de @neil, notamment à propos des bienfaits du déploiement de HTTP/3. C’est une évolution très intéressante permettant d’utiliser UDP et de réduire les échanges réseaux inutiles. L’effet rebond de cette nouvelle version est également positive en ce qu’elle permet de faire évoluer les infrastructures (vive caddy ! :star_struck:). Ceci permet de tendre vers plus de sécurité et d’efficacité (y compris énergétique).

Opposer HTTP/3 à une stratégie de décroissance semble incongru, si on considère les pratiques amplement plus impactantes de certains hébergeurs (même parmi les CHATONS). Ainsi, le serveur Nitter de la Contre-Voie est à considérer comme efficace grâce à l’exploitation de peu ressources, sur un VPS mutualisé qui plus est. Cela est bien différent d’un énorme serveur dédié dans un centre de donnée et utilisé au minimum de ses capacités.

Le seul bémol de cette version du protocole est aussi une de ses qualités : UDP. En effet, et bien que ce soit un usage minime, l’UDP n’est pas supporté par Tor ce qui empêche l’accès aux services à des usagers pour qui l’anonymat est primordial. À ce titre, proposer HTTP/2 et HTTP/3 semble être la meilleure solution. (HTTP/2 n’est de toute manière pas près de disparaître.)

Tout d’abord, je vous remercie pour vos réponses. Ensuite je souhaiterais lever une potentielle incompréhension.

Mon interrogation n’est certainement pas de vouloir interdire à quiconque et encore moins à un Chatons de faire, tester, essayer, découvrir, etc… Bien au contraire, je ne peux que encourager cela. Peu m’ importe qu’une techno soit initié ou porté par Google. La condition minimale est qu’elle soit libre.

Je suis assez serein la plupart du temps. t’inquiètes donc pas :smile:

Toutafé. Il est d’ailleurs probable que cette tendance soit génératrice de plus d’usage globalement plus impactant. Je comprends qu’il soit difficile de comprendre cela.

Toutes les technos mettent du temps à disparaître. HTTP/1.1 HTTP/2 HTTP3 vont coexister pendant longtemps à priori pas de problème pour Tor.

Cependant, l’essentiel de l’originalité de cette techno ne réside pas dans l’usage de UDP . UDP et TCP sont dans la même couche. HTTP/3 s’affranchit de TCP/IP. C’est à dire qu’une connexion QUIC initié dans la couche transport peut être maintenu même avec une autre IP. C’est à dire même après avoir changé de réseau. C’est particulièrement vrai pour une connexion mobile.

Là par contre, il y a potentiellement des problématiques de «vie privée» . Je ne suis pas certain qu’elle soient bien évaluées.

Ensuite, cela ouvre d’autre problématique de sécurité. En effet, un attaquant pourrait maintenir une connexion tout en la distribuant sur de multiple ip. Ce qui la rendrait indétectable par nos outils standards.

Bref encore pleins de questions très à la marge de la discussion initiale. :upside_down_face:

Personnellement, je doute que la généralisation de HTTP/3 entraîne une évolution des usages qui soit suffisamment impactante pour être prise au sérieux, tant les gains en performance sont relativement minimes. On est très loin, par exemple, des gains de bande passante de la 4G à la 5G qui peuvent réellement boulverser les usages du quotidien, avec les revers écologiques que la fabrication de ces antennes et du remplacement des appareils mobiles peuvent entraîner (et je te réfère justement au blog de Stéphane Bortzmeyer à ce sujet).

Je suppose que tu fais allusion au fait qu’une session QUIC puisse être réutilisée même en changeant d’IP, offrant ainsi de nouvelles possibilités de retracer des utilisateur·ices pour les hébergeurs de services, qui s’ajoutent à la grande panoplie des méthodes existantes (cookie, données de navigateur, canvas webGL, IP…).

Mais si lesdits hébergeurs de services s’engagent à ne pas utiliser ces méthodes et à respecter la vie privée des utilisateur·ices, la question ne se pose même pas :slight_smile: Et ça tombe bien, nous avons une charte qui nous engage à ce sujet.

Tu vas me dire, ça reste un problème lié à HTTP/3. Mais le fait que les CHATONS déploient HTTP/3 ou non n’a aucune influence sur l’usage de ces méthodes de traçage par les GAFAM, puisque la large majorité des navigateurs supportent désormais HTTP/3 et l’utiliseront par défaut de toute manière.

Honnêtement, si l’on devait définir un modèle de menace à La Contre-Voie pour hiérarchiser les potentiels vecteurs d’attaque de notre infrastructure, on aurait d’autres priorités : les attaques par déni de service distribuées (et sans QUIC) que même nos outils actuels ne peuvent encaisser correctement (voir le topic fail2ban), l’abus de nos services par des spammeurs à des fins de phishing…

En terme de sécurité, je pense que c’est une bonne chose que le protocole HTTP/3 nécessite TLS dans sa spécification même, c’est plutôt un bond en avant.

Bonjour, c’est 'dredi et je continue à documenter ce fil.

Cette contreverse n’est pas nouvelle. On se souvient de free vs netflix il y a une dizaine d’année ou d’orange en tant qu’opérateur tiers 1 vs d’autres fournisseurs de contenus. Cependant, elle prend aujourd’hui un tour nouveau. Il s’agit bien d’une innovation logicielle HTTP/3 et de son adoption par tous les grands fournisseurs de contenus. Ensuite, cette innovation se place dans un contexte de crise énergétique et de crise matérielle (telco), notamment en Europe.

La réaction des opérateurs réseaux se formalise à travers un lobbying intense à la CE et au parlement EU visant notamment à instituer des règles (à leur avantage) dans les échanges de données. Donc on parle de régulation des accords de transit et de peering. cf https://www.fairshareinitiative.eu/

En général, dans ce genre de lobbying, il y a toujours des effets de bords en particulier vers les acteurs de l’internet «non marchand».

[edit] Pour la note drôle, le site www.fairshareinitiative.eu est hébergé dans le cloud AWS.

Afin de continuer à documenter ce fil, je poste ici ce lien vers le projet de recherche infraQUIC qui pourrait intéresser des Chatons :cat2:

Hâte d’avoir les résultats de l’étude :slight_smile:

Une pensée sur QUIC que je n’ai pas vu dans ce fil, désolé si c’est évoqué dans un lien, elle est issue d’échanges que j’ai eu lors de ma thèse avec des gens de l’industrie.

En résumé, ça me semble aussi une guerre de pouvoir entre network providers (eg. Orange) et gros service providers (eg. Google) où nous (« la société civile ») on est grosso modo des spectateurs.

Techniquement, dans QUIC, le chiffrement couvre la partie Layer 4 et un bout du Layer 3 (ce que ne fait pas TCP+TLS) et donc cache des méta-données que pouvait analyser les network providers et utiliser pour impacter positivement ou négativement notre expérience (le port utilisé, les flags TCP et IP, etc. qui permettent d’inférer l’algo de congestion utilisé et son état).

Plus prosaïquement encore, il s’agit de faire la guerre aux middleboxes (firewall, DPI, etc.) qui participent à l’ossification du réseau (on peut pas introduire de nouveaux protocoles car des équipements au milieu du réseau sont pas compatibles). C’est d’ailleurs cette ossification qui a poussé à implémenter QUIC au dessus de UDP, et pas comme un protocole de transport autonome (comme TCP, UDP, ICMP, IGMP, CHAOS, etc.), mais aussi d’en faire une implémentation en user space (dans l’application directement) et non en kernel space (dans le système d’exploitation aka OS).

Les services providers disent que c’est bon pour la privacy et l’évolutivité du réseau. Les network providers disent que ça va rendre plus compliqué la gestion des réseaux et que la qualité de service va en pâtir. Au final dans cette séquences, les service providers ont repris du pouvoir sur les network providers et moi je compte les points sur le banc de touche… ^^

Je sais que 1) ça rejoint la conclusion de Stéphane « avantage service provider over network providers », et 2) et ça ne discute pas de l’effet rebond / décroissance / écologie / évolution des usages / privacy du point de vue du service provider MAIS il me semblait qu’un laïus sur les enjeux de pouvoir autour du chiffrement des méta-données de communication de QUIC donnait un éclairage intéressant sur le sujet.

2 « J'aime »

Pour la question de l’effet rebond / décroissance / écologie / évolution des usages / privacy du point de vue du service provider, je pense que la réponse doit dépendre du contexte dans lequel on parle, de à qui on s’adresse, du périmètre de notre action. Ici, je vois la communication d’un petit hébergeur qui voulait transmettre 3 idées :

  1. Informer d’une maintenance
  2. Expliquer et rendre concret l’impact des services sur le matériel et le travail de maintenance
  3. Célébrer une maintenance qui se passe bien.

Un des aspects, c’était d’expliquer qu’il y avait eu un travail d’optimisation important pour contenir l’explosion en consommation de ressources du serveurs. Ce travail d’optimisation a été illustré par le passage à HTTP3. Mais ce travail prend place parmi d’autres actions, dont certaines demandaient de réduire les usages/consommations. De ce que je comprends de la démarche de La Contre Voie, elle s’inscrit dans une réflexion computing within limits qui intègre l’effet rebond dans sa réflexion.

Mais ce message mêlé d’explications et de célébration, sembler porter un discours positif sur HTTP3, protocole poussé par Google, conçu bien entendu pour servir ses intérêts. Selon moi, ce qui a posé problème, ce n’est pas tant l’utilisation de ce protocole dans un autre contexte que celui de Google, que sa mise en lumière sous un jour positif, HTTP3 étant associé à la firme de Mountain View. Si dans un monde idéal, le protocole aurait été défini démocratiquement, dans le contexte de la La Contre Voie, c’était probablement la meilleure décision qu’iels pouvaient prendre.

Au final, ça me fait penser qu’ici on est d’avantage dans une question de communication, de récits qu’on veut créer. Je comprends qu’il peut y avoir des dissonances à célébrer les technos de Google quand c’est un adversaire politique.

Pour autant, ne perdons pas de vue que Google est hégémonique : du FOSDEM au noyau Linux, en passant par Android et de nombreuses bibliothèques et projets libres, nous dépendons de lui, et il faut accepter de composer avec. Du moins de composer avec pour nos infrastructures, sur le plan technique. Nous restons par contre libres de nos discours.

C’est là où il faut quitter la position morale (bien/mal, bon/mauvais), et qu’il est intéressant de penser une stratégie:

  • Est-ce qu’on veut parler du but recherché (optimiser un service pour rester dans des limites acceptables ?) tout en limitant l’exposition qu’on fait dans nos discours des protocoles et des technos libres produits par les GAFAM (ne pas parler du fait que l’optimisation passe aussi par HTTP3) ?
  • Est-ce qu’on veut montrer l’hégémonie de ces derniers y compris sur le libre, en décortiquant à chaque fois le contexte de leur création, et le contexte qu’on a nous de leur usage, comment on détourne ?
  • Comment on gère quand on veut discuter de nos communications respectives sans se mettre une pression de dingue ? :stuck_out_tongue:
1 « J'aime »

Toutafé. On peut ainsi faire référence à la notion de pharmakon concernant nos choses technologiques. cf → https://arsindustrialis.org/pharmakon
Cependant, la matérialité du numérique s’observe à la fois dans le logiciel, immatériel et reproductible à l’infini ce qui constitue le paradigme de la source ouverte et|ou du logiciel libre, et dans des objets technologiques purement matériels (nos infrastructures, nos terminaux, etc…). Ces derniers ne sont pas reproductibles à l’infini.

Je ne pense pas que les membres de «la société civile» soient spectateurs. Il y a un rôle à jouer. Là comme ailleurs, il est nécessaire d’être présent, même si ça peut paraître insignifiant à un instant t

Par exemple, on pourrait changer le titre de ce topic par «Adoption de IPv6 par les chatons». (Je crois que nous avions déjà causé ensemble de cela :wink: .) Et là, on peut objectiver des alliances informelles entre d’une part un internet historique associatif (en France par exemple), qui pousse à l’adoption d’IPv6 afin de répondre à l’empêchement de s’auto-héberger , empêcher en cela par les FAI marchand , et d’autre part, Alphabet|Google qui pousse à l’adoption d’IPv6 car c’est une façon simple de rendre infini la surface de son business.

Donc, on a une spécification, IPv6, qui a fait l’objet d’un consensus technologique a un instant donné, qui a été adopté dans le cadre d’une gouvernance +/- partagée, et qui met quinze ans à se généraliser. (Enfin, presque, je vous invite à lire les archives des mailing list FRnOG de cet été dans lesquelles Stéphane Bortzmeyer se fait limite traiter d’analphabète par des techos rescapés du temps des dinosaures)

Pour autant, @quentin , je crois que tu as rencontré Quota. Le fait qu’elle soit issue de cette société civile et qu’elle est aujourd’hui en position au sein de l’autorité de régulation (ARCEPS) est un exemple du fait que la société civile a une place dans la gouvernance de l’internet.

Sur un autre registre, lorsque l’ADEME réalise des spots parlant explicitement et ouvertement de non-consommation, de dé-vendeur, bref de décroissance, puis diffuse cela sur les médias en période de black friday, c’est un moment improbable à observer. Et je ne pense pas que cela soit possible sans la société civile.


[Addendum]

Tu as raison sur la difficulté que nous avons à discuter sur nos com respectives sans se mettre une pression de dingue. J’ai vu que tu avais édité 9 fois tes billets avant de poster :smile: ( J’ai ouvert ce billet il y a une heure et j’hésite encore à push le bouton bleu :upside_down_face: )

1 « J'aime »