Home :: DerniersChangements :: DerniersCommentaires :: ParametresUtilisateur :: Vous êtes 52.15.253.72
Le grand incendie de l'internet en bois

Quel rapport y-a-t-il entre l'incendie qui ravage les quartiers chics de Los Angeles et les phénomènes de propagation inflammatoires qui se développent sur le web ?

Réponse : les maisons calcinées de LA, tout comme l'internet tel que nous le connaissons pour le moment, sont construits "en bois"

Pour comprendre cette analogie, il faut remonter aux origines de ces deux histoires qui partagent une caractéristique commune : la technologie de construction en bois pour ce qui est des maisons et celle dont nous allons parler pour ce qui est de l'architecture de l'Internet, se sont imposées, non pas parce qu'elles étaient les meilleures, mais parce qu'elles étaient les premières.

Quand les colons sont arrivés sur le continent, ils ont trouvé du bois. Beaucoup de bois. Une ressource abondante, facile à travailler, disponible partout. Ils ont donc construit en bois. Jusque-là, rien d'étonnant. Sauf qu'ils ont continué à construire en bois bien après que d'autres matériaux plus résistants au feu soient devenus disponibles. Même après le grand incendie de San Francisco en 1906, qui aurait dû servir d'avertissement. Même aujourd'hui, alors que le réchauffement climatique transforme la Californie en poudrière géante.

Pourquoi cette obstination ? Parce qu'une fois qu'une technologie s'installe, elle crée tout un écosystème qui la rend difficile à déloger. Les charpentiers apprennent à travailler le bois, les usines s'équipent pour transformer le bois, les normes de construction s'adaptent au bois, les formations professionnelles enseignent les techniques du bois... Et voilà comment, en 2025, 90% des nouvelles maisons américaines sont encore construites en bois, prêtes à alimenter le prochain grand incendie.

Pour l'internet c'est exactement la même histoire. Quand les premiers protocoles ont été conçus, ils l'ont été de la manière la plus simple possible : en point-à-point. C'est ce qu'on appelle l'Unicast?. Un ordinateur envoie un message à un autre ordinateur, directement. Simple, efficace, évident. Sauf que cette architecture point-à-point a une conséquence inattendue : elle favorise naturellement la centralisation.

Imaginez que vous vouliez diffuser une vidéo à un million de personnes. Avec le protocole Unicast, vous devez envoyer un million de fois la même vidéo, une fois à chaque destinataire. C'est comme si, pour distribuer le journal, chaque lecteur devait avoir son propre livreur personnel. Absurde ? Bien sûr. Mais c'est exactement comme ça que fonctionne YouTube? et d'autres, certes avec des entrepôts intermédiaires (CDN), mais cela reste idiot. Et cette absurdité a des conséquences : seules les plus grosses entreprises peuvent se permettre l'infrastructure nécessaire pour gérer ces millions de connexions simultanées.

Il existe pourtant une alternative : le Multicast, un protocole qui permet d'envoyer une seule fois un message à plusieurs destinataires à condition que ceux-ci demandent à le recevoir. Plus efficace, plus écologique, plus démocratique. Mais voilà : quand le Multicast est apparu au milieu des années 90', l'Unicast était déjà là. Les routeurs étaient conçus pour l'Unicast, les développeurs étaient formés à l'Unicast, les applications étaient optimisées pour l'Unicast (#1).

Bref, l'internet Unicast est généralisé et le grand public ne sait même pas qu'un internet Multicast serait possible. Et nous nous retrouvons avec un internet aussi inflammable que les collines de Los Angeles.

Quand une vidéo "enflamme" les réseaux, chaque copie doit être transmise individuellement à chaque spectateur depuis les serveurs centraux. Plus la vidéo devient "chaude", plus elle consomme de bande passante, plus elle surcharge les serveurs. Tout comme un quartier de maisons en bois peut être ravagé par une seule étincelle, un problème technique sur un serveur central peut paralyser des millions d'utilisateurs. On l'a vu avec les pannes spectaculaires de Facebook ou d'Amazon Web Services. Quand ces géants brûlent, c'est tout un pan de l'internet qui part en fumée. Cette architecture "en bois" crée des points de vulnérabilité critiques qui justifient l'existence des Géants du net, seuls capables de se permettre les investissements pour parer à leur propre vulnérabilité.

La vulnérabilité technique appelle la concentration des moyens, qui elle-même renforce la vulnérabilité sociale et politique. Les GAFAM sont "too big to fail", trop gros pour tomber, exactement comme ces banques dont la faillite menacerait l'ensemble du système financier. Quand TikTok? ou X tombent en panne, ce ne sont pas seulement des vidéos de chats qui sont interrompues, ce sont des pans entiers de l'économie de l'attention (et de l'indignation) qui menacent de s'effondrer. Les géants du net investissent des milliards dans des data centers toujours plus gigantesques, des câbles sous-marins, des systèmes de refroidissement pharaoniques... non pas pour construire un internet plus résilient, mais pour fortifier leur position dominante.

C'est comme si, au lieu de repenser l'urbanisme pour prévenir les incendies, on se contentait de multiplier les camions de pompiers. Et encore, ces "camions de pompiers", les plateformes centralisées peuvent avoir intérêt à les limiter. La "modération des contenus", un euphémisme pour désigner un pouvoir de police privé, est l'un de ces camions de pompiers. On le voit actuellement, tout se passe comme si Zuckerberg et Musk réduisaient cette modération qui leur coûte cher pour augmenter l'incendie qui les fait vivre.

Avec les menaces de coupure de X en Europe ou de TikTok? aux USA, tout se passe comme si les gouvernements tentaient confusément d'établir des tranchées pour limiter la propagation du feu. Mais jamais, au grand jamais, personne ne remet en question le World Wide Wood, l'architecture de bois de l'internet qui entraîne mécaniquement l'incendie généralisé !

Pourtant, des alternatives existent. Le protocole Multicast n'est pas une utopie technologique, c'est une réalité technique éprouvée (#2).

Imaginez un instant que nous ayons construit l'internet différemment, comme une ville moderne avec des matériaux résistants au feu et une architecture pensée pour la résilience. Dans un tel internet, une vidéo virale ne créerait pas plus de charge sur le réseau qu'une vidéo confidentielle. L'information circulerait naturellement de proche en proche, comme l'eau dans un réseau d'irrigation, et non comme un incendie dans une forêt de serveurs. Les contenus "inflammatoires" perdraient mécaniquement leur pouvoir de nuisance, non par censure, mais par la structure même du réseau.

Des plateformes comme Mastodon ou PeerTube? tentent de se déployer de manière décentralisée sur l'internet Unicast. Elles démontrent la faisabilité technique d'une telle approche malgré la non disponibilité du protocole Multicast. Mais c'est compliqué. Elles se heurtent à la même résistance que rencontreraient des architectes proposant de construire en béton dans un pays où toute l'industrie est organisée autour du bois : les compétences manquent, les outils n'existent pas, les standards sont inadaptés. Et surtout, le public ne sait pas que c'est possible, surtout pas les décideurs politiques.

Alors que faire ? Il serait raisonnable de dire que la solution ne viendra probablement pas d'une révolution brutale - on ne rase pas une ville pour la reconstruire du jour au lendemain. Elle pourrait venir d'une prise de conscience progressive, comme celle qui a conduit certaines villes américaines à adopter des normes de construction plus strictes après des incendies dévastateurs.

Mais peut-être faudra-t-il attendre une catastrophe majeure - une panne mondiale d'internet, un effondrement des réseaux sociaux, une cyberattaque dévastatrice - pour que l'humanité réalise qu'elle a construit sa maison commune avec des allumettes. Ou peut-être pourrions-nous, pour une fois, apprendre de nos erreurs avant qu'elles ne nous rattrapent.

L'histoire des maisons en bois nous l'enseigne : plus on attend pour changer de paradigme, plus le coût du changement devient prohibitif. En attendant, quelque part dans la Silicon Valley, des nouveaux data centers continueront à s'enflammer, de nouveaux milliardaires continueront à attiser le feu.

Notes :

1) J'ai raconté la naissance, certaines expérimentations et le rejet du protocole Multicast au profit de l'Unicast dans mon livre "ANOPTIKON, une exploration de l'internet invisible", Fyp Edition 2019. [Site de l'éditeur]

2) Le Générateur Poïétique, un jeu collectif né en 1986 qui peut être vu comme l'ancêtre des "réseaux sociaux" a été l'une des premières applications du protocole Multicast. Elle a démontré qu'il est possible d'organiser une interaction tous-tous en temps réel sans aucun centre. [Wikipedia]
Il n'y a pas de commentaire sur cette page. [Afficher commentaires/formulaire]