C’est un basculement symbolique autant que technique. Selon le rapport State of AI Traffic publié le 26 mars 2026 par la société de cybersécurité Human Security, le trafic généré par les bots et les agents d’intelligence artificielle a officiellement dépassé celui des utilisateurs humains sur l’ensemble du web mondial. Une bascule que les experts anticipaient pour 2027 — elle est arrivée avec un an d’avance.

Des chiffres qui donnent le vertige

Les données du rapport sont sans ambiguïté. Le trafic automatisé a augmenté huit fois plus vite que le trafic humain sur un an. Parmi les agents les plus actifs, certains comme OpenClaw ont vu leur trafic exploser de 8 000 % en 2025 par rapport à l’année précédente. Au total, le trafic IA a progressé de 187 % entre janvier et décembre 2025, une croissance qui s’est encore accélérée au premier trimestre 2026.

Matthew Prince, PDG de Cloudflare, a confirmé cette tendance lors d’une conférence le 19 mars. Il estime que le trafic des bots IA dépassera de manière permanente le trafic humain d’ici 2027. Sa société, qui gère environ 20 % du trafic web mondial, observe cette évolution en temps réel à travers ses infrastructures.

Pourquoi cette explosion

La raison principale est la prolifération des modèles de langage et de leurs agents. ChatGPT, Claude, Gemini et leurs équivalents génèrent des requêtes web massives pour répondre aux questions de leurs utilisateurs. Chaque conversation avec un chatbot peut déclencher des dizaines de requêtes vers des sites tiers. Les agents IA autonomes, qui naviguent sur le web pour accomplir des tâches, amplifient encore ce phénomène.

S’y ajoute la multiplication des crawlers d’entraînement. Les entreprises d’IA continuent d’aspirer le contenu du web pour alimenter leurs modèles, malgré les contestations juridiques. Et les agents de recherche comme Perplexity ou SearchGPT consultent systématiquement les sources primaires avant de formuler leurs réponses.

Les conséquences pour le web

Ce basculement pose des questions profondes sur l’économie de l’attention. Si la majorité du trafic web n’est plus humaine, les métriques traditionnelles — pages vues, taux de clic, temps passé — perdent leur signification. Les éditeurs de contenu qui monétisent leur audience via la publicité se retrouvent face à un dilemme : comment distinguer un visiteur réel d’un bot, et comment valoriser une audience dont la composition change radicalement ?

Les implications en matière de cybersécurité sont tout aussi préoccupantes. Le rapport de Human Security note que les techniques de phishing assistées par IA sont devenues significativement plus sophistiquées, rendant la distinction entre communication légitime et tentative de fraude de plus en plus difficile. Le « Dead Internet » — cette théorie selon laquelle la majorité du contenu et du trafic en ligne serait généré par des machines — n’est plus une théorie.

Un nouveau paradigme

Le web tel que nous le connaissions — un réseau conçu par et pour les humains — est en train de muter. Il devient un espace partagé entre humains et machines, où les seconds génèrent plus de trafic que les premiers. Cette réalité va obliger les entreprises, les régulateurs et les créateurs de contenu à repenser fondamentalement la manière dont ils mesurent, protègent et monétisent leur présence en ligne.