Bienvenue dans l’ère de l’ouroboros numérique : l’intelligence artificielle qui se cite elle-même, avalant ses propres productions. Une étude d’Originality.ai révèle que 10 % des sources citées par Google AI Overviews – les encarts qui apparaissent désormais en haut des résultats de recherche – sont issues… d’autres IA. Autrement dit, la machine apprend de la machine, sans passer par l’expérience humaine.
Ce mécanisme pose un problème fondamental : lorsqu’un modèle se nourrit de données artificielles au lieu de données réelles, il court vers ce que les chercheurs appellent le “model collapse”. Les générations successives d’IA produisent alors des contenus de plus en plus pauvres, biaisés, voire absurdes, car leur perception de la réalité est polluée. Comme l’écrit Nature en 2024 : « Les modèles, entraînés sur des données polluées, finissent par mal percevoir la réalité ».
Google, évidemment, conteste. Selon l’entreprise, les détecteurs d’IA utilisés par Originality.ai sont peu fiables. La firme de Mountain View rappelle qu’elle n’a jamais promis d’exclure les contenus générés par IA de ses résultats, mais de les juger uniquement sur leur “qualité”. En clair : peu importe que l’auteur soit un humain ou une machine, tant que le texte a l’air correct.
Le problème est que la frontière entre “avoir l’air correct” et “dire quelque chose de vrai” devient de plus en plus floue. Dans les domaines sensibles – santé, finances, droit, politique – cette boucle fermée peut avoir des conséquences dramatiques. Une information approximative, citée par un moteur, réutilisée par une autre IA, peut très vite devenir une vérité répétée… donc acceptée.
Et ce cercle vicieux s’accompagne d’un autre effet pervers : les éditeurs humains, dont Google siphonne déjà le trafic, n’ont plus les moyens de survivre. Une étude du Pew Research Center a montré que lorsqu’un résumé IA apparaît, les internautes cliquent deux fois moins sur les sites originaux. Moins de trafic signifie moins de revenus publicitaires, donc moins de contenu humain à produire. Résultat : Google se retrouve mécaniquement avec toujours plus de contenus générés par IA à recycler.
Nous entrons dans un monde d’écrans de fumée où la réalité est diluée, répétée et transformée par des algorithmes. L’ouroboros numérique a commencé à dévorer Internet. Et, au bout de la chaîne, ce sont les citoyens qui devront trancher : accepter de vivre dans un monde où l’IA parle à l’IA, ou exiger que la voix humaine ne disparaisse pas complètement.