Avec l’émergence de l’IA générative, le Web est-il en voie de « merdification » ?
3 décembre 2024
La production de textes et d’images a cru de manière exponentielle avec l’essor des intelligences artificielles génératives, comme ChatGPT. Au risque de drastiquement diminuer la qualité du Web ? C’est la crainte de nombreux experts.
Revenons déjà sur ce concept de « merdification » ou « poubellisation » (« Enshittification » en anglais). Selon son concepteur, l’auteur canadien Cory Doctorow, il s’agit du cycle néfaste d’une plateforme numérique.
Première étape : cette dernière commence par investir massivement dans son produit afin d’attirer des utilisateurs, qui y trouvent alors un service de qualité à moindre frais.
Puis, dans la deuxième étape, une fois les internautes captifs, les plateformes commencent à changer un peu leurs règles du jeu et à abuser leurs utilisateurs, afin de privilégier leurs clients qui assurent son modèle économique.
Enfin, troisième et dernière étape : la « merdification ». Elles abusent à la fois leurs utilisateurs mais aussi leurs clients, eux aussi devenus captifs, afin de récupérer la valeur pour elles-mêmes. Selon lui, c’est le début de la fin pour ces entreprises devenues monopolistiques, dont il prend pour illustration Amazon, Facebook, ou, plus récemment, TikTok.
Ce concept « permet de décrire la façon dont les plates-formes finissent par pourrir et pourquoi on a l’impression que chaque plate-forme que l’on utilise semble se détériorer », indiquait-il en mars dernier au média français Le Monde. Inventé en 2022, il est nommé dès l’année suivante parmi les mots de l’année par l’American Dialect Society.
Les résultats de Google, prochaines victimes ?
Devant les questionnements d’un nombre grandissant de personnes sur une dégradation de la recherche de Google, des chercheurs des universités de Leipzig et Weimar ont enquêté. Dans leur article, intitulé « Est-ce que Google se dégrade ? », portant sur des analyses de produit, ils remarquent en effet que les pages les mieux classées sont aussi les plus optimisées, les plus monétisées (via des liens d’affiliation) mais pas forcément celles qui se démarquent par une meilleure qualité de textes.
Ce sujet est revenu sur le devant de la scène récemment avec l’industrialisation des contenus textuels et visuels permise par l’intelligence artificielle générative. Au-delà des avantages que cela peut permettre pour certains, il ne faut pas négliger l’opportunité de diffusion de contenus indésirables que cela représente.
Cory Doctorow s’en était déjà pris à Google, coupable selon lui de ne présenter sur sa première page de résultats qu’une majorité de publicités ou de contenus optimisés pour le référencement naturel. L’émergence de l’IA risque de ne rien arranger puisque la firme de Mountain View devra lutter à l’avenir devant de plus en plus de contenus à la qualité très variable.
Les moteurs de recherche comme Google ont fait le choix de ne pas faire de différence entre les contenus générés avec IA ou non, parce que c’est la qualité qui importe, disent-ils. Leurs algorithmes n’ont visiblement pas été préparés à l’usage abusif de ces outils », explique le journaliste Benoît Raphaël.
Un problème qui inquiète les entreprises derrière ces mêmes intelligences artificielles ! Selon le Wall Street Journal, OpenAI et Anthropic se creusent actuellement la tête pour essayer d’entraîner leurs modèles sur des contenus qui ne seront pas, à l’avenir, « synthétiques ». C’est-à -dire générés par des IA. Un cercle vicieux aussi appelé autophagie. Une étude publiée par Nature en juillet dernier a d’ailleurs bien montré ce risque de dégénérescence avec des IA qui finissent par produire des absurdités à force d’ingérer trop de données produites par des IA.
Selon le photojournaliste suisse Niels Ackermann, le salut pourrait venir des médias qui se positionneraient en rempart du « vrai ». « Il existe sans doute un marché pour le réel, dans un monde où la disponibilité du faux, du synthétique devient illimitée », affirme-t-il dans le média Heidi News.