Les IAs, promises comme outils de vérité, deviennent parfois les complices de la désinformation.
En relayant des rumeurs inventées et en se nourrissant de leurs propres productions et participent à une spirale toxique : celle d’un appauvrissement de la donnée et d’un affaiblissement de notre vigilance collective. L’information est fausse, mais des IA interrogées, censées démêler le vrai du faux, se font piéger. Elles « confirment » l’invraisemblable. Résultat : une rumeur amplifiée par une machine qui ne fait que recycler le bruit du Web.
Derrière l’apparente fluidité des réponses automatiques, un mécanisme implacable se cache.
Les hashtag#IAGen puisent dans un océan de données où se mêlent le rigoureux, l’article vérifié et le témoignage inventé. Elles s’appuient sur des traces numériques sans hiérarchie, au risque d’ériger le faux en vérité. Elles échouent désormais à identifier les fausses informations dans plus d’1/3 des cas — chiffre en forte hausse.
Au-delà de ces erreurs ponctuelles, un phénomène plus inquiétant se dessine : le hashtag#cannibalisme des IA. Ces systèmes s’entraînent toujours plus sur... leurs propres productions. Effet photocopie garanti. Les couleurs s’estompent, les contours se brouillent, et l’innovation tourne en rond. L’intelligence promise devient ressassement stérile.
Ajoutons à cela la prolifération de contenus malveillants. Les trolls représentent déjà plus de la moitié du trafic Web. Et les hashtag#deepfakes explosent. Autrement dit, une immense partie de ce qui nourrit les IA n’est pas seulement artificiel, mais volontairement trompeur. Relayer sans vérifier, c’est alors non plus seulement propager l’erreur, mais amplifier la manipulation.
Cette boucle toxique fragilise notre rapport à la vérité sur deux fronts.
D’un côté, l’« IA shaming » s’installe : face au soupçon généralisé, journalistes et chercheurs en viennent à insérer volontairement des fautes pour prouver leur humanité. De l’autre, notre esprit critique s’érode : hypnotisés par la rapidité des outils, nous oublions que penser suppose douter, vérifier, confronter.
Le danger est double et explosif : une IA qui se dévore produit des contenus pauvres ; des humains qui délèguent leur discernement deviennent ses amplificateurs dociles.
Accès à la vidéo :
Dernière modification le jeudi, 18 septembre 2025