Il existe une sensation de plus en plus répandue, silencieuse, difficile à définir. Nous ouvrons notre téléphone, faisons défiler des images, lisons des phrases, regardons des vidéos qui semblent vraies, crédibles, presque familières. Tout paraît réel. Tout semble possible. Pourtant quelque chose sonne faux, comme une note discordante dans une chanson que nous connaissons par cœur.

Les fake news et l’intelligence artificielle changent notre manière de percevoir le monde, sans bruit et sans avertissement. Elles s’infiltrent dans la vie quotidienne : dans les réseaux sociaux, dans les informations que nous lisons en attendant notre café, dans les vidéos que nous regardons le soir sur le canapé. Le problème ne concerne plus seulement une fausse information isolée. Il concerne le climat mental dans lequel nous vivons.
Sommaire
La fausseté au visage ordinaire
Aujourd’hui, la fausseté n’a plus le visage grossier du mensonge. Elle prend celui, rassurant, de la normalité :
une citation attribuée à une personnalité célèbre,
une vidéo d’animaux sauvages qui ressemble à un documentaire,
une photo racontant une histoire émotive et immédiate.
Tout fonctionne parce que ces contenus parlent le langage des émotions plutôt que celui de la vérification.
Depuis des années, les chercheurs et les psychologues expliquent que les individus ont tendance à croire ce qui « sonne vrai », ce qui correspond à ce qu’ils pensent déjà ou ressentent déjà. Ce mécanisme, appelé truthiness, existe bien avant les réseaux sociaux. La technologie l’a simplement rendu plus rapide, plus visuel et plus persistant.
Une étude récente publiée par Oxford University Press, False: Why an Untruth Is More Influential Than the Truth, souligne un phénomène simple mais inquiétant : une fausse information bien construite marque davantage les esprits qu’une vérité précise. L’esprit humain retient mieux ce qui provoque une émotion, ce qui se répète et ce qui semble familier.
L’intelligence artificielle agit précisément sur ce terrain. Elle produit des contenus fluides, cohérents et convaincants. Elle les multiplie, les adapte et les rend difficiles à distinguer du reste. Ainsi, la confiance s’érode peu à peu, comme un fil qui s’effiloche à force d’être tiré.
L’intelligence artificielle comme fabrique de réalités plausibles
Les deepfakes représentent l’étape la plus visible de ce processus : des vidéos dans lesquelles des personnes réelles semblent dire ou faire des choses qu’elles n’ont jamais dites ou faites. Des images modifiées avec une précision telle qu’elles trompent un regard distrait. Des textes générés automatiquement qui imitent parfaitement le langage humain.
Le problème ne concerne pas seulement la politique ou les grands événements internationaux. Il concerne la vie ordinaire : notre habitude de faire confiance aux images, notre fatigue face à la vérification, notre désir de croire à une histoire qui donne un sens immédiat à ce que nous voyons.
Même le monde académique commence à affronter ce phénomène : articles scientifiques contenant des citations inventées, textes apparemment solides générés par des systèmes d’intelligence artificielle qui « hallucinent » des données et des sources. Tout paraît logique et crédible. La forme tient. Le contenu glisse.
Dans cet espace prend forme ce que de nombreux chercheurs décrivent comme une véritable « parade de l’irréel » : des contenus conçus pour attirer l’attention, provoquer des réactions et orienter les émotions. La vérité cesse d’être centrale. Ce qui compte, c’est ce qui fonctionne.
Quand le doute devient fatigue mentale
Il y a déjà plusieurs décennies, Hannah Arendt décrivait un risque profond : une société exposée en permanence à des distorsions de la réalité finit par perdre sa capacité de distinguer, juger et choisir. Non pas parce qu’elle croit tout, mais parce qu’elle cesse de croire à quoi que ce soit.
C’est une forme de fatigue cognitive, une renonciation silencieuse. Quand tout peut être faux, plus rien ne semble vraiment important.
L’intelligence artificielle accélère ce processus parce qu’elle fonctionne à grande échelle : elle produit beaucoup, rapidement et de manière personnalisée. Chaque flux d’information devient un environnement sur mesure qui confirme les émotions, renforce les convictions et évite les contradictions.
La désinformation ne crie pas. Elle accompagne, se dissimule et devient le décor.
Apprendre une nouvelle forme d’attention
Vivre dans ce contexte exige une nouvelle forme d’attention. Pas une vigilance obsessionnelle fondée sur la vérification permanente, mais une attention plus subtile : reconnaître ce que nous ressentons face à un contenu. Sommes-nous impliqués ? En colère ? Confortablement rassurés ?
Les fake news et l’intelligence artificielle parlent aussi de nous. Elles révèlent notre besoin d’histoires simples, la difficulté de vivre dans le doute et le désir profond de faire confiance.
Maintenir un équilibre entre technologie, émotions et esprit critique devient une pratique quotidienne, un peu comme apprendre à reconnaître une odeur familière dans l’air. Il n’existe pas de formule magique. Seulement un regard un peu plus attentif.
Source : Oxford University Press