Internet

Ces images que vous croyez vraies… ne le sont pas

slop ia image

L’IA peut désormais vous faire croire n’importe quoi. Et c’est un problème pour nous, pour nos enfants, pour la démocratie.

Il y a encore deux ou trois ans, on rigolait. Les images générées par intelligence artificielle avaient des mains à six doigts, des dents dans les bouches qui n’en finissaient pas, des oreilles qui partaient dans tous les sens. On les repérait au premier coup d’œil. C’était presque rassurant.

C’est fini.

Aujourd’hui, comme le résume le photographe Niels Ackermann : “Il y a deux ans, on ricanait encore en comptant les doigts en trop. C’est fini !” Les outils comme DALL-E, Midjourney ou Stable Diffusion ont progressé à une vitesse vertigineuse. Résultat : il est désormais quasi impossible de distinguer une photo réelle d’une image fabriquée de toutes pièces, à l’œil nu, même pour des professionnels.

Et ça, c’est un problème énorme.

Des fakes qui font des dégâts bien réels

Ce n’est pas qu’une question de technologie. C’est une question de pouvoir : le pouvoir de faire croire ce qu’on veut, à qui on veut, au moment où on veut.

Les exemples se multiplient. En Irlande, une candidate à la présidentielle a découvert avec stupeur une vidéo virale où elle annonçait son retrait de la campagne — une vidéo entièrement fabriquée. En Hongrie, des partisans du premier ministre Viktor Orban ont utilisé l’IA pour discréditer l’opposant Péter Magyar avec de fausses images compromettantes. En 2024, des escrocs ont imité le visage et la voix d’un dirigeant d’entreprise via deepfake pour tromper ses propres employés et leur soutirer de l’argent.

Ce n’est pas de la science-fiction. C’est maintenant. C’est partout.

“On ne peut plus croire en rien” — le jackpot des conspirationnistes

Et c’est là que ça devient vraiment dangereux. Parce que les fausses images ne servent pas seulement à faire avaler des mensonges. Elles servent aussi — et c’est peut-être pire — à semer le doute sur tout ce qui est vrai.

Quand n’importe qui peut fabriquer une photo convaincante de n’importe quoi, alors même les vraies photos deviennent suspectes. C’est le mécanisme que les théoriciens du complot exploitent à merveille : “Cette vidéo de la catastrophe ? C’est sûrement de l’IA. Cette photo du crime de guerre ? Fake. Cette image du politicien en train de mentir ? Générée.”

On n’a plus besoin de prouver que quelque chose est faux. Il suffit d’insinuer le doute. Et dans un monde où les images peuvent effectivement être fabriquées, ce doute est devenu légitime — et c’est exactement ce que certains utilisent pour torpiller la réalité.

Le résultat ? Une défiance généralisée. Envers les médias, envers les institutions, envers les experts. Une société où plus rien ne peut être cru, et où les plus cyniques prospèrent.

Nos enfants dans la ligne de mire

Mais revenons à quelque chose de plus concret, de plus proche de notre quotidien de parents.

Nos enfants et ados passent des heures sur les réseaux sociaux. Ils consomment des images en flux tendu, sans toujours s’arrêter pour réfléchir. Et les risques sont multiples :

Les fake news virales. Une image choquante — une catastrophe, une célébrité dans une situation compromettante, un scandale — peut faire le tour des groupes WhatsApp de classe en quelques minutes. Si elle est fabriquée, les dégâts (réputation détruite, panique inutile, harcèlement) sont déjà faits quand le démenti arrive.

Le cyberharcèlement augmenté par l’IA. Il est désormais possible, techniquement, de coller le visage d’un camarade sur une image humiliante ou sexuellement explicite. Cela arrive. Avec des conséquences dévastatrices pour les victimes.

Les arnaques de plus en plus sophistiquées. Les escrocs utilisent l’IA pour créer des profils de toutes pièces, avec de vraies-fausses photos, pour piéger des adolescents (et des adultes). Le “catfishing” — se faire passer pour quelqu’un d’autre en ligne — est devenu d’une facilité déconcertante.

La désinformation normalisée. Quand on grandit dans un environnement où les images sont régulièrement fausses et où “tout le monde le fait”, le sens critique s’émousse. La frontière entre vrai et faux se brouille.

Une solution technique existe… mais elle a ses limites

Face à ce chaos, une initiative internationale tente d’apporter une réponse. La coalition C2PA (Coalition for Content Provenance and Authenticity), fondée en 2021 par Adobe, la BBC, Intel, Microsoft et d’autres, propose un système de métadonnées invisibles intégrées directement dans les fichiers images.

Le principe : chaque image générée par IA porte une “signature numérique” qui indique son origine, la date de création, le logiciel utilisé, les modifications apportées. Comme une carte d’identité invisible collée à l’image pour la vie. En 2025, la coalition compte plus de 5 000 membres. Meta, OpenAI et Google l’ont rejointe. France Télévisions a lancé l’intégration du standard pour certifier ses journaux télévisés. Adobe l’a déployé dans Photoshop.

Concrètement, quand vous voyez une image sur Instagram labellisée “Générée par une IA”, c’est (parfois) ce système qui est à l’œuvre. Google travaille à intégrer cette vérification dans sa recherche d’images. Des appareils photo Nikon et Canon expérimentent même des boîtiers qui certifient l’authenticité d’une photo dès la prise de vue — pour les photographes de presse notamment.

Mais attention : ce système a des limites importantes.

Premièrement, les métadonnées peuvent être supprimées. Une simple capture d’écran, un re-post sur certaines plateformes, et la signature disparaît — sans que cela prouve quoi que ce soit sur l’authenticité de l’image. Deuxièmement, le système ne fonctionne que si tout l’écosystème l’adopte — ce qui est loin d’être le cas. Troisièmement, les outils qui ne jouent pas le jeu (et il en existe beaucoup) ne marquent tout simplement pas leurs créations.

En septembre 2025, des internautes ont même réussi à contourner les certificats C2PA de Nikon, forçant l’entreprise à suspendre temporairement leur utilisation. La course entre les faussaires et les vérificateurs continue.

Ce qu’on peut faire, nous, maintenant

On n’attend pas que les GAFAM règlent le problème à notre place. Voici ce qu’on peut faire concrètement :

Pour nous :

  • Ralentir avant de partager. Le réflexe de vérification s’apprend. Avant de relayer une image choquante, se demander : est-ce que cette source est fiable ? Est-ce que je pourrais vérifier ça ailleurs ?
  • Utiliser des outils de vérification. Le site contentcredentials.org permet de vérifier si une image porte des métadonnées C2PA. Google Images propose aussi une option “À propos de cette image” qui donne des informations sur l’origine et la date de première indexation d’une photo.
  • Chercher l’image source. La recherche d’image inversée (via Google Images ou TinEye) permet parfois de retrouver l’origine d’une photo et de vérifier dans quel contexte elle a été publiée à l’origine.
  • Consulter les sites de fact-checking. AFP Factuel, Les Décodeurs du Monde, CheckNews de Libération travaillent quotidiennement à débunker les fausses images virales.

Avec nos enfants :

  • En parler tôt et sans catastrophisme. Pas besoin de faire peur. Juste expliquer que les images peuvent être fabriquées, que c’est de plus en plus facile, et que ça vaut le coup de réfléchir avant de croire ce qu’on voit.
  • Faire des exercices ensemble. Il existe des sites comme “Which Face Is Real” (whichfaceisreal.com) qui montrent des visages — certains réels, certains générés par IA — et demandent de les distinguer. C’est souvent humiliant (on se plante beaucoup) mais ça donne une idée concrète du problème.
  • Travailler le réflexe de la source. La question magique à transmettre : “D’où ça vient ?” Qui a publié ça ? Où ? Quand ? Pour quelle raison ?
  • Dédramatiser l’erreur. On se fait tous avoir. Le tout est de ne pas partager avant de vérifier, et de savoir corriger le tir si on a relayé quelque chose de faux.

Le fond du problème

La technologie avance vite, plus vite que nos réflexes, plus vite que la réglementation, plus vite que l’éducation aux médias dans les écoles.

Le C2PA est une bonne idée. L’étiquetage des images générées par IA est une bonne idée. Mais aucune solution technique ne suffira si on ne développe pas, en parallèle, notre sens critique collectif. Parce que les faussaires trouveront toujours un moyen de contourner les systèmes de marquage. Parce que les métadonnées peuvent être effacées. Parce que l’IA continue de s’améliorer.

Ce qui ne peut pas être piraté, c’est un esprit entraîné à questionner ce qu’il voit.

C’est peut-être la compétence la plus importante qu’on puisse transmettre à nos enfants aujourd’hui. Pas juste savoir lire et écrire. Savoir lire une image.

Sources : The Conversation, La Revue des Médias (INA), France Télévisions, Usine Digitale, Deep-Dive.fr

TagsIA

Laisser un commentaire

Your email address will not be published. Required fields are marked *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.