Avez-vous déjà douté de la véracité d’une image ou d’une vidéo que vous avez vue en ligne ? Dans un monde où les deepfakes deviennent de plus en plus convaincants, détecter les contenus générés par l’intelligence artificielle est devenu un défi quotidien. Découvrez comment Google et d’autres acteurs de la technologie tentent de nous armer face à cette nouvelle réalité.
Les 3 infos à ne pas manquer
- Google utilise SynthID, une technologie de marquage invisible, pour identifier les contenus générés par ses propres modèles d’IA.
- La norme C2PA permet de vérifier l’origine des images et vidéos, même celles créées par les concurrents de Google comme OpenAI.
- Malgré ces avancées, aucun outil ne remplace l’esprit critique, indispensable pour distinguer le réel de l’artificiel.
Les limites des anciens modèles IA
Il y a peu, les modèles d’IA produisaient des vidéos avec des incohérences évidentes, rendant leur détection assez simple pour l’œil humain. Cependant, les progrès technologiques rapides ont permis de créer des rendus beaucoup plus réalistes. Les deepfakes se sont infiltrés dans les réseaux sociaux, rendant la distinction entre réalité et illusion plus complexe que jamais.
Google et la technologie SynthID
Face à ce défi, Google a introduit SynthID, développé par Google DeepMind. Contrairement aux filigranes traditionnels, SynthID agit sur la composante fréquentielle du signal numérique. L’algorithme ajuste les statistiques de couleur et de luminosité, créant une empreinte indétectable à l’œil nu, mais reconnaissable par le modèle Gemini de Google.
En quelques clics, les utilisateurs peuvent soumettre une image ou une vidéo à Gemini et poser la question : « Cette image a-t-elle été conçue par une IA ? ». Le chatbot analysera alors les métadonnées pour identifier le marquage SynthID.
L’interopérabilité avec la norme C2PA
Pour pallier les limites de SynthID, notamment face aux contenus créés par des concurrents, Google mise sur la norme C2PA. Ce protocole garantit la traçabilité des fichiers dès leur création. Il est adopté par des géants comme Adobe, Microsoft et OpenAI, permettant ainsi de vérifier l’origine des contenus, même en l’absence du marquage SynthID.
Pour utiliser C2PA, il suffit de se rendre sur la plateforme Content Credentials où une image peut être analysée rapidement. Cependant, cette norme n’est pas infaillible. Par exemple, un simple screenshot peut effacer les informations de traçabilité, rendant la détection impossible.
Les défis de l’authenticité numérique
Malgré les outils sophistiqués développés par les géants de l’IA, le discernement humain reste crucial. La technologie ne peut pas encore remplacer notre capacité à évaluer la véracité d’un contenu. Comme l’avait anticipé Blaise Pascal, la vérité et le mensonge sont souvent entremêlés, et notre rôle est de démêler ces fils pour distinguer le réel de l’artificiel.
Dans cette course à la véracité, des entreprises comme Google, OpenAI et Adobe innovent constamment pour offrir des solutions de détection plus efficaces. Cependant, leur succès dépend aussi de notre capacité à rester vigilants et critiques face à l’information que nous consommons quotidiennement.
Source : https://www.popsci.com/diy/how-to-spot-ai-generated-images/







