Ces dernières années, avec le développement remarquable de l’intelligence artificielle (IA) générative telle que ChatGPT (États-Unis) et son concurrent chinois DeepSeek, il est devenu de plus en plus difficile de distinguer une œuvre humaine de celle simplement générée via cette IA. Mais il existe des techniques et des outils pouvant aider aujourd’hui, avec le bon sens, à détecter plus ou moins des contenus d’IA générative. Ressources.
Comment générer un contenu IA ? Il faut d’abord un prompt, et pour que ce soit beaucoup plus efficace, il faut que ce prompt le soit autant. Le prompt est défini de façon générale comme l’instruction ou la question que l’on pose à un modèle de l’intelligence artificielle.
Il peut être une courte phrase ou un court paragraphe qui décrit une tâche à effectuer ou une question à répondre. Il est utilisé pour communiquer avec l’IA, pour initialiser, guider, une réponse. Sa qualité est cruciale pour obtenir des résultats précis et pertinents.
Pour atteindre cet objectif, il est important de savoir donner un rôle à l’IA générative, d’établir clairement le contexte – y compris la cible et les objectifs. Ce qui revient à penser à sa cible et au résultat attendu : préciser en amont un format, le nombre de mots, la structure souhaitée, le ton souhaité, et placer des limites claires afin d’obtenir un contenu ciblé et adapté dès le premier essai.
Des astuces basées sur l’observation
Les contenus générés à partir de prompts efficaces, surtout les textes, sont souvent difficiles à être détectés ou considérés comme tels par les outils de détection IA. D’où l’importance de varier ces outils, autant que possible, afin de pouvoir analyser les probabilités IA dans le produit à examiner.
Conventionnellement, il est reconnu que les textes produits via IA générative manquent souvent d’humanisme, d’expériences vécues, de subjectivité, bref, de sensibilité humaine.
Pour les images, on remarque plus généralement des incohérences surtout dans les détails comme des yeux asymétriques, des doigts ou orteils déformés, entre autres. Dans une analyse plus profonde, les métadonnées sont absentes (bien que celles d’une photographie authentique puissent être intentionnellement modifiées par une tierce personne par mesure de sécurité notamment ou supprimées automatiquement quand elle est partagée via certaines messageries privées et les réseaux sociaux).
Les vidéos et audios se caractérisent par des regards figés, des expressions exagérées (surtout la désynchronisation entre les lèvres et la voix), donc des mouvements robotisés et plus généralement l’absence totale du bruit de fond. Et là, on est dans les Deepfakes, qui peuvent mobiliser des technologies de pointe et pas forcément accessibles au grand public.
Voici des outils de détection IA
Pour aider à détecter les contenus générés par l’IA, malgré leur sophistication, plusieurs outils ont été développés. On dispose des logiciels et applications pour les textes comme Writer AI Detector. C’est un outil qui nous permet d’avoir un score de probabilité indiquant si le contenu est d’origine humaine ou artificielle : il est simple d’usage et basé sur l’analyse statistique du texte.
OpenAI, l’entreprise de la Silicon Valley qui a créé le populaire ChatGPT, technologie avec une connaissance interne des modèles d’IA, propose aussi des outils pour vérifier si un texte a été généré par ses propres modèles. L’un des plus populaires est le GPTZero. Il analyse deux éléments principaux qui sont la Perplexité, à quel point le texte semble prévisible pour une IA et la Burstiness qui explique la variation dans la longueur et la complexité des phrases, typique d’un humain.
Un autre détecteur AI or No : sa particularité est qu’il prend en charge le texte et l’image (vidéo y compris). Pour les photos, sa détection est basée sur des artefacts visuels notamment la texture, les pixels incohérents comme les doigts, les yeux, l’arrière-plan. Hive Moderation qui est considéré plus professionnel et utilisé à grande échelle, fournit des résultats détaillés et adaptés aux besoins des plateformes web. L’utilisation de certaines de ces applications sont gratuites par contre d’autres sont payantes.
Pour les vidéos, c’est possible d’utiliser Deepware qui les analyse, frame par frame, pour repérer des artefacts typiques des deepfakes (comme des mouvements incohérents des yeux, des lèvres, les textures de la peau…). Cet outil permet aussi de détecter des voix clonées ou synthétisées.
Et pour terminer cette liste, non exhaustive bien entendu, on a également TrueMedia qui analyse l’origine du contenu, les métadonnées – qui sont des données techniques intégrées dans un fichier, les empreintes numériques – ainsi que la consistance logique des mouvements et du son. C’est une analyse plus approfondie qui permet d’avoir une idée sur la date de création, le modèle de l’appareil photo, la localisation GPS (Global Positioning System), les logiciels de retouche utilisés… Pour y arriver, cela demande beaucoup d’exercices, de pratiques ou d’expériences.
L’importance de l’analyse humaine
Au-delà de ces outils susmentionnés, qui ont bien évidemment des limites comme toute œuvre humaine, l’élément le plus important ici reste et demeure notre capacité d’analyse et de discernement.
Notre esprit critique, mis à contribution, permet de douter, de se poser des questions notamment sur la source des informations partagées et le ton employé. Mais aussi de voir si les détails sont trop flous ou trop parfaits pour être vrais, et quel est l’intérêt caché derrière la publication (est-il économique, politique, commercial ou idéologique ?). Les différentes réponses à ce genre de questions permettent de planter le décor, surtout quand on a la capacité de pouvoir creuser davantage et mieux.
« Il est vrai que les outils d’analyse d’images et de vidéos basés sur l’IA peuvent fournir un pourcentage ou une probabilité qu’un contenu soit généré artificiellement. Cependant, ces outils ont leurs limites et leurs failles. Le résultat qu’ils produisent doit avant tout être considéré comme un point de départ, une incitation au doute qui pousse à approfondir la recherche », explique à Doni Check Youssoufa Mahamane Maïga, journaliste et fact-checker malien.
« L’étape cruciale réside ensuite dans l’analyse personnelle du journaliste, poursuit-il. C’est à ce moment que l’expertise humaine prend toute son importance, car elle permet de déceler des nuances et des incohérences que l’IA n’aurait pas pu détecter. En prêtant attention aux détails, le journaliste peut identifier des failles et des indices que la technologie aurait manqués. »
Pour les vérificateurs des faits, insiste M. Maïga, « il est indispensable d’apporter une touche humaine à l’article, car c’est elle qui garantit une vérification approfondie et une perspective critique au-delà des capacités des outils automatisés. »
Ainsi compris, il est important donc de savoir combiner bon sens et outils technologiques disponibles pour vérifier ou analyser les contenus issus de l’IA générative, surtout dans le cadre de la lutte contre les fausses informations.
Malick Sissoko




