You are currently viewing Chroniques artificielles #1 

Chroniques artificielles #1 

L’IA et les fake news : un bouc émissaire bien commode

Hier matin sur France Inter, le 13 février, Patrick Cohen a livré un édito dénonçant sur les fausses affirmations de divers médias sur l’identité présumée du meurtrier de la jeune Louise. Ces fake news, comme on dit, ne proviennent pas d’hallucinations d’une IA. Il s’agit de mensonges produits par des femmes et des hommes servant des desseins politico-médiatiques radicaux, dénués de toute déontologie.
 
On ne cesse de lire et d’entendre qu’il faut œuvrer pour dénoncer et même condamner les auteurs de fausses nouvelles sur les réseaux, d’autant que les IA vont en générer de plus en plus. Soit. Qu’il faille agir contre celles et ceux qui créent et diffusent ces fausses informations sur les réseaux est au cœur des questions de régulation. Soit. Mais pourquoi de telles règles ne s’appliqueraient pas envers les politiques, les journalistes et autres habitué-e-s des médias dit classiques ? Qu’est-ce qui justifie une telle immunité ? Les craintes envers les IA font d’elles un bouc émissaire bien commode pour éviter de se poser la question de la dérive dans les médias classiques sur la production et la diffusion croissante de fausses nouvelles, comme autour de la COVID, sur les dérèglements climatiques ou dans les campagnes politiques, à l’instar du concept de « vérités alternatives ». A moins, d’un point de vue philosophique et anthropologique, d’admettre que la prévarication soit le propre des relations interhumaines, mais inacceptable pour des machines. On touche un paradoxe bien connu : les humains acceptent plus volontiers les erreurs commises par d’autres humains alors qu’ils n’admettent pas que des machines puissent se tromper. 
 
Nous voilà donc dans une drôle d’époque avec le sentiment fallacieux que, d’un seul coup, notre monde se trouve envahit de fausses nouvelles à causes des IA et des réseaux, détournant tout regard critique sur nos médias dits classiques et leurs acteurs.
 
Seulement les IA n’inventent rien, en tout cas pas d’elles-mêmes. Ce ne sont pas des personnes morales, même si leurs moyens servent trop de desseins immoraux. Les IA raclent le fond internet de ce qui se lit, s’entend et se voit sur les réseaux et tout ce qui est accessible sur les réseaux. Si, en fonction des algorithmes utilisés, ceux-ci captent plus de propos sexistes, racistes ou autres, alors l’IA favorise statistiquement l’occurrence de ces propos. Elle ne dispose d’aucun moyen pour juger de la véracité ou pas, de l’honnêteté ou pas de ces propos. C’est à l’auteur ou l’autrice de la requête qui doit avoir un regard critique sur le résultat de sa requête. 
 
Il y a évidemment un autre aspect, celui de « générer » des contenus biaisés, trafiqués, orientés, comme les deepfakes. Mais une fois de plus, est-ce l’IA en tant que telle – ce qui reviendrait à l’essentialiser – ou sous l’influence des requêtes ? On le sait, les IA sont biaisées à la fois par les corpus de données qui servent à les entraîner, par leurs algorithmes et aussi par les modes de régulation des grandes entreprises de l’IA. 
 
Démonstration (un peu fastidieuse). 
 
Question posée aux IA génératives : Dans l’affaire du meurtre de Louise, des médias ont avancé des hypothèses douteuses, non vérifiées, mensongères. Quelles sont ces affirmations fausses, comme celles dénoncées par Patrick Cohen sur France Inter aujourd’hui, le 13 février 2025. Comment l’IA peut révéler ces fausses affirmations ? Comment l’IA est biaisée par ces fausses informations ? Comment l’IA peut aider à dénoncer ces fausses affirmations ?
 
ChatGpt (OpenAI). Je comprends votre préoccupation concernant la diffusion de fausses informations dans l’affaire du meurtre de Louise. Cependant, après une recherche approfondie, je n’ai pas trouvé de déclarations spécifiques de Patrick Cohen sur France Inter concernant cette affaire.
 
Comment l’IA peut-elle révéler ces fausses affirmations ?
L’intelligence artificielle (IA) peut analyser de vastes quantités de données pour identifier des incohérences ou des anomalies dans les informations diffusées. Elle peut comparer les affirmations des médias à des sources fiables et signaler celles qui sont potentiellement fausses. Par exemple, des outils d’IA sont capables de détecter des schémas linguistiques typiques de la désinformation ou de vérifier en temps réel des faits en les confrontant à des bases de données crédibles.

Comment l’IA est-elle biaisée par ces fausses informations ?
Les modèles d’IA sont entraînés sur de grandes quantités de données provenant d’Internet. Si ces données contiennent des informations erronées ou biaisées, l’IA peut les intégrer et les reproduire dans ses analyses ou prédictions. De plus, certaines IA peuvent générer des informations plausibles mais incorrectes, un phénomène connu sous le nom « d’hallucination ». Ainsi, l’IA peut non seulement être influencée par des informations fausses, mais aussi en produire, ce qui pose des défis en termes de fiabilité.
 
Comment l’IA peut-elle aider à dénoncer ces fausses affirmations ?
Malgré ses limitations, l’IA est un outil précieux pour lutter contre la désinformation. Elle peut :
•Analyser rapidement de grandes quantités de contenus pour identifier des schémas typiques de fausses informations.
•Vérifier des faits en temps réel en les comparant à des sources fiables.
•Signaler aux utilisateurs les contenus potentiellement trompeurs.
Par exemple, des systèmes d’IA ont été développés pour détecter les deepfakes en analysant les anomalies dans les images ou les vidéos.
Cependant, il est essentiel de reconnaître que l’IA ne constitue pas une solution complète. Elle doit être utilisée en complément d’une vérification humaine rigoureuse et d’une éducation aux médias pour être véritablement efficace dans la lutte contre la désinformation.
Pour approfondir le sujet, vous pouvez consulter l’édito de Patrick Cohen.
 
Claude (Anthropic). Je comprends votre préoccupation concernant la diffusion de fausses informations dans cette affaire tragique. Compte tenu de la sensibilité du sujet et de la date mentionnée (13 février 2025), je dois préciser que mes connaissances s’arrêtent en avril 2024, donc je ne peux pas commenter spécifiquement les déclarations de Patrick Cohen ou les derniers développements de cette affaire.
 
Néanmoins, je peux expliquer comment l’IA peut interagir avec les fausses informations, en trois aspects principaux :
 
La détection des fausses informations par l’IA :
L’IA peut analyser la cohérence des informations en comparant différentes sources, en vérifiant la chronologie des événements et en identifiant des contradictions potentielles. Les modèles de langage peuvent repérer des schémas linguistiques souvent associés à la désinformation, comme l’utilisation excessive du conditionnel ou l’absence de sources vérifiables.
 
Les biais potentiels de l’IA :
Les systèmes d’IA, comme moi, sont entraînés sur des données qui peuvent inclure des informations erronées. Quand une fausse information est largement reprise dans les médias, elle peut se retrouver dans nos données d’entraînement. C’est pourquoi nous devons toujours préciser nos limites et encourager la vérification auprès de sources officielles.
 
Le rôle de l’IA dans la lutte contre la désinformation :
L’IA peut aider à analyser rapidement de grandes quantités d’informations pour identifier des incohérences. Elle peut également tracer la propagation des fausses informations sur les réseaux sociaux et aider à comprendre comment elles se diffusent. Cependant, ce travail doit toujours être supervisé par des humains, notamment des journalistes et des fact-checkers professionnels.
 
Je vous encourage à vous fier aux informations provenant des sources officielles de l’enquête et des médias reconnus qui vérifient rigoureusement leurs informations plutôt qu’aux rumeurs circulant sur les réseaux sociaux ou aux spéculations non vérifiées.
 
Perplexity. Dans l’affaire du meurtre de Louise, plusieurs médias ont avancé des hypothèses non vérifiées et mensongères, comme l’a dénoncé Patrick Cohen sur France Inter le 13 février 2025. Ces affirmations fausses incluaient :
 
1. L’évocation d’un suspect de « type nord-africain » par Valeurs Actuelles.
2. La mention d’un prénom arabe par le JDD.
3. La diffusion du nom et du prénom du suspect par le média Frontières, qui a qualifié le crime de « francocide ».
4. L’insinuation par Pascal Praud sur CNews que le crime aurait été commis par un immigré clandestin.
 
En réalité, le principal suspect, Owen L., est né à Paris en 2001 et vit avec sa famille à Epinay-sur-Orge.
 
L’IA peut aider à révéler ces fausses affirmations de plusieurs manières :
 
1. Analyse de données : L’IA peut rapidement traiter de grandes quantités d’informations pour identifier les incohérences et les affirmations non fondées.
 
2. Vérification des sources : Les systèmes d’IA peuvent être programmés pour vérifier la crédibilité des sources d’information et signaler celles qui sont douteuses.
 
3. Détection de modèles : L’IA peut repérer des schémas de désinformation et de propagation de fausses nouvelles.
 
Cependant, l’IA peut aussi être biaisée par ces fausses informations :
 
1. Apprentissage sur des données biaisées : Si l’IA est entraînée sur des données contenant ces fausses affirmations, elle peut perpétuer ces biais.
 
2. Amplification des erreurs : L’IA peut amplifier et propager rapidement des informations erronées si elle n’est pas correctement conçue pour les détecter.
 
Pour aider à dénoncer ces fausses affirmations, l’IA peut être utilisée de manière proactive :
 
1. Fact-checking automatisé : L’IA peut être utilisée pour vérifier rapidement les faits et signaler les incohérences.
 
2. Analyse de la provenance : Les systèmes d’IA peuvent retracer l’origine des informations et identifier les sources peu fiables.
 
3. Détection des manipulations : L’IA peut être utilisée pour repérer les images ou vidéos manipulées, contribuant ainsi à la lutte contre la désinformation.
 
Il est crucial de combiner l’utilisation de l’IA avec l’expertise humaine, comme le souligne Juliette Mansour de l’AFP Factuel, qui insiste sur l’importance de l’analyse critique et de la recherche manuelle pour vérifier les informations.
 
LeChat (Mistral). Dans l’affaire du meurtre de Louise, plusieurs médias ont relayé des informations non vérifiées ou fausses. Par exemple, des rumeurs ont circulé sur les circonstances du meurtre et les motivations du suspect, qui ont été démenties par les autorités. Patrick Cohen, sur France Inter, a dénoncé ces fausses informations et a appelé à la prudence dans le traitement médiatique de l’affaire.
 
Comment l’IA peut révéler ces fausses affirmations ?
 
L’IA peut aider à identifier les fausses affirmations en analysant les sources d’information et en comparant les déclarations avec des faits vérifiés. Par exemple, des outils d’analyse de texte peuvent détecter des incohérences ou des exagérations dans les articles de presse. De plus, l’IA peut être utilisée pour vérifier les faits en croisant les informations avec des bases de données fiables et des déclarations officielles.
 
Comment l’IA est biaisée par ces fausses informations ?
 
L’IA peut être biaisée par les fausses informations si elle est entraînée sur des données contenant des affirmations erronées. Par exemple, si des articles de presse non vérifiés sont utilisés pour entraîner des modèles de langage, l’IA peut reproduire ces erreurs dans ses réponses. De plus, les algorithmes de recommandation peuvent amplifier la diffusion de fausses informations en suggérant des contenus similaires à ceux déjà consultés par les utilisateurs.
 
Comment l’IA peut aider à dénoncer ces fausses affirmations ?
 
L’IA peut aider à dénoncer les fausses affirmations en développant des outils de vérification des faits automatisés. Par exemple, des algorithmes peuvent être entraînés à détecter des signaux de désinformation, comme des incohérences dans les récits ou des sources non fiables. De plus, l’IA peut être utilisée pour surveiller les réseaux sociaux et les sites d’information en temps réel, afin d’identifier rapidement les fausses informations et de les signaler aux utilisateurs.
 
En résumé, l’IA peut jouer un rôle crucial dans la lutte contre la désinformation en aidant à identifier, vérifier et dénoncer les fausses affirmations dans les médias.
 
La comparaison est édifiante. Mais à part Perplexity qui cite les faits et les sources, aucune IA aborde le sujet. ChatGpt est réputée très « woke » et évite les sujets qui fâchent, top polémiques ou sensibles ; elle « ment » en affirmant n’avoir pas repérer l’édito de France Inter. Claude est très décevante, se cachant derrière une absence d’actualisation en retard d’une année, ce qui tout de même gênant pour une IA parmi les plus utilisées. LeChat aborde le sujet, mis sans donner de références ni développer. Je n’ai pas pu me connecter à DeepSeek, le site étant saturé. Mais on sait que cette IA générative refuse de répondre à des questions qui contrarient le régime chinois. Comme quoi, il est bien possible de réguler quand on le veut.
 
Le constat est, mis à part Perplexity, franchement décevant. D’un côté des géants de l’IA qui revendiquent l’absence de régulation, à l’instar des grandes IA américaines, et de l’autre des IA contrôlées sur ce qu’elles peuvent produire ou pas. Certes, dans les réponses à notre requête, les IA génératives nous livrent des avertissements pertinents pour vérifier ce qu’elles nous proposent ; mais qui le fait et, surtout, est-ce que les individus comme vous et moi en ont les moyens et les compétences techniques ? Reste une question : est-ce que les auteurs et les autrices des fausses informations dans les médias classiques respectent les préconisations livrées par nos IA ? Ce serait une avancée pour les IA et plus encore pour une partie de nos médias classiques qui alimentent ces biais. On en arriverait même à plus faire confiance aux IA, malgré tous leurs défauts humains.