• Les dessous de l'infox, la chronique

  • 著者: RFI
  • ポッドキャスト

Les dessous de l'infox, la chronique

著者: RFI
  • サマリー

  • Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.

    France Médias Monde
    続きを読む 一部表示

あらすじ・解説

Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.

France Médias Monde
エピソード
  • Comment vérifier une information en direct grâce à l'intelligence artificielle ?
    2025/01/10

    « Nous allons nous débarrasser des fact-checkers ». Cette déclaration du patron de Meta, Mark Zuckerberg, ce mardi 7 janvier, a suscité beaucoup d’inquiétude chez les spécialistes de la lutte contre la désinformation. Pendant que certains veulent faire disparaître le fact-checking sur les réseaux, d’autres essayent au contraire de faciliter l’accès à des informations vérifiées. C’est le cas de l'ONG La Réponse Tech qui a récemment lancé, Vera, un bot conversationnel de vérification.

    Utiliser l’intelligence artificielle pour permettre à tout un chacun de vérifier une information en temps réel. C’est la mission que s’est lancée le collectif citoyen La Réponse Tech en développant Vera, un agent conversationnel numérique, accessible 24 heures sur 24, 7 jours sur 7. Concrètement, il suffit d’appeler le numéro de téléphone de Vera, 09 47 99 12 95 ou bien de lui envoyer un message sur WhatsApp, en lui demandant si telle information est vraie ou fausse.

    Pour cet exemple, nous avons volontairement posé une question sur une infox vérifiée par la cellule Info Vérif de RFI. Mais cette intelligence artificielle se base sur le travail de plusieurs centaines de sources fiables, sélectionnées par un comité d’experts et librement consultables.

    « À partir de la question posée par l’utilisateur, Vera va d’abord chercher si des rédactions de fact-checking ont traité le sujet. Si ce n’est pas le cas, elle va chercher la réponse auprès de 300 sites de médias reconnus comme fiables, avant d’en faire une synthèse et de la proposer en temps réel », explique son fondateur, Florian Gauthier. Techniquement parlant, Vera se base sur le modèle de langage GPT-4, développé par la société américaine Open AI.

    Aujourd’hui, Vera est utilisée par environ 700 utilisateurs uniques chaque semaine.

    Une IA modelée pour éviter les erreurs

    Comme tout outil basé sur l’intelligence artificielle, Vera n’est pas infaillible. Le risque d’erreur ou de réponse incomplète existe. Mais contrairement à des chatbots comme ChatGPT, Perplexity ou Claude, Vera n’a pas été pensée pour répondre coûte que coûte à la question posée. « Vera a l’interdiction totale, d’imaginer quoi que ce soit. Dès qu’elle va formuler une réponse, c’est que cette réponse a été donnée par une source fiable qui est toujours citée. Si Vera ne trouve pas la réponse dans sa base de données, ce qui arrive par moment, elle ne va pas chercher à inventer. Elle se contentera alors de préciser qu’elle n’a pas trouvé la réponse à cette question », détaille Florian Gauthier.

    Autre limite, la base de données ne peut pas être exhaustive. Il est donc possible que Vera vous réponde qu’elle ne sait pas même si le sujet a déjà été vérifié. Mais d’après nos essais, Vera est aujourd’hui le bot conversationnel le plus efficace pour vérifier une information en temps réel. À l’avenir, ses créateurs envisagent de rendre Vera multilingue, et de proposer gratuitement le service sur d’autres plateformes et réseaux sociaux.

    Lutter contre les discours complotistes

    Au-delà de permettre ce processus de vérification en temps réel, ce genre d’agent conversationnel pourrait également permettre de limiter, chez certains utilisateurs, l'adhésion aux théories complotistes. C’est ce que montre une étude récente publiée dans la revue scientifique Nature. « De nombreuses personnes qui croient fermement à des théories du complot apparemment infondées peuvent changer d’avis lorsqu’on leur présente des preuves convaincantes. (...) Les dialogues avec l’IA réduisent durablement les croyances complotistes, même parmi les plus fervents croyants », concluent les chercheurs.

    Pour Florian Gauthier, « l’intelligence artificielle est un super outil pour propager des fausses informations. Mais l’IA peut aussi être, au contraire, une véritable piste de réponse pour combattre la désinformation ».

    続きを読む 一部表示
    4 分
  • Gaza sur les réseaux sociaux, de l’image artificielle sur de réelles atrocités
    2025/01/03
    De plus en plus simples et performants, les modèles de synthèse d'image permettent la diffusion massive de contenus artificiels, relayés comme tels mais pas seulement. Ils participent aussi à la confusion dans des conflits difficiles à couvrir pour les journalistes, menacés dans l’exercice de leur métier. À côté des véritables clichés témoignant des atrocités commises à Gaza, l’IA vient perturber la perception de la réalité factuelle. L’image suscite l’indignation. Elle montre - au premier plan - un homme âgé sous perfusion, pieds et torse nus, debout au milieu des gravas, avec - à l'arrière-plan - un char de combat se détachant sur fond de bâtiments détruits un peu flous. Les comptes qui partagent cette image sur plusieurs réseaux sociaux, Instagram, Facebook et X indiquent qu’il s’agit d’un vieillard sorti de force par les soldats israéliens lors de l’assaut mené il y a une semaine tout juste contre l’hôpital Kamal Adwan, dernier grand hôpital du nord de Gaza. Relayée dès lundi par une influenceuse et activiste pro-palestinienne suivie par plus de 300 000 comptes sur X, le cliché suscite de nombreuses réactions contre une opération militaire israélienne qui a brutalement mis hors d’état de fonctionner l’un des derniers hôpitaux de Gaza. Pourtant, cette image censée représenter une situation réelle, ne l’est pas. Création numérique trompeuseUne recherche d’image inversée permet de retrouver la première occurrence de cette image. Elle provient du compte Instagram d’un militant pro-palestinien, qui se présente comme un artiste de design numérique. Il ne s’en cache pas, ses images portent toutes la même signature, mentionnant une création d’art visuel. On découvre d’ailleurs une autre version de la scène. Le vieil homme est vu de dos, toujours devant le même char. Sur le bitume devant lui sont peints en rouge les mots « Dirty World » et la photo est barrée d’un slogan : « forced extermination », on voit aussi la signature du concepteur de l’image, en haut à droite et en bas à gauche. Il ne s’agit donc pas d’une photo à proprement parler. L’homme que l’on voit n’existe pas, c’est une composition numérique avec des éléments de décor fictifs. Le char est placé là, comme un élément du décor. Mais nombre de publications ont relayé cette image d’un réseau social à l’autre, en réduisant le cadre et du coup, en escamotant la signature. De toute façon, avec ou sans logo, en lisant les commentaires, on s’aperçoit que beaucoup d’internautes pensent avoir affaire à une image authentique, alors qu’il n’en est rien. Altération du réelLe concepteur de l’image publie sur Instagram un résumé de la situation plutôt factuel sans dire que l’illustration choisie, elle, ne l’est pas. L’intention vise manifestement à alerter l’opinion, à la suite de ce raid de l’armée israélienne qui a bel et bien eu lieu et qui a abouti à ce que les patients de l’hôpital - certains dans un état critique - soient sortis du bâtiment sous la contrainte. Or, à part quelques images du personnel soignant et du docteur Abou Safiya arrêtés par l’armée israélienne, on n’a quasiment pas vu ce qui était advenu des patients. À l'exception d’une vidéo diffusée sur la chaîne de télévision Al Jazeera, montrant des femmes et des enfants assis dans des ambulances lors de leur transfert vers l’hôpital indonésien. Leur situation est réellement dramatique, car le système de santé à Gaza est véritablement en ruine, mais l’image du vieil homme à la perfusion, seul face à un char ne rend pas compte de la situation réelle. À lire aussiGuerre Israël-Gaza: «Un système sanitaire anéanti», la santé des Gazaouis en périlQuand l’image artificielle sert la propagande israélienneLe paradoxe, c’est qu’en publiant et en relayant des images non authentiques même lorsqu’elles témoignent d’une réalité, on favorise la mise en doute des véritables photos, qui - elles - sont prises dans des conditions extrêmement difficiles. L’image du vieillard à la perfusion n’a pas circulé de façon virale. Elle a vite été retirée de X par l’influenceuse qui avait contribué dans un premier temps à sa diffusion. Mais d’autres internautes s’en sont emparés. Dont un militant pro-israélien, profitant de l’occasion pour alimenter le doute sur le sort des gazaouis. Immanquablement, sur les réseaux sociaux, la création échappe vite à son créateur. Le factuel relégué au second plan, la désinformation s’insinue. La nécessité de « documenter » le conflitLa manœuvre éclipse une autre réalité de ce conflit. À Gaza, les journalistes sont empêchés de travailler, victimes des bombardements quand ils ne sont pas volontairement ciblés et interdits sur le terrain. Cette difficulté ne justifie pas cependant l’emploi de fausses images dans la ...
    続きを読む 一部表示
    3 分
  • Égypte: de fausses rumeurs de manifestations agitent les réseaux sociaux
    2024/12/27

    En Égypte, de fausses rumeurs de soulèvement populaire sont devenues virales sur les réseaux sociaux. Après la chute du dictateur syrien Bachar el-Assad, certains affirment, à tort, que le peuple égyptien serait en train de renverser Abdel Fattah al-Sissi. En réalité, aucune manifestation anti-régime n’a eu lieu ces derniers jours en Égypte. Les images partagées sont sorties de leur contexte.

    La vidéo la plus populaire a été vue plusieurs millions de fois ces dernières heures. On y voit des manifestants réunis de nuit, dans une rue commerçante. Certains tentent de bloquer la circulation, d’autres scandent : « le peuple veut faire tomber le système », un slogan emblématique des révolutions arabes de 2011. Les comptes qui partagent ces images parlent de « manifestations en cours au Caire pour demander le renversement du régime d'Abdel Fattah al-Sissi ».

    Vérification faîte, ces images sont datées. Grâce à une recherche par image inversée (voir ici comment faire), nous avons retrouvé un reportage de la chaîne de télévision arabe, Al Araby, publié sur Facebook en 2019. On y retrouve plusieurs extraits de manifestations filmés dans toute l’Égypte, dont ces images présentées, à tort, comme étant récentes.

    Cette vidéo remonte donc au mouvement de contestation anti-régime qui avait éclaté dans le pays en septembre 2019. À l’époque, l'homme d’affaires exilé en Espagne Mohamed Aly avait appelé à manifester, accusant Abdel Fattah al-Sissi de corruption. Ces derniers jours, aucune manifestation anti-régime n’a eu lieu en Égypte.

    Détournement de la contestation de 2019

    Une autre vidéo virale montre des manifestants en train de déchirer un portrait d’Abdel Fattah al-Sissi, en pleine rue. La légende évoque « des manifestations antigouvernementales au Caire, en Égypte ». Mais contrairement à ce que veut faire croire l’auteur de ce tweet, ces images vues des centaines de milliers de fois ne sont pas récentes.

    En faisant une recherche par mots clés, nous les avons retrouvées dans un article publié cette fois par Al Jazeera, le 21 septembre 2019. Le média évoque des manifestations dans les villes de Damiette et de Mansoura.

    On retrouve donc le même mode opératoire. Des utilisateurs rediffusent des vidéos datées de cette période de contestation en septembre 2019 et les publient telles quelles, avec une légende mensongère ou volontairement imprécise. Au total, la cellule Info Vérif de RFI a repéré près d’une dizaine de vidéos ainsi sorties de leur contexte.

    Désinformer pour modifier les comportements

    Si on ne sait pas précisément qui est derrière cette campagne de désinformation, l’analyse des comptes à l’origine de ces infox met en lumière des profils variés. Nous avons identifié des comptes égyptiens opposés au régime en place, des comptes pro-russes habitués à désinformer au Moyen-Orient, ainsi que des comptes pro-palestiniens. Quand on regarde les chiffres, on peut dire que cette campagne est relativement efficace puisque ces fausses informations ont cumulé des millions de vues en seulement quelques jours sur X, Facebook et TikTok.

    Ces comptes cherchent à raviver artificiellement la flamme de la contestation en Égypte. Une chose est sûre, leurs infox parviennent au moins à semer le trouble, comme le montrent les commentaires d’internautes qui tombent dans le piège.

    続きを読む 一部表示
    3 分

Les dessous de l'infox, la chroniqueに寄せられたリスナーの声

カスタマーレビュー:以下のタブを選択することで、他のサイトのレビューをご覧になれます。