エピソード

  • Émeutes à Los Angeles: images artificielles et mauvaises interprétations sèment la confusion
    2025/06/13

    Depuis vendredi dernier, Los Angeles, la deuxième ville des États-Unis, est en proie à des heurts parfois violents qui opposent des manifestants aux forces de l’ordre. Un couvre-feu a été imposé en début de semaine pour tenter de mettre fin aux pillages. Quelque 700 marines, ont été appelés en renforts, rejoignant 4 000 militaires réservistes de la Garde nationale. Un déploiement de force dénoncé par les autorités locales qui parlent d’un abus de pouvoir de la part de Donald Trump.

    Depuis quelques jours, confusion et fausses informations entourent les évènements de Los Angeles. Parfois, ce sont les agents conversationnels, comme ChatGPT ou Grok qui viennent semer le trouble. Ainsi, deux photos ont retenu notre attention. Elles ont provoqué une passe d'arme sur les réseaux sociaux. Il s'agit d'images montrant des soldats américains allongés sur le sol, en train de dormir les uns contre les autres, dans ce qui semble être un poste de sécurité et le sous-sol d’un bâtiment.

    Ces photos ont été vues des centaines de milliers de fois, rien que sur le réseau X, et elles ont été partagées par le compte du gouverneur démocrate de Californie Gavin Newsom qui s’est opposé à Donald Trump à propos du déploiement de l’armée dans les rues de Los Angeles.

    Le compte personnel de Gavin Newsom représente 2,2 millions de followers. Dans un commentaire, il dénonce les conditions déplorables dans lesquelles les soldats seraient logés et il s’adresse directement à Donald Trump, il écrit je cite : « Vous avez envoyé des troupes ici, sans carburant, sans nourriture et dans l'endroit pour dormir, s'il y en a un qui manque de respect à notre armée, c'est bien vous ».

    Polémique sur les réseaux sociaux

    Ces images sont-elles réelles ? Cette question, beaucoup d’utilisateurs d’internet se la sont posée. Ils en sont remis à l’avis de Grok, (l’IA d'Elon Musk) et ils ont interrogé Chat GPT. Juste après le partage de ces images, ces agents conversationnels ont affirmé que « ces images semblaient montrer le retrait des soldats américains d’Afghanistan à l’aéroport de Kaboul durant l’été 2021 ».

    Après vérification, ce n'est pas le gouverneur de Californie qui a menti, mais c’est l’IA qui s’est trompée : ces images sont bien réelles, elles ont bien été prises à Los Angeles et publiées par un journal local sérieux, le San Francisco Chronicle dans son édition du 9 juin. La rédaction assure qu’elle a obtenu ces deux clichés en exclusivité, et qu’ils montrent des soldats en train de se reposer dans différents immeubles fédéraux qu’ils sont chargés de protéger…

    L'IA prise en défaut

    Une recherche par image inversée permet d’établir que ces photos n’ont jamais été mises en ligne avant le 9 juin dernier, donc elles ne peuvent pas avoir été publiées il y a quatre ans lors du retrait d’Afghanistan.

    Donc attention, Grok ou ChatGPT ne sont pas des outils de fact checking, même si la tendance des utilisateurs est d’y avoir recours dès qu’ils se posent des questions sur l’authenticité d’un contenu. Les résultats de recherche menés par les IA changent au fil du temps, en fonction des références sur lesquelles ces outils peuvent s’appuyer pour fournir des réponses.

    De vrais exemples d'Infox

    Avec des images générées par IA, comme celle de « Bob ». Ce soldat américain censé avoir été déployé pour protéger Los Angeles. Il se filme dans la ville en mode « portrait » et répand des fausses informations. Ces images ont fait le tour des plateformes, mais il s’agit en fait d’un personnage entièrement créé par des outils d’intelligence artificielle.

    À bien observer la vidéo, on peut noter certaines incohérences comme le grade du soldat qui ne correspond à rien de connu, les couleurs des feux de circulations à l’arrière-plan, ou encore les lettres « LAPC » sur une voiture de police alors que c’est « LAPD », Los Angeles Police Département, qui est inscrit en lettre noire sur fond blanc, sur les véhicules de police de la ville.

    続きを読む 一部表示
    4 分
  • Russie: la désinformation s’intensifie après l’attaque de drones ukrainiens
    2025/06/06
    Avec son opération clandestine, baptisée « Toile d’araignée », l’armée ukrainienne a détruit au moins une quinzaine d’appareils russes, dont plusieurs bombardiers stratégiques, dimanche 1er juin. Un raid historique autour duquel la désinformation bat son plein sur les réseaux sociaux. Côté ukrainien, certains comptes détournent des images pour surévaluer les dégâts. Côté russe, la désinformation sert à sauver la face et faire monter la tension. Quelques heures seulement après l’annonce du raid ukrainien sur des aérodromes militaires russes, des comptes habitués à diffuser la propagande du Kremlin ont inondé les réseaux sociaux avec un message relativement inquiétant : « La Russie aurait placé ses forces nucléaires en état d’alerte maximale ». Des utilisateurs parlent, à tort, de « l’ouverture des silos contenant des missiles stratégiques et du déplacement d’unités mobiles ». Un niveau de préparation « jamais vu depuis la crise des missiles de Cuba », à en croire ces nombreuses publications.Concrètement, ce narratif mensonger repose sur de prétendus témoignages non sourcés ainsi que sur une vidéo de 49 secondes vue plus de 10 millions de fois cette semaine. Filmée de nuit, on y voit une colonne de lanceurs Yars, entourée de véhicules de police progressant sur une autoroute civile.Ces systèmes de missiles balistiques intercontinentaux mobiles sont capables de lancer plusieurs têtes nucléaires avec une portée estimée à 10 000 km. Cela fait dire à certains que le raid ukrainien pourrait faire basculer le monde.Préparation pour le défilé du 9 mai 2024Vérification faite, cette vidéo n’a rien à voir avec l’attaque récente de drones ukrainiens sur des bases russes. Grâce à une recherche par image inversée (voir ici comment faire), nous avons retrouvé d’où provient exactement cette vidéo. Elle a été diffusée par le ministère russe de la Défense sur Telegram, le 27 février 2024.La légende parle de l’arrivée des lanceurs Yars à Alabino, près de Moscou, dans le cadre de la préparation du traditionnel défilé militaire du 9 mai, pour l’édition 2024. Aucun rapport donc avec le raid ukrainien du dimanche 1er juin 2025.Le déni russeAu-delà d’agiter la menace nucléaire pour faire diversion sur le coup dur porté à l’aviation stratégique russe, des comptes de propagande vont même jusqu’à nier l’existence des destructions. Pour y parvenir, certains partagent des images satellites antérieures à l’attaque, en les présentant, à tort, comme des clichés récents, post-frappe. Un récit démenti par l’analyse des informations en sources ouvertes, menée par la cellule Info Vérif de RFI, et qui permet de documenter avec certitude la perte d’au moins 15 appareils russes.Surévaluation des dégâtsCes images sorties de leur contexte sont loin d’être les seules à circuler sur les réseaux sociaux ces derniers jours. Certains comptes pro-ukrainiens ont par exemple diffusé une vidéo censée montrer la destruction d’une usine de composants de missile près de Moscou.On y voit bien une vaste explosion, sauf que ces images, vues plusieurs millions de fois, sont anciennes. Elles datent en réalité de 2023 et montrent un navire de guerre russe frappé par des missiles de croisière ukrainiens lors d'une attaque nocturne en Crimée.Toujours dans le but de surévaluer les dégâts, certains utilisateurs partagent également des vidéos issues de jeu vidéo ou générées par intelligence artificielle.À lire aussiAttaque de drones ukrainiens en Russie: attention à ces images artificiellesDésinformation et brouillard de guerreComme à chaque grande opération militaire, le brouillard de la guerre facilite la diffusion d’images sorties de leur contexte ou générées par intelligence artificielle. À cela s’ajoutent des modes opératoires toujours plus complexes. Plusieurs fausses images satellites difficilement détectables ont, par exemple, fait leur apparition en ligne.Une fois devenues virales, ces infox alimentent les tensions, perturbent les perceptions du conflit et invisibilisent les vraies images de la guerre.
    続きを読む 一部表示
    3 分
  • Le faux crash d'un avion de pèlerins mauritaniens sème le trouble avant le Hajj
    2025/05/30

    Le Hajj, le pèlerinage des musulmans à la Mecque, débute mercredi 4 juin. L'année dernière, plus de 1,8 million de musulmans s'étaient rendus en Arabie saoudite pour l'occasion. Cette semaine, une fausse information a circulé à propos du crash d’un avion rempli de fidèles en provenance de Mauritanie. Compte tenu de l’émotion générée par cette infox, les autorités mauritaniennes ont dû publier un communiqué pour couper court à la rumeur et rétablir la vérité.

    Cette infox s’est répandue sur les réseaux sociaux, au Sahel, au Sahara, en Afrique du Nord et dans le monde arabo-musulman. On la trouve sur les principales plates-formes comme X, Facebook, ou TikTok. Sur les posts en questions, on peut lire : « un avion de pèlerins mauritaniens s’est écrasé en mer Rouge, faisant plus de 200 morts ». L’infox est généralement accompagnée d’images sorties de leur contexte, ou générées par IA.

    Compassion sur les réseaux sociaux

    L’infox est apparue le 27 mai. Elle a eu peu de retentissement en Europe, mais en Afrique de l’Ouest particulièrement puisqu'une multitude d’utilisateurs l’ont immédiatement commenté. C’est la rédaction en Mandenkan-Fulfude de RFI à Dakar qui a attiré notre attention sur ce sujet.

    Le site en ligne Senenews qui a fait un travail de vérification autour de cette fausse rumeur écrit : « la diffusion de fausses informations autour du Hajj est malheureusement courante à l’approche de la saison du pèlerinage, une période sensible où des millions de fidèles se rendent en Arabie saoudite. Ces fausses nouvelles jouent sur l’émotion collective pour générer du clic ou faire le buzz, au détriment de la vérité et de la sérénité des proches des pèlerins ». En pareils cas, la première chose à faire pour lever un doute est d’aller consulter des sites sérieux, comme des chaines nationales ou internationales, pour voir si elles parlent de ce crash.

    Images détournées

    Une observation attentive des images permet de ne pas se faire manipuler. Dans le cas présent, les images qui circulent sur les réseaux sont impressionnantes mais ne concordent pas avec ce qu’on pourrait découvrir sur le site d’un accident aérien, surtout si l’avion est tombé en mer.

    En effet, si on consulte de la documentation sur internet, on s’aperçoit qu’on ne retrouve le plus souvent que quelques débris flottant à la surface une fois que l’avion a percuté la mer. Les principales images qui circulent autour de cette infox montrent aussi des carlingues en feu. Sur le sol sont alignés des corps. Pour la première image, il s’agit visiblement d’une IA, et pour l’autre, d’une image sortie de son contexte.

    Nous avons noté des invraisemblances liées à la génération d’images par des outils d’intelligence artificielle. Par exemple des hublots carrés qui n’existent pas sur les avions de ligne actuels. Une recherche par image inversée nous a aussi permis de retrouver l’origine de l’image d’un avion dévoré par les flammes et photographié de face. Il s’agit d’un appareil cargo de fabrication russe, incendié en 2007 sur l’aéroport de Pointe-Noire au Congo et en aucun cas d’un avion de ligne mauritanien en 2025.

    Une affaire prise au sérieux par les autorités

    Dans un communiqué officiel, Mauritania Airlines a précisé que les rumeurs concernant ce crash circulant sur les réseaux sont totalement infondées. « Tous les pèlerins mauritaniens ont atterri en sécurité et aucun incident n’a été enregistré », a déclaré la compagnie. Les autorités mauritaniennes ont également démenti. Ces réactions officielles sont intervenues dans les heures qui ont suivi l’apparition de l’infox, sans pour autant stopper sa propagation.

    続きを読む 一部表示
    4 分
  • Un sosie du pape Léon XIV sème le trouble sur les réseaux sociaux arabophones
    2025/05/23

    Léon XIV a donné le ton de son pontificat, dimanche 18 mai, au Vatican en dénonçant une économie qui exploite la nature et qui laisse de côté les plus pauvres. Ce mercredi, il a lancé un appel à Israël afin que l’aide humanitaire puisse entrer à Gaza. Des discours empreints d’humanisme alors que certains comptes sur les réseaux sociaux tentent de manipuler sa parole. Ainsi une infox en langue arabe veut laisser croire à des prises de position hostiles à l'islam de la part du nouveau pape.

    Dès son arrivée à la tête du Saint-Siège, le pape Léon XIV a été l’objet d’infox sur les réseaux sociaux. Une désinformation, plus ou moins grossière, visant la personne du pape, et les positions de l’Église, en lui attribuant des propos qu’il n’a jamais tenus. Parmi ses fausses déclarations, l’une a retenu notre attention.

    L’infox prend la forme de tweet sur X et de post sur Facebook rédigés en arabe, et laissant penser à tort que le nouveau pape a tenu des propos hostiles à l'islam. Dans une vidéo d’une dizaine de minutes, on le verrait « dénoncer une invasion de l’Europe par les musulmans » détaillant une soi-disant « stratégie visant à changer l’identité chrétienne du continent européen ». Après vérifications, le nouveau pape n’a jamais dit ça, que cela soit d’ailleurs avant ou après le début de son pontificat.

    Vidéo trompeuse

    Toutefois, la personne qui prononce ce discours ressemble beaucoup au pape Léon XIV. Donc tout d’abord, on a cherché à savoir si la vidéo n'avait pas été générée par un outil d’intelligence artificielle ? Le logiciel que nous avons employé nous a indiqué qu’il y avait 0% de chance pour que cette vidéo ait été fabriquée par l’IA. Donc a priori, nous ne sommes pas confrontés à un hypertrucage.

    Comme la ressemblance est vraiment frappante, nous avons ensuite utilisé un logiciel gratuit, permettant de détecter les sosies. Résultats : entre 49% et 55% de similarités entre le visage de l’homme qui apparait sur la vidéo et le portrait du pape Léon XIV. Pas suffisant pour en tirer des conclusions surtout que l’on sait que ces outils ne sont pas fiables à 100%.

    Le discours d'un prélat conservateur en 2016

    Une recherche par image inversée nous a permis de retrouver la trace sur YouTube d’une longue vidéo, dont la dernière partie correspond à l’extrait que l’on trouve dans l’Infox. La personne que l’on voit à l’écran est bien un homme d’Église : il s'agit de l’évêque d’Astana au Kazakhstan, Athanasius Schneider, connu pour ses prises de positions conservatrices. Il a fait ces déclarations sur cette « invasion de l’Europe », selon ses mots, lors d’une rencontre avec des fidèles filmée dans une petite église du New Jersey aux États-Unis, le 23 octobre 2016. On retrouve d’ailleurs des photos de son passage sur le site internet de la paroisse.

    Des invraisemblances décelables

    On est donc face à une infox utilisant une vidéo sortie de son contexte jouant sur une forte ressemblance entre ce dignitaire catholique et le pape Léon XIV, afin de marquer les esprits. Cela étant, si on s'attarde sur l’image, on voit que celui qui est présenté comme le pape, porte la soutane violette des évêques et non la grande tenue blanche du souverain pontife.

    L’audio donne aussi des indications. L’accent de Léon XIV est bien celui d’un natif des États-Unis, alors que l’anglais de l’évêque Schneider est plus hésitant. Enfin, toutes les déclarations publiques du pape sont disponibles sur le site officiel du Vatican. Si vous avez un doute, allez consulter le site, d’ailleurs le Vatican fait aussi du fact-checking comme ici.

    続きを読む 一部表示
    4 分
  • Inde-Pakistan: les armes se taisent, pas la désinformation
    2025/05/16

    Après une escalade militaire ayant provoqué la mort de plus de 70 personnes, l’Inde et le Pakistan ont convenu d’un accord de cessez-le-feu le samedi 10 mai 2025. Si les armes se sont tues, la guerre de l’information, elle, se poursuit entre New Delhi et Islamabad. D’un côté comme de l’autre, des comptes de propagande continuent de diffuser massivement des fausses informations afin de présenter leur pays comme le vainqueur de cette confrontation.

    À l’instant où le cessez-le-feu aérien, terrestre et maritime a été annoncé, la bataille numérique entre l’Inde et le Pakistan n’a pas baissé en intensité. Au contraire, les comptes de propagande ont rapidement réorienté leurs narratifs autour de deux axes : la glorification de l’action de leur armée et l’humiliation de l’adversaire. Pour y parvenir, différents modes opératoires sont employés, du simple montage photo au deepfake sophistiqué.

    La guerre des deepfakes

    À ce jour, de nombreux politiques indiens et pakistanais en ont fait les frais, à commencer par le Premier ministre indien, Narendra Modi. Dans une vidéo d’une minute et treize secondes, on pense l’entendre présenter ses excuses, en hindi, au peuple indien : « Le Pakistan nous a complètement détruits. Notre économie s’effondre. Aucun investissement n’est à venir. Les marchés sont déserts. (...) Nous avons essayé de faire la guerre. Mais maintenant, nous réalisons que nous avons commis une grave erreur. Je présente mes excuses ». En réalité, Narendra Modi n’a jamais tenu ces propos.

    Cette vidéo a été générée via l’intelligence artificielle. L’analyse visuelle du mouvement de ses lèvres, ainsi que les détecteurs d’IA que nous avons utilisés, le confirment. C’est un deepfake, un hypertrucage audio et visuel. La voix du Premier ministre indien a été fabriquée de toutes pièces. À noter que le ministre des Affaires étrangères et le ministre de l’Intérieur indien ont également été ciblés par ce type de deepfake.

    Côté Pakistanais, c’est le porte-parole de l’armée qui en a été victime. En effet, une vidéo artificielle du général Ahmed Chaudhry a semé le trouble sur les réseaux sociaux. Durant une minute et trente-et-une secondes, on croit l’entendre reconnaître la perte de « deux avions Chengdu JF-17 ». Sauf qu’une nouvelle fois, il s’agit d’un deepfake. Ahmed Chaudhry n’a jamais prononcé un tel discours.

    L'extrait provient d’une conférence de presse de l’armée pakistanaise tenue le 27 décembre 2024, soit bien avant l’escalade militaire avec l’Inde. Quelqu’un a fourni ces images à une IA pour manipuler le discours du porte-parole de l’armée.

    La bataille des chiffres

    Cette infox ciblant le porte-parole de l’armée pakistanaise est le symbole de la guerre des chiffres qui se joue actuellement entre les deux pays. Chaque camp publie quotidiennement des bilans concernant les supposées destructions matérielles et humaines infligées à l’adversaire.

    Ces données sont impossibles à vérifier de façon indépendante à ce stade. Mais pour donner de la crédibilité à ces chiffres, la propagande pro-pakistanaise a détourné l’identité de plusieurs médias occidentaux. Une infographie avec le logo de CNN affirme par exemple que l’Inde aurait notamment perdu 6 avions de combats, 553 drones et un système de défense antiaérien S400. Sauf qu’en réalité, le média américain n’a jamais publié ce tableau comparatif.

    Contacté par le média de vérification, Logically Facts, un porte-parole de CNN, a confirmé que « cette image est fabriquée. CNN n'a jamais relayé cette information ».

    Dans la même veine, un article à la gloire de l’armée de l’air pakistanaise et attribué au Daily Telegraph circule ces derniers jours sur la toile. Mais là encore, c’est une fausse information. Le Daily Telegraph n’a jamais publié une telle information.

    続きを読む 一部表示
    3 分
  • Inde-Pakistan: guerre de l’information à haute intensité
    2025/05/09

    L’escalade militaire entre l’Inde et le Pakistan va-t-elle s’arrêter ? Les attaques entre les deux voisins se sont encore intensifiées ces dernières heures. Le dernier bilan, publié ce jeudi 8 mai, fait état de 16 morts civils côté indien, 32 morts côté pakistanais. Ces affrontements, les plus graves depuis deux décennies, s’accompagnent d’une véritable guerre de l’information. Une bataille numérique qui a pris le dessus sur les faits.

    Sur les réseaux sociaux, des centaines de comptes pro-indiens et pro-pakistanais s’affrontent à coups d’infox et de message de propagande. Résultat, si vous cherchez à vous informer sur la situation en cours sur X, Facebook, TikTok ou Instagram, vous allez obligatoirement être confrontés à de fausses informations. C’est simple, lorsque l’on tape Inde ou Pakistan, les premières images qui sont mises en avant par les plateformes sont fausses ou sorties de leur contexte.

    Des images issues de jeu vidéo

    L’un des exemples le plus marquant est une vidéo vue plusieurs dizaines de millions de fois ces derniers jours. On y voit un canon antiaérien au sol, essayant d’abattre des avions de combat. La légende évoque « un avion de chasse pakistanais Chengdu JF-17 abattu par la défense sol-air indienne ».

    Sauf que ces images ne sont pas réelles. Vérification faite, cet extrait est issu d’Arma 3, un jeu vidéo de simulation militaire ultra-réaliste, régulièrement détourné pour partager de fausses images en temps de guerre.

    D’autres images de ce même jeu sont partagées par des comptes pro-pakistanais pour illustrer, à tort, la destruction d’un Rafale de l'armée de l'air indienne dans le ciel pakistanais.

    Pour se rendre compte de la supercherie, il faut observer attentivement les fumées, les flammes et les explosions qui ne collent pas avec la réalité. Ces éléments sont encore difficiles à générer numériquement.

    Détournement d’images de guerre

    Au-delà des images issues de jeu vidéo, les images sorties de leur contexte pullulent sur la toile. Alors que nous sommes en plein brouillard de guerre et que les documents authentiques se font rare, le besoin de mettre des images sur ce qu’il se passe sur le terrain pousse des utilisateurs à recycler de vieilles images. Raison pour laquelle des vidéos filmées dans la bande de Gaza, au Yémen, ou au Liban sont diffusées en masse pour illustrer, à tort, la situation entre l’Inde et le Pakistan.

    L’IA sème le trouble

    À tout cela s’ajoute également les images générées par intelligence artificielle. Une vidéo montrant la carcasse d’un avion de chasse soulevée par un hélicoptère et une image satellite censée montrer des rafales ont fait le tour des réseaux sociaux en milieu de semaine. En réalité, pourtant, ces images ont été générées par une intelligence artificielle.

    À noter aussi que sous de véritables images, certains comptes de propagande sèment le trouble en affirmant, à tort, qu’elles auraient été produites par une IA.

    Une désinformation dangereuse

    Cette désinformation de masse est particulièrement nocive. D’abord, car tous ces faux documents invisibilisent les quelques vraies images de ce conflit. L’analyse des commentaires montre, de plus, que ce flot continu d’infox altèrent les perceptions et radicalisent les esprits.

    À lire aussiInde-Pakistan: la désinformation attise les tensions

    Cette bataille numérique entre l’Inde et le Pakistan, est un énième exemple, que chaque guerre sur le terrain s’accompagne aujourd’hui d’une intense guerre numérique, dans laquelle chaque camp tente d’imposer sa mise en récit, au détriment de l’information fiable et vérifiée.

    続きを読む 一部表示
    3 分
  • Sénégal: ce convoi militaire filmé à Dakar n’appartient pas à l’armée française
    2025/05/02
    Au Sénégal, la présence militaire française agite les réseaux sociaux cette semaine. Alors que le désengagement des éléments sur place est en cours, une rumeur mensongère circule à propos d’un convoi militaire français qui aurait récemment quitté Dakar. En réalité, cette fausse information repose sur des images sorties de leur contexte. C’est notre rédaction à Dakar qui a lancé l’alerte. À en croire plusieurs messages mensongers publiés sur les réseaux sociaux, un convoi de véhicules militaires français aurait quitté Dakar ce lundi 28 avril 2025, escorté par l’armée sénégalaise. La rumeur a d’abord été diffusée par un portail d’information en ligne, avant de se répandre dans la presse locale et d’être poussée par des comptes de propagande. Des médias russes, comme RT, ont également repartagé l’infox.La vidéo censée documenter ce départ dure une trentaine de secondes. Elle est intitulée, « les premiers Éléments Français au Sénégal quittent Dakar ». On y voit une colonne de quinze véhicules progressant dans le trafic. On y retrouve notamment des camions de transports, plusieurs 4×4 ainsi qu’un blindé de reconnaissance.Notre rédaction à Dakar a géolocalisé précisément ces images, filmées sur l’autoroute A1, au niveau du Croisement Cambérène.Un convoi néerlandaisVérification faite, cette vidéo ne montre pas un convoi de l’armée française. Le blindé de reconnaissance visible en queue de peloton est un Fennek. Ce véhicule, de conception néerlando-allemande, ne figure pas dans l’arsenal français.Des sources militaires haut placées, contactées par RFI, confirment qu'il s'agit d'un convoi néerlandais présent dans le cadre de l’exercice « African Lion 2025 ». Cet entraînement militaire, supervisé par le Commandement des États-Unis pour l’Afrique, a débuté mi-avril. Au total, plus de 10 000 soldats de 40 pays différents sont mobilisés en Tunisie, au Maroc, au Ghana, mais aussi, au Sénégal. Des soldats ivoiriens, mauritaniens, néerlandais, américains et sénégalais sont présents au pays de la Teranga.Des soldats français photographiés à Gao en 2021D’autres images sorties de leur contexte circulent également sur les réseaux sociaux à propos du désengagement français. Plusieurs internautes illustrent ce supposé départ du 28 avril 2025 avec une photo montrant une dizaine de militaires français, sacs sur le dos et masques chirurgicaux sur le visage, en train de monter dans la soute d’un avion de transport. Mais dans les faits, cette image n’a rien à voir avec le désengagement en cours au Sénégal.Grâce à une recherche par image inversée (voir ici comment faire), on sait que ce cliché montre des soldats français de la force Barkhane, embarquant à bord d'un avion C130 de l'US Air Force, à Gao, au Mali, le 9 juin 2021.La réalité du désengagementSi ces images sont diffusées à des fins de désinformation, le désengagement des éléments français au Sénégal, initié en 2025, est bien une réalité. La commission franco-sénégalaise s’est réunie pour la première fois, le 28 février 2025, pour établir le calendrier et les modalités de remise à disposition des emprises utilisées par les Éléments français au Sénégal. Contrairement à ce qu’écrivent certains articles de presse, les installations des quartiers Maréchal et Saint-Exupéry ont par exemple déjà été restituées, au mois de mars dernier.L’opération devrait s’achever entre juillet et août. « Reste à savoir, confie une source militaire, quel niveau d’ambition pourrait revêtir la forme du partenariat rénové, en matière de défense et de sécurité, entre la France et le Sénégal ».
    続きを読む 一部表示
    3 分
  • Retour au franc, fin des espèces? L'euro ciblé par les infox
    2025/04/25

    Ces derniers jours, l’euro, partagé par vingt pays de l’Union européenne, est la cible d’une vaste campagne de désinformation sur les réseaux sociaux. Alors que la Banque centrale européenne (BCE) ambitionne d’émettre une monnaie virtuelle dans les prochaines années, certains évoquent, à tort, l’interdiction de l’argent liquide en France et la fin de la zone euro. Ces fausses informations, diffusées principalement sur TikTok, cumulent des millions de vues.

    À en croire une vidéo mensongère devenue virale sur TikTok cette semaine, la France aurait décidé « de quitter la zone euro pour utiliser le franc CFA ou retourner au franc ». Cette fausse information repose sur un montage composé de plusieurs extraits de journaux télévisés, attribués aux chaînes de télévisions françaises M6 et BFM TV. Cette vidéo, vue plus de 4 millions de fois sur les réseaux sociaux, suscite beaucoup d’interrogations, notamment sur le continent africain.

    Dans les commentaires, plusieurs internautes pointent, à raison, plusieurs incohérences. Un extrait présente par exemple Mariano Rajoy comme l’actuel chef du gouvernement espagnol, alors qu’il a quitté ses fonctions en 2018. De même, Angela Merkel est présentée comme la chancelière allemande. Or, elle a été remplacée en 2021 par Olaf Scholz.

    Des journaux fictifs réalisés en 2012

    En réalité, ces journaux sont sortis de leur contexte. À l’aide d’une recherche avec les mots-clés « M6 » « BFM TV » et « sorti de l’euro », on retrouve rapidement leur trace en ligne. Dans les faits, il s’agit de journaux fictifs réalisés en 2012, en pleine campagne présidentielle. La sortie de l’euro, argument poussé par le Front National de Marine Le Pen, était, à l’époque, au cœur de l’actualité. M6 et BFM TV avaient alors fait le choix de simuler le retour au franc qui n’aura finalement jamais eu lieu.

    Ce n’est pas la première fois que cette fausse information circule. Chaque année, ces vieux journaux fictifs refont surface sur les réseaux sociaux, au gré de l’actualité économique. Des comptes de désinformation les diffusent pour faire des vues et semer le trouble.

    L’argent liquide bientôt interdit ?

    Dans la même veine, une vidéo partagée cette semaine sur TikTok affirme, à tort, qu’une loi viendrait tout juste d’être votée en France pour interdire les espèces.

    Une nouvelle fois, tout est faux. Nous avons vérifié dans le Journal officiel, et aucune loi de ce type n’a été promulguée en avril. Cette infox détourne en fait le projet d’euro numérique voulu par la Banque centrale européenne et qui génère beaucoup de fantasmes.

    D’après les documents officiels de la BCE, l’euro numérique n’est pas destiné à remplacer l’argent liquide, mais à proposer une forme complémentaire de paiement. Si la carte bancaire est aujourd’hui le moyen de paiement le plus utilisé en France, plus d’un français sur deux estime qu’il est important de pouvoir payer en espèce.

    続きを読む 一部表示
    3 分