エピソード

  • Notre-Dame virtuelle, une cathédrale numérique unique au monde
    2024/12/06

    Avec les derniers développements des technologies de virtualisation 3D, il devient possible de créer un monde entièrement virtuel, mais qui serait aussi fidèle que l’original. Ces outils de simulation du réel ont permis aux chercheurs du CNRS de documenter le chantier de restauration de Notre Dame de Paris. Un projet de science participative qui a permis de faciliter et d'enrichir les échanges interdisciplinaires avec les différents corps de métier qui intervenaient dans la cathédrale.

    Gargouilles, charpentes, murs, vitraux, cloches ou encore orfèvrerie... Dès le lendemain de l’incendie qui a frappé la cathédrale Notre-Dame de Paris, de nombreux scientifiques ont mis en commun leurs compétences au service de l’édifice endommagé et au service des équipes chargées du chantier de sa restauration. Des centaines de chercheurs et artisans ont pu s'immerger dans un double virtuel à taille réelle de Notre Dame installé dans les locaux de la Cité de l'architecture et du patrimoine de Paris.

    La cathédrale virtuelle est devenue au fil de ses développements un véritable patrimoine numérique. Une cathédrale de la connaissance qu’il faut préserver pour les générations futures, précise Livio De Luca directeur de recherche au CNRS et responsable du groupe de travail « Données numériques » du Chantier scientifique Notre-Dame.

    Un projet de double numérique qui a été développé en collaboration avec le laboratoire modèles et simulations pour l’architecture et le patrimoine (MAP) : « Ce système que nous avons mis en place a permis d'intégrer plusieurs états temporels de la cathédrale. Tout d'abord, il y a eu l'urgence de cartographier les vestiges qui étaient tombés au sol. Et pour cela, nous avons mis au point des dispositifs de numérisation quadridimensionnel avec, par exemple, le recours aux archives photos afin de comparer l'état de la cathédrale avant et après incendie. Ce projet a abouti en quelque sorte à la construction d’une cathédrale de la connaissance qui fait désormais partie de notre patrimoine. Aujourd'hui, se pose la question de comment mettre à disposition ces objets numériques qui sont une extension des objets matériels et de les transformer en véritable bien commun pour les générations futures. »

    Percer les mystères de la construction de Notre-Dame

    Les chercheurs ont étudié, par exemple, le type de sylviculture appliqué aux forêts du Moyen-Âge qui avait permis aux bâtisseurs de Notre-Dame de prélever le bois pour la charpente du monument. Des informations essentielles pour les artisans qui ont mené une restauration à l’identique.

    Outre le bois, huit autres axes de recherches ont été lancés dès 2019. En tout, près de 200 chercheurs du CNRS se sont intéressés à la pierre, aux vitraux ou encore à l'acoustique de Notre Dame. Notamment, en simulant la présence de musiciens et de chanteurs sous la forme d’avatars numériques afin de retrouver l’acoustique originelle de la cathédrale.

    Remettre à la bonne place chaque vestige détruit par l’incendie

    Ce jumeau numérique a permis aux scientifiques et aux artisans chargés de la restauration de confirmer les hypothèses de localisation de chaque pièce, de chaque débris numérisé, en les manipulant virtuellement dans cet espace 3 D.

    Alors que le chantier de restauration de Notre-Dame est désormais terminé, les recherches scientifiques, elles, continueront dans les laboratoires à travers une plateforme 3D qui répertorie l'ensemble des données récoltées. La cathédrale numérique a permis aussi d’organiser des installations en réalité virtuelle pour que le grand public, à l’aide de casques immersifs, puisse à son tour découvrir les secrets de cet édifice légendaire.

    続きを読む 一部表示
    4 分
  • D’ici à cinq ans, l’IA réduira fortement les revenus des créateurs humains
    2024/12/05

    Une étude de la Confédération internationale des sociétés d’auteurs et compositeurs révèle des prévisions alarmantes sur les conséquences du déploiement des programmes IA dites génératives dans les secteurs de l’audiovisuel et de la création artistique. La perte des revenus des créateurs de contenus, tous secteurs confondus, se chiffre à près de 22 milliards d’euros d’ici à cinq ans et menace de transformer radicalement le paysage culturel et de l’audiovisuel dans le monde.

    Les bénéfices des principales entreprises de la big tech qui ont développé l’IA dite générative connaîtront une croissance spectaculaire au cours des cinq prochaines années. En revanche, les créateurs de contenus, eux, risquent de perdre une large part de leurs revenus actuels. En cause, un effet de substitution des œuvres générées par des humains qui sont ainsi victimes de la reproduction non autorisée de leurs créations par les IA. La Confédération internationale des sociétés d’auteurs et compositeurs tire à ce propos le signal d’alarme.

    Son nouveau rapport rappelle l’urgence d’imposer aux grands groupes technologiques une régulation de l’IA au niveau mondial, explique Constance Herreman Follain, directrice des affaires publiques et juridiques de la Cisac : « Cette étude démontre que les revenus des créateurs à l’horizon 2028, baisseront de 24 % dans le secteur musical et de 21 % dans celui de l’audiovisuel. Les services en ligne de l’IA utilisent des œuvres protégées sans autorisation et sans rémunérer les auteurs qui sont pourtant à l’origine des œuvres. Par ailleurs, les programmes génératifs produisent des contenus qui viennent concurrencer les créations des auteurs qu’ils ont pillés. À long terme, cela engendrera un effet de substitution. Un phénomène que la Cisac dénonce constamment auprès des législateurs dans les pays du monde entier. Actuellement, il y a d'importantes négociations au niveau européen sur la mise en œuvre de l'acte sur l'intelligence artificielle que le monde entier regarde attentivement. Il est donc capital que l'Union européenne reste leader dans la protection des droits des créateurs humains. »

    Avec l’IA, les professionnels du doublage des films disparaîtront

    L’étude alerte sur la disparition probable des métiers de traducteurs et d’adaptateurs qui travaillent dans le doublage et le sous-titrage des films avec l’effondrement de leurs revenus qui est estimé dans le rapport à 56%. Les scénaristes et les réalisateurs pourraient subir le même sort, quand les commandes passées par les groupes audiovisuels, seront amputées de 15% à 20% dans les prochaines années.

    Avec la généralisation des contenus générés par IA, les artistes humains risquent ainsi de se voir marginalisé au profit d’une domination des productions automatisées. Le grand public sera le premier à pâtir de cette disparition de la diversité culturelle, n’ayant bientôt plus d’autres choix que d’accéder à des contenus formatés et standardisés. Des œuvres artificielles par IA uniformisées, qui seront, sans surprise, voire sans saveur, est-on en droit de redouter.

    続きを読む 一部表示
    3 分
  • L’expression «brain rot», élue mot de l’année par Oxford
    2024/12/04

    L’Oxford University Press, qui édite un dictionnaire de référence de la langue anglaise utilisé dans l’ensemble du monde anglo-saxon, a désigné le terme « brain rot » comme étant le mot de l'année 2024. L'expression qui se traduit par « pourriture cérébrale » en français, qualifie les conséquences négatives sur la santé mentale des internautes d’une consommation à outrance des contenus de faible qualité sur les réseaux sociaux.

    Selon l'Oxford University Press, l’expression « brain rot » se définit comme la détérioration supposée de l'état mental ou intellectuel d'une personne qui abuse de contenus en ligne peu stimulants. Le terme ne recouvre évidemment pas une pathologie spécifique qui serait reconnue par les instances médicales. En revanche, l'utilisation massive de cette expression par les internautes eux-mêmes, dans leurs messages en ligne, invite à la réflexion.

    Entre 2023 et 2024, la fréquence d'utilisation du terme a augmenté de 230 % par rapport à l’année précédente, détaille dans une publication vidéo les réseaux sociaux de l'Université d'Oxford : « La pourriture cérébrale est définie comme la détérioration supposée de l’état mental ou intellectuel d’une personne, en particulier quand il s’agit de la surconsommation d’objets matériels. Mais aujourd’hui, le contenu en ligne peut être considéré comme quelque chose qui est susceptible d’entraîner une telle détérioration. Les experts d’Oxford University Press ont remarqué que cette pourriture mentale a pris une importance considérable cette année. Notamment quand le terme est utilisé pour exprimer des préoccupations concernant l’impact de la consultation excessive de contenus en ligne de mauvaise qualité, en particulier par les jeunes sur les médias sociaux. »

    Une expression qui ne date pas d'hier

    La première utilisation du terme « brain rot » remonte à une époque où internet n’existait pas encore. En 1854, le philosophe américain Henry David Thoreau est le premier à employer l'expression pour critiquer la tendance de ses contemporains à dévaloriser les idées complexes au profit des idées simples. « Alors que l'Angleterre s'efforce de guérir la pourriture de la pomme de terre, personne ne s'efforcera-t-il de guérir la pourriture cérébrale », écrivait-il à l’époque. En 2024, l’expression s'est étendue à la sphère du numérique, notamment pour qualifier l’effet délétère qu’exerceraient les réseaux sociaux sur la santé mentale de la jeune génération.

    Un pourrissement mental révélateur des préoccupations actuelles

    L’université ajoute que le terme « brain rot » est utilisé à la fois pour désigner la cause et l’effet de ce pourrissement mental. Le professeur et psychologue Andrew Przybylski d’Oxford s’étonne, par ailleurs, que l’expression ait été adoptée massivement par les générations Z et Alpha. Selon l’expert, il s’agirait « d’un symptôme de l'époque dans laquelle nous vivons », mettant en évidence « une relation directe entre des taux plus élevés d’anxiété et de dépression et le temps passé en ligne sur les réseaux sociaux ». Une analyse qu’il convient peut-être de nuancer.

    Le terme de « pourriture cérébrale » est souvent employé par des jeunes internautes, qui sont effectivement les premiers consommateurs et prescripteurs des contenus de piètre qualité sur les réseaux sociaux. Mais ils l’utilisent aussi pour commenter, sur un ton argotique, une vidéo en ligne, que ce soit en bien ou en mal, quand elle ne correspond pas, a priori, à leur attente.

    続きを読む 一部表示
    3 分
  • Arrestation du pirate informatique russe Matveev à Kaliningrad
    2024/12/03
    L’un des pirates les plus recherchés au monde vient d’être appréhendé par les autorités russes. L’individu âgé de 32 ans a été arrêté à Kaliningrad, un territoire de la Fédération de Russie qui est situé entre la Pologne et la Lituanie. Selon les autorités moscovites, ce pirate informatique est soupçonné d'avoir orchestré des attaques contre des banques, des hôpitaux et des réseaux énergétiques, principalement aux États-Unis. Il opérait dans l’ombre sous différents pseudonymes comme « Boriscelcin », « ShadowHacker » ou encore celui de « Wazawaka ». Il proposait à la vente des outils logiciels de piraterie informatique. Ses noms de scène en ligne étaient souvent cités par les collectifs de cybercriminels spécialisés dans les rançongiciels, qui ont sollicité à maintes reprises ses compétences afin de perpétrer leurs chantages en ligne. Des cyberattaques qui ont, par ailleurs, rapporté plusieurs millions de dollars aux organisations mafieuses.Une arrestation qui soulève quelques interrogationsLe fait que les autorités russes décident de l’appréhender et de le juger sur leur territoire soulève des questions. S’agit-il d’une réelle intention du Kremlin de coopérer avec les instances occidentales en lutte contre une cybercriminalité qui se mondialise ? Ou bien ce pirate informatique est-il aussi à l’origine d’attaques qui auraient été menées contre des entreprises et des institutions sur le territoire de la Fédération de Russie ? Impossible pour l’instant de le déterminer, nous explique Damien Bancal, expert en cybersécurité et fondateur du site Zataz qui suivait à la trace ce cybercriminel au parcours atypique, depuis quelque temps déjà : « Il est l’instigateur de plusieurs groupes de pirates informatiques, dont l'un des plus connus est LockBit. Pour l’appréhender, les autorités russes n'avaient qu'à lire l'information diffusée par le FBI quand les États-Unis ont proposé 10 millions de dollars de récompenses pour sa capture. Un mot de la personnalité du pirate qui a eu une fâcheuse tendance à faire le fanfaron sur des sites et des forums cybercriminels. Par exemple, quand le FBI a publié sa photo dans son avis de recherche, il a édité des t-shirts avec son effigie. "Je vous les vends. Je n'ai peur de rien. Ils n'arriveront jamais à venir me chercher", se vantait alors le pirate sur les réseaux sociaux. Que risque-t-il ? Si c'est comme les autres pirates liés au groupe de hackers REvil, qui viennent d'être jugés il y a quelques jours à Moscou, les peines de prison prononcées à leur encontre n'ont pas excédé six ans. Toutefois, le roi du rançongiciel deviendra peut-être une monnaie d'échange à un moment où l'Occident, la Russie et l'Ukraine vont commencer à réfléchir à la paix. La Russie peut s'en servir de monnaie d'échange afin d'amoindrir les dommages de guerre qu'elle a provoqués. L’autre possibilité serait éventuellement de récupérer des informations intéressantes en possession du pirate pour que Moscou continue à mener sa guerre hybride contre l’Occident. »Aucun traité d’extradition entre la Russie et les États-UnisEt autant dire que la chance que Matveev puisse répondre de ses actes devant une cour américaine est plutôt faible, voire inexistante. Si la Russie a souvent été accusée par l'UE d'abriter des pirates agissant pour des motifs politiques ou économiques au nom du Kremlin, cette fois son cas serait un peu différent. Le cybercriminel, agissant sans doute aux yeux des autorités de façon un peu trop indépendante, a probablement convaincu Moscou de le mettre à l’ombre, à défaut de pouvoir contrôler ses actions malveillantes.À lire aussiLe cyber, une «arme d’emploi» pour la Russie
    続きを読む 一部表示
    3 分
  • En Suède, l'agence de Sécurité sociale utilise un algorithme discriminatoire, alertent des ONG
    2024/12/02

    En Suède, l’agence de Sécurité sociale est pointée du doigt par Amnesty International. L’ONG critique le système de cette agence qui utiliserait des algorithmes discriminatoires.

    De notre correspondante à Stockholm,

    L’agence suédoise de Sécurité sociale utilise une intelligence artificielle (IA) dont le but est de repérer les fraudes aux prestations sociales. Il y a deux types de vérifications qui sont faites : la première, c’est une enquête standard réalisée par des travailleurs sociaux. Dans ce cas, on laisse le bénéfice du doute à la personne, qui a peut-être commis une simple erreur dans ses déclarations. La seconde vérification, c’est le département « contrôle » qui s’en charge et là, ils traitent les cas où il y a suspicion d’intention criminelle. Et c’est cette notion de contrôle avec présomption « d’intention criminelle » qui pose problème, car certaines personnes sont automatiquement classées dans cette deuxième catégorie par une intelligence artificielle et l’algorithme leur attribue un score de risque élevé. D’emblée, ils sont considérés comme des « présumés tricheurs ».

    Une intelligence artificielle discriminatoire

    L’organisation à but non lucratif Lighthouse Reports et le journal suédois Svenska Dagbladet ont enquêté pour comprendre comment l'IA attribue ces « scores ». Dans leur enquête, on découvre que certains groupes sont signalés de manière disproportionnée. Dans le groupe des personnes automatiquement pointées du doigt par l’algorithme, on retrouve les personnes nées à l’étranger ou dont les parents sont nés à l’étranger, mais aussi les femmes et les personnes à faible revenu ou n’ayant pas de diplôme universitaire. Ces personnes-là, en général déjà marginalisées au sein de la société, obtiennent un score de risque élevé et sont donc scrutées de manière disproportionnée par les contrôleurs des fraudes au sein de l’agence d’aide sociale.

    Un pouvoir de contrôle disproportionné

    Et ces contrôleurs ont un pouvoir énorme. Ils peuvent fouiller vos réseaux sociaux, obtenir des données auprès de votre banque ou des écoles et même interroger vos voisins. Pour ceux qui ont déjà vu la série, on se croirait un peu dans un épisode de Black Mirror.

    Des pratiques qui vont à l’encontre de la réglementation de l’Union européenne sur l’intelligence artificielle, une nouvelle réglementation de l’UE entrée en vigueur en août dernier et qui vise à garantir une IA respectueuse des droits fondamentaux, notamment l’égalité. Elle interdit donc formellement les systèmes spécifiques qui seraient considérés comme des outils de notation sociale. Pour Amnesty, le risque avec ce système, c’est d’aggraver des inégalités et des discriminations préexistantes, sans compter que ces méthodes sont déshumanisantes et basées sur des préjugés.

    À noter que la Suède est loin d’être la seule à être pointée du doigt. Le 13 novembre dernier, c’est l’agence danoise de protection sociale qui a été accusée de créer une surveillance de masse pernicieuse avec cet outil et, en octobre, Amnesty International appelait les autorités françaises, cette fois-ci, à cesser immédiatement d’utiliser un algorithme discriminatoire qui attribue une notation des risques dont se sert la Caisse nationale d’allocations familiales (CNAF) pour détecter les trop-perçus et les erreurs dans le versement des allocations. Le risque est de reproduire le scandale qui avait eu lieu en 2021 aux Pays-Bas : à ce moment-là, 26 000 parents avaient été accusés à tort de fraude fiscale par un algorithme qui utilisait un profilage ethnique.

    Un porte-parole de l’agence de Sécurité sociale suédoise a indiqué que « le système fonctionne en totale conformité avec la loi suédoise. »

    À lire aussiLes algorithmes de notation s’installent en Europe

    続きを読む 一部表示
    4 分
  • Les moins de 16 ans interdits de réseaux sociaux en Australie
    2024/11/27

    Le Premier ministre australien Anthony Albanese avait annoncé qu’un projet de loi visant à fixer un âge minimal pour se connecter sur les réseaux sociaux était en préparation. C'est désormais chose faite, les moins de 16 ans ne pourront plus accéder à leurs plateformes sociales préférées. La mesure a suscité de nombreuses critiques en ligne de la part des experts en cybersécurité qui estiment que les technologies pour contrôler l'âge des internautes sont inefficaces.

    Dans son projet de loi, le Premier ministre australien avait choisi de confier aux plateformes sociales la responsabilité de s'assurer que leurs utilisateurs ont l'âge requis. « La responsabilité n'incombera pas aux parents ou aux jeunes. Il n'y aura pas de sanctions pour les utilisateurs », a martelé le chef du gouvernement au Parlement australien auprès des députés en insistant sur les effets délétères que produisent les médias sociaux sur la santé mentale des jeunes internautes.

    Avec son adoption par les députés ce mercredi, l'interdiction des réseaux sociaux aux adolescents australiens de moins de 16 ans devient l'une des mesures de protection les plus contraignantes au monde. Elle rend illégale l’utilisation par les mineurs de X, de TikTok, Facebook, Instagram et même de YouTube dont l’espace en ligne réservé à l’éducation scolaire est aussi concerné par cette législation.

    Et les amendes en cas de non-respect peuvent aller jusqu’à 31 millions d’euros. Pour estimer l’âge d’un utilisateur, les plateformes sont désormais autorisées à procéder à un scan du visage ou de la voix d’un internaute. Un procédé technique qui est facilement contournable et fait encore beaucoup trop d’erreurs, estiment toutefois les experts en cybersécurité. À ces problèmes technologiques, s’ajoute celui de priver la jeune génération de plateformes sur lesquelles ils s'informent.

    Les conséquences seront délétères, regrettent une centaine d’universitaires qui fustigent en ligne la décision du gouvernement l’exhortant plutôt à privilégier l’éducation des jeunes internautes aux médias numériques.

    Des lois similaires sont en cours de préparation dans le monde

    Au Royaume-Uni, par exemple, le projet de loi qui consiste à imposer aux constructeurs de téléphone portable d’intégrer des dispositifs de protection pour les mineurs avant leur mise en vente, est toujours en discussion, mais devrait bientôt aboutir. Depuis des mois, tant en Europe, qu’aux États-Unis, les pressions s'intensifient contre les grandes plateformes numériques afin de les contraindre à mettre en place des mécanismes pour protéger la santé mentale des adolescents.

    Et pour l’instant, c'est la Chine, qui restreint le plus sévèrement l'accès aux médias sociaux des mineurs, en exigeant une identification des internautes à travers le scan d’un document d'identité officiel. Par ailleurs, les moins de 14 ans ne peuvent pas passer plus de 40 minutes par jour sur Douyin, la version chinoise de TikTok. Et le temps de jeu en ligne des enfants et adolescents est fortement limité Toutefois, les menaces de procès contre les médias sociaux fonctionnent. Les régulateurs européens du numérique et les ONG ont ainsi obtenu du chinois TikTok de faire le ménage dans ses filtres de trucages photos et vidéos.

    Le réseau social, annonce ce mercredi que les « filtres beauté » ajoutant sur ses selfies un maquillage virtuel, parfois surréaliste, déformant les traits du visage ou les yeux des internautes ne seront plus accessibles aux mineurs, d’ici à la fin d’année.

    続きを読む 一部表示
    3 分
  • Les zones d’ombre de l’AI Act européen
    2024/11/26
    La Commission européenne doit clarifier les interdictions liées au déploiement des programmes de l’intelligence artificielle dans les pays de l’UE. Le texte réglementaire présente de nombreuses zones d'ombres, selon les participants de la consultation publique en ligne lancée depuis le 13 novembre par la Commission. L’UE prévoit donc de publier ses lignes directrices dès février 2025, afin de rendre les dispositions de la loi européenne plus lisibles. Les menaces qualifiées dans le texte européen de « minimales » et « limitées » concernent les systèmes IA utilisés dans les jeux vidéo ou les filtres anti-spam gérés par IA permettant de lutter contre les arnaques en ligne, par exemple. Viennent ensuite les programmes qui offrent la possibilité de générer ou manipuler des images, du son ou des vidéos, notamment des hyper trucages de désinformations sur les réseaux sociaux.Le « risque élevé » s’adresse aux dispositifs employés dans les secteurs de la santé, de l'éducation, du recrutement, de la gestion d'infrastructures critiques, du maintien de l'ordre ou encore de la justice. Et en tête de liste, nous trouvons les risques inacceptables qui portent atteinte la dignité humaine, la démocratie ou l'État de droit. Les systèmes d'identification biométrique associés à la reconnaissance faciale dans des zones accessibles au public sont, par exemple, formellement interdits dans le nouveau règlement.L’IA Act, un règlement jugé trop complexeIndustriels de la tech, décideurs politiques, représentants de la société civile ou encore les jeunes pousses ont jusqu’au 11 décembre pour donner leur avis lors de la consultation publique en ligne organisé par la Commission. Elle permettra aux parties prenantes de spécifier des exemples de systèmes qui devraient, ou pas, être interdits dans l’UE. L’instance européenne promet à son issue de publier des lignes directrices le 2 février 2025. Cette consultation aiderait « les autorités nationales compétentes ainsi que les fournisseurs et les concepteurs de programmes » à mettre en place le nouveau règlement.Et c’est là, où le bât blesse ! Le texte de l’UE empile les contradictions et « des exceptions problématiques » nuisibles au nouveau règlement, remarque Jean-Gabriel Ganascia, expert en éthique numérique, professeur à la faculté des sciences de la Sorbonne et à l'Institut Universitaire de France : « C'est une loi d'une telle complexité que nul n'est capable de la comprendre. Elle se fonde sur la gestion du risque et c'est un premier problème, car le risque, c'est l'anticipation des dangers. Or les développements futurs des programmes de l'intelligence artificielle sont en grande partie imprédictibles. Si nous prenons, par exemple, les risques faibles liés à l’IA, c'est-à-dire le déploiement des programmes qui ne sont soumis à aucune interdiction, nous trouvons les filtres à spam. Il est impossible de savoir sur quels critères techniques, ces filtres anti-arnaques fonctionnent. Leur utilisation obligatoire est pourtant une forme de censure qui est imposée aux internautes européens. Et là, il est regrettable que ces algorithmes soient exclus des obligations de transparence qui ont été définies dans le cadre général de la nouvelle loi de l’UE sur l’IA. Cette législation est donc extrêmement difficile à mettre en œuvre et je ne suis pas certain qu'on y parviendra dans les années qui viennent. »Les enjeux de la régulation des IA débattus à Sophia AntipolisLes dilemmes éthiques posés par l'IA seront au cœur des débats de la nouvelle édition du SophI.A Summit ce mercredi. Organisée par la technopole européenne Sophia Antipolis située sur la Côte d'Azur en France, Jean-Gabriel Ganascia, reviendra sur les grands enjeux de la régulation et de l’éthique dans le développement des algorithmes. Par ailleurs, rappelons que l'Union européenne est franchement à la traîne dans ses investissements sur l’IA. La plupart des firmes de la Big Tech, mais aussi de nombreuses jeunes pousses dans l’UE, appellent le Vieux Continent à se ressaisir, s’il veut rivaliser avec les entreprises chinoises ou les géants de la Silicon Valley.
    続きを読む 一部表示
    3 分
  • Le DMA en Europe plonge un peu plus Google dans la tourmente
    2024/11/22

    Avis de tempête pour Google. Aux États-Unis, le département de la Justice vient de demander pas moins que le démantèlement de la société, en exigeant la vente de son navigateur Chrome. Sur le Vieux Continent, les entreprises Qwant et Ecosia affrontent déjà frontalement le moteur de recherche américain, en l’accusant de ne pas respecter le règlement européen du DMA sur les marchés numériques de l'UE. Et c’est maintenant au tour du moteur de recherche DuckDuckGo de porter le fer contre Google.

    Conçu dès l’origine pour protéger la confidentialité des données de ses utilisateurs, le moteur de recherche américain DuckDuckGo exhorte la Commission européenne à ouvrir de nouvelles enquêtes sur la firme de Mountain View. L’objectif de sa démarche est d’obtenir la garantie du respect des règles strictes de la loi européenne sur les marchés numériques qui est plus connue sous le sigle DMA. Ce règlement, qui est entré en vigueur dans l’UE le 6 mars dernier, a imposé aux grandes plateformes du numérique d’effectuer des modifications dans le fonctionnement de leurs services en ligne. Dès son lancement, le DMA a ouvert un front de discorde entre l'UE et les multinationales de la « big tech ». Apple est « très préoccupé » par l'instauration de ces nouvelles règles qui interdisent, par exemple, de croiser les données collectées des internautes, pour effectuer, sans leur consentement, un ciblage publicitaire. Même inquiétude chez Google ainsi que Meta, ou encore Amazon, et pour les mêmes raisons.

    La loi européenne interdit également à Google la mise en avant, dans les résultats de son moteur de recherche, de ses propres produits et services en ligne vendus en ligne. L’objectif du DMA est clair, c’est une loi anti-monopole exigeant des grandes plateformes numériques de faire de la place à la concurrence afin que les jeunes pousses développent des services numériques innovants.

    Google domine le marché européen du numérique

    DuckDuckGo, explique sur son blog, que la justice américaine a déjà mis en évidence que Google dominait totalement le marché européen du numérique. 70 % des requêtes enregistrées par la plateforme Google proviennent des terminaux, services en ligne et applications sur lesquels le moteur de recherche de la firme américaine est configuré par défaut. Par ailleurs, l’entreprise refuse de partager les données anonymisées de ses utilisateurs avec les moteurs de recherche concurrents. Pourtant, cette obligation figure bel et bien dans les articles du Digital Markets Act. Le texte vise très précisément Google pour que l'entreprise fournisse à ses concurrents des informations techniques « sur les nombres de clics, de recherches, de vues et des requêtes effectuées par audio » effectués par les internautes.

    Google adhère de manière sélective au DMA

    C’est la raison pour laquelle DuckDuckGo interpelle la Commission européenne qui pour l’instant n’a pas encore répondu. Rappelons toutefois qu'Apple, Meta, TikTok, Amazon et évidemment Google sont tenus de se conformer au DMA, sous peine de sanctions financières qui peuvent atteindre jusqu’à 10 % de leur chiffre d'affaires mondial. Des amendes qui représenteraient globalement, à l’encontre de ces multinationales, des dizaines de milliards d’euros. À la condition que les lois européennes sur la régulation du numérique soient strictement appliquées, mais ça ! C’est une autre histoire.

    続きを読む 一部表示
    3 分