エピソード

  • EP#42: Os impactos da mudança de políticas do Meta
    2025/02/05

    Um dia após a certificação da vitória de Donald Trump no Congresso Americano, o presidente da Meta, Mark Zuckerberg, anunciou mudanças significativas na política de verificação de informações da empresa. Segundo ele, a plataforma “deixará de investir amplamente em parcerias com organizações independentes de checagem de fatos, adotando critérios mais brandos para identificação de conteúdos falsos ou enganosos em suas plataformas, como Facebook e Instagram”. Essa decisão marca uma guinada em relação à postura rígida da empresa em 2020, quando, em resposta à crescente disseminação de fake news durante as eleições norte-americanas e à pandemia de COVID-19, ampliou parcerias com checadores e implementou sistemas robustos para limitar o alcance de desinformação.


    O retorno de Donald Trump à presidência dos Estados Unidos adiciona uma camada de complexidade a essa decisão. Trump sempre foi crítico das políticas de moderação das Big Techs, defendendo maior liberdade de expressão nas plataformas, mesmo diante de conteúdos potencialmente danosos. Especialistas apontam que a Meta esteja tentando se alinhar a um cenário político mais favorável à flexibilização de regulações, antecipando possíveis mudanças legislativas e judiciais que possam impactar diretamente seu modelo de negócios.


    No contexto brasileiro, o impacto dessas alterações já é evidente. A recente resposta da Meta à Advocacia-Geral da União (AGU) deixou claro que a empresa não pretende ceder às pressões do governo brasileiro por maior moderação de conteúdos relacionados a discurso de ódio e desinformação. As primeiras manifestações dos ministros da Suprema Corte brasileira foram no sentido de cautela, alertando que a plataforma precisa se adaptar à legislação brasileira para poder operar em território brasileiro.


    No plano jurídico, a Meta argumentou em sua resposta à AGU que sua política global deve ser respeitada em cada jurisdição, defendendo “a liberdade de expressão como valor universal”. No entanto, especialistas têm destacado que essa abordagem pode abrir portas para a disseminação de conteúdos tóxicos e desinformação em massa. A flexibilização dos critérios de moderação é preocupante, dado o cenário atual de elevada polarização política e a fragilidade informacional em países como o Brasil.


    Relatório da OCDE “Fatos, Não Mentiras”, publicado em 2024, destaca como a integridade da informação é essencial para preservar a democracia e proteger a sociedade de riscos associados à desinformação e manipulação informacional. Dentre 21 países, o Brasil obteve a pior performance ao identificar se as informações são verdadeiras, com apenas 54% da população conseguindo distinguir entre conteúdos verdadeiros e falsos.



    Quais serão os impactos dessa mudança de postura da meta? Essas alterações podem piorar a qualidade do ambiente digital? Em que medida o anúncio foi um gesto mais político do que uma alteração global de sua lógica de negócio? Quais os riscos que a plataforma pode enfrentar em países como o Brasil e em regiões com legislação mais consolidada, como a União Europeia? Essas e outras perguntas vão guiar nosso debate no episódio de hoje. Vem com a gente.


    Apresentação: Ana Frazão e Caitlin Mulholland

    Produção: José Jance Marques

    続きを読む 一部表示
    55 分
  • EP#41: Inteligência Artificial, amor e sexualidade
    2024/11/27

    A inteligência artificial se tornou um fenômeno que revoluciona todos os setores, desde a saúde até a criação artística, mas seu impacto na esfera íntima e sexual vem gerando preocupações significativas. O advento de conteúdos adultos gerados por IA é uma realidade que cresce em ritmo acelerado, como aponta um relatório da Deep Trace, uma empresa especializada em segurança digital. Cerca de 96% dos vídeos deepfake disponíveis na internet em 2023 tinham como foco a pornografia. Mais alarmante ainda: as mulheres são, disparadamente, as principais vítimas dessa tecnologia.


    O cenário atual é preocupante. Plataformas como OnlyFans, Pornhub e sites de pornografia emergentes estão utilizando IA para oferecer conteúdos que se adaptam aos desejos mais particulares dos usuários. Imagens e vídeos realistas podem ser gerados sem esforço, com um nível de precisão que antes era inimaginável. Essas tecnologias não apenas ampliam o acesso a fantasias sexuais, mas também levantam questões éticas fundamentais sobre consentimento, privacidade e o direito à própria imagem. O abuso dessas ferramentas para a criação de deepfakes pornográficos não consensuais têm arruinado vidas e carreiras, como alertam estudiosos e advogados.


    Especialistas têm enfatizado que a legislação atual está perigosamente desatualizada. O direito de imagem e a proteção contra a pornografia de vingança são princípios já estabelecidos em muitas jurisdições, mas o desenvolvimento de deepfakes exige uma nova abordagem legal. No Brasil, por exemplo, ainda que existam dispositivos que tratem de crimes contra a honra e a dignidade sexual, as normas muitas vezes não cobrem situações em que a manipulação de imagens digitais seja feita com a precisão e a amplitude proporcionadas pela IA. Isso coloca em risco a eficácia do sistema de justiça em coibir e punir esses crimes.


    Além das implicações legais, os impactos sociais são profundos. A proliferação de conteúdos gerados por IA pode alterar drasticamente a maneira como nos relacionamos, inclusive a forma como construímos vínculos afetivos e sexuais. As novas gerações estão cada vez mais expostas a uma sexualidade hiperpersonalizada e mediada por máquinas, o que pode ter consequências psicológicas e emocionais complexas. Psicólogos têm alertado para os riscos de um futuro onde o "sexo solitário" impulsionado pela tecnologia diminua ainda mais a conexão humana, enquanto os especialistas em ética destacam o perigo da normalização de conteúdos que objetificam corpos sem o consentimento dos envolvidos.


    No entanto, quando esses conteúdos são gerados por IA, sem a representação direta de uma vítima real, a discussão se torna complexa. Na prática, o debate jurídico gira em torno de duas questões principais: se o dano social e psicológico, que justifica a criminalização desses conteúdos, ainda persiste mesmo na ausência de uma vítima direta; e se a criação desses materiais continua a alimentar o mercado de exploração sexual, perpetuando o ciclo de objetificação e abuso.


    Especialistas alertam que, mesmo sem vítimas diretas, o uso de IA para criar pornografia infantil ou zoofilia ainda representa uma ameaça significativa à segurança social. Há um consenso de que esses conteúdos devem continuar sendo ilegais, pois, como afirmam psicólogos e criminologistas, podem incentivar comportamentos criminosos e normalizar abusos. Muitos legisladores também argumentam que a criminalização é uma forma de coibir a demanda por esses materiais e evitar que a fronteira entre a IA e a exploração real seja negligenciada.


    Neste episódio, vamos debater estes temas e tentar refletir sobre os impactos da Inteligência Artificial na esfera mais íntima dos seres humanos. Vem com a gente!


    続きを読む 一部表示
    1 時間 6 分
  • EP#40: Automação das decisões judiciais
    2024/10/30

    A automação no Judiciário brasileiro, impulsionada pela Inteligência Artificial (IA), tem sido debatida como uma solução inovadora para melhorar a eficiência, celeridade e acessibilidade da justiça. Em eventos como o CONIP Jud 2024, o Conselho Nacional de Justiça (CNJ) apresentou iniciativas focadas em transformar digitalmente o Poder Judiciário por meio do Programa Justiça 4.0, que visa modernizar os tribunais com o uso de IA e plataformas digitais integradas.

    Esses esforços são vistos como parte de um movimento global mais amplo, no qual a digitalização de sistemas judiciais é adotada para resolver problemas como morosidade e excesso de processos, ao mesmo tempo em que busca garantir consistência e reduzir custos. No entanto, apesar dos avanços, há debates sobre os limites e riscos do uso dessas tecnologias no contexto da administração da justiça.

    O CNJ tem se empenhado para implementar laboratórios e centros de inovação voltados para a aplicação de IA. Exemplos incluem sistemas como o Sinapses e Victor, que já auxiliam em decisões judiciais em várias jurisdições do país. Essas ferramentas têm o potencial de apoiar o trabalho dos juízes, melhorando a velocidade e a qualidade dos processos judiciais, mas não sem levantar questões éticas e operacionais.

    A pesquisa apresentada durante o CONIP mostrou que, embora a IA seja promissora, seu uso no Judiciário ainda é esporádico, com 70% dos magistrados e servidores utilizando-a raramente. No entanto, há um reconhecimento crescente de seu potencial, especialmente para tarefas como busca de jurisprudência e análise de dados. Entretanto, os riscos da automação das decisões judiciais são significativos. A substituição completa do juiz humano por um “juiz robô” é vista com ceticismo, devido às complexidades envolvidas no ato de julgar, que incluem a análise sensorial, argumentação racional e a tomada de decisões que consideram aspectos emocionais e sociais.

    O ato de julgar envolve não apenas a aplicação de normas, mas também a interpretação de valores éticos, culturais e sociais que são inerentemente humanos. A automatização de decisões judiciais corre o risco de reduzir essa complexidade a meros padrões de dados, o que pode gerar decisões insensíveis às particularidades de cada caso. Além disso, a dependência de algoritmos pode reforçar vieses pré-existentes nos dados processuais, perpetuando desigualdades e injustiças, sobretudo se as decisões automatizadas não passarem por revisão humana cuidadosa.


    Diante dessas preocupações, o CNJ trabalha na criação de diretrizes claras para a aplicação de IA no Judiciário, como a Resolução nº 332/2020, que estabelece normas de ética e transparência no uso da IA. Essas medidas visam assegurar que a IA seja utilizada de maneira complementar, mantendo o juiz humano no centro das decisões, mas com o suporte tecnológico para aprimorar a eficiência do sistema.

    Nesse episódio vamos debater sobre o uso da IA no Judiciário. Quais os limites para sua utilização? A automação completa das decisões é improvável? como a interpretação de valores éticos e a consideração de variáveis emocionais e culturais são aplicadas nas decisões automatizadas? É possível falar em uma governança responsável, que equilibre os benefícios da tecnologia com os princípios fundamentais da justiça? Essas e outras perguntas será discutidas no episódio de hoje. Vem com a gente!

    続きを読む 一部表示
    1 時間
  • EP#39: A Inteligência Artificial tem o dever legal de dizer a verdade?
    2024/09/25
    Apresentação: Ana Frazão / Caitlin Mulholland Produção: José Jance Marques O que é a “verdade”? Essa pergunta simples e profunda move os filósofos desde a Grécia antiga e ainda gera inquietações nos dias de hoje, especialmente em um ambiente dominado por categorias como pós-verdade, narrativas e desinformação potencializado por algoritmos e inteligências artificiais generativas. Inclusive o historiador e filósofo Yuval Harari publicou agora em setembro de 2024 uma nova obra, intitulada “Nexus: Uma breve história das redes de informação, da Idade da Pedra à inteligência artificial” (editora Companhia das Letras), na qual discute as implicações do acúmulo de dados e a busca da verdade. Harari argumenta que a informação nem sempre está vinculada à realidade ou à verdade, podendo, ao contrário, criar novas realidades ao conectar diferentes pontos de uma rede social, política ou cultural. No contexto da IA, Harari alerta que, embora as redes de informação (como os modelos de IA) possam processar volumes massivos de dados, elas não garantem uma representação precisa da realidade. Pelo contrário, as IAs podem facilmente propagar informações errôneas ou ilusórias, perpetuando crenças enganosas ou fortalecendo ideologias perigosas. A visão de Harari enfatiza a importância de não confiar cegamente na IA para descobrir a verdade, uma vez que a mera quantidade de dados processados não é suficiente para garantir sabedoria ou decisões corretas, e a informação pode ser utilizada tanto para conectar quanto para manipular. Nessa mesma linha entra o debate sobre o "discurso descuidado" em modelos de linguagem grande, ou LLMs, como são mais conhecidos. Quando falamos de LLMs, estamos nos referindo a modelos como o ChatGPT, BERT ou GPT-4, que são ferramentas poderosas de IA que geram textos a partir de vastos volumes de dados. Esses modelos, usados em assistentes virtuais, plataformas de busca, e em muitas outras aplicações, são alimentados por uma quantidade imensa de dados retirados da internet, de livros, artigos e até mídias sociais. Mas, apesar da sofisticação dessas IAs, elas frequentemente cometem erros, como fornecer informações imprecisas, incompletas ou até mesmo completamente inventadas. Esses erros são conhecidos como "alucinações" da IA. Isso nos leva a uma pergunta essencial "é possível falar em dever de falar a verdade pela IA? E se não houver, quais as implicações disso? Sabe-se que o "discurso descuidado" refere-se às saídas que esses modelos geram que parecem autoritativas, factuais, mas que, na verdade, contêm erros ou omissões significativas. Pode ser uma informação falsa, uma omissão crítica de contexto, ou até a ausência de uma indicação clara de incerteza. Um exemplo clássico seria o modelo afirmar um fato com muita confiança, quando na verdade esse fato está sujeito a debate ou é baseado em dados limitados. Para entendermos melhor, é importante lembrar que esses modelos não "entendem" a verdade. Eles funcionam por meio de predições estatísticas: dados são alimentados no modelo, que então "prevê" a sequência de palavras mais provável com base em tudo o que foi treinado. Isso significa que, ao responder perguntas factuais, o modelo se baseia na frequência com que certas informações aparecem no seu conjunto de dados. Portanto, se um fato for comum ou repetido muitas vezes nos dados, é mais provável que o modelo o gere corretamente. Mas quando a questão é mais complexa, ambígua ou sensível ao tempo, como eventos históricos com várias interpretações ou questões filosóficas, a IA pode falhar e produzir um discurso problemático. Um exemplo prático seria uma pergunta sobre filosofia, onde o LLM pode citar apenas teorias ocidentais, ignorando por completo outras tradições de pensamento, como a filosofia oriental ou africana. Isso é um exemplo claro do viés de fonte, onde o modelo favorece uma perspectiva, negligenciando outras. Outro exemplo é a apresentação de informações sem referência, onde o LLM faz uma afirmação factual sem citar uma fonte confiável, ou pior, cita fontes inventadas. Então deveríamos obrigar legalmente que os desenvolvedores de IA garantam que seus modelos digam a verdade? Em um mundo onde a IA está se tornando cada vez mais integrada em serviços essenciais, desde a saúde até o governo, essa é uma questão urgente. Há especialistas e teóricos da ética que acreditam que sim, deveríamos criar um dever legal para os provedores de IA. Essa ideia visa responsabilizar os desenvolvedores pela precisão das saídas que suas IAs produzem. Afinal, ao permitir que um chatbot de IA ofereça informações errôneas ou enganosas, corremos o risco de danificar a confiança pública em setores vitais, como a ciência, a educação e as decisões políticas. Como definir "verdade" de forma universal e aplicável a todos os cenários? Essas e outras ...
    続きを読む 一部表示
    1 時間 3 分
  • EP#38: Identidade digital e Inteligência Artificial
    2024/08/30

    Apresentação: Ana Frazão / Caitlin Mulholland

    Produção: José Jance Marques


    A proposta de Novo Código Civil que está sendo debatida no Senado Federal busca atualizar a legislação brasileira para melhor refletir as complexidades da era digital. O objetivo é modernizar o código vigente, que foi promulgado em 2002, para incluir disposições específicas sobre direitos da personalidade, propriedade intelectual e a proteção de dados pessoais no contexto digital.


    Entre as inovações propostas estão regras mais claras sobre a utilização de dados pessoais, o consentimento informado para o uso de atributos da personalidade por sistemas de inteligência artificial, e medidas para combater o roubo de identidade digital. A proposta também pretende harmonizar a legislação brasileira com normas internacionais, como o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia, visando a aumentar a segurança jurídica e a confiança no ambiente digital.


    No entanto, o capítulo sobre Direito Digital da proposta tem gerado polêmicas e debates acalorados entre especialistas, legisladores e a sociedade civil. Críticos apontam que algumas das medidas propostas podem ser insuficientes para lidar com as rápidas inovações tecnológicas e as novas formas de violação de direitos no ambiente digital. Há também preocupações sobre a efetividade da aplicação dessas normas, considerando os desafios da fiscalização e da implementação prática.


    Além disso, a questão da proteção de dados pessoais e a definição dos limites para o uso de inteligência artificial sem comprometer os direitos da personalidade são pontos particularmente controversos. Alguns defendem a necessidade de um maior equilíbrio entre inovação tecnológica e proteção de direitos, enquanto outros argumentam que as restrições propostas podem sufocar o desenvolvimento e a competitividade no setor digital brasileiro.


    A inteligência artificial tem impactado a propriedade intelectual, especialmente com as deep fakes. Essas tecnologias avançadas têm tornado cada vez mais difícil discernir o que é real do que não é, levantando preocupações sérias sobre a proteção da identidade e dos direitos da personalidade.


    Um caso emblemático que ilustra bem essas preocupações envolveu a atriz Scarlett Johansson, que descobriu que o ChatGPT estava utilizando uma voz muito similar à sua, mesmo após ter recusado uma oferta para emprestar sua voz ao sistema. A situação gerou um intenso debate sobre roubo de identidade e os limites da utilização de atributos da personalidade por sistemas de IA.


    Essa discussão nos leva a refletir sobre a necessidade de transparência e regulamentação. A própria Scarlett Johansson destacou a importância de termos clareza absoluta sobre a proteção de nossas semelhanças, trabalhos e identidades, um tema que merece atenção legislativa.


    Não podemos esquecer das implicações éticas e legais de projetos como "The Next Rembrandt", que busca trazer de volta à vida o estilo de um dos maiores pintores da história através da tecnologia. Isso levanta a questão: podemos usar características pessoais de alguém, famoso ou não, de forma indiscriminada e sem autorização? Isso se agrava quando pensamos que as IA generativas precisam ser treinadas com grandes quantidades de dados, o que já resultou em processos como o do The New York Times contra a OpenAI, alegando uso indevido de conteúdos protegidos por direitos autorais.


    Em que pese, no caso brasileiro, a arquitetura protetiva dos direitos da personalidade já assegurar aos titulares os mecanismos para prevenir e reprimir esse tipo de prática, é importante assegurar não haver retrocessos no texto discutido no Congresso. Vamos juntos debater esse tema, considerando a realidade brasileira e os exemplos que já vimos lá fora.


    続きを読む 一部表示
    1 時間
  • EP#37: Por que foi importante a ANPD suspender o treinamento de IA da Meta?
    2024/07/31

    Apresentação: Ana Frazão / Caitlin Mulholland

    Produção: José Jance Marques

    A Autoridade Nacional de Proteção de Dados (ANPD) determinou que a Meta, responsável pelo Facebook, Instagram e WhatsApp, suspenda a validade da nova política de privacidade no Brasil. Esta política permitia o uso de dados pessoais de publicações abertas de usuários, como fotos e textos, para treinar sistemas de inteligência artificial (IA) generativa, sem oferecer contrapartidas ou informações detalhadas sobre o uso desses dados. A prática foi criticada na Europa e no Brasil pelo Instituto de Defesa de Consumidores (Idec).

    Conforme o Despacho Decisório nº 20/2024, a ANPD identificou várias violações potenciais à Lei Geral de Proteção de Dados (LGPD), incluindo a ausência de hipótese legal apropriada, pois a Meta utilizava a base legal de "interesse legítimo" para o tratamento de dados pessoais sensíveis, o que é inadequado conforme a LGPD.

    Além disso, houve falta de transparência, já que a divulgação das novas políticas de privacidade não fornecia informações claras e precisas aos usuários sobre como seus dados seriam utilizados. A limitação ao exercício de direitos também foi destacada, uma vez que a opção de opt-out não era facilmente acessível, dificultando o direito de oposição dos usuários. Outro ponto crucial foi o tratamento de dados de crianças e adolescentes, para o qual a Meta não adotou salvaguardas adequadas.

    A Meta foi notificada para suspender a nova política e o tratamento de dados pessoais para IA generativa, sob pena de multa diária de R$ 50.000,00. Segundo especialistas, é importante discutirmos como a suspensão da política de privacidade afeta os direitos dos usuários e a importância da transparência e do consentimento informado. Além disso, precisamos analisar a adequação do uso de "interesse legítimo" como base legal para tratamento de dados sensíveis e comparar essas práticas com outras regiões, como a União Europeia.

    Os riscos associados ao uso de dados pessoais para treinar sistemas de IA são um ponto crítico, incluindo exemplos de possíveis abusos e violações de privacidade. A proteção de dados de crianças e adolescentes apresenta desafios específicos que devem ser considerados, e medidas necessárias para garantir o melhor interesse dessas crianças e adolescentes devem ser discutidas.

    Embora a Meta alegue que a suspensão de sua nova política de privacidade representa um retrocesso para a inovação e competitividade no desenvolvimento de inteligência artificial, é essencial considerar que a proteção dos direitos fundamentais dos titulares de dados não pode ser comprometida em nome do progresso tecnológico. A utilização de dados pessoais sem o devido consentimento e transparência não só viola a LGPD, como também pode gerar consequências irreparáveis para a privacidade e a segurança dos indivíduos.

    A inovação responsável deve ser pautada pelo respeito aos direitos dos usuários, garantindo que a evolução tecnológica ocorra de maneira ética e legal, assegurando a confiança do público e a sustentabilidade das práticas empresariais a longo prazo.

    Esses são os principais aspectos que vamos debater no episódio de hoje.


    続きを読む 一部表示
    1 時間 3 分
  • EP#36: A desinformação na tragédia do Rio Grande do Sul
    2024/06/26

    Apresentação: Ana Frazão / Caitlin Mulholland

    Produção: José Jance Marques

    As fortes chuvas no Rio Grande do Sul começaram em 27 de abril e se intensificaram em 29 de abril, afetando mais de 400 cidades, especialmente nas regiões do Vale do Rio Pardo, Vale do Taquari e a região metropolitana de Porto Alegre. Este é o maior desastre climático da história do estado, sendo a quarta tragédia em menos de um ano.


    Mesmo diante do estado de calamidade pública, reportagens investigativas e iniciativas de checagem de fatos têm apontado para a ampla circulação de conteúdos desinformativos. Essa desinformação atrapalha os trabalhos de assistência à população afetada pelas enchentes e é utilizada por personalidades para lucrar com a tragédia, obter engajamento ou apoio político. As plataformas digitais são co-responsáveis pela falta de transparência e por não revelarem os dados dos responsáveis pelos anúncios suspeitos. Empresas internacionais também contribuem permitindo o registro de sites anônimos usados para fraudes.


    Uma pesquisa recente promovida pelo Laboratório de Estudos de Internet e Redes Sociais e a Universidade Federal do Rio de Janeiro analisou a desinformação envolvendo a emergência climática no Rio Grande do Sul em publicações nas redes sociais e fraudes em anúncios do Meta Ads.


    Influenciadores, sites e políticos de extrema direita têm utilizado a comoção gerada para se autopromover e espalhar desinformação. Entre as principais narrativas estão a afirmação de que a resposta governamental tem sido insuficiente, a negação da relação entre os eventos e as mudanças climáticas, e a inserção da tragédia em teorias da conspiração. A atuação desses grupos é multiplataforma, amplificando suas mensagens para um público maior e dificultando os esforços de socorro e recuperação.


    Segundo a pesquisa, a desinformação foi disseminada de maneira orquestrada através de diversas plataformas, incluindo redes sociais, vídeos, imagens e conteúdo pago nos anúncios do Meta Ads. Influenciadores beneficiam-se dessa orquestração multiplataforma, amplificando suas mensagens para um público maior.


    A pesquisa identificou 351 anúncios fraudulentos realizados por 186 anunciantes. Esses anúncios utilizaram técnicas de engenharia social para promover produtos e informações falsas, visando obter renda ilegal e causar danos patrimoniais e morais. Sites falsos de arrecadação, imitando o layout do site Vakinha, foram utilizados para fraudar doações.


    A pesquisa sugere que a falta de regras claras para o ambiente online facilita a disseminação de desinformação e fraudes. Recomenda-se uma maior transparência e responsabilidade das plataformas digitais e empresas internacionais que permitem o registro de sites anônimos, além da necessidade de políticas públicas robustas para prevenir e combater a desinformação climática.


    No episódio de hoje vamos abordar o impacto da desinformação no enfrentamento de calamidades públicas como a que estamos enfrentando no Rio Grande do Sul. Para falar dos desafios do ponto de vista do governo, temos um convidado especial: o coordenador nacional do programa “Brasil Contra Fake”, George Marques.


    続きを読む 一部表示
    1 時間 3 分
  • EP#35: Violência de gênero mediada pela tecnologia
    2024/05/29

    Apresentação: Ana Frazão / Caitlin Mulholland

    Produção: José Jance Marques

    A violência de gênero facilitada pela tecnologia tem se revelado uma das facetas mais perturbadoras do abuso digital. As plataformas digitais, ao priorizarem conteúdos que maximizam o engajamento do usuário, inadvertidamente promovem e amplificam estereótipos de gênero e narrativas prejudiciais.


    Este fenômeno é exacerbado pelo modelo de negócio das empresas de tecnologia, que usam algoritmos para entregar publicidade e conteúdo que são mais propensos a serem visualizados e compartilhados, independentemente do seu impacto negativo. Assim, o ambiente digital torna-se um vetor poderoso para a disseminação de discursos de ódio e misoginia, criando um terreno fértil para campanhas coordenadas que miram desacreditar e intimidar mulheres em espaços públicos e políticos.


    Pesquisa realizada pelo NetLab UFRJ identificou e analisou anúncios tóxicos que impactaram mulheres nas plataformas digitais, foram identificados 1.565 anúncios tóxicos ao longo de 28 dias de coleta. Estes anúncios, que estavam ativos em diferentes períodos entre 1 de janeiro e 9 de fevereiro de 2024, apresentaram indícios de comportamento misógino, golpes, fraudes ou irregularidades na oferta de produtos ou serviços voltados ao público feminino.


    Além disso, a pesquisa mapeou perfis, páginas e sites envolvidos na divulgação de produtos, serviços e/ou tratamentos suspeitos, enganosos ou fraudulentos, com potencial de causar danos à saúde das mulheres. Também foram identificados e mapeados perfis, páginas e sites que promovem uma cultura de incentivo à desigualdade de gênero, pregam a inferioridade das mulheres e promovem o ódio a mulheres e meninas, destacando a profundidade e a complexidade do problema enfrentado pelas mulheres nas plataformas digitais.


    Concomitantemente, a falta de regulamentação eficaz e a opacidade nas operações das plataformas digitais facilitam a perpetuação dessa violência. Muitos ataques são meticulosamente organizados em comunidades online, que se engajam em misoginia em rede. Tais comunidades apoiam-se mutuamente para disseminar discursos de ódio e conduzir campanhas de assédio contra mulheres, utilizando a tecnologia como ferramenta para ampliar o alcance e o impacto de suas ações.


    Essas práticas não apenas colocam em risco a segurança e o bem-estar das mulheres, mas também desafiam as bases da igualdade de gênero, exigindo uma resposta mais robusta das políticas públicas e das próprias plataformas para mitigar e eventualmente eliminar tais ameaças.


    Os modelos de negócio de plataformas como a Meta, que privilegiam conteúdos que engajam os usuários, acabam por reforçar preconceitos e disseminar desinformação. Essa estratégia, embora eficaz para engajamento e monetização, contribui para a perpetuação de visões distorcidas e muitas vezes prejudiciais sobre gênero, criando um ambiente hostil especialmente para mulheres.


    Tudo isso indica que, apesar das alegações de plataformas como a Meta de investir em moderação de conteúdo e políticas anti-ódio, a autorregulação tem falhado em proteger adequadamente as mulheres no mundo digital. Os dados da pesquisa sublinham a necessidade urgente de revisão e fortalecimento das abordagens regulatórias e das próprias políticas internas dessas plataformas para abordar e mitigar esses impactos negativos de forma eficaz. Vamos debater sobre esse assunto no episódio de hoje. Vem com a gente!


    続きを読む 一部表示
    1 時間 2 分