Direito Digital

著者: Ana Frazão e Caitlin Mulholland
  • サマリー

  • Podcast sobre temas atuais do Direito Digital apresentado por Ana Frazão, professora de Direito Comercial e Econômico da Universidade de Brasília, e por Caitlin Mulholland, professora de Direito Civil da PUC do Rio de Janeiro.
    Ana Frazão e Caitlin Mulholland
    続きを読む 一部表示

あらすじ・解説

Podcast sobre temas atuais do Direito Digital apresentado por Ana Frazão, professora de Direito Comercial e Econômico da Universidade de Brasília, e por Caitlin Mulholland, professora de Direito Civil da PUC do Rio de Janeiro.
Ana Frazão e Caitlin Mulholland
エピソード
  • EP#42: Os impactos da mudança de políticas do Meta
    2025/02/05

    Um dia após a certificação da vitória de Donald Trump no Congresso Americano, o presidente da Meta, Mark Zuckerberg, anunciou mudanças significativas na política de verificação de informações da empresa. Segundo ele, a plataforma “deixará de investir amplamente em parcerias com organizações independentes de checagem de fatos, adotando critérios mais brandos para identificação de conteúdos falsos ou enganosos em suas plataformas, como Facebook e Instagram”. Essa decisão marca uma guinada em relação à postura rígida da empresa em 2020, quando, em resposta à crescente disseminação de fake news durante as eleições norte-americanas e à pandemia de COVID-19, ampliou parcerias com checadores e implementou sistemas robustos para limitar o alcance de desinformação.


    O retorno de Donald Trump à presidência dos Estados Unidos adiciona uma camada de complexidade a essa decisão. Trump sempre foi crítico das políticas de moderação das Big Techs, defendendo maior liberdade de expressão nas plataformas, mesmo diante de conteúdos potencialmente danosos. Especialistas apontam que a Meta esteja tentando se alinhar a um cenário político mais favorável à flexibilização de regulações, antecipando possíveis mudanças legislativas e judiciais que possam impactar diretamente seu modelo de negócios.


    No contexto brasileiro, o impacto dessas alterações já é evidente. A recente resposta da Meta à Advocacia-Geral da União (AGU) deixou claro que a empresa não pretende ceder às pressões do governo brasileiro por maior moderação de conteúdos relacionados a discurso de ódio e desinformação. As primeiras manifestações dos ministros da Suprema Corte brasileira foram no sentido de cautela, alertando que a plataforma precisa se adaptar à legislação brasileira para poder operar em território brasileiro.


    No plano jurídico, a Meta argumentou em sua resposta à AGU que sua política global deve ser respeitada em cada jurisdição, defendendo “a liberdade de expressão como valor universal”. No entanto, especialistas têm destacado que essa abordagem pode abrir portas para a disseminação de conteúdos tóxicos e desinformação em massa. A flexibilização dos critérios de moderação é preocupante, dado o cenário atual de elevada polarização política e a fragilidade informacional em países como o Brasil.


    Relatório da OCDE “Fatos, Não Mentiras”, publicado em 2024, destaca como a integridade da informação é essencial para preservar a democracia e proteger a sociedade de riscos associados à desinformação e manipulação informacional. Dentre 21 países, o Brasil obteve a pior performance ao identificar se as informações são verdadeiras, com apenas 54% da população conseguindo distinguir entre conteúdos verdadeiros e falsos.



    Quais serão os impactos dessa mudança de postura da meta? Essas alterações podem piorar a qualidade do ambiente digital? Em que medida o anúncio foi um gesto mais político do que uma alteração global de sua lógica de negócio? Quais os riscos que a plataforma pode enfrentar em países como o Brasil e em regiões com legislação mais consolidada, como a União Europeia? Essas e outras perguntas vão guiar nosso debate no episódio de hoje. Vem com a gente.


    Apresentação: Ana Frazão e Caitlin Mulholland

    Produção: José Jance Marques

    続きを読む 一部表示
    55 分
  • EP#41: Inteligência Artificial, amor e sexualidade
    2024/11/27

    A inteligência artificial se tornou um fenômeno que revoluciona todos os setores, desde a saúde até a criação artística, mas seu impacto na esfera íntima e sexual vem gerando preocupações significativas. O advento de conteúdos adultos gerados por IA é uma realidade que cresce em ritmo acelerado, como aponta um relatório da Deep Trace, uma empresa especializada em segurança digital. Cerca de 96% dos vídeos deepfake disponíveis na internet em 2023 tinham como foco a pornografia. Mais alarmante ainda: as mulheres são, disparadamente, as principais vítimas dessa tecnologia.


    O cenário atual é preocupante. Plataformas como OnlyFans, Pornhub e sites de pornografia emergentes estão utilizando IA para oferecer conteúdos que se adaptam aos desejos mais particulares dos usuários. Imagens e vídeos realistas podem ser gerados sem esforço, com um nível de precisão que antes era inimaginável. Essas tecnologias não apenas ampliam o acesso a fantasias sexuais, mas também levantam questões éticas fundamentais sobre consentimento, privacidade e o direito à própria imagem. O abuso dessas ferramentas para a criação de deepfakes pornográficos não consensuais têm arruinado vidas e carreiras, como alertam estudiosos e advogados.


    Especialistas têm enfatizado que a legislação atual está perigosamente desatualizada. O direito de imagem e a proteção contra a pornografia de vingança são princípios já estabelecidos em muitas jurisdições, mas o desenvolvimento de deepfakes exige uma nova abordagem legal. No Brasil, por exemplo, ainda que existam dispositivos que tratem de crimes contra a honra e a dignidade sexual, as normas muitas vezes não cobrem situações em que a manipulação de imagens digitais seja feita com a precisão e a amplitude proporcionadas pela IA. Isso coloca em risco a eficácia do sistema de justiça em coibir e punir esses crimes.


    Além das implicações legais, os impactos sociais são profundos. A proliferação de conteúdos gerados por IA pode alterar drasticamente a maneira como nos relacionamos, inclusive a forma como construímos vínculos afetivos e sexuais. As novas gerações estão cada vez mais expostas a uma sexualidade hiperpersonalizada e mediada por máquinas, o que pode ter consequências psicológicas e emocionais complexas. Psicólogos têm alertado para os riscos de um futuro onde o "sexo solitário" impulsionado pela tecnologia diminua ainda mais a conexão humana, enquanto os especialistas em ética destacam o perigo da normalização de conteúdos que objetificam corpos sem o consentimento dos envolvidos.


    No entanto, quando esses conteúdos são gerados por IA, sem a representação direta de uma vítima real, a discussão se torna complexa. Na prática, o debate jurídico gira em torno de duas questões principais: se o dano social e psicológico, que justifica a criminalização desses conteúdos, ainda persiste mesmo na ausência de uma vítima direta; e se a criação desses materiais continua a alimentar o mercado de exploração sexual, perpetuando o ciclo de objetificação e abuso.


    Especialistas alertam que, mesmo sem vítimas diretas, o uso de IA para criar pornografia infantil ou zoofilia ainda representa uma ameaça significativa à segurança social. Há um consenso de que esses conteúdos devem continuar sendo ilegais, pois, como afirmam psicólogos e criminologistas, podem incentivar comportamentos criminosos e normalizar abusos. Muitos legisladores também argumentam que a criminalização é uma forma de coibir a demanda por esses materiais e evitar que a fronteira entre a IA e a exploração real seja negligenciada.


    Neste episódio, vamos debater estes temas e tentar refletir sobre os impactos da Inteligência Artificial na esfera mais íntima dos seres humanos. Vem com a gente!


    続きを読む 一部表示
    1 時間 6 分
  • EP#40: Automação das decisões judiciais
    2024/10/30

    A automação no Judiciário brasileiro, impulsionada pela Inteligência Artificial (IA), tem sido debatida como uma solução inovadora para melhorar a eficiência, celeridade e acessibilidade da justiça. Em eventos como o CONIP Jud 2024, o Conselho Nacional de Justiça (CNJ) apresentou iniciativas focadas em transformar digitalmente o Poder Judiciário por meio do Programa Justiça 4.0, que visa modernizar os tribunais com o uso de IA e plataformas digitais integradas.

    Esses esforços são vistos como parte de um movimento global mais amplo, no qual a digitalização de sistemas judiciais é adotada para resolver problemas como morosidade e excesso de processos, ao mesmo tempo em que busca garantir consistência e reduzir custos. No entanto, apesar dos avanços, há debates sobre os limites e riscos do uso dessas tecnologias no contexto da administração da justiça.

    O CNJ tem se empenhado para implementar laboratórios e centros de inovação voltados para a aplicação de IA. Exemplos incluem sistemas como o Sinapses e Victor, que já auxiliam em decisões judiciais em várias jurisdições do país. Essas ferramentas têm o potencial de apoiar o trabalho dos juízes, melhorando a velocidade e a qualidade dos processos judiciais, mas não sem levantar questões éticas e operacionais.

    A pesquisa apresentada durante o CONIP mostrou que, embora a IA seja promissora, seu uso no Judiciário ainda é esporádico, com 70% dos magistrados e servidores utilizando-a raramente. No entanto, há um reconhecimento crescente de seu potencial, especialmente para tarefas como busca de jurisprudência e análise de dados. Entretanto, os riscos da automação das decisões judiciais são significativos. A substituição completa do juiz humano por um “juiz robô” é vista com ceticismo, devido às complexidades envolvidas no ato de julgar, que incluem a análise sensorial, argumentação racional e a tomada de decisões que consideram aspectos emocionais e sociais.

    O ato de julgar envolve não apenas a aplicação de normas, mas também a interpretação de valores éticos, culturais e sociais que são inerentemente humanos. A automatização de decisões judiciais corre o risco de reduzir essa complexidade a meros padrões de dados, o que pode gerar decisões insensíveis às particularidades de cada caso. Além disso, a dependência de algoritmos pode reforçar vieses pré-existentes nos dados processuais, perpetuando desigualdades e injustiças, sobretudo se as decisões automatizadas não passarem por revisão humana cuidadosa.


    Diante dessas preocupações, o CNJ trabalha na criação de diretrizes claras para a aplicação de IA no Judiciário, como a Resolução nº 332/2020, que estabelece normas de ética e transparência no uso da IA. Essas medidas visam assegurar que a IA seja utilizada de maneira complementar, mantendo o juiz humano no centro das decisões, mas com o suporte tecnológico para aprimorar a eficiência do sistema.

    Nesse episódio vamos debater sobre o uso da IA no Judiciário. Quais os limites para sua utilização? A automação completa das decisões é improvável? como a interpretação de valores éticos e a consideração de variáveis emocionais e culturais são aplicadas nas decisões automatizadas? É possível falar em uma governança responsável, que equilibre os benefícios da tecnologia com os princípios fundamentais da justiça? Essas e outras perguntas será discutidas no episódio de hoje. Vem com a gente!

    続きを読む 一部表示
    1 時間
activate_buybox_copy_target_t1

Direito Digitalに寄せられたリスナーの声

カスタマーレビュー:以下のタブを選択することで、他のサイトのレビューをご覧になれます。