Tag: fake news

  • TSE multa parlamentares por divulgarem fake news contra Lula

    TSE multa parlamentares por divulgarem fake news contra Lula

    O Tribunal Superior Eleitoral (TSE) multou os deputados Eduardo Bolsonaro (PL-SP), Carla Zambelli (PL-SP), Nikolas Ferreira (PL-MG) e o senador Flávio Bolsonaro (PL-RJ) por terem divulgado, via redes sociais, “vídeo desinformativo que atingiu a honra do então candidato a presidente da República Luiz Inácio Lula da Silva (PT), durante a campanha das Eleições 2022”.

    As multas serão individualizadas, com valores ainda a serem definidos. A decisão foi por maioria de votos (5×2).

    Produzido pelo então candidato Nikolas Ferreira, o vídeo em questão foi compartilhado pelos outros parlamentares. Ele continha a falsa notícia de que Lula teria incentivado a prática de diversos tipos criminais, como apoio ao consumo de drogas; à censura; a assassinatos, a aborto, e ao fechamento de igrejas.

    Os dois votos contrários à aplicação da multa foram os do ministro Nunes Marques e do relator, ministro Raul Araújo, sob a alegação de que o conteúdo não teria ultrapassado “crítica política ácida”. Os demais votos (5) formaram então maioria, seguindo divergência aberta, em relação à relatoria. A proposta de divergência foi do ministro Sérgio Banhos.

    Ao abrir a divergência, Banhos argumentou que as alegações feitas no vídeo, propagado nas redes sociais, desbordou do limite da propaganda eleitoral admitida pela legislação eleitoral.

    Em outubro do ano passado, o plenário do TSE determinou que as plataformas digitais responsáveis pelo Twitter, Instagram, TikTok e Facebook retirassem o vídeo do ar, no prazo de 24 horas. A decisão previa multa de R$ 50 mil por dia, caso a determinação judicial fosse descumprida. “As plataformas atenderam a determinação em seguida”, informou o TSE.

    Nikolas Ferreira usou sua conta no Twitter para comentar a decisão da Corte. “Segundo o TSE, agora é proibido e passível de multas altas, criticar políticos e suas falas em campanha. A liberdade de expressão está caminhando para o seu fim no Brasil”, tuitou o deputado.

    Em outro julgamento, o TSE condenou, por unanimidade, o empresário Pablo Marçal a pagar uma multa de R$ 5 mil por ter divulgado – em sua conta no Instagram, no dia 4 de outubro de 2022 – um vídeo no qual Jair Bolsonaro acusava o Ministério da Educação de ter divulgado, em 2013, durante o segundo governo Lula, uma cartilha de temática sexual voltada a crianças.

    Segundo o TSE, em outubro do ano passado, a ministra Maria Claudia Bucchianeri concedeu liminar determinando a remoção do conteúdo propagado por Marçal no prazo de 24 horas, sob pena de multa diária de R$ 10 mil, caso a plataforma desrespeitasse a ordem judicial.

    As ações foram julgadas a partir de uma representação da coligação de apoio à candidatura de Lula.

    A Agência Brasil tenta contato com as defesas dos parlamentares e de Marçal.

    Edição: Fernando Fraga

  • Arthur Lira retira de pauta votação do PL das Fake News

    Arthur Lira retira de pauta votação do PL das Fake News

    O presidente da Câmara, Arthur Lira, decidiu, nesta terça-feira (2), retirar de pauta a votação do Projeto de Lei (PL) 2630, conhecido como PL das Fake News. Lira atendeu um pedido do relator do projeto, deputado Orlando Silva (PCdoB -RJ). A proposta estava prevista para ter seu mérito analisado nessa sessão. O pedido do relator acontece após uma sequência de polêmicas envolvendo o texto da proposta.

    O texto está apto para ser analisado desde a semana passada, quando o plenário da Câmara dos Deputados aprovou o requerimento de urgência para agilizar a tramitação da proposta. Também na última semana, Silva apresentou novo parecer retirando trechos polêmicos do texto. No entanto, ao iniciar a sessão, ele argumentou que precisaria de mais tempo para incorporar novos pontos ao projeto.

    “Não tivemos tempo útil para examinar todas as sugestões, por isso gostaria de fazer um apelo para, consultados os líderes, que pudéssemos retirar da pauta de hoje a proposta e pudéssemos consolidar a incorporação de todas as sugestões que foram feitas para ter uma posição que unifique o plenário da Câmara dos Deputados em um movimento de combater a desinformação e garantir a liberdade de expressão”.

    Segundo o relator, a principal dificuldade de consenso entre os congressistas está na definição sobre a quem caberá fiscalizar o cumprimento e as sanções impostas pela lei. “Ganhou muita força hoje a ideia da Anatel [Agência Nacional de Telecomunicações], mas, ainda assim, muitos parlamentares resistem à hipótese. Esse é um tema em que é necessário um diálogo com o governo, pois da parte do governo há críticas com a possibilidade de a Anatel ser esse órgão responsável. O que era um impasse na semana passada, segue sendo um impasse”.

    De acordo com o deputado, ainda não há prazo para que o projeto retorne para análise do plenário. Silva destacou que serão necessárias, pelo menos, duas semanas para que o projeto esteja pronto para ser submetido à apreciação.

    Ao chegar à Câmara, o presidente da Casa, deputado Arthur Lira (PP-AL) afirmou que o texto só seria colocado em votação caso houvesse votos suficientes para aprová-lo. “Se tiver, claro que vota. Se não tiver, o meu intuito é que não vote hoje”, disse.

    O PL 2630/20 institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, com normas e mecanismos de transparência para provedores de redes sociais, ferramentas de busca e de mensagens instantâneas, bem como as diretrizes para seu uso.

    Impasses

    Na tarde desta terça-feira, a Secretaria Nacional do Consumidor (Senacon), do Ministério da Justiça, determinou que a Google tome uma série de medidas cautelares para corrigir indícios de que a empresa estivesse censurando o debate público sobre a proposta.

    Horas depois, a plataforma retirou o link que direcionava para o texto “O PL das Fake News pode aumentar a confusão sobre o que é verdade ou mentira no Brasil”. A frase remetia os internautas para um artigo no qual o diretor de Relações Governamentais e Políticas Públicas da empresa no Brasil, Marcelo Lacerda, criticava a medida.

    Além da obrigação de sinalizar o conteúdo publicitário deste e de outros conteúdos contrários à aprovação do PL que produzir e divulgar, a Senacon também determinou que a Google passe a informar os consumidores sobre eventual conflito de interesse na questão, já que a eventual aprovação do projeto vai impactar suas operações. Por já ter dado ampla divulgação às críticas à proposta de regulação das plataformas digitais, a Google também terá que começar a veicular, em até duas horas após ser notificada da decisão, as posições favoráveis ao projeto de lei. Se descumprisse as determinações da Senacon, a empresa seria multada em R$ 1 milhão por hora.

    STF

    Também nesta terça-feira, o ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), determinou que presidentes de empresas que operaram redes sociais prestem depoimento, no prazo de cinco dias, na Polícia Federal (PF).

    A decisão de Moraes foi proferida após a divulgação de denúncias sobre o suposto favorecimento de resultados contrários ao PL das Fake News. As plataformas deverão retirar do ar todos os anúncios que tratam o projeto como PL da Censura. Pela decisão, deverão prestar depoimento os presidentes do Google, Meta (Facebook e Instagram), Spotify e Brasil Paralelo.

    Cade

    O Conselho Administrativo de Defesa Econômica (Cade) instaurou um procedimento preparatório de inquérito administrativo para apurar suposto abuso de posição dominante por parte do Google e da Meta, no âmbito das discussões relacionadas à proposta.

    A decisão foi tomada depois de órgão receber uma série de denúncias contra as plataformas Google e Meta, apontando para a suposta realização de campanha contra o projeto nestas redes e também no YouTube, Facebook e Instagram. No documento, o Cade diz que as empresas estão sendo investigadas em outros inquéritos que apuram indícios de infração à ordem econômica.

    Edição: Marcelo Brandão

  • PL das Fake News traz imunidade parlamentar e é criticado

    PL das Fake News traz imunidade parlamentar e é criticado

    O parecer do PL das Fake News, apresentado na noite da última quinta-feira (27) pelo relator Orlando Silva (PCdoB-SP), já está repercutindo entre algumas das mais de 100 Organizações da sociedade civil e entidades acadêmicas que integram a Sala de Articulação contra a Desinformação (SAD).

    Uma dessas entidades é o Intervozes – Coletivo Brasil de Comunicação Social. Segundo a coordenadora executiva da entidade, Ramênia Vieira, um documento detalhado sobre o parecer apresentado para o PL das Fake News será divulgado em breve. Ela, no entanto, adiantou à Agência Brasil algumas críticas ao texto. Entre elas, a questão da imunidade parlamentar, que poderá ser estendida a conteúdos publicados por deputados e senadores em redes sociais e em mensagens privadas.

    “A gente já percebeu que, dentro da Câmara dos Deputados, está bem difícil de debater essa questão”, disse. Ela afirmou que essa garantia de imunidade cria uma categoria de usuários acima do restante da população. “Parece uma autorização para que os parlamentares, que são grandes propagadores de desinformação, continuem usando suas redes para distribuir essa desinformação”, complementou.

    Religiões

    Ramênia também chama atenção para um outro ponto que, de acordo com o Intervozes, causa preocupação: a possibilidade de se criar uma “imunidade religiosa”. Algo que, segundo ela, tem como origem a recente “campanha de desinformação” que usou redes sociais para espalhar a falsa notícia de que trechos da bíblia seriam proibidos nas redes sociais.

    “A gente vê essa imunidade religiosa com preocupação, porque poderá ser usada para justificar discursos religiosos em ataques a comunidades LGBTQIA+, religiões de matizes africanas e contra o movimento negro, entre tantos outros grupos, como já vemos nas redes sociais”, explicou. Em seu artigo 1º, o projeto garante a livre manifestação religiosa, dentre outras formas de manifestação, como artística e política.

    Limitações

    Coordenadora do programa Criança e Consumo do Instituto Alana, Maria Mello diz que o projeto está limitado ao escopo de redes sociais, ferramentas de busca e mensageria instantânea, e que, dessa forma, acaba por excluir “outros produtos e serviços digitais que podem conter padrões enganosos e de manipulação”, como dispositivos inteligentes, sites e jogos eletrônicos, que são muito voltados a crianças e adolescentes.

    Órgão regulador

    Sobre a questão do órgão regulador, o Intervozes tem ser a favor de “um mecanismo de regulação; uma entidade reguladora que seja autônoma, e que ela seja criada exatamente com esse objetivo”, uma vez que não existe, atualmente, uma entidade com “formação técnica e cuidado para ser um órgão realmente efetivador dos direitos digitais”. A previsão de criação desse órgão, porém, não foi incluída no relatório de Orlando Silva.

    “A Anatel [Agência Nacional de Telecomunicações] já tem vários problemas como entidade reguladora das telecomunicações no Brasil, e não tem essa expertise para regulação da internet. Por isso a excluímos completamente deste papel”, acrescentou.

    A avaliação de que a Anatel não deve exercer esse papel de órgão regulador é corroborada pela Coalizão Direitos na Rede, entidade que também integra a SAD.

    Segundo a integrante da Coalizão – e presidente do Instituto de Pesquisa em Direito e Tecnologia do Recife – Raquel Saraiva, a Anatel tem “falhado recorrentemente” no cumprimento de suas atribuições no setor de telecomunicações.

    Além disso, acrescentou, “a Anatel é historicamente refratária à participação da sociedade civil, o que é incompatível com o modelo de governança multissetorial e colaborativa da internet no país”.

    “Atribuir a regulação das plataformas a essa agência poderá agravar o cenário, prejudicando o avanço da conectividade significativa no Brasil, e levando os interesses econômicos das plataformas e empresas de telecomunicações a prevalecerem sobre os interesses dos usuários”, complementou.

    Conquistas

    Na avaliação do Intervozes, o texto, de uma forma geral, “vem com várias conquistas importantes”. Ramênia Vieira citou, por exemplo, a questão da transparência de procedimentos.

    “A gente vê que a relatoria do projeto fez um grande trabalho ao dar maior transparência para o cidadão. Dá, também, mais poder para reivindicar junto às plataformas, porque hoje não há nada nesse sentido. O cidadão não tem a quem recorrer e não tem direito de recurso. E não há transparência de moderação para se saber os motivos de retirada de conteúdos. Acho que a relatoria conseguiu melhorar e mitigar alguns dos problemas que existem”, concluiu.

    Maria Mello, do Instituto Alana, destaca que em relação ao tema de crianças e adolescentes, o texto atual é “bastante bem-vindo” por apresentar parâmetros de serviços positivos para o público infantil e por adotar medidas que asseguram privacidade, proteção de dados e segurança desse público.

    O texto do parecer prevê, segundo ela, a possibilidade de vedar a criação de perfis comportamentais de usuários crianças e adolescentes. “A adoção e o aprimoramento dos sistemas de verificação da idade; o desenvolvimento e promoção de ferramentas de controle parental; a notificação de abusos e a busca de apoio por parte de crianças e adolescentes são, também, pontos positivos”, acrescentou.

    A Agência Brasil entrou em contato com outras entidades ligadas à Sala de Articulação contra a Desinformação. Elas informaram que o parecer do PL das Fake News está sendo avaliado e que, em breve, serão apresentadas novas manifestações.

    Relatório

    Na véspera da apresentação do parecer, as entidades divulgaram um documento conjunto sobre a regulação das plataformas digitais no Brasil, no qual apresentam seis pontos considerados essenciais para a para a construção de um “ambiente digital democrático, seguro e saudável”.

    O maior destaque foi dado à necessidade de criação de um “órgão regulador independente e autônomo” – que acabou sendo retirado da atual versão apresentada por Orlando Silva, para evitar maiores dificuldades na tramitação da matéria.

    Entre as reivindicações feitas pelas entidades integrantes da SAD estão, também, a ampliação das exigências de transparências das plataformas digitais; a responsabilização dos provedores pelos conteúdos impulsionados; exigir obrigações específicas para violência política e desinformação socioambiental; ações de fomento à educação; e avanços na regulação econômica.

    Edição: Marcelo Brandão

  • Pesquisa identifica 70 perfis que propagam notícias falsas na Amazônia

    Pesquisa identifica 70 perfis que propagam notícias falsas na Amazônia

    Uma pesquisa identificou 70 perfis e sites na internet disseminadores de desinformação e notícias falsas na Amazônia Legal. O levantamento do Coletivo Intervozes e de entidades parceiras analisou 200 páginas em sete estados: Acre, Amazonas, Amapá, Pará, Roraima, Mato Grosso e Tocantins.

    As páginas foram separadas entre organizações e ativistas de direita, figuras políticas públicas e canais jornalísticos.

    Os pesquisadores investigaram três sites que se apresentam como jornalísticos. Segundo o estudo, esses sites divulgam apenas informações que favorecem certo partido ou candidato. Os políticos que tiveram mais visibilidade são aliados do ex-presidente Jair Bolsonaro. A desinformação aumentou nas eleições de 2022, fortemente associada à polarização política.

    As supostas notícias manipulam as informações, segundo a integrante do Intervozes, Raquel Baster. “Eles constroem textos que são, normalmente, sensacionalistas, conspiratórios, principalmente em relação à Floresta Amazônica. Eles constroem textos com dados manipulados. Eles podem pegar metade de um texto com informações que são corretas e misturar com dados fabricados por eles. Ou fazem uma mistura de dados, trazendo uma confusão ao entendimento de que lê esses textos”.

    Para combater a desinformação, os pesquisadores recomendam fortalecer a cooperação entre estados, agentes privados e sociedade para encontrar mecanismos de regulamentação. Eles defendem o projeto de Lei das Fake News, que está no Congresso. Além disso, políticas de educação crítica para o uso da internet desde a infância.

    Edição: Sâmia Mendes / Pedro Lacerda

  • Comitê quer envolver sociedade em debate sobre regulação da internet

    Comitê quer envolver sociedade em debate sobre regulação da internet

    O Comitê Gestor da Internet no Brasil (CGI.br) lançou uma consulta pública sobre regulação de plataformas digitais, com o objetivo de sistematizar medidas que possam ajudar a promover um ambiente mais seguro e democrático para o uso da internet no país. A iniciativa foi lançada durante um seminário promovido pelo CGI.br nesta terça-feira (25), em Brasília. A ideia é envolver diferentes setores da sociedade, inclusive os próprios usuários da rede, na proposição de iniciativas que possam aperfeiçoar a legislação do setor.

    A consulta do CGI.br ocorre em meio ao processo de discussão em torno do Projeto de Lei 2.630/2020, o chamado PL das Fake News, cujo requerimento de urgência foi aprovado nesta noite na Câmara dos Deputados. A votação do mérito está prevista para a semana que vem.

    “Estamos lançando hoje uma consulta pública direcionada aos usuários da internet, aos brasileiros e brasileiras que tenham contribuições a dar sobre esse amplo escopo regulatório que nós precisamos desenvolver no Brasil, para criar regras para as atividades dessa empresa. Essa consulta tem uma perspectiva muito mais abrangente, é muito mais ampla do que o debate que está sendo feito atualmente em torno do PL 2.630. Nós abrangemos aspectos da regulação econômica, das questões que envolvem soberania digital, das questões do trabalho no ambiente das plataformas, na perspectiva do trabalho decente, a questão de direitos humanos”, explicou Renata Mielli, coordenadora do CGI.br.

    Votação iminente

    A votação do PL 2.630, projeto discutido há mais de três anos, foi acelerada nas últimas semanas após os episódios de violência e ameaças contra escolas, difundidas sobretudo nas redes sociais. E também em decorrência dos atos golpistas do dia 8 de janeiro deste ano. A matéria, relatada pelo deputado federal Orlando Silva (PCdoB-SP), cria a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. O texto estabelece regras para o combate à disseminação de conteúdo falso e criminoso em plataformas como Facebook e Twitter, e em serviços de mensagens privadas, como WhatsApp e Telegram. Um dos princípios estabelecidos no texto é o “dever de cuidado” para conteúdos sensíveis, como proteção de crianças e adolescentes e questões que podem afetar a ordem democrática.

    Para a advogada Estela Aranha, assessora de direitos digitais do Ministério da Justiça e Segurança Pública, a nova lei deve criar incentivos para que as plataformas sejam obrigadas a lidar com situações de risco. Ela comparou a responsabilidade das plataformas à de um hospital que recebe pacientes. “O hospital não é responsável pelas mortes que acontecem ali, a não ser que ele não tenha tomado cuidado para que infecções se espalhem”, exemplificou.

    Órgão regulador

    Mesmo não tendo a pretensão de incidir no debate específico do PL 2.630, a consulta lançada pelo CGI.br ainda pode levantar discussões sobre alguns aspectos importantes da legislação debatida no Congresso e que, se aprovada, ainda precisará ser definida pelo governo federal em regulamentação. É o caso, por exemplo, da previsão de se criar um órgão independente para promover a regulação das plataformas digitais no país.

    “A discussão sobre esse tipo de órgão é global, então vários países têm falado sobre isso. O melhor caminho tem sido essa coisa de uma autoridade independente que possa tanto estar bastante protegida do lobby das plataformas, quanto estar independente do governo da vez, para evitar guinadas autoritárias, o que ninguém deseja. E esse órgão precisa também ter capacidade de estimular o debate e visões de futuro, porque as transformações tecnológicas são muito rápidas, a gente está vendo a coisa da inteligência artificial, por exemplo. Grande parte dos problemas que estamos vendo com as plataformas já estava enunciada há dez anos”, analisa o professor Rafael Evangelista, pesquisador do Laboratório de Estudos Avançados em Jornalismo da Universidade de Campinas (Unicamp) e integrante do CGI.br representando a comunidade científica.

    A mudança do ambiente informacional, ao longo da última década, criou a necessidade de uma nova regulação para as comunicações, desta vez focada na atuação das redes sociais.

    “A gente sai de um ambiente informacional organizado em torno do jornalismo profissional e passa a ter as plataformas como centro de gravidade do debate público. Isso traz alguns efeitos positivos, como a participação de mais gente, mas traz também alguns efeitos negativos, porque, de certa maneira, a gente traz o engajamento do usuário como objetivo principal da organização da esfera pública”, argumentou o secretário de Polícias Digitais da Secretaria de Comunicação Social da Presidência da República, João Brant.

    A consulta pública está disponível na página do CGI.br na internet e procura responder a questões sobre o que regular, como regular e quem vai implementar esse sistema regulatório.

  • Desinformação permanente impacta de políticas públicas à saúde mental

    Desinformação permanente impacta de políticas públicas à saúde mental

    No dia 27 de fevereiro, uma ampla mobilização nacional foi lançada para recuperar as coberturas vacinais, que estão em queda desde 2015. Os esforços para que a população busque a imunização incluíram o fato de o próprio presidente Luiz Inácio Lula da Silva ter recebido a vacina bivalente contra a covid-19 diante das câmeras. Porém, enquanto governo e veículos de imprensa destacavam a necessidade de aumentar a proteção contra as doenças imunopreveníveis, esforço contrário era empreendido nas plataformas digitais, com a divulgação de mentiras, conteúdos descontextualizados e teorias da conspiração que associavam de forma fraudulenta as vacinas até mesmo ao extermínio da população mundial.

    Esse movimento negacionista foi destrinchado em um relatório do Laboratório de Estudos de Internet e Mídias Sociais da Universidade Federal do Rio de Janeiro (NetLab/UFRJ). Os pesquisadores mostram que houve um pico de conteúdo antivacinista nas plataformas digitais no dia em que Movimento Nacional pela Vacinação foi lançado. Somente no Twitter, foram catalogadas mais de 50 mil publicações desse teor.

    Entre 26 de fevereiro e 21 de março, mais de 320 mil tuítes, 20 mil publicações no Facebook e 6 mil no Instagram com conteúdo antivacinista foram identificados pelo laboratório, que também registrou milhares de mensagens em grupos monitorados no WhatsApp e no Telegram e mais de 200 vídeos no TikTok. Enquanto pesquisadores, comunicadores e autoridades empenhavam-se em convencer a população da segurança e eficácia das vacinas, essas mensagens bombardeavam usuários de redes sociais com o oposto.

    O NetLab conseguiu mapear um grupo de 36 mil perfis no Twitter que retuitaram mais de 100 mil publicações com conteúdo antivacina após o lançamento do Movimento Nacional pela Vacinação. Retuitar significa encaminhar para os seguidores publicação de outro perfil. Tal articulação acabou sendo mais intensa que a dos 41 mil perfis que fizeram 79 mil retuítes a favor da vacinação.

    Ação criminosa

    O movimento negacionista não passou despercebido pelo Ministério da Saúde. A ministra Nísia Trindade reconheceu que há uma campanha antivacinista buscando minar os esforços da sociedade para elevar a cobertura vacinal. “Temos enfrentado uma forte campanha, desde 27 de fevereiro, de fake news [notícias falsas] envolvendo a vacina bivalente. Isso é extremamente sério, e eu tenho destacado que não se trata de desinformação, se trata de ação criminosa”, declarou a ministra.

    Coordenadora de pesquisa do NetLab, a cientista da informação Débora Salles explica que, em diversos momentos, a pauta política do país é um gatilho para campanhas de desinformação, e o movimento pela vacinação foi um episódio emblemático. “Quando o presidente Lula se vacina, a extrema direita ativa uma campanha muito intensa em que várias narrativas são acionadas em diferentes plataformas, tentando trazer dúvidas sobre o quão seguras as vacinas são”, afirma. “Percebe-se que campanha se aproveita de um evento, mas as narrativas já circulavam antes e se intensificaram para criar um pico de discussão e trazer a atenção para aquela pauta, disputando a narrativa com a campanha oficial”, diz Débora.

    Desinformação permanente

    Segundo a pesquisadora, os conteúdos que já estavam prontos e apenas foram intensificados fazem parte de um fluxo permanente de desinformação que circula nas plataformas digitais do Brasil e do mundo há anos, provocando desconfiança em relação a instituições, deturpações no debate público, amplificação de discurso de ódio e radicalização política. Débora define a desinformação como uma campanha sistemática cujo objetivo é produzir desconfiança nas pessoas e diz que o fluxo constante de mensagens deforma o debate público no longo prazo.

    “Muita propaganda e muita informação problemática passam por informação neutra, orgânica e verdadeira, e isso vai alterando a percepção das pessoas e a qualidade do debate público. E, quando se perde qualidade no debate público, isso leva a mudanças nas políticas públicas. Com o tempo, inclusive médicos passam a duvidar de evidências científicas”, enfatiza.

    De acordo com Débora, esse caldeirão de desinformação depende de um núcleo que direciona campanhas, produz conteúdo e orquestra reações, mas também precisa de capilaridade para ser disseminado. “A desinformação bem-sucedida se aproveita de uma infraestrutura que vimos surgir no Brasil com a extrema direita, que foi montando uma estrutura que é tanto centralizada e organizada quanto capilarizada, e consegue chegar a várias pessoas de diferentes nichos e de diferentes formas”, afirma a pesquisadora.

    Ela afirma que a extrema direita é a corrente política que mais aposta na desinformação. “Nossos dados mostram que as campanhas de desinformação de outras posições ideológicas são exceção, mas é importante reforçar que, se não se atualizarem as regras do jogo, a tendência é que todas as vertentes queiram aproveitar essas estratégias de manipulação.”

    O que a pesquisadora chama de infraestrutura é uma rede de perfis que atua em diversas plataformas de forma coordenada, republicando, comentando e participando de transmissões ao vivo, programas, podcasts, e também em portais e canais do YouTube, além de aplicativos de mensagens. Essa coordenação, inclusive, reduz a eficácia de derrubar publicações em uma plataforma específica, porque um tuíte, por exemplo, pode ser printado (impresso, copiado) e continuar circulando no Instagram ou no Telegram, mesmo depois de o original ser apagado. “A infraestrutura é uma atuação multiplataforma lucrativa e autossuficiente, que se retroalimenta e se republica. Nenhuma narrativa emplaca com um ou dois influenciadores em só uma rede social.”

    A coordenadora do NetLab relata que o monitoramento de tal infraestrutura é um trabalho cada vez mais desafiador porque as plataformas digitais têm reduzido o acesso dos pesquisadores aos dados. É um desafio que ocorre na vertente política, com a defesa de uma regulamentação que garanta acesso aos dados, e também na vertente metodológica, porque é preciso construir formas de pesquisar o que está disponível neste momento.
    “O primeiro passo é ter mais transparência para diagnosticar o problema e pensar em políticas públicas e regulamentação baseada em evidências. Atualmente os dados são escassos e incompletos. Cada empresa decide o que quer disponibilizar, e isso coloca a sociedade à mercê dos interesses corporativos dessas plataformas”.

    Poluir o debate

    Além da construção de narrativas falsas, a desinformação serve para desviar o foco do debate público e ocupar os espaços de discussão, ressalta o professor Victor Piaia, da Escola de Comunicação, Mídia e Informação da Fundação Getúlio Vargas.

    “Hoje, as fake news fazem parte do repertório político das redes sociais. No fundo, atores políticos e militantes usam notícias que não são verdadeiras tanto para atingir alguém ou criar uma imagem, como para poluir o debate. Esse uso não necessariamente tem o objetivo de convencer, mas de evitar que outros assuntos sejam mais relevantes.”

    O sociólogo lembra o curioso caso da notícia falsa da eleição de 2018 segundo a qual haveria distribuição de mamadeiras eróticas para crianças. Ele explica que as fake news mais inverossímeis se inserem em um contexto maior de bombardeio sobre um tema e contribuem mais para a criação de uma visão de mundo do que para o convencimento pontual sobre esses casos específicos.

    “Esse é o caso mais lembrado de fake news sem pé, nem cabeça, mas que foi capaz de gerar um dano enorme. Existiam, naquela época, muitas publicações relacionadas a uma suposta sexualização infantil. As pessoas que estavam nesses grupos recebiam sem parar conteúdos que acusavam artistas e pensavam no ambiente escolar como depravado moralmente. A mamadeira pode ser um exemplo esdrúxulo, mas, quando se percebe que a pessoa, a todo momento, é tocada por esses conteúdos, ela pode não acreditar na mamadeira, mas isso não significa que não acredite no todo. A gente foca muito em um caso que pode ser esdrúxulo, mas a questão é a visão de mundo que está sendo construída cotidianamente.”

    Entre as plataformas digitais usadas para disseminar desinformação, o WhatsApp destaca-se por ser a mais usada pelos brasileiros, diz o professor. Além disso, Piaia explica que a vida cotidiana das pessoas incorporou o uso dessa plataforma e, quando o conteúdo falso chega ao usuário, chega muitas vezes por meio de contatos pessoais e até familiares, aproveitando-se de redes de confiança.

    “Não é um espaço público, é um espaço privado de informação. O conteúdo chega por meio de um parente, um conhecido, um amigo, alguém que você tem em grande estima. Essa informação tem uma capacidade grande de envolver as pessoas, seja para acreditar ou discordar”, detalha o pesquisador.

    Diante dessa relevância, pesquisadores pensam estratégias para captar os movimentos na plataforma, mas o acesso é difícil por se tratar de aplicativo de mensagens privadas. O máximo que é possível para o monitoramento é se inscrever em grupos públicos e linhas de transmissão que são usadas para desinformar, diz Piaia.

    “Não importa em quantos grupos você entre. Você pode entrar em 5 mil grupos ou em 40 mil grupos, e ainda não vai saber o que isso representa no todo. A gente tem falta de informação e clareza do total desse universo de mensagens, porque a plataforma não informa isso. A gente entende que é relevante – há todos os sinais de que é relevante – e consegue construir este quebra-cabeças, mas é difícil ter certeza e medir com precisão o que acontece ali dentro, até para pensar medidas que combatam o problema.”

    Apesar de todas as plataformas adotarem estratégias para diminuir o alcance da desinformação, o sociólogo considera que as ações ainda são insuficientes diante dos impactos sociais causados pelas fake news que circulam dentro delas. “Se pesquisadores independentes não podem acessar e tentar entender aquele ecossistema e aquele universo para buscar problemas e soluções, ficamos reféns de uma avaliação interna das plataformas. Quando se observa uma plataforma fechando dados para pesquisa, ela está, de certa forma, contribuindo para a manutenção de todos esses problemas.”

    Lucro e afeto

    O professor de literatura comparada da Universidade do Estado do Rio de Janeiro (Uerj) João Cezar de Castro Nunes cita o escritor Guimarães Rosa para explicar por que ainda é tão difícil encontrar uma solução para enfrentar a desinformação: “Estamos no meio do redemoinho”. Assim como os meios digitais de pagamento e transações financeiras mudaram a economia e exigiram regulação e modernização dos diversos órgãos de controle, João Cezar argumenta que as plataformas digitais mudaram de forma irreversível e profunda o debate político e as formas de interação social, só que sem ser acompanhadas de regulações capazes de garantir limites.

    O pesquisador monitora as redes e discute os efeitos discursivos e sociais desse fluxo permanente de desinformação. João Nunes vê como caminho central a desmonetização desse conteúdo por parte das plataformas, mas considera impossível cessar completamente essa torrente, que é lucrativa.

    “Precisamos começar a compreender que fake news é uma indústria. É produção em massa e é fonte de monetização. Para as plataformas, conteúdo radicalizador, agressivo e virulento vende mais que conteúdo didático ou sereno”, critica o professor. Ele destaca que produtores de fake news enriquecem e empreendem apostando na desinformação. “Fake news não é apenas ideologia, é uma forma de empreendedorismo. As fake news têm o aspecto ideológico, o impacto político, a produção do ódio, a exclusão do outro. Tudo isso está na essência das fake news. Mas um ponto negligenciado é que as fake news são uma fábrica de dinheiro, porque aumentam o engajamento, as visualizações, os likes, e isso se reverte em monetização.”

    O pesquisador também defende a necessidade de deixar de encarar as fake news apenas como simples mentiras e explica que um elemento muito característico desse discurso é partir de um dado verdadeiro para construir um argumento falso. Esse dado muitas vezes é superdimensionado, pinçado de uma situação excepcional e tomado como universal, transformando-se em um risco iminente em toda parte.

    Exemplos dessa estratégia são os eventos adversos graves da vacinação, registrados em proporções raríssimas, porém explorados pelos antivacinistas. O Centro de Controle de Doenças dos Estados Unidos, por exemplo, observou apenas 11 casos de miocardite entre as mais de 8 milhões de doses da vacina da Pfizer aplicadas em crianças com idade entre 5 e 11 anos, no início da vacinação contra a covid-19 nessa faixa etária. Nenhuma dessas crianças morreu e todas se recuperaram. Mesmo assim, a miocardite é frequentemente citada como um perigo da vacina em mensagens antivacinistas, que ignoram que a própria covid-19 causa o mesmo problema de saúde com uma frequência 16 vezes maior.

    “Uma notícia falsa não é uma mentira, é uma máquina narrativa cuja finalidade é produzir um afeto”, afirma João Cezar. “É uma produção de afeto com a retórica do ódio, para a monetização do medo. A extrema direita monetiza o pânico que ela mesma produz. Cria a demanda e oferece o produto. É um modelo de negócio perfeito”, afirma.

    A produção de afeto e o fluxo permanente de desinformação, com o passar dos anos, construíram o que o pesquisador chama de dissonância cognitiva coletiva — nome complexo que descreve um comportamento que muitos brasileiros testemunham em suas relações pessoais. Refugiando-se em conteúdos extremistas nas plataformas digitais, os consumidores fiéis de fake news têm suas crenças reforçadas a todo momento e ficam cada vez mais refratários ao contraditório e a fatos que invalidam suas ideias. O efeito disso é o compartilhamento de uma realidade paralela, completamente interpretada com a lente da desinformação.

    “A dissonância cognitiva é própria da condição humana. Nós evitamos informações que contrariam nossas crenças e procuramos informações que reforçam. Mas, com a revolução digital, a dissonância cognitiva não é mais individual. O que está acontecendo é mais grave. Essa disjunção que leva a uma realidade paralela deixou de ser de foro íntimo, porque hoje você está compartilhando aquela crença com milhões de pessoas. Hoje, no mundo inteiro, centenas de milhões de pessoas acreditam que um consórcio das farmacêuticas se reuniu para produzir o coronavírus, vender máscara e vacina”, alerta o pesquisador.

    Essa crença coletiva se dá por meio de uma “dieta” rigorosa de fake news, explica João Cezar, já que a tecnologia hoje permite estar conectado 24 horas por dia, recebendo conteúdo de diversos grupos em diferentes plataformas.

    “Eu tenho casos coletados de pessoas que participam de 15 grupos desse tipo no WhatsApp. Isso é uma dieta rigorosa de desinformação. Isso produz o delírio que vimos no Brasil. Em nenhum outro lugar do mundo a dissonância cognitiva levou até 40 mil pessoas durante dois meses para as portas de quartéis”.

    Adoecimento

    O consumo em massa de desinformação tem ocasionado também danos nas relações pessoais e até na saúde mental de quem recebe esses conteúdos — e na de quem está em volta. Segundo o presidente do Conselho Federal de Psicologia, Pedro Paulo Bicalho, o medo produzido pelo discurso de ódio é um assunto frequente nos consultórios, especialmente entre aqueles que são alvos da discriminação.

    “Isso tem produzido um adoecimento que é articulado a uma construção de medo. O que eu quero dizer é que as pessoas passam a sentir medo de existir. A população negra, a população indígena, a população LGBTQIA+ e as mulheres têm relatado medo em relação a sua própria existência. E, quando identificamos de onde vem esse medo, ele é produto da circulação de fake news.

    O problema cresce porque, muitas vezes, o contato com esses conteúdos se dá no ambiente familiar, seja fisicamente ou em grupos de família nas plataformas digitais. Com isso, ocorre um desmantelamento das relações familiares, afirma Bicalho, dizendo que o medo gerado pela desinformação é fonte de uma produção em massa de processos ansiogênicos, que são causadores de quadros de ansiedade.

    Já entre os consumidores de notícias falsas, o fluxo permanente de desinformação faz com que entrem em um quadro de descolamento da realidade, que, apesar de não ser uma psicose, se assemelha a elas, avalia o presidente do CFP.

    “Quando falamos de psicoses, elas nada mais são do que adoecimentos psíquicos que se constroem a partir de um descolamento da realidade, realidade essa que é produzida pelo próprio sujeito da psicose. Há uma aproximação em relação a isso. Quando alguém consome fake news e começa a aderir a uma realidade paralela, começa a viver um estado psicótico, mesmo não sendo uma psicose propriamente dita. Ele começa a produzir dissociações em relação ao real, e isso vai produzir efeitos muito diretos na sua vida. Na sua vida laboral, na sua vida em família e na sua vida como estudante, por exemplo”.

    Para o psicólogo, o resgate de pessoas imersas em fake news depende de uma construção coletiva. “A gente não é capaz de acessar individualmente essas pessoas, precisa construir campanhas, falar mais sobre isso. É preciso dizer para as pessoas o que isso está produzindo na sociedade como um todo”, alerta ele, lembrando que, desde a pandemia, a busca por psicólogos cresceu 300% e ainda não baixou. Além das consequências da emergência sanitária, ele vê a circulação de fake news, o discurso de ódio e a radicalização política como causas dessa demanda. “O Brasil viveu uma pandemia no meio de um pandemônio político. Isso produz um adoecimento de uma ordem inimaginável.”

    O que dizem as plataformas


    Internet Aplicativos de mensagem
    Internet Aplicativos de mensagem

    A  Meta,  empresa  responsável  pelo  Facebook,  WhatsApp  e  Instagram,  diz  que  remove  das  plataformas  mensagens  com  conteúdo  prejudicial  à  saúde  –  Marcello  Casal Jr/Arquivo/Agência  Brasil

    A Agência Brasil procurou a Meta, empresa responsável pelo Facebook, WhatsApp e Instagram, para ouvir o que é feito no combate à desinformação e na disponibilização de dados a pesquisadores independentes. Sobre o Facebook e o Instagram, a empresa informa que remove a desinformação prejudicial sobre saúde e quando há possibilidade de tal conteúdo contribuir diretamente para o risco de lesão corporal iminente e para interferência no funcionamento de processos políticos, além de “certas mídias manipuladas altamente enganosas”.

    “Para determinar o que constitui desinformação nessas categorias, firmamos parcerias com especialistas independentes que têm conhecimento e experiência para avaliar a veracidade de um conteúdo e se é provável que ele contribua diretamente para o risco de dano iminente”, diz um texto produzido pelo centro de transparência da empresa. “Nos concentramos em reduzir a disseminação de boatos e a desinformação viral, além de direcionar usuários para informações oficiais”, acrescenta.

    Sobre o WhatsApp, a Meta informa que estabeleceu parcerias com agências de checagem independentes, que o aplicativo tem sido uma das poucas plataformas de mensagens a se aprimorar para conter a viralidade de publicações e que vê tendência de queda com as medidas adotadas. Segundo a Meta, quando o aplicativo introduziu limites adicionais para o envio de mensagens em abril de 2020, viu imediatamente uma redução de 70% na viralidade das mensagens. Em maio de 2022, um novo limite de encaminhamento de mensagens para grupos trouxe uma redução de cerca de 20% no número de mensagens encaminhadas com frequência.

    “Vale lembrar que as conversas trocadas em grupos específicos, com desinformação, de modo algum representam as conversas dos usuários brasileiros, ou a forma pela qual o WhatsApp é majoritariamente utilizado no país”, diz a Meta, que encoraja os usuários a denunciarem condutas inapropriadas na plataforma.

    Já o Tik Tok diz que considera o trabalho dos pesquisadores importante para aprimorar os mecanismos de combate à desinformação. Sobre a pesquisa que aponta veiculação de vídeos com desinformação sobre vacinas, a rede afirma que suas diretrizes não permitem informações médicas enganosas que possam causar danos à saúde física. A rede afirma que atua para removê-las da plataforma quando as identifica e que a maior parte das remoções de conteúdo ocorre de forma proativa, isto é, antes que sejam denunciadas pelos usuários.

    “Realizamos parcerias com especialistas para destacar o conteúdo confiável sobre temas relacionados à saúde pública e também com agências independentes de checagem de fatos que nos ajudam a avaliar a veracidade do conteúdo.”

    A Agência Brasil não conseguiu contato com o Telegram. Já o Twitter não tem representação de imprensa no Brasil desde as mudanças promovidas na empresa pelo proprietário da plataforma, Elon Musk. Ao entrar em contato com o e-mail global de imprensa da plataforma, a reportagem recebeu apenas a resposta automática com o emoji de fezes que tem sido enviada a todos os veículos de comunicação.

    Edição: Nádia Franco

  • Moraes diz esperar que redes sociais adotem ações contra desinformação

    Moraes diz esperar que redes sociais adotem ações contra desinformação

    O presidente do Tribunal Superior Eleitoral (TSE), ministro Alexandre de Moraes, disse nesta terça-feira (11) esperar que as empresas que operam as redes sociais tomem medidas para coibir publicações com conteúdo nazista, homofóbico e antidemocrático nas plataformas.

    A cobrança foi feita durante reunião entre Moraes e os presidentes dos 27 tribunais regionais eleitorais (TREs), em Brasília. O encontro foi realizado para debater a organização das eleições municipais de 2024.

    Na reunião, Moraes disse que as plataformas deveriam combater publicações de conteúdos nazista, fascista, homofóbico e antidemocrático “com o mesmo vigor que combatem postagens com nuances de pedofilia, pornografia e infração aos direitos autorais”.

    “Acho que cabe, inclusive, a inversão do ônus da prova. Na dúvida sobre o teor de um conteúdo retirado do ar, o autor deve provar que a publicação está de acordo com as normas vigentes”, afirmou Moraes.

    Eleições 2024

    Sobre o pleito de 2024, os presidente do TREs também pediram que seja garantido pela Justiça Eleitoral o transporte oficial de eleitores para evitar transtornos no dia da votação.

    Também foi informado que serão compradas mais 220 mil urnas eletrônicas para modernização do atual acervo. A eventual obrigatoriedade da biometria para identificação de eleitores e a devolução de servidores requisitados para atuarem no pleito também foram temas discutidos.

    A reunião foi fechada à imprensa, e as informações sobre o encontro foram divulgadas pelo TSE.

    *Com informações do TSE

  • Ministro reforça papel de agências de checagem contra fake news

    Ministro reforça papel de agências de checagem contra fake news

    Lançada na semana passada para combater a disseminação de fake news, a plataforma Brasil contra Fake não pretende substituir as agências profissionais de checagem de notícias, disse nesta quarta-feira (5) o ministro-chefe da Secretaria de Comunicação Social da Presidência da República, Paulo Pimenta. Em entrevista ao programa A Voz do Brasil, ele esclareceu os objetivos da página, no ar desde o fim de março.

    “Esse site do governo não é uma agência de checagem. Ele é um espaço do governo para esclarecimentos à população. Para evitar que a população seja mal informada sobre um decreto, uma lei ou uma política pública. Esse é o objetivo desse site. Ser uma ferramenta importante porque transmite segurança, e as pessoas readquirem a confiança de que uma informação do governo federal é uma informação confiável. É uma fonte importante”, declarou Pimenta.

    Nos últimos dias, a plataforma vinha recebendo críticas de jornalistas ligados a agências de checagem de notícias e de especialistas no combate à desinformação porque a página, segundo eles, se apresentaria como uma agência de checagem de notícias. Segundo os estudiosos, o termo “central de esclarecimentos” seria mais apropriado. Outro ponto criticado foi a falta de explicação para a seleção de conteúdos.

    Atualmente, a página apresenta-se como “um portal de utilidade pública e informações sobre políticas públicas e ações governamentais”, com o objetivo de “esclarecer sobre informações do governo federal”. A plataforma apresenta reportagens produzidas pela Secretaria de Comunicação (Secom) rebatendo notícias falsas que circulam nas redes. O site também fornece orientações aos usuários sobre como denunciar fake news em cada rede social.

    Consequências

    O ministro-chefe da Secom falou sobre algumas consequências das fake news sobre políticas públicas e citou danos sobre a vacinação. “A ministra da Saúde me procurou pela quantidade de informação não verídica circulando nas redes sociais sobre campanha de vacinação. O Brasil já foi uma referência mundial nessa área. Já chegamos a ter 89% de cobertura vacinal no país. Hoje temos menos de 60%”, destacou Pimenta.

    “Doenças como sarampo e a poliomielite, que já tinham sido erradicadas, voltaram a existir. Durante a pandemia de covid, tivemos uma tragédia. Agora já são 700 mil mortes, muitas delas que poderiam ser evitadas não fossem as campanhas de desinformação”, acrescentou.

    Pimenta lembrou que a disseminação de fake news não é um problema exclusivo do Brasil. O ministro justificou a necessidade de uma campanha oficial contra a desinformação, orçada em R$ 20 milhões, dos quais R$ 5,6 milhões estão sendo gastos na primeira fase, que prevê o lançamento da plataforma e anúncios por três meses em televisões, rádios, sites, redes sociais e cinemas.

    “Não é uma situação que envolve só o Brasil. Eu tenho tido a oportunidade de acompanhar muito esse debate a nível internacional. O governo federal acaba sendo uma das vítimas prioritárias de ações criminosas de desinformação e de fake news”, disse Pimenta.

  • Especialistas alertam para falhas na proteção de dados na Internet

    Especialistas alertam para falhas na proteção de dados na Internet

    O Marco Civil da Internet tem sido insuficiente para evitar a propagação das fake news no país, alerta o advogado e professor de Direito Constitucional Antônio Carlos Freitas. Segundo ele, na prática, a norma é eficiente apenas para responsabilizar e informar o autor de um conteúdo a excluir postagem se o Poder Judiciário determinar, não resolvendo a questão sobre o que é ou não opinião.

    No Marco Civil, os provedores somente poderão ser responsabilizados civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não retirarem o conteúdo indesejável.  A norma estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil.

    Segundo a advogada Yasmin Curzi, professora e pesquisadora no Centro de Tecnologia e Sociedade da FGV Direito Rio, os consumidores não são apenas usuários dos serviços oferecidos, mas assumem o papel de fornecedores, no caso do E-commerce.

    Dados pessoais

    Enquanto o Marco Civil da Internet tem a privacidade como um de seus principais pontos, prevendo a segurança de dados online, a Lei Geral de Proteção de Dados Pessoais (LGPD) cria uma regulamentação para o uso, proteção e transferência de dados pessoais no país. A legislação abrange tanto público quanto privado, no meio físico e digital. Sua implementação também visou criar uma segurança jurídica.

    A advogada Yasmin Curzi explica que a LGPD pode ter diversas aplicações em relação às plataformas digitais. Para ela, a mais óbvia é o uso dos dados em fins que não foram reconhecidos nos termos de serviço, quando não a utilização não é comunicada aos usuários. Nesses casos, falta de clareza e transparência podem ser alvo de sanção.

    Curzi citou o caso da Cambridge Analytica, quando os dados de milhares de pessoas tiveram informações pessoais coletadas por meio de um teste psicológico no Facebook. Os dados foram vazados e utilizados sem consentimento. Na semana passada, a Justiça do Maranhão determinou o pagamento de R$ 500 reais a 8 milhões de pessoas atingidas por esse vazamento, aqui no Brasil. Além disso, determinou o pagamento de R$ 72 milhões por danos morais coletivos, valor a ser revertido ao Fundo Estadual de Interesses Difusos. Ainda cabe recurso.

    Em resposta à ação movida pelo Instituto Brasileiro de Defesa das Relações de Consumo do Maranhão, o juiz da Vara de Interesses Difusos e Coletivos da comarca da Ilha de São Luís, Douglas de Melo Martins, destacou normas da LGPD. Entre elas, o dispositivo que prevê que o tratamento de dados pessoais somente pode se dar mediante consentimento do titular e os dados somente poderão ser utilizados para finalidades que justifiquem sua coleta.

    Para o advogado Antônio Carlos Freitas, a LGPD foi muito importante quando impôs certas sanções no caso das plataformas descumprirem decisão judicial. “A lei é eficiente, só falta pegar”, afirma. O advogado acredita que a norma precisa tratar melhor a questão de como a postagem é distribuída.

    Audiência pública

    O tema foi pauta de audiência pública no Supremo Tribunal Federal (STF) que discutiu a responsabilidade de provedores na remoção de conteúdos com desinformação, disseminação de discurso de ódio de forma extrajudicial, sem determinação expressa pela Justiça.

    Nessa quarta-feira (29), ministro Dias Toffoli defendeu a autorregulação das redes sociais como uma das medidas para combater a disseminação de ataques contra a democracia e discursos de ódio.

    Em coletiva após a audiência, Toffoli avaliou que a autorregulação pelas empresas que administram as redes sociais é bem-vinda. Ele citou como exemplo o Conselho Nacional de Autorregulamentação Publicitária (Conar), órgão privado que reúne empresas de publicidade que definem suas regras para veiculação de campanhas. “Uma autorregulação é sempre bem-vinda, porque você deixa para o Judiciário somente as exceções”, disse.

    No primeiro dia de debate, ministros do STF e de Estado se revezaram também defenderam a regulação das redes sociais, com algum grau de responsabilização das empresas que as ofertam ao público.

    De outro lado, advogados de bigtechs como Google e Meta – donas de redes e aplicativos como YouTube, Instagram, Facebook e WhatsApp – contestaram a iniciativa, argumentando que isso não garantirá uma internet mais segura no Brasil. Eles defenderam que um ambiente digital mais saudável poderá ser alcançado com o aprimoramento da autorregulação já existente.

    Edição: Heloisa Cristaldo

  • Ministros do STF e governo defendem redes reguladas; empresas rebatem

    Ministros do STF e governo defendem redes reguladas; empresas rebatem

    Ministros do Supremo Tribunal Federal (STF) e de Estado se revezaram nesta terça-feira (28) em audiência pública na defesa da regulação das redes sociais, com algum grau de responsabilização das empresas que as ofertam ao público.

    De outro lado, advogados de bigtechs como Google e Meta – donas de redes e aplicativos como YouTube, Instagram, Facebook e WhatsApp – contestaram a iniciativa, argumentando que isso não garantirá uma internet mais segura no Brasil. Eles defenderam que um ambiente digital mais saudável poderá ser alcançado com o aprimoramento da autorregulação já existente.

    O tema está sendo debatido em audiência pública convocada pelos ministros Dias Toffoli e Luiz Fux, que são relatores de dois recursos que tratam do uso abusivo das redes sociais e pedem a remoção de conteúdos. “Esse é um tema de interesse de toda a sociedade”, afirmou Fux em sua fala de abertura.

    A questão de fundo dos processos é saber se trechos do Marco Civil da Internet estão de acordo com a Constituição, em especial o Artigo 19 da lei, que trata da remoção de conteúdo mediante ordem judicial. A audiência pública começou nesta terça pela manhã e segue até amanhã (29).

    Na prática, contudo, as discussões englobam também os projetos de lei que tramitam no Congresso para regular as redes sociais e a proteção da democracia no ambiente digital. Tais iniciativas, principalmente o chamado Projeto de Lei (PL) das Fake News, ganharam impulso após os atos golpistas de 8 de janeiro, em Brasília.

    “Creio que é muito importante que o Congresso Nacional, de forma célere, delibere, para que tenhamos parâmetros legais para a atividade de plataformas digitais no Brasil, inspirados nas boas experiências internacionais”, disse o deputado Orlando Silva (PCdoB-SP), relator do projeto de lei, na abertura da audiência.

    Além de ministros do Supremo e de governo, bem como os representantes das plataformas, que também falaram durante a abertura dos trabalhos, está prevista a participação ainda de representantes do Ministério Público, da Associação Nacional de Jornais (ANJ), da Associação Brasileira de Jornalismo Investigativo (Abraji) e da Ordem dos Advogados do Brasil (OAB).

    A íntegra dos debates pode ser acompanhada no canal do STF no YouTube.

    Ministros do Supremo

    Uma das falas mais incisivas durante a manhã foi a do ministro do Supremo Alexandre de Moraes, que é também presidente do Tribunal Superior Eleitoral (TSE) e trabalhou com proximidade junto às plataformas de redes sociais para garantir a segurança das eleições gerais de 2022.

    “Não é possível continuarmos achando que as redes sociais são terra de ninguém, sem responsabilização alguma. Não é possível que só por serem instrumentos, depositárias das comunicações, [as plataformas] não tenham nenhuma responsabilidade”, afirmou o ministro Alexandre de Moraes. “O modelo atual está falido”, completou. 

    Moraes lembrou dos atentados do 8 de janeiro contra as sedes do Três Poderes, em Brasília, que teriam sido coordenados via redes sociais, e disse que foram um resultado da falência de tal modelo. O ministro Luís Roberto Barroso também disse haver consenso a respeito dos problemas das redes, que nos moldes atuais ameaçam democracias e a dignidade de indivíduos, tornando-se “instrumentos do extremismo político”.

    “Todo o mundo democrático está debatendo como lidar com este problema sem afetar com a liberdade de expressão”, disse Barroso.

    Gilmar Mendes, que já vem defendendo publicamente a responsabilização das redes sociais, disse que episódios como os de 8 de janeiro “de alguma forma guardam conexão direta com esse uso abusivo da internet”. “É claro que o sistema jurídico precisa encontrar meios e modos de lidar com essa temática”, acrescentou.

    Ministros de governo

    Em sua vez, o ministro da Justiça e Segurança Pública, Flávio Dino, disse que o governo tem posição “opinativa” no assunto, uma vez que caberá ao Judiciário e ao Legislativo deliberar sobre o tema, mas que muito tem a contribuir a partir de debates internos e que não se furtará em opinar. “Somos pagos para isso”, afirmou.

    Dino abriu seu raciocínio defendendo limites às manifestações nas redes sociais e que isso não é um ataque a direitos fundamentais. “A liberdade de expressão não está em risco quando se regula. Ao contrário, defender a liberdade de expressão é regulá-la”, afirmou ele. Por esse motivo, “não há nada de exótico, ou de heterodoxo ou de pecaminoso, neste tribunal ou no Congresso, em discutir regulação do conteúdo da liberdade de expressão”, acrescentou o ministro.

    Ele disse que o governo possui três frentes de debate internamente, com sugestões de regras ligadas ao direito do consumidor, à responsabilização civil “ponderada e proporcional” das plataformas de redes sociais que permitam abusos, e também questões relativas à transparência e auditabilidade de algoritmos.

    “Não tratamos apenas de modelo de negócios. Nós estamos falando do controle das subjetividades na sociedade, nós estamos falando do controle do espaço publico, e do controle do discurso politico da sociedade, para muito além de hábitos de consumo”, disse Dino.

    O ministro-chefe da Advocacia-Geral da União (AGU), Jorge Messias, fez coro com Dino. “O debate sobre o regime de responsabilidades dos provedores de aplicativos ou ferramentas de internet está absolutamente na ordem do dia. E há uma grande convergência nesse sentido”, destacou.

    O ministro dos Direitos Humanos e da Cidadania, Silvio Almeida, manifestou o mesmo entendimento e destacou ser necessário um trabalho de reorientação e educação midiática em defesa da democracia.

    ”O problema é muito mais complexo do que simplesmente estabelecer regulação ou balizas burocrático-institucionais, nós sabemos disso”, frisou. Ele acrescentou, contudo, ser necessário “assumir essa tarefa de colocar um freio institucional [no abuso das redes], que permita uma reorientação cultural e ideológica de toda a sociedade”.

    Dino e Almeida mencionaram também o ataque ocorrido ontem (27) em uma escola na zona oeste de São Paulo, onde um aluno de 13 anos esfaqueou e matou uma professora de 71 anos, além de ferir outros docentes e colegas. Eles ligaram o acontecimento à liberdade encontrada nas redes para a disseminação de discursos de ódio.

    Plataformas

    Em nome da multinacional de tecnologia Meta – dona de Instagram, Facebook e WhatsApp – o advogado Rodrigo Ruf Martins argumentou ser falsa a ideia de que uma maior responsabilização civil das plataformas vá resultar num ambiente mais seguro para a internet brasileira.

    Ele argumentou que os termos de uso das redes sociais da empresa, por exemplo, já preveem a remoção de conteúdos ligados a crimes como pedofilia e violação de direitos autorais e trouxe números segundo os quais a empresa promove a retirada voluntária de milhões de publicações de suas plataformas, sem que seja necessária nenhuma atuação do Estado.

    O defensor também mencionou a parceria da Meta com o TSE, que resultou na remoção de publicações nocivas ao processo eleitoral, entre outras medidas, e afirmou, com base nos números apresentados, “que não houve omissão da empresa no combate aos conteúdos violadores durante as eleições de 2022 e também no 8 de janeiro”.

    “É preciso deixar muito claro que a integridade é uma parte extremamente relevante do modelo de negócios. Afinal os anunciantes jamais buscariam ligar suas marcas a conteúdos indesejados ou investir em plataformas que permitissem essa espécie de vale-tudo online dentro delas”, afirmou Ruf Martins.

    Ele citou quais seriam algumas das maiores ameaças à internet brasileira, na visão da Meta: a edição de medidas executivas que restrinjam o poder de moderação das plataformas, em nome da liberdade de expressão; projetos legislativos que preveem uma espécie de imunidade para autoridades nas redes; o acúmulo de ações judiciais que pedem a liberação de conteúdos moderados pelas plataformas.

    O advogado-sênior do Google, Guilherme Cardoso Sanches, também ressaltou que a empresa remove milhões de conteúdos anualmente de suas plataformas, sem que para isso seja preciso nenhuma legislação adicional e decisão judicial. “Só no Brasil, em 2022, o YouTube removeu mais de 1 milhão de vídeos que violaram politicas sobre desinformação, discurso de ódio, violência, assédio, segurança infantil, entre outros”, pontuou.

    “Responsabilizar as plataformas como se elas próprias fossem responsáveis pelos conteúdos que elas hospedam levaria a um dever genérico de monitoramento de todo o conteúdo produzido pelas pessoas, desnaturando completamente o ambiente plural da internet”, disse o defensor.

    Entre outros argumentos, Cardoso Sanches acrescentou que a atuação do Judiciário se faz necessária em casos limítrofes, em que haja dúvida a respeito da legalidade do conteúdo. Para o Google, criar leis e regras adicionais levará, na prática, não a uma maior celeridade na remoção de conteúdo, pelo contrário, pois restringirá a liberdade de autorregulação das plataformas.

    “Além de ser o certo a fazer, agir responsavelmente faz bem para os negócios“, afirmou o advogado. “Conteúdos ilícitos e danosos não nos trazem reais benefícios econômicos. Na verdade sabemos que esse tipo de conteúdo corrói a confiança das pessoas, do público e dos anunciantes. Por conta disso que nós dedicamos tempo e recursos consideráveis para minimizar esse tipo de conteúdo em nossas plataformas”, acrescentou.

    Edição: Juliana Andrade