Tag: Marco Civil da Internet

  • Marco Civil da Internet: 11 anos garantindo direitos e moldando o futuro digital

    Marco Civil da Internet: 11 anos garantindo direitos e moldando o futuro digital

    Instituído pela Lei nº 12.965, sancionada em 23 de abril de 2014, o Marco Civil da Internet (MCI) estabelece princípios, garantias, direitos e deveres para o uso da internet no Brasil. Reconhecido como a “Constituição da Internet” brasileira, o MCI é um dos marcos regulatórios mais inovadores da era digital. Seu texto foi construído por meio de um processo democrático e participativo, em resposta à necessidade de criar um ambiente online mais seguro, plural e transparente. O objetivo central é assegurar direitos fundamentais aos usuários e orientar a atuação do Estado na promoção da cidadania digital.

    Contexto Histórico

    Antes da promulgação do Marco Civil, o Brasil carecia de uma legislação específica para regular o uso da internet. Questões como invasão de privacidade, proteção de dados pessoais e liberdade de expressão eram garantidas de forma dispersa ou mesmo implícita, com base principalmente em interpretações da Constituição Federal e de princípios gerais do ordenamento jurídico. A crescente complexidade do ambiente digital, impulsionada pelo avanço exponencial da internet, evidenciou a necessidade de um marco regulatório específico.

    A construção do MCI teve início em 2009, por meio de um debate público promovido pelo Ministério da Justiça e pelo Comitê Gestor da Internet (CGI.br). Esse processo de construção legislativa permitiu que a lei refletisse o interesse coletivo, tornando-se referência internacional.

    Princípios Fundamentais

    O Marco Civil estabelece princípios essenciais para o uso da internet no país, entre os quais se destacam:

    • Neutralidade da Rede: Garante que todos os dados trafeguem na internet sem discriminação, preservando a isonomia no tratamento das informações.

    • Liberdade de Expressão: Assegura o direito dos usuários de se manifestarem livremente no ambiente digital, sem censura prévia.

    • Proteção da Privacidade e dos Dados Pessoais: Estabelece diretrizes para a coleta, uso, armazenamento e tratamento de dados pessoais, visando à proteção da intimidade dos usuários.

    • Inimputabilidade da Rede: Reconhece a internet como um espaço livre, no qual os provedores de conexão não são responsabilizados pelo conteúdo gerado por terceiros.

    Responsabilidades dos Provedores

    O Marco Civil da Internet estabelece de forma distinta as responsabilidades dos provedores de conexão e dos provedores de aplicações. Os primeiros não respondem civilmente por danos decorrentes de conteúdos gerados por terceiros. Já os provedores de aplicações só podem ser responsabilizados caso, após o recebimento de uma ordem judicial específica, deixem de adotar as medidas necessárias para remover o conteúdo apontado como infringente.

    No entanto, debates no Supremo Tribunal Federal (STF) sobre o artigo 19 podem redefinir a responsabilidade das plataformas. O modelo atualmente vigente protege a liberdade de expressão e evita a censura privada, mas está sendo questionado em ações que visam a ampliação da responsabilidade dessas empresas.

    A revisão do artigo 19 tem gerado controvérsias. Por um lado, o modelo atual impõe obstáculos ao combate à desinformação e ao discurso de ódio; por outro, eventuais mudanças podem resultar em remoções preventivas excessivas, restringindo o debate público e comprometendo o acesso à informação.

    O Serpro, como empresa pública estratégica na área de TI do Governo Federal, está alinhado aos princípios do Marco Civil da Internet. Suas soluções tecnológicas seguem os pilares de privacidade, segurança e neutralidade da rede, assegurando que seus serviços atendam às exigências legais e promovam uma internet mais segura e democrática para a sociedade. A empresa tem um papel essencial na proteção de dados governamentais e na inovação digital, impulsionando a transformação digital do país e fazendo a diferença na vida das pessoas.

    Impacto e Relevância

    Desde sua implementação, o Marco Civil da Internet tem sido fundamental para a construção de um ambiente digital mais seguro e democrático no Brasil. Ao estabelecer diretrizes claras, a lei promove a confiança dos usuários na utilização da internet, incentiva a inovação e assegura a proteção dos direitos fundamentais no ambiente online.

    Os dispositivos previstos no Marco Civil da Internet (MCI), especialmente aqueles voltados à proteção da privacidade e dos dados pessoais — que garantem maior controle dos usuários sobre suas informações —, assim como as regras sobre guarda de registros eletrônicos, constituem instrumentos fundamentais no enfrentamento às fraudes cibernéticas.

    Esses dispositivos dificultam a atuação de golpistas que manipulam dados para aplicar fraudes e viabilizam a rastreabilidade técnica das ações praticadas no ambiente digital. Dessa forma, permitem que as autoridades investiguem crimes cometidos na internet, identifiquem os autores e responsabilizem os envolvidos, sempre com respeito à privacidade e aos direitos dos usuários.

    Em conclusão, à medida que celebramos mais um aniversário dessa legislação pioneira, é essencial reconhecer sua importância contínua na promoção de uma internet livre, aberta e acessível a todos os brasileiros, conscientes de que as decisões tomadas hoje sobre a governança da internet, sobretudo referentes a responsabilização dos provedores, terão impactos profundos no futuro da democracia digital no Brasil.

    Sobre os autores

    Este artigo foi elaborado pelo Departamento de Governança para o Combate à Fraude Cibernética do Serpro, como parte de suas ações de sensibilização e conscientização sobre os desafios da segurança digital e da integridade no ambiente online, reforçando o compromisso da empresa com a construção de um ecossistema digital mais seguro, transparente e confiável para toda a sociedade.

  • STF retoma julgamento sobre responsabilização de redes sociais

    STF retoma julgamento sobre responsabilização de redes sociais

    O Supremo Tribunal Federal (STF) retoma nesta quarta-feira (18) o julgamento sobre a responsabilização civil das redes sociais pelos conteúdos ilegais postados pelos usuários. Até o momento, o placar do caso é de 2 votos a 0 pela responsabilização das plataformas.

    O julgamento começou no dia 27 de novembro e se estende por seis sessões consecutivas. Na sessão de hoje, o presidente da Corte, Luís Roberto Barroso, vai ler seu voto sobre a questão.

    O Supremo julga a constitucionalidade do Artigo 19 do Marco Civil da Internet (Lei 12.965/2014), norma que estabeleceu os direitos e deveres para o uso da internet no Brasil.

    De acordo com o Artigo 19, “com o intuito de assegurar a liberdade de expressão e impedir a censura”, as plataformas só podem ser responsabilizadas pelas postagens de seus usuários se, após ordem judicial, não tomarem providências para retirar o conteúdo.

    Os ministros Dias Toffoli e Luiz Fux já votaram a favor da responsabilização. De acordo com os ministros, as plataformas devem retirar, após notificação extrajudicial, conteúdos considerados ilegais, como mensagens com ataques à democracia, incitação à violência, racismo, entre outras.

    Se o entendimento prevalecer, as redes sociais deverão retirar os conteúdos após serem notificadas diretamente pelos citados nas postagens, ou seja, sem aguardar uma decisão da Justiça.

    Faltam os votos de nove ministros. A expectativa é de que o julgamento não seja concluído neste ano. Devido ao período de recesso, que começa em 20 de dezembro, o julgamento deve ser retomado em 2025.

    Nas primeiras sessões do julgamento, representantes das redes sociais defenderam a manutenção da responsabilidade somente após o descumprimento de decisão judicial, como ocorre atualmente. As redes socais sustentaram que já realizam a retirada de conteúdos ilegais de forma extrajudicial e que o eventual monitoramento prévio configuraria censura.

    Entenda

    O plenário do STF julga dois processos que discutem a constitucionalidade do Artigo 19 do Marco Civil da Internet.

    Na ação relatada pelo ministro Dias Toffoli, o tribunal julga a validade da regra que exige ordem judicial prévia para responsabilização dos provedores por atos ilícitos. O caso trata de um recurso do Facebook para derrubar decisão judicial que condenou a plataforma por danos morais pela criação de perfil falso de um usuário.

    No processo relatado pelo ministro Luiz Fux, o STF discute se uma empresa que hospeda um site na internet deve fiscalizar conteúdos ofensivos e retirá-los do ar sem intervenção judicial. O recurso foi protocolado pelo Google.

  • Voto de Toffoli responsabiliza redes por conteúdos ilegais de usuários

    Voto de Toffoli responsabiliza redes por conteúdos ilegais de usuários

    O ministro do Supremo Tribunal Federal (STF) Dias Toffoli votou nesta quinta-feira (5) para responsabilizar as redes sociais pelos conteúdos ilegais postados pelos usuários. Toffoli é relator de uma das ações que estão sendo julgadas pela Corte.

    Em sua manifestação, Toffoli considerou inconstitucional a atual regra que rege a responsabilização civil das plataformas. Com o entendimento, as redes se tornam obrigadas a retirar o conteúdo ilegal de forma imediata, sem esperar por uma ordem judicial.

    Se mantiverem as postagens, podem ser responsabilizadas pela Justiça pelos danos causados pela manutenção das mensagens de seus usuários. A possibilidade de punição também vale para o impulsionamento de postagens ilegais e no caso de criação de perfis falsos.

    O ministro definiu como ilegais postagens que envolvem crimes contra o Estado Democrático de Direito, terrorismo, suicídio, racismo, violência contra mulher, crianças e adolescentes, infração sanitária, tráfico de pessoas, incitação de violência física e sexual, divulgação de fatos inverídicos e descontextualizados e divulgação de fatos notoriamente inverídicos que possam causar danos às eleições.

    Toffoli entendeu que o Artigo 19 do Marco Civil da Internet é inconstitucional e deu imunidade para as redes sociais. Dessa forma, segundo o ministro, deve ser aplicado de forma geral o Artigo 21, que previu a responsabilidade direta para os casos de danos à intimidade, à honra e à vida privada.

    “Não tem como não estabelecermos hipóteses de responsabilidade objetiva. O 8 de janeiro [atos golpistas] mostra isso, novembro passado [atentado do homem-bomba] mostra isso”, disse Toffoli.

    Pelo Artigo 19, “com o intuito de assegurar a liberdade de expressão e impedir a censura”, as plataformas só podem ser responsabilizadas pelas postagens de seus usuários se, após ordem judicial, não tomarem providências para retirar o conteúdo.

    Em seu voto, Toffoli também definiu que as regras de retirada imediata de conteúdo não se aplicam aos provedores de serviços de e-mail, aplicativos de reuniões fechadas online e provedores de mensageria privada (quando não forem usados como redes sociais).

    No caso de plataformas de marketplace, a responsabilização direta e solidária com os anunciantes ocorrerá no caso de venda de produtos proibidos, como TV box, medicamentos e agrotóxicos sem autorização legal.

    A retirada de conteúdo considerado ilegal antes de decisão judicial não atinge blogs e sites jornalísticos.

    Pelo voto do relator, o cumprimento da decisão da Corte será acompanhado pelo Departamento de Acompanhamento da Internet no Brasil (DAI), órgão que será criado e funcionará no Conselho Nacional de Justiça (CNJ).

    O ministro também deu prazo de 18 meses para o Congresso aprovar uma lei para enfrentamento da violência digital e a desinformação.

    Após o voto do ministro, a sessão foi suspensa e será retomada na quarta-feira (11). Faltam os votos de dez ministros.

    Entenda

    O plenário do STF julga dois processos que discutem a constitucionalidade do Artigo 19 do Marco Civil da Internet.

    Na ação relatada pelo ministro Dias Toffoli, o tribunal julga a validade da regra que exige ordem judicial prévia para responsabilização dos provedores por atos ilícitos. O caso trata de um recurso do Facebook para derrubar uma decisão judicial que condenou a plataforma por danos morais pela criação de um perfil falso de um usuário.

    No processo relatado pelo ministro Luiz Fux, o STF discute se uma empresa que hospeda um site na internet deve fiscalizar conteúdos ofensivos e retirá-los do ar sem intervenção judicial. O recurso foi protocolado pelo Google.

    Na semana passada, nos primeiros dias do julgamento, representantes das redes sociais defenderam a manutenção da responsabilidade somente após o descumprimento de decisão judicial, como ocorre atualmente. As redes socais sustentaram que já realizam a retirada de conteúdos ilegais de forma extrajudicial e que o eventual monitoramento prévio configuraria censura.

  • STF retoma julgamento que pode punir redes por conteúdos de usuários

    STF retoma julgamento que pode punir redes por conteúdos de usuários

    O Supremo Tribunal Federal (STF) retomou na tarde desta quinta-feira (28) o julgamento dos processos que tratam da responsabilidade de empresas que operam as redes sociais sobre conteúdo postado pelos usuários.

    Ontem (27), no primeiro dia do julgamento, a Corte ouviu as sustentações dos advogados das redes sociais. Eles defenderam a validade do Marco Civil da Internet e o dispositivo que não prevê responsabilizar diretamente as plataformas.

    Na sessão desta quinta-feira, serão encerradas as sustentações das partes. Está prevista a leitura do parecer da Procuradoria-Geral da República (PGR) e o início da votação.

    A principal questão discutida no julgamento é a constitucionalidade do Artigo 19 do Marco Civil da Internet (Lei 12.965/2014), norma que estabeleceu os direitos e deveres para o uso da internet no Brasil.

    De acordo com o dispositivo, “com o intuito de assegurar a liberdade de expressão e impedir a censura”, as plataformas só podem ser responsabilizadas por conteúdos ilegais postados por seus usuários se, após ordem judicial, não tomar providências para retirar a postagem.

    Entenda

    O plenário do STF julga quatro processos que discutem a constitucionalidade do Artigo 19 do Marco Civil da Internet.

    Na ação relatada pelo ministro Dias Toffoli, o tribunal vai julgar a validade da regra que exige ordem judicial prévia para responsabilizar os provedores por atos ilícitos. O caso trata de um recurso do Facebook para derrubar uma decisão judicial que condenou a plataforma por danos morais pela criação de um perfil falso de um usuário.

    No processo relatado pelo ministro Luiz Fux, o STF discute se uma empresa que hospeda site na internet deve fiscalizar conteúdos ofensivos e retirá-los do ar sem intervenção judicial. O recurso foi protocolado pelo Google.

    A ação relatada por Edson Fachin discute a legalidade do bloqueio do aplicativo de mensagens WhatsApp por decisões judiciais e chegou à Corte por meio de um processo movido por partidos políticos.

    A quarta ação analisada trata da suspensão do funcionamento de aplicativos diante do descumprimento de decisões judiciais que determinam a quebra do sigilo em investigações criminais.

  • STF pode julgar em novembro ações sobre retirada de conteúdo digital

    STF pode julgar em novembro ações sobre retirada de conteúdo digital

    Três ações que tratam da responsabilidade de provedores na remoção de conteúdos com desinformação, disseminação de discurso de ódio de forma extrajudicial, sem determinação expressa pela Justiça, poder ser jugadas, em novembro, pelo Supremo Tribunal Federal (STF).

    Os ministros Luiz Fux, Edson Fachin e Dias Toffoli liberaram nesta sexta-feira (23) para julgamento os processos que relatam sobre a matéria. Os relatores pediram ao presidente do STF, Luís Roberto Barroso, que os casos sejam analisados pela Corte em novembro. Caberá ao presidente definir a data do julgamento.

    No caso da ação relatada por Dias Toffoli, o Tribunal vai julgar a constitucionalidade da regra do Marco Civil da Internet (Lei 12.965/2014) que exige ordem judicial prévia para responsabilização dos provedores por atos ilícitos.

    No processo relatado pelo ministro Fux, o STF vai discutir se uma empresa que hospeda site na internet deve fiscalizar conteúdos ofensivos e retirá-los do ar sem intervenção judicial.

    A ação relatada por Fachin discute a legalidade do bloqueio do aplicativo de mensagens WhatsApp por decisões judiciais.

    No ano passado, o Supremo realizou uma audiência pública para discutir as regras do Marco Civil da Internet.

    O objetivo foi ouvir especialistas e representantes do setor público e da sociedade civil para obter informações técnicas, econômicas e jurídicas antes de julgar a questão.

    Edição: Aécio Amado

    — news —

  • “A misoginia dá lucro”, denuncia Ministério das Mulheres em audiência no STF

    “A misoginia dá lucro”, denuncia Ministério das Mulheres em audiência no STF

    A assessora especial do Ministério das Mulheres (MMulheres), advogada Ísis Menezes Táboas, defendeu a necessidade de garantir mecanismos de enfrentamento à violência contra as mulheres nas plataformas digitais. Ela representou a pasta na audiência pública convocada pelo Supremo Tribunal Federal (STF), nesta terça-feira (28/3), para debater o Marco Civil da Internet (MCI). Para Táboas, o enfrentamento à misoginia deve ser central nos debates sobre as regras do MCI que legislam sobre a responsabilidade de provedores de aplicativos — ou de ferramentas de internet — pelo conteúdo gerado por usuários, bem como sobre a possibilidade de remoção de conteúdos que possam ofender direitos, incitar o ódio ou difundir notícias fraudulentas.

    Em seu discurso, Táboas destacou que a pasta vem acompanhando com extrema preocupação a discussão sobre a chamada “machosfera”, onde “a misoginia reina” em discursos de ódio propagados por “influenciadores de masculinidade”. Além de trechos de falas misóginas, a assessora do MMulheres apresentou exemplos de mensagens que circularam livremente por tempo considerável, de forma anônima, até que fossem removidas pelas plataformas. “Esses conteúdos são graves violações aos direitos humanos e políticos das mulheres, e, embora pertencentes ao meio virtual, repercutem sobremaneira na vida concreta, material, politica, profissional e pessoal de incontáveis mulheres”, ressaltou.

    Além de denunciar a omissão das redes sociais digitais — diante de violações sistemáticas aos direitos humanos e políticos das mulheres — Táboas denunciou que as plataformas que hospedam contas ou canais de organizações misóginas lucram com essa prática. Em sua fala, apontou um estudo realizado pela agência de checagem Aos Fatos, que analisou 80 canais do tipo no YouTube: “35 são monetizados pela própria plataforma e outros 36 utilizam diferentes estratégias, como vendas de cursos e de e-books para lucrar. Ou seja, a misoginia dá lucro”, denunciou.

  • PL das Fake News: Câmara discute limites para empresas de tecnologia

    PL das Fake News: Câmara discute limites para empresas de tecnologia

    A criminalização das fake news (notícias falsas), a exigência de que empresas de tecnologia tenham sede no Brasil e a proibição de disparos em massa nos aplicativos de mensagens estão entre os principais pontos do Projeto de Lei das Fake News (PL 2630). O tema foi debatido em audiência pública no Supremo Tribunal Federal (STF) nesta semana.

    Em meio a muita polêmica, deputados e senadores têm o desafio de avançar na discussão da proposta. Depois de aprovado no Senado, em junho de 2020, o texto mudou quase completamente, e está parado desde abril do ano passado na Câmara dos Deputados.

    Na discussão com os deputados, ainda no ano passado, a proposta sofreu uma derrota importante. Por apenas oito votos, a proposta não alcançou os 257 votos necessários para ter a tramitação acelerada e voltou ao estágio em que precisa transitar por comissões ou grupo de trabalho específico. Um novo pedido de urgência deve ser pautado pelo presidente da Casa, Arthur Lira (PP-AL).

    O projeto prevê a transparência de redes sociais e de serviços de mensagens privadas, sobretudo quanto à responsabilidade dos provedores no combate à desinformação. O texto também determina o aumento da transparência em relação a conteúdos patrocinados e à atuação do poder público. Além disso, estabelece sanções para eventuais descumprimentos da lei. A previsão do relator da proposta na Câmara, deputado Orlando Silva (PCdoB-SP), é que a votação do PL ocorra ainda este semestre.

    Para o deputado, o caminho pode ser a responsabilização da plataforma, quando houver publicidade e impulsionamento. “Uma coisa é alguém publicar algo na rede social, uma ideia. Aí, as plataformas falam que é liberdade de expressão. Se não for conteúdo ilegal, não há problema. Mas, se for publicada uma fake news paga em uma empresa, e essa empresa projetar isso em um alcance que aquilo nunca teria, é outra coisa. As empresas não podem ser sócias da propagação de desinformação, fake news e discurso de ódio. Sempre que houver impulsionamento, patrocínio e ganhos, a plataforma precisa assumir a sua responsabilidade”, afirmou em entrevista ao programa Sem Censura, da TV Brasil.

    Big techs

    Segundo o advogado e professor de Direito Constitucional Antônio Carlos Freitas Junior, membro da comissão de regulamentação e mídias sociais no Instituto de Advogados de São Paulo, o século 21 exige o debate sobre a regulamentação, principalmente em relação às big techs, grandes empresas de tecnologia que dominam o mercado.

    Freitas Junior ressaltou que pesquisas recentes mostram como essas empresas conseguem, através da distribuição de postagem e seus algoritmos, interferir no comportamento eleitoral. “Em algum momento, uma autoridade, até mesmo mundial, e os países vão ter que se debruçar para limitar a atuação livre e desimpedida das big techs”, disse.

    No projeto, está previsto que as plataformas guardarem, pelo prazo de três meses, os registros dos envios de mensagens encaminhadas em massa. O acesso a essas informações ocorrerá por ordem judicial, quando houver investigação penal sobre o conteúdo ilegal.

    Yasmin Curzi, pesquisadora da FGV Direito Rio, avalia que o mecanismo presente no projeto de lei é o de rastreabilidade pautada no processo penal, ou seja, com ordem judicial específica e por isso, não vê necessidade de atualização.

    A pesquisadora afirmou que o projeto traz obrigação de relatórios diversos, direitos e a possibilidade para usuários recorrerem das decisões das empresas. A medida busca reduzir a assimetria de informação e poder na relação entre plataforma e usuários.

    Educação para evitar fake news

    Para Maria Helena Weber, coordenadora do Observatório da Comunicação, a propagação de notícias falsas está diretamente ligada ao fato de que as pessoas não entendem o poder dessa comunicação. Segundo ela, em geral, a mensagem é enviada por alguém fundamental na vida da pessoa, que, em tese, não contaria uma mentira. No caso, um amigo ou parente.

    Weber defende o processo educativo, que leve as pessoas a entenderem melhor seu papel sobre a propagação de notícias e não que as tornem menos vulneráveis ao abuso digital.

    Na avaliação da coordenadora, o grande desafio é sobre o que fazer para que a realidade não seja deturpada e a verdade seja o ponto principal sobre a divulgação.

    “Nós acompanhamos, seja no Brexit [saída do Reino Unido da União Europeia], seja com o [ex-presidente norte-americano Donald] Trump e principalmente no Brasil, com a eleição de [Jair] Bolsonaro, por exemplo, descobrimos o poder que tem essas plataformas e o poder da circulação de notícias no campo da política. Então, [é necessário] recuperar a força do que é verdadeiro e do que é real.”

    João Brant, secretário de Políticas Digitais do governo federal, avaliou que o maior desafio para regular o setor é o equilíbrio de direitos. Como, ao mesmo tempo, preservar a liberdade de expressão, a privacidade, a proteção de dados do usuário, mas impedir a desinformação, o discurso de ódio, a violação de direitos da criança e do adolescente, além de impedir golpes e fraudes.

    Audiências públicas

    No começo deste mês, o Tribunal Superior Eleitoral (TSE) anunciou a criação de um grupo de trabalho em parceria com as plataformas digitais e redes sociais para apresentar propostas ao Congresso Nacional. O Poder Executivo também deve encaminhar sugestões.

    Jade Percassi, do Instituto Palavra Aberta, defende a Educação Midiática como essencial em tempos de revolução digital.

    “Somos nós os indivíduos que compartilhamos, que engajamos conteúdos bons ou ruins, que passamos para frente desinformação. Todos nós somos responsáveis por aquilo que a gente posta, por aquilo que a gente compartilha, por aquilo que a gente divide nesse ambiente”, conclui.

    Nessa semana, durante dois dias, o STF debateu o Marco Civil da Internet. A audiência pública foi convocada pelos ministros Dias Toffoli e Luiz Fux, relatores de ações que discutem a responsabilidade de provedores de aplicativos ou de ferramentas de internet sobre discursos de ódio e fake news. Foram ouvidos representantes da sociedade civil, dos operadores do direito e das partes do processo.

    *Colaborou Michelle Moreira 

    Edição: Heloisa Cristaldo

  • Especialistas alertam para falhas na proteção de dados na Internet

    Especialistas alertam para falhas na proteção de dados na Internet

    O Marco Civil da Internet tem sido insuficiente para evitar a propagação das fake news no país, alerta o advogado e professor de Direito Constitucional Antônio Carlos Freitas. Segundo ele, na prática, a norma é eficiente apenas para responsabilizar e informar o autor de um conteúdo a excluir postagem se o Poder Judiciário determinar, não resolvendo a questão sobre o que é ou não opinião.

    No Marco Civil, os provedores somente poderão ser responsabilizados civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não retirarem o conteúdo indesejável.  A norma estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil.

    Segundo a advogada Yasmin Curzi, professora e pesquisadora no Centro de Tecnologia e Sociedade da FGV Direito Rio, os consumidores não são apenas usuários dos serviços oferecidos, mas assumem o papel de fornecedores, no caso do E-commerce.

    Dados pessoais

    Enquanto o Marco Civil da Internet tem a privacidade como um de seus principais pontos, prevendo a segurança de dados online, a Lei Geral de Proteção de Dados Pessoais (LGPD) cria uma regulamentação para o uso, proteção e transferência de dados pessoais no país. A legislação abrange tanto público quanto privado, no meio físico e digital. Sua implementação também visou criar uma segurança jurídica.

    A advogada Yasmin Curzi explica que a LGPD pode ter diversas aplicações em relação às plataformas digitais. Para ela, a mais óbvia é o uso dos dados em fins que não foram reconhecidos nos termos de serviço, quando não a utilização não é comunicada aos usuários. Nesses casos, falta de clareza e transparência podem ser alvo de sanção.

    Curzi citou o caso da Cambridge Analytica, quando os dados de milhares de pessoas tiveram informações pessoais coletadas por meio de um teste psicológico no Facebook. Os dados foram vazados e utilizados sem consentimento. Na semana passada, a Justiça do Maranhão determinou o pagamento de R$ 500 reais a 8 milhões de pessoas atingidas por esse vazamento, aqui no Brasil. Além disso, determinou o pagamento de R$ 72 milhões por danos morais coletivos, valor a ser revertido ao Fundo Estadual de Interesses Difusos. Ainda cabe recurso.

    Em resposta à ação movida pelo Instituto Brasileiro de Defesa das Relações de Consumo do Maranhão, o juiz da Vara de Interesses Difusos e Coletivos da comarca da Ilha de São Luís, Douglas de Melo Martins, destacou normas da LGPD. Entre elas, o dispositivo que prevê que o tratamento de dados pessoais somente pode se dar mediante consentimento do titular e os dados somente poderão ser utilizados para finalidades que justifiquem sua coleta.

    Para o advogado Antônio Carlos Freitas, a LGPD foi muito importante quando impôs certas sanções no caso das plataformas descumprirem decisão judicial. “A lei é eficiente, só falta pegar”, afirma. O advogado acredita que a norma precisa tratar melhor a questão de como a postagem é distribuída.

    Audiência pública

    O tema foi pauta de audiência pública no Supremo Tribunal Federal (STF) que discutiu a responsabilidade de provedores na remoção de conteúdos com desinformação, disseminação de discurso de ódio de forma extrajudicial, sem determinação expressa pela Justiça.

    Nessa quarta-feira (29), ministro Dias Toffoli defendeu a autorregulação das redes sociais como uma das medidas para combater a disseminação de ataques contra a democracia e discursos de ódio.

    Em coletiva após a audiência, Toffoli avaliou que a autorregulação pelas empresas que administram as redes sociais é bem-vinda. Ele citou como exemplo o Conselho Nacional de Autorregulamentação Publicitária (Conar), órgão privado que reúne empresas de publicidade que definem suas regras para veiculação de campanhas. “Uma autorregulação é sempre bem-vinda, porque você deixa para o Judiciário somente as exceções”, disse.

    No primeiro dia de debate, ministros do STF e de Estado se revezaram também defenderam a regulação das redes sociais, com algum grau de responsabilização das empresas que as ofertam ao público.

    De outro lado, advogados de bigtechs como Google e Meta – donas de redes e aplicativos como YouTube, Instagram, Facebook e WhatsApp – contestaram a iniciativa, argumentando que isso não garantirá uma internet mais segura no Brasil. Eles defenderam que um ambiente digital mais saudável poderá ser alcançado com o aprimoramento da autorregulação já existente.

    Edição: Heloisa Cristaldo

  • Ministros do STF e governo defendem redes reguladas; empresas rebatem

    Ministros do STF e governo defendem redes reguladas; empresas rebatem

    Ministros do Supremo Tribunal Federal (STF) e de Estado se revezaram nesta terça-feira (28) em audiência pública na defesa da regulação das redes sociais, com algum grau de responsabilização das empresas que as ofertam ao público.

    De outro lado, advogados de bigtechs como Google e Meta – donas de redes e aplicativos como YouTube, Instagram, Facebook e WhatsApp – contestaram a iniciativa, argumentando que isso não garantirá uma internet mais segura no Brasil. Eles defenderam que um ambiente digital mais saudável poderá ser alcançado com o aprimoramento da autorregulação já existente.

    O tema está sendo debatido em audiência pública convocada pelos ministros Dias Toffoli e Luiz Fux, que são relatores de dois recursos que tratam do uso abusivo das redes sociais e pedem a remoção de conteúdos. “Esse é um tema de interesse de toda a sociedade”, afirmou Fux em sua fala de abertura.

    A questão de fundo dos processos é saber se trechos do Marco Civil da Internet estão de acordo com a Constituição, em especial o Artigo 19 da lei, que trata da remoção de conteúdo mediante ordem judicial. A audiência pública começou nesta terça pela manhã e segue até amanhã (29).

    Na prática, contudo, as discussões englobam também os projetos de lei que tramitam no Congresso para regular as redes sociais e a proteção da democracia no ambiente digital. Tais iniciativas, principalmente o chamado Projeto de Lei (PL) das Fake News, ganharam impulso após os atos golpistas de 8 de janeiro, em Brasília.

    “Creio que é muito importante que o Congresso Nacional, de forma célere, delibere, para que tenhamos parâmetros legais para a atividade de plataformas digitais no Brasil, inspirados nas boas experiências internacionais”, disse o deputado Orlando Silva (PCdoB-SP), relator do projeto de lei, na abertura da audiência.

    Além de ministros do Supremo e de governo, bem como os representantes das plataformas, que também falaram durante a abertura dos trabalhos, está prevista a participação ainda de representantes do Ministério Público, da Associação Nacional de Jornais (ANJ), da Associação Brasileira de Jornalismo Investigativo (Abraji) e da Ordem dos Advogados do Brasil (OAB).

    A íntegra dos debates pode ser acompanhada no canal do STF no YouTube.

    Ministros do Supremo

    Uma das falas mais incisivas durante a manhã foi a do ministro do Supremo Alexandre de Moraes, que é também presidente do Tribunal Superior Eleitoral (TSE) e trabalhou com proximidade junto às plataformas de redes sociais para garantir a segurança das eleições gerais de 2022.

    “Não é possível continuarmos achando que as redes sociais são terra de ninguém, sem responsabilização alguma. Não é possível que só por serem instrumentos, depositárias das comunicações, [as plataformas] não tenham nenhuma responsabilidade”, afirmou o ministro Alexandre de Moraes. “O modelo atual está falido”, completou. 

    Moraes lembrou dos atentados do 8 de janeiro contra as sedes do Três Poderes, em Brasília, que teriam sido coordenados via redes sociais, e disse que foram um resultado da falência de tal modelo. O ministro Luís Roberto Barroso também disse haver consenso a respeito dos problemas das redes, que nos moldes atuais ameaçam democracias e a dignidade de indivíduos, tornando-se “instrumentos do extremismo político”.

    “Todo o mundo democrático está debatendo como lidar com este problema sem afetar com a liberdade de expressão”, disse Barroso.

    Gilmar Mendes, que já vem defendendo publicamente a responsabilização das redes sociais, disse que episódios como os de 8 de janeiro “de alguma forma guardam conexão direta com esse uso abusivo da internet”. “É claro que o sistema jurídico precisa encontrar meios e modos de lidar com essa temática”, acrescentou.

    Ministros de governo

    Em sua vez, o ministro da Justiça e Segurança Pública, Flávio Dino, disse que o governo tem posição “opinativa” no assunto, uma vez que caberá ao Judiciário e ao Legislativo deliberar sobre o tema, mas que muito tem a contribuir a partir de debates internos e que não se furtará em opinar. “Somos pagos para isso”, afirmou.

    Dino abriu seu raciocínio defendendo limites às manifestações nas redes sociais e que isso não é um ataque a direitos fundamentais. “A liberdade de expressão não está em risco quando se regula. Ao contrário, defender a liberdade de expressão é regulá-la”, afirmou ele. Por esse motivo, “não há nada de exótico, ou de heterodoxo ou de pecaminoso, neste tribunal ou no Congresso, em discutir regulação do conteúdo da liberdade de expressão”, acrescentou o ministro.

    Ele disse que o governo possui três frentes de debate internamente, com sugestões de regras ligadas ao direito do consumidor, à responsabilização civil “ponderada e proporcional” das plataformas de redes sociais que permitam abusos, e também questões relativas à transparência e auditabilidade de algoritmos.

    “Não tratamos apenas de modelo de negócios. Nós estamos falando do controle das subjetividades na sociedade, nós estamos falando do controle do espaço publico, e do controle do discurso politico da sociedade, para muito além de hábitos de consumo”, disse Dino.

    O ministro-chefe da Advocacia-Geral da União (AGU), Jorge Messias, fez coro com Dino. “O debate sobre o regime de responsabilidades dos provedores de aplicativos ou ferramentas de internet está absolutamente na ordem do dia. E há uma grande convergência nesse sentido”, destacou.

    O ministro dos Direitos Humanos e da Cidadania, Silvio Almeida, manifestou o mesmo entendimento e destacou ser necessário um trabalho de reorientação e educação midiática em defesa da democracia.

    ”O problema é muito mais complexo do que simplesmente estabelecer regulação ou balizas burocrático-institucionais, nós sabemos disso”, frisou. Ele acrescentou, contudo, ser necessário “assumir essa tarefa de colocar um freio institucional [no abuso das redes], que permita uma reorientação cultural e ideológica de toda a sociedade”.

    Dino e Almeida mencionaram também o ataque ocorrido ontem (27) em uma escola na zona oeste de São Paulo, onde um aluno de 13 anos esfaqueou e matou uma professora de 71 anos, além de ferir outros docentes e colegas. Eles ligaram o acontecimento à liberdade encontrada nas redes para a disseminação de discursos de ódio.

    Plataformas

    Em nome da multinacional de tecnologia Meta – dona de Instagram, Facebook e WhatsApp – o advogado Rodrigo Ruf Martins argumentou ser falsa a ideia de que uma maior responsabilização civil das plataformas vá resultar num ambiente mais seguro para a internet brasileira.

    Ele argumentou que os termos de uso das redes sociais da empresa, por exemplo, já preveem a remoção de conteúdos ligados a crimes como pedofilia e violação de direitos autorais e trouxe números segundo os quais a empresa promove a retirada voluntária de milhões de publicações de suas plataformas, sem que seja necessária nenhuma atuação do Estado.

    O defensor também mencionou a parceria da Meta com o TSE, que resultou na remoção de publicações nocivas ao processo eleitoral, entre outras medidas, e afirmou, com base nos números apresentados, “que não houve omissão da empresa no combate aos conteúdos violadores durante as eleições de 2022 e também no 8 de janeiro”.

    “É preciso deixar muito claro que a integridade é uma parte extremamente relevante do modelo de negócios. Afinal os anunciantes jamais buscariam ligar suas marcas a conteúdos indesejados ou investir em plataformas que permitissem essa espécie de vale-tudo online dentro delas”, afirmou Ruf Martins.

    Ele citou quais seriam algumas das maiores ameaças à internet brasileira, na visão da Meta: a edição de medidas executivas que restrinjam o poder de moderação das plataformas, em nome da liberdade de expressão; projetos legislativos que preveem uma espécie de imunidade para autoridades nas redes; o acúmulo de ações judiciais que pedem a liberação de conteúdos moderados pelas plataformas.

    O advogado-sênior do Google, Guilherme Cardoso Sanches, também ressaltou que a empresa remove milhões de conteúdos anualmente de suas plataformas, sem que para isso seja preciso nenhuma legislação adicional e decisão judicial. “Só no Brasil, em 2022, o YouTube removeu mais de 1 milhão de vídeos que violaram politicas sobre desinformação, discurso de ódio, violência, assédio, segurança infantil, entre outros”, pontuou.

    “Responsabilizar as plataformas como se elas próprias fossem responsáveis pelos conteúdos que elas hospedam levaria a um dever genérico de monitoramento de todo o conteúdo produzido pelas pessoas, desnaturando completamente o ambiente plural da internet”, disse o defensor.

    Entre outros argumentos, Cardoso Sanches acrescentou que a atuação do Judiciário se faz necessária em casos limítrofes, em que haja dúvida a respeito da legalidade do conteúdo. Para o Google, criar leis e regras adicionais levará, na prática, não a uma maior celeridade na remoção de conteúdo, pelo contrário, pois restringirá a liberdade de autorregulação das plataformas.

    “Além de ser o certo a fazer, agir responsavelmente faz bem para os negócios“, afirmou o advogado. “Conteúdos ilícitos e danosos não nos trazem reais benefícios econômicos. Na verdade sabemos que esse tipo de conteúdo corrói a confiança das pessoas, do público e dos anunciantes. Por conta disso que nós dedicamos tempo e recursos consideráveis para minimizar esse tipo de conteúdo em nossas plataformas”, acrescentou.

    Edição: Juliana Andrade