Tag: ANPD

  • Brasil reforça proibição de projeto da Worldcoin, troca de dados biométricos por criptomoedas segue vetada

    Brasil reforça proibição de projeto da Worldcoin, troca de dados biométricos por criptomoedas segue vetada

    A Autoridade Nacional de Proteção de Dados (ANPD) do Brasil reafirmou sua posição firme contra o programa Worldcoin, mantendo a proibição da troca de dados biométricos, especificamente a leitura da íris, por criptomoedas. A decisão, anunciada na última terça-feira, representa um duro golpe para os planos da Tools For Humanity no país, empresa por trás do projeto.

    Multa diária milionária e acusações de consentimento viciado

    Brasil reforça proibição de projeto da Worldcoin, troca de dados biométricos por criptomoedas segue vetada
    Canva / CenarioMT

    A ANPD não apenas manteve a suspensão da distribuição de criptomoedas para quem se cadastrar no World ID através da leitura da íris, mas também impôs uma multa diária de 50.000 reais (aproximadamente US$ 8.800) caso a empresa retome a coleta de dados. A agência reguladora argumenta que a oferta de recompensas financeiras compromete a liberdade do consentimento, um pilar da Lei Geral de Proteção de Dados Pessoais (LGPD).

    Expansão global da Worldcoin enfrenta obstáculos legais

    Brasil barra Worldcoin: Troca dados biométricos por criptomoedas é vetada
    Arte por CenárioMT

    A decisão brasileira surge em um momento crucial para a Worldcoin, que busca expandir sua presença na América Latina, com a Argentina como centro regional e operações no Panamá. No entanto, a empresa enfrenta resistência regulatória crescente em diversos países, levantando debates sobre a ética da coleta de dados biométricos em larga escala.

    Apesar dos desafios, a Tools For Humanity continua investindo em tecnologia, como a recente aquisição da Modulus Labs para aprimorar suas pesquisas em IA e criptografia. A empresa também busca parcerias estratégicas, como a colaboração com a Razer para combater bots de IA em jogos online.

  • ANPD mostra quem manda e proíbe Meta de usar dados de Brasileiros para treinar IA

    ANPD mostra quem manda e proíbe Meta de usar dados de Brasileiros para treinar IA

    Em uma vitória para a privacidade dos brasileiros, a Meta, dona do Facebook e Instagram, foi proibida de usar dados pessoais do país para treinar sua inteligência artificial (IA). A decisão histórica da Autoridade Nacional de Proteção de Dados (ANPD) protege os usuários contra “riscos graves e de difícil reparação”, como deepfakes e outras explorações.

    Essa conquista vem após a Meta atualizar sua política de privacidade em maio, concedendo a si mesma permissão para usar dados públicos do Facebook, Messenger e Instagram do Brasil para fins de treinamento de IA. No entanto, a ANPD rapidamente identificou os perigos dessa prática e barrou a empresa.

    A decisão é especialmente importante devido a um relatório da Human Rights Watch que revelou a presença de fotos pessoais e identificáveis de crianças brasileiras no LAION-5B, um dos maiores conjuntos de dados de imagens e legendas usado para treinar modelos de IA. Essa descoberta expôs o risco de crianças serem vítimas de deepfakes e outras formas de abuso online.

    O Brasil, um dos maiores mercados da Meta com mais de 102 milhões de usuários no Facebook, não se intimidou com o poder da empresa. A ANPD impôs um prazo de cinco dias úteis para que a Meta se adeque à nova regra, sob pena de multa diária de R$ 50.000.

    Embora a Meta alegue que sua política atualizada está em conformidade com as leis brasileiras e que a decisão representa um retrocesso para a inovação, a ANPD reconhece “obstáculos excessivos e injustificáveis” que dificultam a opção dos usuários por não ter seus dados utilizados.

    Veja também: Funcionários de gigantes da IA alertam sobre perigos da tecnologia em carta aberta

    A gigante das redes sociais já havia enfrentado resistência similar na Europa, onde teve que pausar seus planos de treinar modelos de IA em publicações do Facebook e Instagram. No entanto, nos Estados Unidos, onde as proteções à privacidade do usuário são menos rígidas, as políticas atualizadas de coleta de dados da Meta já estão em vigor.

    A decisão da ANPD é um passo crucial para proteger a privacidade dos brasileiros e garantir que seus dados sejam utilizados de forma ética e responsável. É um lembrete importante de que as empresas de tecnologia não estão acima da lei e que os cidadãos têm o direito de controlar suas informações pessoais.

    Essa vitória é nossa! Ação firme da ANPD demonstra que o Brasil não abre mão da proteção de seus cidadãos, mesmo diante de gigantes da tecnologia. Continuemos vigilantes e defendamos nossos dados pessoais!

  • Meta terá de suspender uso de dados na internet para treinar IA

    Meta terá de suspender uso de dados na internet para treinar IA

    A Autoridade Nacional de Proteção de Dados (ANPD) decidiu suspender o uso de dados pessoais publicados em plataformas da empresa Meta para o treinamento de sistemas de inteligência artificial (IA).

    Uma medida cautelar foi aprovada pelo conselho decisório da ANPD. O despacho com a decisão foi publicado no Diário Oficial da União (DOU) desta terça-feira (2). Foi estipulada multa diária de R$ 50 mil em caso de descumprimento.

    Na última quarta-feira (26), entrou em vigor uma nova política de privacidade da Meta, abrangendo plataformas de rede social como Instagram, Facebook e Messenger. O documento autoriza a utilização de conteúdos compartilhados pelos usuários e disponíveis publicamente para o treinamento de IA generativa.

    “Tal tratamento pode impactar número substancial de pessoas, já que, no Brasil, somente o Facebook possui cerca de 102 milhões de usuários ativos”, disse a ANPD em nota. Para justificar a medida, o órgão destacou a utilização de dados pessoas de crianças e adolescentes para treinar sistemas de IA da Meta, informações que estão sujeitas a proteção especial da Lei Geral de Proteção de Dados (LGPD).

    A agência informou que decidiu de ofício – ou seja, por inciativa própria – fiscalizar a aplicação da nova política da Meta, e disse ter constatado “riscos de dano grave e de difícil reparação aos usuários”, diante do que considerou ser indício de violação LGPD.

    “A ANPD avaliou que a empresa não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa”, diz a nota divulgada pelo órgão.

    A agência mencionou ainda “obstáculos excessivos e não justificados” para que o usuário possa passar a se opor a esse tipo de tratamento de seus dados pessoais. De acordo com a ANPD, os usuários das plataformas da Meta compartilharam dados pessoais com a expectativa de se relacionar com “amigos, comunidade próxima e empresas de interesse”, sem considerar que as informações pudessem ser usadas no treinamento de IA.

    A ANPD é um órgão criado em 2020, ligado ao Ministério da Justiça e Segurança Pública, cujo conselho é composto por cinco diretores indicados pelo presidente e aprovados pelo Senado, com mandato de quatro anos. Os critérios são reputação ilibada, nível superior e elevado conceito no campo de especialidade.

    Outro lado

    Em posicionamento enviado por e-mail, a Meta disse estar “desapontada com a decisão da ANPD”. A empresa acrescentou que não é a única a promover treinamento de IA com informações coletadas pelos serviços prestados. “Somos mais transparentes do que muitos participantes nessa indústria que tem usado conteúdos públicos para treinar seus modelos e produtos”, diz o texto enviado.

    “Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA e atrasa a chegada de benefícios da IA para as pessoas no Brasil”, afirmou a empresa.

    — news —