Tag: Deepfake

  • Mato Grosso discute estratégias contra uso de IA na pornografia e proteção à mulher

    Mato Grosso discute estratégias contra uso de IA na pornografia e proteção à mulher

    A Assembleia Legislativa de Mato Grosso (ALMT) se tornou palco de uma discussão de extrema importância sobre os impactos da tecnologia deepfake, com foco alarmante em sua utilização na produção de pornografia não consensual e na consequente violação da dignidade feminina. A Procuradoria Especial da Mulher da ALMT reuniu especialistas e autoridades nesta segunda-feira (28) para o debate “deepfake e a indústria pornográfica – a violação da dignidade feminina em segundos”. A iniciativa partiu de professores e estudantes de direito do Centro Universitário de Várzea Grande (Univag), demonstrando a preocupação da nova geração de juristas com essa crescente ameaça digital.

    O cerne da discussão girou em torno da facilidade com que a inteligência artificial pode ser empregada para criar vídeos, imagens e áudios manipulados, imitando pessoas reais e fabricando conteúdo pornográfico sem o seu consentimento. A exploração atinge principalmente mulheres, mas também expõe crianças e adolescentes a riscos significativos. Estatísticas de 2019 já indicavam a predominância de conteúdo pornográfico (cerca de 96%) entre os deepfakes existentes, evidenciando a urgência em se debater e regulamentar essa tecnologia.

    A estudante Raquel Cruz, do Univag, compartilhou a motivação do grupo em propor o debate, ressaltando a necessidade de trazer à luz um tema ainda pouco explorado, mas de grande impacto na vida das mulheres. A união dos conceitos de deepfake, pornografia e violência de gênero foi o ponto de partida para uma discussão que contou com o apoio fundamental do corpo docente da universidade.

    Entre as propostas apresentadas durante o encontro, a conscientização nas escolas sobre os malefícios do uso indevido da inteligência artificial ganhou destaque. O professor do Univag, Bruno Rocha, enfatizou que a IA, assim como outras ferramentas tecnológicas, depende da ética de quem a utiliza. Ele defendeu a necessidade de educar a sociedade para um uso responsável e citou exemplos internacionais de responsabilização das plataformas digitais na disseminação de conteúdo prejudicial.

    A delegada Mariell Antonini, da PJC, reforçou a urgência de um debate nacional para o fortalecimento da legislação penal, considerando que a pena atual para crimes dessa natureza pode ser considerada branda diante do potencial destrutivo da deepfake na vida das vítimas. Ela sugeriu a criminalização do armazenamento desse tipo de conteúdo, equiparando-o à legislação existente para a pornografia infantil.

    A deputada federal Gisela Simona (União), participando remotamente, informou que o Congresso Nacional está atento à questão e discute projetos para aumentar as penalidades para quem produz e divulga conteúdo sexual falso criado com deepfake.

    A deputada estadual Janaina Riva (MDB), procuradora especial da Mulher da ALMT, anunciou que buscará um diálogo direto com a bancada de Mato Grosso no Senado Federal para sensibilizá-los sobre a importância de avançar com projetos de lei que coíbam essa forma de violência digital contra a mulher.

    A estudante do Univag, Yolanda Costa, expressou a relevância do debate na ALMT para que a sociedade compreenda a dimensão dos danos causados pela deepfake. A Polícia Civil orienta que a produção e divulgação de imagens manipuladas sem consentimento são crimes que podem ser denunciados.

  • Fotos de crianças brasileiras são usadas por IA de forma indevida

    Fotos de crianças brasileiras são usadas por IA de forma indevida

    Um levantamento da organização internacional Human Rights Watch identificou uso de fotos pessoais de crianças e adolescentes brasileiros por ferramentas de inteligência artificial (IA). De acordo com a entidade, as Fotos de crianças brasileiras foram retiradas de sites e mídias sociais sem consentimento.

    A entidade encontrou 170 fotos de crianças de pelo menos 10 estados, que retratam momentos de nascimento de bebês, festas de aniversário e apresentações em escolas.

    As imagens estão em um banco de dados chamado LAION-5B, utilizado para o treinamento das ferramentas de IA. Segundo a organização, o percentual é baixo diante da dimensão do acervo do banco, que passa de 5 bilhões de imagens, porém acende um alerta.

    “Algumas dessas fotos foram postadas por crianças e adolescentes, seus pais ou familiares em blogs pessoais e sites de compartilhamento de fotos e vídeos. Algumas foram postadas anos ou até mesmo uma década”, diz nota da Human Righs Watch.

    Deepfakes

    A pesquisadora de Direitos da Criança e Tecnologia da Human Rights Watch, Hye Jung Han, explica que a inteligência artificial permite a criação de imagens e cenas realistas em questão de segundos, gratuitamente e de forma fácil. Com isso, muitas das fotos são base para o desenvolvimento de deepfakes não consensuais e nocivas, que circulam na internet.

    A deepfake permite a adulteração de vídeos e fotos por meio de inteligência artificial. Um exemplo, é trocar rostos das pessoas em um vídeo ou mudar a fala.

    Segundo a Human Rights Watch, as fotos das crianças brasileiras não estão disponíveis por meio de pesquisa on line e foram postadas há anos, até mesmo antes da criação do banco de imagens. O acesso a elas pelas ferramentas de IA revela que houve falha por parte de grandes empresas e mídias sociais em proteger a privacidade dos usuários.

    A organização informou que a instituição alemã responsável pelo LAION-5B “confirmou que o conjunto de dados continha as fotos pessoais das crianças encontradas pela Human Rights Watch e se comprometeu a removê-las. Ela contestou que os modelos de IA treinados no LAION-5B pudessem reproduzir dados pessoais literalmente. A LAION também disse que as crianças e seus pais são responsáveis por remover suas fotos pessoais da Internet, argumentando ser a proteção mais eficaz contra o uso indevido”.

    A coordenadora do Programa Criança e Consumo do Instituto Alana, Maria Mello, defende a aplicação da legislação no mundo virtual para proteção dos usuários.

    “É importante e bem-vinda a inclusão de novos direitos a partir dos desafios colocados em relação ao ambiente digital, incluindo da inteligência artificial. A gente precisa garantir o dever de cuidado com crianças e adolescentes, quando são os públicos mais afetados”, disse a pesquisadora em entrevista à TV Brasil.

    — news —

  • Golpe com Inteligência Artificial: Multinacional sofre perda de R$ 127 Milhões

    Golpe com Inteligência Artificial: Multinacional sofre perda de R$ 127 Milhões

    Criminosos utilizam inteligência artificial para roubar aproximadamente R$ 127 milhões de renomada empresa multinacional Uma destacada corporação multinacional tornou-se alvo de um golpe financeiro sofisticado, resultando na perda de 200 milhões de dólares de Hong Kong (cerca de R$ 126,5 milhões), conforme noticiado pelo South China Morning Post, citado pela Folha de S. Paulo.

    O golpe teve início por meio de uma mensagem de phishing, utilizada como isca para estabelecer o contato inicial. Posteriormente, os criminosos empregaram imagens públicas do diretor financeiro da empresa, que se encontrava no Reino Unido, para criar representações convincentes dele e de outras figuras-chave.

    Por fim, eles aplicaram a tecnologia deepfake em chamadas de vídeo com funcionários do departamento financeiro da multinacional. Dessa forma, os fraudadores conseguiram ludibriar as vítimas a realizar um total de 15 transferências para contas bancárias em Hong Kong. As transferências fraudulentas foram destinadas a cinco contas bancárias situadas no território, indicando que os golpistas operavam, pelo menos em parte, localmente. A polícia não conseguiu identificar a empresa nem os funcionários envolvidos.

    O emprego de deepfake em fraudes financeiras representa um novo desafio nos ciberataques. Esse incidente marca um capítulo preocupante nos ataques a empresas e destaca a vulnerabilidade diante de tecnologias avançadas.