Aplicativos de fotos despindo mulheres digitalmente, prompts de texto para imagem sexualizados criando “garotas de IA” e imagens manipuladas alimentando raquetes de “sextorsão” – um boom de pornografia deepfake está superando os esforços dos EUA e da Europa para regular a tecnologia.
Os deepfakes habilitados para inteligência artificial são normalmente associados a imagens virais falsas de personalidades conhecidas, como o Papa Francisco em um casaco puffer ou Donald Trump preso, mas especialistas dizem que são mais amplamente usados para gerar pornografia não consensual que pode destruir vidas comuns.
As mulheres são um alvo específico de ferramentas e aplicativos de IA – amplamente disponíveis gratuitamente e sem necessidade de conhecimento técnico – que permitem aos usuários tirar roupas digitalmente de suas fotos ou inserir seus rostos em vídeos sexualmente explícitos.
“O aumento da pornografia gerada por IA e da pornografia deepfake normaliza o uso da imagem ou semelhança de uma mulher sem o seu consentimento”, disse à AFP Sophie Maddocks, pesquisadora da Universidade da Pensilvânia que rastreia o abuso sexual baseado em imagens.
“Que mensagem enviamos sobre o consentimento como sociedade quando você pode virtualmente despir qualquer mulher?”
Em um vídeo choroso, uma streamer americana do Twitch que atende por QTCinderella lamentou a “constante exploração e objetificação” das mulheres ao se tornar vítima de pornografia deepfake. Ela foi assediada, acrescentou, por pessoas que enviaram cópias dos deepfakes que a retratavam.
O escândalo estourou em janeiro durante uma transmissão ao vivo do colega streamer Brandon Ewing, que foi pego olhando para um site que continha imagens sexuais deepfakeadas de várias mulheres, incluindo QTCinderella.
“Não é tão simples como ‘só’ ser violado. É muito mais do que isso”, escreveu ela no Twitter, acrescentando que a experiência a “arruinou”.
‘Hiper-real’
A proliferação de deepfakes online ressalta a ameaça de desinformação habilitada por IA, que pode prejudicar reputações e levar a bullying ou assédio.
Embora celebridades como a cantora Taylor Swift e a atriz Emma Watson tenham sido vítimas de pornografia deepfake, mulheres que não são conhecidas do público também são visadas.
A mídia americana e europeia está repleta de testemunhos em primeira mão de mulheres – de acadêmicas a ativistas – que ficaram chocadas ao descobrir seus rostos em pornografia deepfake.
Cerca de 96% dos vídeos deepfake online são pornografia não consensual, e a maioria deles retrata mulheres, de acordo com um estudo de 2019 da empresa holandesa de IA Sensity.
“O ato de fantasia sexual antes privado, que ocorre dentro da mente de alguém, agora é transferido para a tecnologia e criadores de conteúdo no mundo real”, disse à AFP Roberta Duffield, diretora de inteligência da Blackbird.AI.
“A facilidade de acesso e a falta de supervisão – juntamente com a crescente profissionalização da indústria – consolidam essas tecnologias em novas formas de exploração e diminuição das mulheres”.
Entre uma nova safra de geradores de texto para arte estão aplicativos gratuitos que podem criar “garotas de IA hiper-reais” – avatares de fotos reais, personalizando-os com prompts como “pele escura” e “cinta na coxa”.
Novas tecnologias, como Stable Diffusion, um modelo de IA de código aberto desenvolvido pela Stability AI, tornaram possível criar imagens realistas a partir de descrições de texto.
‘canto escuro’
Os avanços tecnológicos deram origem ao que Duffield chamou de “indústria caseira em expansão” em torno da pornografia aprimorada por IA, com muitos criadores de deepfake aceitando solicitações pagas para gerar conteúdo apresentando uma pessoa à escolha do cliente.
No mês passado, o FBI emitiu um alerta sobre “esquemas de sextortion”, nos quais fraudadores capturam fotos e vídeos de mídias sociais para criar deepfakes com “temática sexual” que são usados para extorquir dinheiro.
As vítimas, acrescentou o FBI, incluíam crianças menores de idade e adultos não consentidos.
A proliferação de ferramentas de IA ultrapassou a regulamentação.
“Este não é um canto escuro da internet onde essas imagens estão sendo criadas e compartilhadas”, disse à AFP Dan Purcell, presidente-executivo e fundador da empresa de proteção de marca AI Ceartas.
“Está bem debaixo do nosso nariz. E sim, a lei precisa se atualizar.”
Na Grã-Bretanha, o governo propôs uma nova Lei de Segurança Online que visa criminalizar o compartilhamento de deepfakes pornográficos.
Quatro estados dos EUA, incluindo Califórnia e Virgínia, proibiram a distribuição de pornografia deepfake, mas as vítimas geralmente têm poucos recursos legais se os perpetradores moram fora dessas jurisdições.
Em maio, um legislador dos EUA introduziu a Lei de Prevenção de Deepfakes de Imagens Íntimas, que tornaria ilegal o compartilhamento não consensual de pornografia deepfake.
Espaços online populares, como o Reddit, também procuraram regular suas crescentes comunidades de pornografia de IA.
“A internet é uma jurisdição sem fronteiras e é preciso haver uma lei internacional unificada para proteger as pessoas contra essa forma de exploração”, disse Purcell.
Discussão sobre isso post