A inteligência artificial está abrindo as portas para uma tendência perturbadora de pessoas criando imagens realistas de crianças em ambientes sexuais, o que pode aumentar o número de casos de crimes sexuais contra crianças na vida real, alertam especialistas.
As plataformas de IA que podem imitar conversas humanas ou criar imagens realistas explodiram em popularidade no final do ano passado até 2023, após o lançamento do chatbot ChatGPT, que serviu como um divisor de águas para o uso de inteligência artificial.
Como a curiosidade de pessoas em todo o mundo foi despertada pela tecnologia para tarefas de trabalho ou escolares, outras adotaram as plataformas para fins mais nefastos.
A National Crime Agency (NCA), que é a principal agência do Reino Unido no combate ao crime organizado, alertou esta semana que a proliferação de imagens explícitas de crianças geradas por máquinas está tendo um efeito “radicalizador” “normalizando” a pedofilia e perturbando o comportamento contra crianças.
“Avaliamos que a visualização dessas imagens – sejam reais ou geradas por IA – aumenta significativamente o risco de os infratores passarem a abusar sexualmente de crianças”, disse o diretor-geral da NCA, Graeme Biggar, em um relatório recente.
A agência estima que haja até 830.000 adultos, ou 1,6% da população adulta do Reino Unido, que representam algum tipo de perigo sexual contra crianças.
O número estimado é 10 vezes maior do que a população carcerária do Reino Unido, de acordo com Biggar.
A maioria dos casos de abuso sexual infantil envolve a exibição de imagens explícitas, de acordo com Biggar, e com a ajuda da IA, criar e visualizar imagens sexuais pode “normalizar” o abuso de crianças no mundo real.
“[The estimated figures] refletem em parte uma melhor compreensão de uma ameaça que tem sido historicamente subestimada e em parte um aumento real causado pelo efeito radicalizador da internet, onde a ampla disponibilidade de vídeos e imagens de crianças sendo abusadas e estupradas, e grupos compartilhando e discutindo as imagens, normalizou esse comportamento”, disse Biggar.
Nos Estados Unidos, está ocorrendo uma explosão semelhante de uso de IA para criar imagens sexuais de crianças.
“As imagens das crianças, incluindo o conteúdo de vítimas conhecidas, estão sendo reaproveitadas para esse resultado realmente maligno”, disse Rebecca Portnoff, diretora de ciência de dados da Thorn, uma organização sem fins lucrativos que trabalha para proteger crianças, ao Washington Post no mês passado.
“A identificação da vítima já é um problema de agulha no palheiro, onde a polícia está tentando encontrar uma criança em perigo”, disse ela.
“A facilidade de usar essas ferramentas é uma mudança significativa, assim como o realismo. Isso só torna tudo mais desafiador.”
Sites populares de IA que podem criar imagens com base em solicitações simples geralmente têm diretrizes da comunidade que impedem a criação de fotos perturbadoras.
Essas plataformas são treinadas em milhões de imagens de toda a Internet que servem como blocos de construção para a IA criar representações convincentes de pessoas ou locais que realmente não existem.
Midjourney, por exemplo, exige conteúdo PG-13 que evite “nudez, órgãos sexuais, fixação em seios nus, pessoas em chuveiros ou banheiros, imagens sexuais, fetiches”.
Enquanto o DALL-E, a plataforma de criação de imagens da OpenAI, permite apenas conteúdo classificado como G, proibindo imagens que mostrem “nudez, atos sexuais, serviços sexuais ou conteúdo destinado a despertar excitação sexual”.
No entanto, fóruns da dark web de pessoas com más intenções discutem soluções alternativas para criar imagens perturbadoras, de acordo com vários relatórios sobre IA e crimes sexuais.
Biggar observou que as imagens de crianças geradas por IA também lançam a polícia e a aplicação da lei em um labirinto de decifrar imagens falsas de vítimas reais que precisam de assistência.
“O uso da IA para esse fim tornará mais difícil identificar crianças reais que precisam de proteção e normalizará ainda mais o abuso sexual infantil entre os infratores e aqueles que estão na periferia do crime. Também avaliamos que a visualização dessas imagens – sejam reais ou geradas por IA – aumenta o risco de alguns criminosos passarem a abusar sexualmente de crianças na vida real”, disse Biggar em comentário fornecido à Fox News Digital.
“Em colaboração com nossos parceiros internacionais de policiamento, estamos combinando nossas habilidades e capacidades técnicas para entender a ameaça e garantir que tenhamos as ferramentas certas para lidar com material gerado por IA e proteger crianças contra abuso sexual.”
Imagens geradas por IA também podem ser usadas em golpes de sextortion, com o FBI emitindo um alerta sobre os crimes no mês passado.
Os deepfakes geralmente envolvem a edição de vídeos ou fotos de pessoas para fazê-los parecer com outra pessoa usando IA de aprendizado profundo e têm sido usados para assediar vítimas ou coletar dinheiro, incluindo crianças.
“Atores mal-intencionados usam tecnologias e serviços de manipulação de conteúdo para explorar fotos e vídeos – normalmente capturados da conta de mídia social de um indivíduo, internet aberta ou solicitados à vítima – em imagens com temas sexuais que parecem realistas à semelhança de uma vítima e, em seguida, circulem em mídias sociais, fóruns públicos ou sites pornográficos”, disse o FBI em junho.
“Muitas vítimas, incluindo menores de idade, não sabem que suas imagens foram copiadas, manipuladas e divulgadas até que outra pessoa as chamou a atenção.”
Discussão sobre isso post