As imagens de inteligência artificial podem ser usadas para criar arte, experimentar roupas em provadores virtuais ou ajudar a criar campanhas publicitárias.
Mas os especialistas temem que o lado sombrio das ferramentas facilmente acessíveis possa piorar algo que prejudica principalmente as mulheres: a pornografia deepfake não consensual.
Deepfakes são vídeos e imagens que foram criados digitalmente ou alterados com inteligência artificial ou aprendizado de máquina. A pornografia criada usando a tecnologia começou a se espalhar pela internet há vários anos, quando um usuário do Reddit compartilhou clipes que colocavam os rostos de celebridades femininas nos ombros de atores pornôs.
Desde então, criadores de deepfake disseminaram vídeos e imagens semelhantes visando influenciadores online, jornalistas e outras pessoas com perfil público. Milhares de vídeos existem em uma infinidade de sites. E alguns têm oferecido aos usuários a oportunidade de criar suas próprias imagens – essencialmente permitindo que qualquer um transforme quem quiser em fantasias sexuais sem seu consentimento ou use a tecnologia para prejudicar ex-parceiros.
O problema, dizem os especialistas, cresceu à medida que se tornou mais fácil criar deepfakes sofisticados e visualmente atraentes. E eles dizem que pode piorar com o desenvolvimento de ferramentas de IA generativas que são treinadas em bilhões de imagens da Internet e cuspir novos conteúdos usando dados existentes.
“A realidade é que a tecnologia continuará a proliferar, a se desenvolver e a se tornar tão fácil quanto apertar o botão”, disse Adam Dodge, fundador do EndTAB, um grupo que oferece treinamentos sobre abuso possibilitado pela tecnologia. . “E enquanto isso acontecer, as pessoas, sem dúvida, continuarão a fazer mau uso dessa tecnologia para prejudicar outras pessoas, principalmente por meio de violência sexual online, pornografia deepfake e imagens falsas de nudez.”
Noelle Martin, de Perth, Austrália, vivenciou essa realidade. A jovem de 28 anos encontrou um pornô deepfake de si mesma há 10 anos, quando, por curiosidade, um dia usou o Google para pesquisar uma imagem sua. Até hoje, Martin diz que não sabe quem criou as imagens falsas ou vídeos dela praticando relações sexuais que ela encontraria mais tarde. Ela suspeita que alguém provavelmente tirou uma foto postada em sua página de mídia social ou em outro lugar e a transformou em pornografia.
Horrorizado, Martin entrou em contato com diferentes sites por vários anos em um esforço para remover as imagens. Alguns não responderam. Outros o derrubaram, mas ela logo o encontrou novamente.
“Você não pode vencer”, disse Martin. “Isso é algo que sempre estará por aí. É como se isso tivesse arruinado você para sempre.
Quanto mais ela falava, ela disse, mais o problema aumentava. Algumas pessoas até disseram a ela que a maneira como ela se vestia e postava imagens nas redes sociais contribuiu para o assédio – essencialmente culpando-a pelas imagens em vez dos criadores.
Eventualmente, Martin voltou sua atenção para a legislação, defendendo uma lei nacional na Austrália que multaria as empresas em 555.000 dólares australianos (US$ 370.706) se elas não cumprissem os avisos de remoção de tal conteúdo dos reguladores de segurança online.
Mas governar a internet é quase impossível quando os países têm suas próprias leis para conteúdo que às vezes é feito do outro lado do mundo. Martin, atualmente advogada e pesquisadora jurídica da University of Western Australia, diz acreditar que o problema deve ser controlado por meio de algum tipo de solução global.
Enquanto isso, alguns modelos de IA dizem que já estão restringindo o acesso a imagens explícitas.
A OpenAI diz que removeu o conteúdo explícito dos dados usados para treinar a ferramenta de geração de imagens DALL-E, o que limita a capacidade dos usuários de criar esses tipos de imagens. A empresa também filtra as solicitações e diz que impede os usuários de criar imagens de IA de celebridades e políticos proeminentes. Midjourney, outro modelo, bloqueia o uso de certas palavras-chave e incentiva os usuários a sinalizar imagens problemáticas para os moderadores.
Enquanto isso, a startup Stability AI lançou uma atualização em novembro que remove a capacidade de criar imagens explícitas usando seu gerador de imagens Stable Diffusion. Essas mudanças vieram após relatos de que alguns usuários estavam criando fotos nuas inspiradas em celebridades usando a tecnologia.
O porta-voz da Stability AI, Motez Bishara, disse que o filtro usa uma combinação de palavras-chave e outras técnicas, como reconhecimento de imagem, para detectar nudez e retorna uma imagem borrada. Mas é possível que os usuários manipulem o software e gerem o que desejam desde que a empresa libere seu código para o público. Bishara disse que a licença da Stability AI “se estende a aplicativos de terceiros construídos no Stable Diffusion” e proíbe estritamente “qualquer uso indevido para fins ilegais ou imorais”.
Algumas empresas de mídia social também têm endurecido suas regras para proteger melhor suas plataformas contra materiais nocivos.
O TikTok disse no mês passado que todos os deepfakes ou conteúdo manipulado que mostram cenas realistas devem ser rotulados para indicar que são falsos ou alterados de alguma forma, e que deepfakes de figuras privadas e jovens não são mais permitidos. Anteriormente, a empresa proibia conteúdo sexualmente explícito e deepfakes que enganavam os espectadores sobre eventos do mundo real e causavam danos.
A plataforma de jogos Twitch também atualizou recentemente suas políticas sobre imagens deepfake explícitas depois que um streamer popular chamado Atrioc foi descoberto por ter um site pornô deepfake aberto em seu navegador durante uma transmissão ao vivo no final de janeiro. O site apresentava imagens falsas de outros streamers do Twitch.
O Twitch já proibia deepfakes explícitos, mas agora mostrar um vislumbre de tal conteúdo – mesmo que seja para expressar indignação – “será removido e resultará em uma aplicação”, escreveu a empresa em uma postagem no blog. E promover, criar ou compartilhar intencionalmente o material é motivo para banimento instantâneo.
Outras empresas também tentaram banir os deepfakes de suas plataformas, mas mantê-los afastados exige diligência.
A Apple e o Google disseram recentemente que removeram um aplicativo de suas lojas de aplicativos que exibia vídeos deepfake sexualmente sugestivos de atrizes para comercializar o produto. A pesquisa sobre pornografia deepfake não é predominante, mas um relatório divulgado em 2019 pela empresa de IA DeepTrace Labs descobriu que era quase inteiramente armada contra mulheres e os indivíduos mais visados eram atrizes ocidentais, seguidas por cantores sul-coreanos de K-pop.
O mesmo aplicativo removido pelo Google e pela Apple exibia anúncios na plataforma da Meta, que inclui Facebook, Instagram e Messenger. O porta-voz da Meta, Dani Lever, disse em comunicado que a política da empresa restringe o conteúdo adulto gerado e não gerado por IA e restringiu a publicidade da página do aplicativo em suas plataformas.
Em fevereiro, o Meta, assim como sites adultos como OnlyFans e Pornhub, começaram a participar de uma ferramenta online, chamada Take It Down, que permite que adolescentes denunciem imagens e vídeos explícitos de si mesmos na internet. O site de relatórios funciona para imagens comuns e conteúdo gerado por IA – o que se tornou uma preocupação crescente para grupos de segurança infantil.
“Quando as pessoas perguntam à nossa liderança sênior quais são os pedregulhos descendo a colina que nos preocupam? A primeira é a criptografia de ponta a ponta e o que isso significa para a proteção infantil. E o segundo é a IA e especificamente os deepfakes”, disse Gavin Portnoy, porta-voz do Centro Nacional para Crianças Desaparecidas e Exploradas, que opera a ferramenta Take It Down.
“Ainda não conseguimos formular uma resposta direta a isso”, disse Portnoy.
Leia todas as últimas notícias de tecnologia aqui
(Esta história não foi editada pela equipe do News18 e foi publicada a partir de um feed de agência de notícias sindicalizado)
Discussão sobre isso post