Andrey Doronichev ficou alarmado no ano passado quando viu um vídeo nas redes sociais que parecia mostrar o presidente da Ucrânia se rendendo à Rússia.
O vídeo foi rapidamente desmascarado como um deepfake gerado sinteticamente, mas para Doronichev, era um presságio preocupante. Este ano, seus medos se aproximaram da realidade, pois as empresas começaram a competir para aprimorar e liberar a tecnologia de inteligência artificial, apesar do estrago que ela poderia causar.
A IA generativa agora está disponível para qualquer pessoa e é cada vez mais capaz de enganar as pessoas com texto, áudio, imagens e vídeos que parecem ser concebidos e capturados por humanos. O risco de credulidade social desencadeou preocupações sobre desinformação, perda de empregos, discriminação, privacidade e ampla distopia.
Para empresários como Doronichev, também se tornou uma oportunidade de negócios. Mais de uma dezena de empresas já oferece ferramentas para identificar se algo foi feito com inteligência artificial, com nomes como Sensity AI (detecção de deepfake), Fictitious.AI (detecção de plágio) e Originality.AI (também de plágio).
O Sr. Doronichev, um nativo da Rússia, fundou uma empresa em San Francisco, Optic, para ajudar a identificar material sintético ou falsificado – para ser, em suas palavras, “uma máquina de raio-X de aeroporto para conteúdo digital”.
Em março, revelou Um website onde os usuários podem verificar as imagens para ver se foram feitas por fotografias reais ou inteligência artificial. Ele está trabalhando em outros serviços para verificar vídeo e áudio.
“A autenticidade do conteúdo vai se tornar um grande problema para a sociedade como um todo”, disse Doronichev, que era um investidor de um aplicativo de troca de rosto chamado Reface. “Estamos entrando na era das falsificações baratas.” Como não custa muito produzir conteúdo falso, disse ele, isso pode ser feito em grande escala.
Espera-se que o mercado geral de IA generativa exceda US$ 109 bilhões até 2030, crescendo 35,6% ao ano em média até então, de acordo com a empresa de pesquisa de mercado Grand View Research. As empresas focadas na detecção da tecnologia são uma parte crescente da indústria.
Meses depois de ser criado por um estudante da Universidade de Princeton, o GPTZero afirma que mais de um milhão de pessoas usaram seu programa para analisar textos gerados por computador. Reality Defender foi um dos 414 empresas escolhido entre 17.000 aplicativos para serem financiados pelo acelerador de start-ups Y Combinator neste inverno.
CopyLeaks levantou US$ 7,75 milhões no ano passado em parte para expandir seus serviços antiplágio para escolas e universidades para detectar inteligência artificial no trabalho dos alunos. Sentinelacujos fundadores se especializaram em segurança cibernética e guerra de informações para a Marinha Real Britânica e a Organização do Tratado do Atlântico Norte, fecharam uma rodada inicial de US$ 1,5 milhão em 2020, apoiada em parte por um dos engenheiros fundadores do Skype para ajudar a proteger as democracias contra deepfakes e outros sintéticos maliciosos meios de comunicação.
Grandes empresas de tecnologia também estão envolvidas: Intel’s FakeCatcher afirma ser capaz de identificar vídeos deepfake com 96% de precisão, em parte analisando pixels em busca de sinais sutis de fluxo sanguíneo em rostos humanos.
Dentro do governo federala Agência de Projetos de Pesquisa Avançada de Defesa planeja gastar quase US$ 30 milhões este ano para executar o Semantic Forensics, um programa que desenvolve algoritmos para detectar automaticamente deepfakes e determinar se eles são maliciosos.
Até a OpenAI, que impulsionou o boom da IA quando lançou sua ferramenta ChatGPT no final do ano passado, está trabalhando em serviços de detecção. A empresa, sediada em São Francisco, estreou uma ferramenta gratuita em janeiro para ajudar a distinguir entre texto composto por um ser humano e texto escrito por inteligência artificial.
A OpenAI enfatizou que, embora a ferramenta fosse uma melhoria em relação às iterações anteriores, ainda “não era totalmente confiável”. A ferramenta identificou corretamente 26% do texto gerado artificialmente, mas erroneamente sinalizou 9% do texto de humanos como gerado por computador.
A ferramenta OpenAI está sobrecarregada com falhas comuns em programas de detecção: ela luta com textos curtos e escrita que não está em inglês. Em ambientes educacionais, ferramentas de detecção de plágio, como TurnItIn, foram acusadas de imprecisamente classificando ensaios escritos por alunos gerados por chatbots.
As ferramentas de detecção ficam inerentemente atrasadas em relação à tecnologia generativa que estão tentando detectar. No momento em que um sistema de defesa é capaz de reconhecer o trabalho de um novo chatbot ou gerador de imagens, como Google Bard ou Midjourney, os desenvolvedores já estão criando uma nova iteração que pode escapar dessa defesa. A situação foi descrita como uma corrida armamentista ou uma relação vírus-antivírus em que um gera o outro, repetidamente.
“Quando o Midjourney lança o Midjourney 5, minha arma inicial dispara e começo a trabalhar para alcançá-lo – e enquanto faço isso, eles estão trabalhando no Midjourney 6”, disse Hany Farid, professor de ciência da computação na Universidade da Califórnia, Berkeley, especializado em forense digital e também envolvido na indústria de detecção de IA. “É um jogo inerentemente contraditório onde enquanto trabalho no detector, alguém está construindo uma ratoeira melhor, um sintetizador melhor.”
Apesar da atualização constante, muitas empresas têm visto demanda por detecção de IA de escolas e educadores, disse Joshua Tucker, professor de política da Universidade de Nova York e codiretor do Centro de Mídia Social e Política. Ele questionou se um mercado semelhante surgiria antes das eleições de 2024.
“Será que veremos uma espécie de ala paralela dessas empresas se desenvolvendo para ajudar a proteger os candidatos políticos, para que saibam quando estão sendo alvo desse tipo de coisa?”, disse ele.
Especialistas disseram que o vídeo gerado sinteticamente ainda era bastante desajeitado e fácil de identificar, mas a clonagem de áudio e a criação de imagens eram altamente avançadas. Separar o real do falso exigirá táticas forenses digitais, como pesquisas reversas de imagens e rastreamento de endereços IP.
Os programas de detecção disponíveis estão sendo testados com exemplos que são “muito diferentes de entrar na natureza, onde imagens que estão circulando e foram modificadas, cortadas, reduzidas, transcodificadas e anotadas e Deus sabe o que mais aconteceu com elas”. disse o Sr. Farid.
“Essa lavagem de conteúdo torna essa tarefa difícil”, acrescentou.
A Content Authenticity Initiative, um consórcio de 1.000 empresas e organizações, é um grupo que tenta tornar a tecnologia generativa óbvia desde o início. (É liderado pela Adobe, com membros como o The New York Times e jogadores de inteligência artificial como Stability AI) Em vez de juntar a origem de uma imagem ou um vídeo mais tarde em seu ciclo de vida, o grupo está tentando estabelecer padrões que serão aplicados credenciais rastreáveis ao trabalho digital na criação.
A Adobe disse na semana passada que sua tecnologia generativa Firefly seria integrado ao Google Bardonde anexará “rótulos nutricionais” ao conteúdo que produz, incluindo a data em que uma imagem foi feita e as ferramentas digitais usadas para criá-la.
Jeff Sakasegawa, arquiteto de confiança e segurança da Persona, uma empresa que ajuda a verificar a identidade do consumidor, disse que os desafios levantados pela inteligência artificial estão apenas começando.
“A onda está ganhando impulso”, disse ele. “Está indo em direção à costa. Acho que ainda não caiu.”
Discussão sobre isso post