Um novo tipo de guerra fria está aqui.
Forças militares em todo o mundo estão em uma corrida armamentista secreta para desenvolver novos e terríveis armamentos de IA, revela um novo documentário que explora o futuro da inteligência artificial em batalha.
“Líderes mundiais na Rússia e na China, pessoas nas forças armadas dos EUA disseram, quem obtiver vantagem em IA terá uma vantagem técnica esmagadora na guerra”, Jesse Sweet, diretor de “UNKNOWN: Killer Robots, com estreia na segunda-feira na Netflix, disse ao Post.
“Esta revolução está acontecendo agora, mas acho que nossa consciência [is] ficando para trás”, alertou Sweet, um cineasta e produtor vencedor do Emmy. “Espero que não pense em uma nuvem de cogumelo para nos fazer perceber: ‘Cara, essa é uma ferramenta muito potente’.”
Robôs e drones de nível de armas sendo utilizados em combate não são novos, mostra o documentário. Mas o software de IA está, e está aprimorando – em alguns casos, ao extremo – o hardware existente, que vem modernizando a guerra por quase uma década.
Agora, dizem os especialistas, os desenvolvimentos na IA nos levaram a um ponto em que as forças globais não têm escolha a não ser repensar a estratégia militar – desde o início.
“É realista esperar que a IA esteja pilotando um F-16 e não esteja tão longe”, disse Nathan Michael, diretor de tecnologia da Shield AI, uma empresa cuja missão é “construir o melhor piloto de IA do mundo”, disse no episódio.
No entanto, os cineastas expressam preocupação – como muitos que trabalham no campo da IA - com a rápida militarização robótica, essencialmente alertando que não compreendemos verdadeiramente o que estamos criando.
“Do jeito que esses algoritmos estão processando informações, as pessoas que os programaram não conseguem nem entender totalmente as decisões que estão tomando”, disse Sweet. “Ele se move tão rápido que mesmo identificando coisas como, ‘Deveria matar aquela pessoa ou não matar aquela pessoa?’ [It’s] este enorme enigma.”
Também há temores de que uma confiança confortável na precisão e exatidão da tecnologia – conhecida como viés de automação – possa voltar a assombrar, caso a tecnologia falhe em uma situação de vida ou morte.
Uma grande preocupação gira em torno do software de reconhecimento facial AI sendo usado para aprimorar um robô ou drone autônomo durante um tiroteio. Neste momento, um ser humano atrás dos controles tem que puxar o proverbial gatilho. Caso isso seja retirado, os militantes podem ser confundidos com civis ou aliados nas mãos de uma máquina, alerta o diretor.
“[AI is] melhor em identificar pessoas brancas do que pessoas não brancas”, disse Sweet. “Portanto, pode facilmente confundir pessoas com pele morena umas com as outras, o que tem todo tipo de implicações horríveis quando você está em uma zona de batalha e está identificando um amigo ou inimigo.”
E lembra quando o medo de nossas armas mais poderosas se voltarem contra nós era apenas algo que você via em filmes de ação futuristas?
Com IA, isso é muito possível, disse Sweet. O simples pensamento já está causando “tensão dentro dos militares”, segundo o diretor.
“Há uma preocupação com a segurança cibernética na IA e a capacidade de governos estrangeiros ou atores independentes de assumir elementos cruciais das forças armadas”, disse ele. “Acho que ainda não há uma resposta clara para isso. Mas acho que todos estão cientes de que quanto mais automação for aplicada às forças armadas, mais espaço haverá para os malfeitores tirarem vantagem.”
A falta de sofisticação necessária agora para realizar uma violação de tal magnitude deve preocupar a todos nós, dizem os conhecedores.
“Costumava ser que você tinha que ser um gênio da computação para fazer isso. Como nos filmes dos anos 80, o garoto teria que ser algum tipo de prodígio”, disse Sweet. “Mas agora você pode ser como um aluno B que baixou o vídeo do YouTube que vai te mostrar como.”
E enquanto a IA está avançando nas tecnologias médicas e farmacêuticas para curar e tratar doenças, os cientistas alertam que algo tão simples quanto mudar um zero para um em um computador pode criar armas químicas, por meio da execução de milhares de simulações que acabam gerando uma composição tóxica. .
Sean Ekins, CEO da Collaborations Pharmaceuticals, conta uma história no filme sobre como, em 2021, ele foi encarregado por um grupo suíço de vigilância de IA para experimentar a possibilidade de projetar uma arma biológica.
“Temos construído muitos modelos de aprendizado de máquina para tentar prever se uma molécula provavelmente seria tóxica. Nós apenas invertemos esse modelo e dizemos ‘bem, estamos interessados em projetar moléculas tóxicas’, disse Ekins ao The Post.
“Literalmente, ligamos um dos modelos e, da noite para o dia, ele gerou [chemical weapon] moléculas… uma pequena empresa, fazendo isso em um Mac de mesa de 2015.”
Entre os modelos produzidos estavam composições semelhantes ao VX – um dos agentes nervosos mais mortais conhecidos no mundo.
“Estávamos usando tecnologias generativas para fazer isso, mas eram ferramentas generativas bastante rudimentares”, acrescentou o CEO. “Agora, quase dois anos depois, acho que o que fizemos é uma espécie de passos de bebê em comparação com o que seria possível hoje.”
Ekins teme que “um cientista desonesto” ou mesmo alguém menos qualificado possa ter os meios para criar variações caseiras para VX e outras armas biológicas, por meio da IA “reduzindo a barreira”.
“Acho que o perigo real é chegar ao ponto em que surgem novas moléculas que não são VX e são muito mais fáceis de sintetizar”, disse ele. “Isso realmente vale a pena se preocupar. O que mostramos foi que poderíamos facilmente criar muitas – dezenas de milhares – de moléculas que se previa serem mais tóxicas”.
Enquanto Ekins e sua equipe publicou um artigo sobre o uso indevido potencial e mortal e soou o alarme para criar freios e contrapesos sofisticados, os gritos caíram em ouvidos surdos, disse ele.
“A indústria não respondeu. Não houve nenhum esforço para estabelecer qualquer tipo de proteção”, acrescentou Ekins. “Acho que não perceber o perigo potencial que existe é tolice… Só não acho que a indústria, em geral, esteja prestando muita atenção a isso.”
Ele comparou a rápida aceleração do aprendizado de máquina em seu campo com a dos cientistas responsáveis pela bomba atômica, que “não estavam pensando nas consequências” há quase 85 anos.
“Mesmo os padrinhos das tecnologias, como os chamamos, agora estão apenas percebendo que há um gênio em potencial que eles deixaram escapar”, disse Ekins. “Vai ser muito difícil, eu acho, colocá-lo de volta na garrafa.”
Discussão sobre isso post