A verdadeira Jacinda Ardern. Foto / Mark Mitchell
Um vídeo viral que manipulou imagens da primeira-ministra Jacinda Ardern para fazer parecer que ela estava fumando crack reanimou o debate sobre a tecnologia “deepfake”.
O vídeo, que foi visto e compartilhado milhares de
vezes, mostrava uma mulher fumando com o que parecia ser um cachimbo de crack.
O rosto do PM foi sobreposto com inteligência artificial. Mas o vídeo, criado para o YouTube, foi convincente o suficiente para muitos que o compartilharam. Ele rapidamente se espalhou para o Twitter, Facebook e outras plataformas. O objetivo de seu criador era criticar Ardern a respeito da decisão de seu governo de tornar o fumo ilegal por toda a vida para os menores de 14 anos.
O membro do think tank Tom Barraclough, coautor de um relatório sobre deepfakes para a NZ Law Foundation, está preocupado com a reação exagerada à tecnologia que pode silenciar a liberdade de expressão, mas também disse ao Herald que nossos políticos foram avisados sobre o assunto, mas estão não fazer nada (mais sobre o que a seguir).
Outro acadêmico alerta que a tecnologia já está disponível – e que, embora ainda esteja longe de ser perfeita, ainda é boa o suficiente para se tornar viral.
“A tecnologia Deepfake está se tornando mais prevalente e fácil de acessar, à medida que mais pessoas criam mais ferramentas e as tornam disponíveis publicamente”, alerta o pesquisador da Universidade de Auckland, Dr. Andrew Chen.
Apesar da tecnologia se tornar mais sofisticada, especialistas como Chen podem identificar uma farsa.
Sinais reveladores de adulteração incluem borrão ou pixilação, particularmente ao redor da boca e dos olhos, som mal sincronizado, falhas, mudanças na iluminação, lacunas no enredo e piscando irregular.
Mas Chen avisa: “Muitos deepfakes podem ser muito convincentes para o público em geral, que não está olhando muito de perto. E se um especialista for necessário para analisar o vídeo para encontrar os marcadores reveladores de deepfakes, então a desinformação pode se espalhar muito rapidamente antes que a filmagem possa ser desmascarada. “
Nossos legisladores precisam agir?
Chen aponta para o relatório de 2019 para a NZ Law Foundation sobre a crescente ameaça de falsificação. Os coautores Barraclough e Curtis Barnes disseram que, embora os clipes de vídeo e áudio falsos estejam se tornando mais prevalentes, eles podem ser tratados por meio da legislação existente, incluindo a Lei de Crimes e a Lei de Comunicações Digitais Nocivas – se forem devidamente aplicadas e sua aplicação é esclarecido.
Uma legislação especial para combater os deepfakes colocaria os direitos humanos e a liberdade de expressão em risco, argumentou a dupla. Eles disseram que um governo poderia usar essa lei para reprimir aqueles que estavam usando efeitos de vídeo para fins de sátira política. Eles usaram o exemplo do comediante Tom Sainsbury, que usa ferramentas rudimentares de vídeo IA para imitar os políticos Kiwi nas redes sociais. Barraclough e Barnes, desde então, também realizaram uma avaliação do Facebook para o NZ Super Fund.
Esta semana, depois que o clipe de “Ardern” causou comoção na Tasman, Barnes (que interpreta o clipe falso como cannabis em vez de crack) disse que ele e Barraclough mantiveram as conclusões de seu relatório de 2019.
“O vídeo de ‘Jacinda Ardern Smokes Cannabis’ não mudou nossas mentes”, disse ele ao Herald hoje. (A reinicialização que causou confusão na mídia australiana no fim de semana incluía uma legenda dizendo “Tubo de crack? … Que modelo”).
“Estávamos cientes disso em maio, quando foi publicado pouco antes do referendo e da eleição. A nosso ver, o vídeo de Ardern é mais parecido com um cartoon político, ou sátira. É obviamente falso e plausivelmente poderia provocar discussões interessantes sobre as drogas política.”
Barnes diz que um artigo do News.com.au no clipe de “Ardern” publicado no fim de semana foi semelhante a histórias assustadoras escritas quatro anos atrás.
“Desde então, não houve eventos deepfake relacionados com grande impacto estratégico ou político que conhecemos. Como tal, consideramos o artigo injustificadamente alarmista”, disse Barnes, que co-fundou um think tank chamado The Brainbox Institute com outros Graduado em direito e membro do AI Forum Barraclough.
Mas ele adverte: “A lei da Nova Zelândia ainda é vaga sobre se é um crime usar uma falsificação para retratar alguém como nu ou fazendo sexo. O Parlamento está ciente disso – foi criado por Brainbox, por Internet NZ, Netsafe e o Comissário de privacidade. Os parlamentares optaram por não abordar isso. “
A tecnologia Deepfake costuma ser usada para diversão. O ator Miles Fisher, por exemplo, recentemente ganhou 3,2 milhões de seguidores no TikTok por sua conta “DeepTomCruise”, que apresenta clipes renderizados de forma muito convincente que mostram o ator de Hollywood fazendo várias declarações exageradas. O TikTok determinou que a conta – que ainda está ativa – se enquadra nas regras de paródia.
Mas também há o lado da guerra política na tecnologia.
LEIAMAIS
O News.com.au observou que o último relatório do The Australian Strategic Policy Institute relatório sobre a tecnologia, intitulada “Falsificações profundas com armas”, analisa profundamente para onde o problema está se dirigindo.
“Falsificações profundas representam o maior risco quando combinadas com outras tecnologias e tendências sociais: elas aumentam os ataques cibernéticos, aceleram a propagação da propaganda e da desinformação online e exacerbam o declínio da confiança nas instituições democráticas”, diz o relatório.
Os autores dizem que o “modelo russo” de desinformação – o compartilhamento de grandes quantidades de propaganda – será mais beneficiado nos próximos anos.
“A propaganda online já é um problema significativo, especialmente para as democracias, mas os deepfakes irão reduzir os custos de se engajar na guerra de informação em escala e ampliar a gama de atores capazes de se engajar nela”, diz o relatório.
“Hoje, a propaganda é em grande parte gerada por humanos, como os ’50 -centres ‘da China e os operadores russos de’ troll farm ‘. No entanto, melhorias em tecnologias falsas profundas, especialmente ferramentas de geração de texto, podem ajudar a tirar os humanos’ fora do circuito ‘ .
“A principal razão para isso não é que deepfakes sejam mais autênticos do que o conteúdo gerado pelo homem, mas sim que podem produzir conteúdo ‘bom o suficiente’ mais rápido e mais economicamente do que os modelos atuais de guerra de informação.
“A tecnologia Deepfake será um valor agregado especial ao chamado modelo russo de propaganda, que enfatiza o volume e a rapidez da desinformação sobre a plausibilidade e a consistência para oprimir, desorientar e dividir um alvo.”
O ministro da Justiça, Andrew Little, e o ministro da Economia Digital e Comunicações, David Clark, foram solicitados a comentar.
.
Discussão sobre isso post