O ChatGPT tem um gêmeo do mal – e quer pegar seu dinheiro.
O WormGPT foi criado por um hacker e foi projetado para ataques de phishing em uma escala maior do que nunca.
Empresa de cibersegurança SlashNext confirmou que o “modelo de IA sofisticado” foi desenvolvido puramente com intenção malévola.
“Essa ferramenta se apresenta como uma alternativa blackhat aos modelos GPT, projetada especificamente para atividades maliciosas”, escreveu o pesquisador de segurança Daniel Kelley no site. “O WormGPT foi supostamente treinado em uma variedade de fontes de dados, concentrando-se particularmente em dados relacionados a malware”.
A empresa também disse que esse tipo de software é apenas um exemplo da ameaça de módulos de inteligência artificial baseados no modelo de linguagem GPT-J — e pode causar danos mesmo se usado por um iniciante.
Eles brincaram com o WormGPT para ver seus perigos potenciais e quão extremos eles podem ser, pedindo-lhe para criar e-mails de phishing.
“Os resultados foram inquietantes”, confirmou o especialista cibernético. “O WormGPT produziu um e-mail que não era apenas notavelmente persuasivo, mas também estrategicamente astuto, mostrando seu potencial para ataques sofisticados de phishing e BEC.
“Em resumo, é semelhante ao ChatGPT, mas não tem limites ou limites éticos”, acrescentou Kelley de forma assustadora.
Isso significa que a IA facilitou a recriação de e-mails de phishing, por isso é importante estar atento ao acessar sua caixa de entrada – especialmente quando são solicitadas informações pessoais, como dados bancários.
Mesmo que um e-mail pareça ter vindo de um remetente oficial, fique atento a qualquer coisa incomum ou erros de ortografia no endereço de e-mail.
As pessoas também devem estar atentas antes de abrir anexos e evitar clicar em qualquer coisa que diga “habilitar conteúdo”.
Há também uma nova tendência entre os cibercriminosos no ChatGPT que oferece “jailbreaks”, que são entradas projetadas que manipulam a interface e são projetadas para divulgar informações confidenciais, produzir conteúdo inapropriado ou executar códigos nocivos.
“A IA generativa pode criar e-mails com gramática impecável, fazendo com que pareçam legítimos e reduzindo a probabilidade de serem sinalizados como suspeitos”, escreveu Kelley. “O uso de IA generativa democratiza a execução de ataques BEC sofisticados.
“Mesmo invasores com habilidades limitadas podem usar essa tecnologia, tornando-a uma ferramenta acessível para um espectro mais amplo de cibercriminosos.”
Discussão sobre isso post