A inteligência artificial (IA) apresenta riscos “multifacetados” se usada por pessoas com intenções hostis – incluindo atores estatais como a “fazenda de trolls” financiada pelo fundador do Grupo Wagner, Yevgeny Prigozhin, alertou um especialista em tecnologia cibernética.
Suid Adeyanju, CEO dos especialistas em segurança cibernética RiverSafe, falou após a publicação de um estudo alarmante publicado no início desta semana pela Universidade de Surrey, indicando que a IA pode identificar senhas com uma precisão superior a 90% através do som das teclas digitadas.
O estudo descreve como os pesquisadores pressionaram cada uma das 36 teclas de um MacBook Pro, incluindo todas as letras e números, 25 vezes seguidas, usando dedos diferentes e com pressão variável.
Os sons foram gravados tanto em uma chamada do Zoom quanto em um smartphone colocado a uma curta distância do teclado.
Quando treinado em teclas gravadas por um telefone próximo, o classificador alcançou uma precisão de 95%, a maior precisão vista sem o uso de um modelo de linguagem.
Adeyanju disse: “Este estudo deve servir como um alerta sobre os verdadeiros riscos representados pela inteligência artificial quando a tecnologia é sequestrada por criminosos cibernéticos.
“Muitas organizações estão correndo para adotar a tecnologia sem conduzir nem mesmo os testes de due diligence mais básicos e em total desrespeito aos protocolos de segurança padrão.
“Os executivos mais entusiasmados devem observar que a IA pode se parecer com a Barbie, mas pode se tornar Oppenheimer se as proteções cibernéticas e os procedimentos regulatórios necessários não estiverem em vigor.”
Ele disse ao Express.co.uk: “Os riscos reais da tecnologia como a IA são multifacetados e incluem ataques cibernéticos, preocupações com segurança e privacidade, dilemas éticos, desigualdade econômica, desafios legais e regulatórios”.
Do ponto de vista da segurança cibernética, os ataques cibernéticos habilitados por IA eram uma ameaça premente para as empresas, com a pesquisa da RiverSafe indicando que 80% dos diretores de segurança da informação (CISOs) acreditavam que essa era a maior ameaça.
Eles também preveem que a IA ultrapassará as defesas cibernéticas, levando as empresas a tomar medidas urgentes para reforçar sua postura de segurança.
Adeyanju continuou: “A IA pode ser mal utilizada por vários agentes de ameaças, incluindo cibercriminosos e indivíduos mal-intencionados.
“Um exemplo é o uso de IA para realizar ataques de phishing. Os e-mails de phishing têm sido bastante fáceis de detectar graças à má redação, os e-mails de phishing criados por um agente de ameaça não familiarizado com um idioma tendem a ser fáceis de detectar devido à gramática incorreta, erros vocabulário e má ortografia.
“Esses erros flagrantes eram fáceis de detectar por pessoas razoavelmente cuidadosas, bem como por defesas automatizadas.
“Mas com a IA é muito provável que um e-mail de phishing pareça genuíno, levando mais vítimas em potencial a clicar em links maliciosos, tornando-os altamente eficazes e perigosos.
“O exemplo acima destaca a necessidade de medidas de segurança robustas e considerações éticas no desenvolvimento e implantação de tecnologias de IA”.
Questionado sobre o potencial da Agência de Pesquisa na Internet de Yevgeny para fazer uso da tecnologia em rápido desenvolvimento para fins nefastos, Adeyanju acrescentou: “Os atores estatais estão cada vez mais alavancando a IA em seus esforços de segurança cibernética.
“A IA pode ser usada por hackers patrocinados pelo estado para realizar ataques cibernéticos sofisticados, incluindo campanhas de phishing direcionadas, violações de dados, sequestro virtual e design de malware.
“Os atores estatais também podem usar a IA para coletar inteligência, analisar vulnerabilidades em software e sistemas e ficar um passo à frente das defesas de segurança cibernética”.
Além disso, a IA pode ser usada para manipular a opinião pública e espalhar falsas narrativas, permitindo que atores estatais influenciem cenários políticos e até desestabilizem governos, apontou o Sr. Adeyanju
Ele concluiu: “O uso de IA por atores estatais na segurança cibernética representa desafios significativos para a defesa contra ameaças avançadas e persistentes”.
A inteligência artificial (IA) apresenta riscos “multifacetados” se usada por pessoas com intenções hostis – incluindo atores estatais como a “fazenda de trolls” financiada pelo fundador do Grupo Wagner, Yevgeny Prigozhin, alertou um especialista em tecnologia cibernética.
Suid Adeyanju, CEO dos especialistas em segurança cibernética RiverSafe, falou após a publicação de um estudo alarmante publicado no início desta semana pela Universidade de Surrey, indicando que a IA pode identificar senhas com uma precisão superior a 90% através do som das teclas digitadas.
O estudo descreve como os pesquisadores pressionaram cada uma das 36 teclas de um MacBook Pro, incluindo todas as letras e números, 25 vezes seguidas, usando dedos diferentes e com pressão variável.
Os sons foram gravados tanto em uma chamada do Zoom quanto em um smartphone colocado a uma curta distância do teclado.
Quando treinado em teclas gravadas por um telefone próximo, o classificador alcançou uma precisão de 95%, a maior precisão vista sem o uso de um modelo de linguagem.
Adeyanju disse: “Este estudo deve servir como um alerta sobre os verdadeiros riscos representados pela inteligência artificial quando a tecnologia é sequestrada por criminosos cibernéticos.
“Muitas organizações estão correndo para adotar a tecnologia sem conduzir nem mesmo os testes de due diligence mais básicos e em total desrespeito aos protocolos de segurança padrão.
“Os executivos mais entusiasmados devem observar que a IA pode se parecer com a Barbie, mas pode se tornar Oppenheimer se as proteções cibernéticas e os procedimentos regulatórios necessários não estiverem em vigor.”
Ele disse ao Express.co.uk: “Os riscos reais da tecnologia como a IA são multifacetados e incluem ataques cibernéticos, preocupações com segurança e privacidade, dilemas éticos, desigualdade econômica, desafios legais e regulatórios”.
Do ponto de vista da segurança cibernética, os ataques cibernéticos habilitados por IA eram uma ameaça premente para as empresas, com a pesquisa da RiverSafe indicando que 80% dos diretores de segurança da informação (CISOs) acreditavam que essa era a maior ameaça.
Eles também preveem que a IA ultrapassará as defesas cibernéticas, levando as empresas a tomar medidas urgentes para reforçar sua postura de segurança.
Adeyanju continuou: “A IA pode ser mal utilizada por vários agentes de ameaças, incluindo cibercriminosos e indivíduos mal-intencionados.
“Um exemplo é o uso de IA para realizar ataques de phishing. Os e-mails de phishing têm sido bastante fáceis de detectar graças à má redação, os e-mails de phishing criados por um agente de ameaça não familiarizado com um idioma tendem a ser fáceis de detectar devido à gramática incorreta, erros vocabulário e má ortografia.
“Esses erros flagrantes eram fáceis de detectar por pessoas razoavelmente cuidadosas, bem como por defesas automatizadas.
“Mas com a IA é muito provável que um e-mail de phishing pareça genuíno, levando mais vítimas em potencial a clicar em links maliciosos, tornando-os altamente eficazes e perigosos.
“O exemplo acima destaca a necessidade de medidas de segurança robustas e considerações éticas no desenvolvimento e implantação de tecnologias de IA”.
Questionado sobre o potencial da Agência de Pesquisa na Internet de Yevgeny para fazer uso da tecnologia em rápido desenvolvimento para fins nefastos, Adeyanju acrescentou: “Os atores estatais estão cada vez mais alavancando a IA em seus esforços de segurança cibernética.
“A IA pode ser usada por hackers patrocinados pelo estado para realizar ataques cibernéticos sofisticados, incluindo campanhas de phishing direcionadas, violações de dados, sequestro virtual e design de malware.
“Os atores estatais também podem usar a IA para coletar inteligência, analisar vulnerabilidades em software e sistemas e ficar um passo à frente das defesas de segurança cibernética”.
Além disso, a IA pode ser usada para manipular a opinião pública e espalhar falsas narrativas, permitindo que atores estatais influenciem cenários políticos e até desestabilizem governos, apontou o Sr. Adeyanju
Ele concluiu: “O uso de IA por atores estatais na segurança cibernética representa desafios significativos para a defesa contra ameaças avançadas e persistentes”.
Discussão sobre isso post