O uso generalizado de deepfakes na web preocupa o chefe da Microsoft, Brad Smith, e ele alertou que o software de inteligência artificial deve ser regulamentado durante um discurso na quinta-feira.
A ascensão da IA foi rápida nos últimos anos e agora é comumente usada em hospitais e zonas de guerra.
Falando em uma conferência em Washington DC, Smith disse que os deepfakes criados pela IA precisarão ser abordados pelos gigantes da tecnologia.
O presidente da Microsoft continuou: “Teremos que abordar em particular o que nos preocupa com a maioria das operações de influência cibernética estrangeira, os tipos de atividades que já estão ocorrendo pelo governo russo, chinês e iraniano”.
Ele acrescentou: “Precisamos tomar medidas para proteger contra a alteração de conteúdo legítimo com a intenção de enganar ou fraudar as pessoas por meio do uso de IA”.
LEIA MAIS: Novo antibiótico para matar superbactérias descoberto usando IA
Deepfakes usam uma forma de inteligência artificial chamada deep learning para criar imagens de eventos ou pessoas falsas.
Ele pode permitir que os usuários de IA alterem vídeos, como colocar o rosto de outra pessoa no corpo de outra pessoa.
Eles usam uma mistura de IA e imagens de computador e têm sido usados com frequência nos últimos anos, principalmente durante a invasão da Ucrânia pela Rússia.
Um vídeo falso profundo do presidente ucraniano Volodymyr Zelenskyy, no qual uma versão falsa dele estava dizendo a seus soldados para se retirarem, circulou nas redes sociais recentemente.
Em seu discurso, Smith disse que o licenciamento de tecnologia crítica de IA ajudaria a impedir violações éticas.
Ele disse que novas medidas seriam necessárias para “garantir que esses modelos não sejam roubados ou usados de maneira que viole os requisitos de controle de exportação do país”.
Seu discurso ocorreu durante uma discussão entre legisladores de Washington e especialistas em IA sobre como a tecnologia pode ser usada de forma positiva.
Sam Altman, chefe do ChatGPT, também discutiu o assunto, expondo seus próprios temores quanto ao futuro da tecnologia.
Ele disse: “Meu maior medo é que nós, a tecnologia, causemos danos significativos ao mundo. Acho que, se essa tecnologia der errado, pode dar muito errado.”
A maior preocupação enfrentada pela tecnologia, acrescentou Smith, era a desinformação durante os períodos eleitorais.
O uso generalizado de deepfakes na web preocupa o chefe da Microsoft, Brad Smith, e ele alertou que o software de inteligência artificial deve ser regulamentado durante um discurso na quinta-feira.
A ascensão da IA foi rápida nos últimos anos e agora é comumente usada em hospitais e zonas de guerra.
Falando em uma conferência em Washington DC, Smith disse que os deepfakes criados pela IA precisarão ser abordados pelos gigantes da tecnologia.
O presidente da Microsoft continuou: “Teremos que abordar em particular o que nos preocupa com a maioria das operações de influência cibernética estrangeira, os tipos de atividades que já estão ocorrendo pelo governo russo, chinês e iraniano”.
Ele acrescentou: “Precisamos tomar medidas para proteger contra a alteração de conteúdo legítimo com a intenção de enganar ou fraudar as pessoas por meio do uso de IA”.
LEIA MAIS: Novo antibiótico para matar superbactérias descoberto usando IA
Deepfakes usam uma forma de inteligência artificial chamada deep learning para criar imagens de eventos ou pessoas falsas.
Ele pode permitir que os usuários de IA alterem vídeos, como colocar o rosto de outra pessoa no corpo de outra pessoa.
Eles usam uma mistura de IA e imagens de computador e têm sido usados com frequência nos últimos anos, principalmente durante a invasão da Ucrânia pela Rússia.
Um vídeo falso profundo do presidente ucraniano Volodymyr Zelenskyy, no qual uma versão falsa dele estava dizendo a seus soldados para se retirarem, circulou nas redes sociais recentemente.
Em seu discurso, Smith disse que o licenciamento de tecnologia crítica de IA ajudaria a impedir violações éticas.
Ele disse que novas medidas seriam necessárias para “garantir que esses modelos não sejam roubados ou usados de maneira que viole os requisitos de controle de exportação do país”.
Seu discurso ocorreu durante uma discussão entre legisladores de Washington e especialistas em IA sobre como a tecnologia pode ser usada de forma positiva.
Sam Altman, chefe do ChatGPT, também discutiu o assunto, expondo seus próprios temores quanto ao futuro da tecnologia.
Ele disse: “Meu maior medo é que nós, a tecnologia, causemos danos significativos ao mundo. Acho que, se essa tecnologia der errado, pode dar muito errado.”
A maior preocupação enfrentada pela tecnologia, acrescentou Smith, era a desinformação durante os períodos eleitorais.
Discussão sobre isso post