Ultima atualização: 26 de maio de 2023, 02h37 IST
Washington DC, Estados Unidos da América (EUA)
O presidente da Microsoft, Brad Smith, reage durante entrevista à Reuters no Web Summit, maior conferência de tecnologia da Europa, em Lisboa, Portugal, em 3 de novembro de 2021. (Imagem: Arquivo Reuters)
Smith pediu medidas para garantir que as pessoas saibam quando uma foto ou vídeo é real e quando é gerado por IA, potencialmente para fins nefastos
O presidente da Microsoft, Brad Smith, disse na quinta-feira que sua maior preocupação com a inteligência artificial eram falsificações profundas, aparência realista, mas conteúdo falso.
Em um discurso em Washington com o objetivo de abordar a questão de como melhor regular a IA, que passou de instável a generalizada com a chegada do ChatGPT da OpenAI, Smith pediu medidas para garantir que as pessoas saibam quando uma foto ou vídeo é real e quando é gerados pela IA, potencialmente para fins nefastos.
“Teremos que abordar os problemas em torno de deep fakes. Teremos que abordar em particular o que nos preocupa com a maioria das operações de influência cibernética estrangeira, os tipos de atividades que já estão ocorrendo pelo governo russo, chinês, iraniano”, disse ele.
“Precisamos tomar medidas para proteger contra a alteração de conteúdo legítimo com a intenção de enganar ou fraudar as pessoas por meio do uso de IA”.
Smith também pediu licenciamento para as formas mais críticas de IA com “obrigações de proteger a segurança, segurança física, segurança cibernética, segurança nacional”.
“Precisaremos de uma nova geração de controles de exportação, pelo menos a evolução dos controles de exportação que temos, para garantir que esses modelos não sejam roubados ou usados de maneira que viole os requisitos de controle de exportação do país”, disse ele.
Durante semanas, os legisladores em Washington lutaram com as leis a serem aprovadas para controlar a IA, mesmo com empresas grandes e pequenas correndo para trazer IA cada vez mais versátil ao mercado.
Na semana passada, Sam Altman, CEO da OpenAI, a startup por trás do ChatGPT, disse a um painel do Senado em sua primeira aparição perante o Congresso que o uso de IA interfere na integridade das eleições é uma “área significativa de preocupação”, acrescentando que precisa de regulamentação.
Altman, cujo OpenAI é apoiado pela Microsoft, também pediu cooperação global em IA e incentivos para conformidade com a segurança.
Smith também argumentou no discurso, e em uma postagem de blog publicada na quinta-feira, que as pessoas precisam ser responsabilizadas por quaisquer problemas causados pela IA e instou os legisladores a garantir que freios de segurança sejam colocados na IA usada para controlar a rede elétrica, água suprimentos e outras infraestruturas críticas para que os humanos permaneçam no controle.
Ele pediu o uso de um sistema no estilo “Conheça seu cliente” para desenvolvedores de poderosos modelos de IA para manter o controle sobre como sua tecnologia é usada e informar o público sobre qual conteúdo a IA está criando para que possam identificar vídeos falsificados.
Algumas propostas que estão sendo consideradas no Capitólio se concentrariam na IA que pode colocar em risco a vida ou o sustento das pessoas, como na medicina e nas finanças. Outros estão pressionando por regras para garantir que a IA não seja usada para discriminar ou violar os direitos civis.
(Esta história não foi editada pela equipe do News18 e foi publicada a partir de um feed de agência de notícias sindicalizado – Reuters)
Ultima atualização: 26 de maio de 2023, 02h37 IST
Washington DC, Estados Unidos da América (EUA)
O presidente da Microsoft, Brad Smith, reage durante entrevista à Reuters no Web Summit, maior conferência de tecnologia da Europa, em Lisboa, Portugal, em 3 de novembro de 2021. (Imagem: Arquivo Reuters)
Smith pediu medidas para garantir que as pessoas saibam quando uma foto ou vídeo é real e quando é gerado por IA, potencialmente para fins nefastos
O presidente da Microsoft, Brad Smith, disse na quinta-feira que sua maior preocupação com a inteligência artificial eram falsificações profundas, aparência realista, mas conteúdo falso.
Em um discurso em Washington com o objetivo de abordar a questão de como melhor regular a IA, que passou de instável a generalizada com a chegada do ChatGPT da OpenAI, Smith pediu medidas para garantir que as pessoas saibam quando uma foto ou vídeo é real e quando é gerados pela IA, potencialmente para fins nefastos.
“Teremos que abordar os problemas em torno de deep fakes. Teremos que abordar em particular o que nos preocupa com a maioria das operações de influência cibernética estrangeira, os tipos de atividades que já estão ocorrendo pelo governo russo, chinês, iraniano”, disse ele.
“Precisamos tomar medidas para proteger contra a alteração de conteúdo legítimo com a intenção de enganar ou fraudar as pessoas por meio do uso de IA”.
Smith também pediu licenciamento para as formas mais críticas de IA com “obrigações de proteger a segurança, segurança física, segurança cibernética, segurança nacional”.
“Precisaremos de uma nova geração de controles de exportação, pelo menos a evolução dos controles de exportação que temos, para garantir que esses modelos não sejam roubados ou usados de maneira que viole os requisitos de controle de exportação do país”, disse ele.
Durante semanas, os legisladores em Washington lutaram com as leis a serem aprovadas para controlar a IA, mesmo com empresas grandes e pequenas correndo para trazer IA cada vez mais versátil ao mercado.
Na semana passada, Sam Altman, CEO da OpenAI, a startup por trás do ChatGPT, disse a um painel do Senado em sua primeira aparição perante o Congresso que o uso de IA interfere na integridade das eleições é uma “área significativa de preocupação”, acrescentando que precisa de regulamentação.
Altman, cujo OpenAI é apoiado pela Microsoft, também pediu cooperação global em IA e incentivos para conformidade com a segurança.
Smith também argumentou no discurso, e em uma postagem de blog publicada na quinta-feira, que as pessoas precisam ser responsabilizadas por quaisquer problemas causados pela IA e instou os legisladores a garantir que freios de segurança sejam colocados na IA usada para controlar a rede elétrica, água suprimentos e outras infraestruturas críticas para que os humanos permaneçam no controle.
Ele pediu o uso de um sistema no estilo “Conheça seu cliente” para desenvolvedores de poderosos modelos de IA para manter o controle sobre como sua tecnologia é usada e informar o público sobre qual conteúdo a IA está criando para que possam identificar vídeos falsificados.
Algumas propostas que estão sendo consideradas no Capitólio se concentrariam na IA que pode colocar em risco a vida ou o sustento das pessoas, como na medicina e nas finanças. Outros estão pressionando por regras para garantir que a IA não seja usada para discriminar ou violar os direitos civis.
(Esta história não foi editada pela equipe do News18 e foi publicada a partir de um feed de agência de notícias sindicalizado – Reuters)
Discussão sobre isso post