PARA Roy Francis
ATUALIZADO 10h35 – quarta-feira, 29 de março de 2023
Vários líderes tecnológicos e pesquisadores conhecidos de Inteligência Artificial (IA), juntamente com Elon Musk e Steve Wozniak, assinaram uma carta pedindo aos laboratórios de IA em todo o mundo que parem o desenvolvimento de grandes sistemas de IA.
A cartaassinado por mais de 1.000 pessoas, incluindo Musk, pediu aos desenvolvedores de IA que “pausassem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4”.
A carta, publicada pelo Future of Life Institute, citava temores sobre os “profundos riscos para a sociedade e a humanidade”. Ele também alertou que, no estágio atual, ninguém pode “entender, prever ou controlar de forma confiável” as novas ferramentas que estão sendo desenvolvidas nos laboratórios de IA.
O Future of Life Institute também observa que os laboratórios de IA estão travados em uma “corrida fora de controle” para desenvolver novos sistemas “que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”.
“Portanto, pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4”, dizia a carta. “Essa pausa deve ser pública e verificável e incluir todos os atores-chave. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória”.
Os especialistas em tecnologia que assinaram a carta disseram que os protocolos de segurança precisam ser desenvolvidos por partes independentes para orientar o futuro dos sistemas que estão sendo desenvolvidos.
“Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes”, afirma a carta. “Paralelamente, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA.”
A carta também observou que a OpenAI, empresa que desenvolveu o ChatGPT, também expressou a necessidade de uma “revisão independente” de futuros sistemas para garantir que os padrões de segurança sejam atendidos.
Os signatários da carta incluem Elon Musk, o cofundador da Apple, Steve Wozniak, o cofundador do Skype, Jaan Tallinn, o CEO da Stability AI, Emad Mostaque, o autor Yuval Noah Harari, o político Andrew Yang, bem como pesquisadores da DeepMind, de propriedade da Alphabet, e uma série de outros líderes de tecnologia.
Mantenha-se informado! Receba notícias de última hora diretamente em sua caixa de entrada gratuitamente. Inscreva-se aqui. https://www.oann.com/alerts
PARA Roy Francis
ATUALIZADO 10h35 – quarta-feira, 29 de março de 2023
Vários líderes tecnológicos e pesquisadores conhecidos de Inteligência Artificial (IA), juntamente com Elon Musk e Steve Wozniak, assinaram uma carta pedindo aos laboratórios de IA em todo o mundo que parem o desenvolvimento de grandes sistemas de IA.
A cartaassinado por mais de 1.000 pessoas, incluindo Musk, pediu aos desenvolvedores de IA que “pausassem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4”.
A carta, publicada pelo Future of Life Institute, citava temores sobre os “profundos riscos para a sociedade e a humanidade”. Ele também alertou que, no estágio atual, ninguém pode “entender, prever ou controlar de forma confiável” as novas ferramentas que estão sendo desenvolvidas nos laboratórios de IA.
O Future of Life Institute também observa que os laboratórios de IA estão travados em uma “corrida fora de controle” para desenvolver novos sistemas “que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”.
“Portanto, pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4”, dizia a carta. “Essa pausa deve ser pública e verificável e incluir todos os atores-chave. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória”.
Os especialistas em tecnologia que assinaram a carta disseram que os protocolos de segurança precisam ser desenvolvidos por partes independentes para orientar o futuro dos sistemas que estão sendo desenvolvidos.
“Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes”, afirma a carta. “Paralelamente, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA.”
A carta também observou que a OpenAI, empresa que desenvolveu o ChatGPT, também expressou a necessidade de uma “revisão independente” de futuros sistemas para garantir que os padrões de segurança sejam atendidos.
Os signatários da carta incluem Elon Musk, o cofundador da Apple, Steve Wozniak, o cofundador do Skype, Jaan Tallinn, o CEO da Stability AI, Emad Mostaque, o autor Yuval Noah Harari, o político Andrew Yang, bem como pesquisadores da DeepMind, de propriedade da Alphabet, e uma série de outros líderes de tecnologia.
Mantenha-se informado! Receba notícias de última hora diretamente em sua caixa de entrada gratuitamente. Inscreva-se aqui. https://www.oann.com/alerts
Discussão sobre isso post