A inteligência artificial pode trazer o fim da humanidade, alertaram especialistas.
O alerta vem de muitos que estão ativamente envolvidos no desenvolvimento de ferramentas de IA, incluindo os chefes da OpenAI e do Google Deepmind.
Dezenas de pessoas apoiaram a nova declaração publicada na página da Centro de Segurança de IAque pede que a mitigação dos riscos da IA seja considerada uma “prioridade global” no mesmo nível de “pandemias e guerra nuclear”.
Sam Altman, executivo-chefe da OpenAI, fabricante do ChatGPT, executivo-chefe do Google DeepMind, Demis Hassabis, e Dario Amodei, da Anthropic, apoiaram a declaração.
Geoffrey Hinton, o chamado “padrinho da IA”, que emitiu um alerta anterior sobre os riscos da IA superinteligente, também apoiou o apelo.
No entanto, os críticos argumentaram que esses medos são irrealistas e afirmam que aqueles que os espalham podem ter segundas intenções.
Eles argumentam que os criadores da IA alegando que ela é capaz de acabar com a humanidade podem ser uma manobra deliberada para fazer sua própria tecnologia parecer mais poderosa do que realmente é.
Outros argumentam que o medo é uma distração dos problemas existentes na IA, como a capacidade da tecnologia de aprimorar os vieses existentes.
A declaração do Center for AI Safety na íntegra diz: “Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”.
Estaremos trazendo a você as últimas atualizações, fotos e vídeos sobre esta notícia de última hora.
Para as últimas notícias e notícias de última hora, visite: /news
Mantenha-se atualizado com todas as grandes manchetes, fotos, análises, opiniões e vídeos sobre as histórias que são importantes para você.
Siga nossas contas de mídia social aqui em facebook.com/DailyExpress e @Daily_Express
A inteligência artificial pode trazer o fim da humanidade, alertaram especialistas.
O alerta vem de muitos que estão ativamente envolvidos no desenvolvimento de ferramentas de IA, incluindo os chefes da OpenAI e do Google Deepmind.
Dezenas de pessoas apoiaram a nova declaração publicada na página da Centro de Segurança de IAque pede que a mitigação dos riscos da IA seja considerada uma “prioridade global” no mesmo nível de “pandemias e guerra nuclear”.
Sam Altman, executivo-chefe da OpenAI, fabricante do ChatGPT, executivo-chefe do Google DeepMind, Demis Hassabis, e Dario Amodei, da Anthropic, apoiaram a declaração.
Geoffrey Hinton, o chamado “padrinho da IA”, que emitiu um alerta anterior sobre os riscos da IA superinteligente, também apoiou o apelo.
No entanto, os críticos argumentaram que esses medos são irrealistas e afirmam que aqueles que os espalham podem ter segundas intenções.
Eles argumentam que os criadores da IA alegando que ela é capaz de acabar com a humanidade podem ser uma manobra deliberada para fazer sua própria tecnologia parecer mais poderosa do que realmente é.
Outros argumentam que o medo é uma distração dos problemas existentes na IA, como a capacidade da tecnologia de aprimorar os vieses existentes.
A declaração do Center for AI Safety na íntegra diz: “Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”.
Estaremos trazendo a você as últimas atualizações, fotos e vídeos sobre esta notícia de última hora.
Para as últimas notícias e notícias de última hora, visite: /news
Mantenha-se atualizado com todas as grandes manchetes, fotos, análises, opiniões e vídeos sobre as histórias que são importantes para você.
Siga nossas contas de mídia social aqui em facebook.com/DailyExpress e @Daily_Express
Discussão sobre isso post