O especialista em inteligência artificial Eliezer Yudkowsky acredita que o governo dos EUA deve implementar mais do que uma “pausa” imediata de seis meses na pesquisa de IA, conforme sugerido anteriormente por vários inovadores de tecnologia, incluindo Elon Musk.
em um recente Tempo editorialYudkowsky, um teórico da decisão no Machine Intelligence Research Institute que estudou IA por mais de 20 anos, afirmou que o A carta assinada pelo CEO do Twitter subestima a “gravidade da situação”, já que a IA poderia se tornar mais inteligente – e se voltar – contra os humanos.
Emitida pelo Future of Life Institute, a carta aberta é assinada por mais de 1.600 pessoas, incluindo Musk e o cofundador da Apple, Steve Wozniak.
Ele pede ao governo que interrompa o desenvolvimento de qualquer sistema de IA que seja mais poderoso que o atual sistema GPT-4.
A carta argumenta que “poderosos sistemas de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis”, o que Yudkowsky contesta.
“A questão-chave não é a inteligência ‘humana-competitiva’ (como diz a carta aberta); é o que acontece depois que a IA chega a uma inteligência mais inteligente do que a humana”, escreveu ele.
“Muitos pesquisadores imersos nessas questões, inclusive eu, esperam que o resultado mais provável da construção de uma IA inteligente sobre-humana, em qualquer coisa remotamente parecida com as circunstâncias atuais, é que literalmente todos na Terra morrerão”, afirmou Yudkowsky. “Não como em ‘talvez possivelmente alguma chance remota’, mas como em ‘essa é a coisa óbvia que aconteceria’.”
Yudkowsky teme que a IA possa desobedecer a seus criadores e não se importar com as vidas humanas.
“Visualize uma civilização alienígena inteira, pensando em milhões de vezes a velocidade humana, inicialmente confinada a computadores – em um mundo de criaturas que são, de sua perspectiva, muito estúpidas e muito lentas”, escreveu ele.
Ele acrescentou que seis meses não é tempo suficiente para elaborar um plano sobre como lidar com o rápido avanço da tecnologia.
“Levou mais de 60 anos desde que a noção de Inteligência Artificial foi proposta e estudada pela primeira vez, até chegarmos às capacidades de hoje”, continuou ele. “Resolver a segurança da inteligência sobre-humana – não a segurança perfeita, segurança no sentido de ‘não matar literalmente todo mundo’ – poderia levar pelo menos metade desse tempo.”
A proposta de Yudkowsky nesta questão é ter cooperação internacional para interromper o desenvolvimento de poderosos sistemas de IA.
Ele alegou que isso seria mais importante do que “impedir uma troca nuclear completa”.
“Feche tudo”, escreveu ele. “Desligue todos os grandes clusters de GPU (as grandes fazendas de computadores onde as IAs mais poderosas são refinadas). Encerre todas as grandes corridas de treinamento. Coloque um teto em quanto poder de computação alguém pode usar no treinamento de um sistema de IA e reduza-o nos próximos anos para compensar algoritmos de treinamento mais eficientes. Sem exceções para governos e militares”.
Seu aviso vem quando a IA já está tornando mais difícil para as pessoas decifrarem o que é real.
Na semana passada, imagens geradas por computador do ex-presidente Donald Trump lutando contra e ser preso por oficiais do NYPD se tornou viral enquanto ele aguarda uma possível acusação.
Outro conjunto de fotos falsas mostrando o Papa Francisco em uma jaqueta branca incomum também levou a internet a pensar que o líder religioso havia intensificado seu senso de moda.
Discussão sobre isso post