Geoffrey Hinton foi um pioneiro da inteligência artificial. Em 2012, o Dr. Hinton e dois de seus estudantes de pós -graduação da Universidade de Toronto criaram tecnologia que se tornou a base intelectual para os sistemas de IA que as maiores empresas do setor de tecnologia acreditam ser a chave para o seu futuro.
Na segunda -feira, no entanto, ele ingressou oficialmente em um coroa crescente de críticos que dizem que essas empresas estão correndo em direção ao perigo com sua campanha agressiva para criar produtos baseados em inteligência artificial generativa, a tecnologia que alimenta chatbots populares como o ChatGPT.
O Dr. Hinton disse que deixou seu emprego no Google, onde trabalha há mais de uma década e se tornou uma das vozes mais respeitadas do campo, para que ele possa falar livremente sobre os riscos de Ai uma parte dele, ele disse , agora lamenta o trabalho de sua vida.
“Eu me consolo com a desculpa normal: se eu não tivesse feito isso, outra pessoa teria”, disse o Dr. Hinton durante uma longa entrevista na semana passada na sala de jantar de sua casa em Toronto, a uma curta caminhada de onde ele e seus alunos fizeram sua descoberta.
A jornada do Dr. Hinton de pioneiro da IA a apocalíptico marca um momento notável para a indústria de tecnologia, talvez em seu ponto de inflexão mais importante em décadas. Os líderes da indústria acreditam que os novos sistemas de IA podem ser tão importantes quanto a introdução do navegador da Web no início dos anos 90 e podem levar a avanços em áreas que vão desde a pesquisa de drogas até a educação.
Mas atormentando muitos membros da indústria está o medo de que eles estejam liberando algo perigoso na natureza. A IA generativa já pode ser uma ferramenta para desinformação. Em breve, pode ser um risco para os empregos. Em algum momento, dizem os maiores temores da tecnologia, pode ser um risco para a humanidade.
“É difícil ver como você pode evitar que os maus atores o usem para coisas ruins”, disse o Dr. Hinton.
Depois que a OpenAI, startup de São Francisco, lançou uma nova versão do ChatGPT em março, mais de 1.000 líderes e pesquisadores de tecnologia assinaram uma carta aberta pedindo uma moratória de seis meses no desenvolvimento de novos sistemas porque as tecnologias de IA representam “riscos profundos para a sociedade”. e humanidade. ”
Vários dias depois, 19 atuais e ex-líderes da Associação para o Avanço da Inteligência Artificial, uma sociedade acadêmica de 40 anos, lançou sua própria carta alertando sobre os riscos da IA Esse grupo incluía Eric Horvitz, diretor científico da Microsoft, que implantou a tecnologia da OpenAI em uma ampla gama de produtos, incluindo seu mecanismo de busca Bing.
Dr. Hinton, muitas vezes chamado de “o padrinho da IA”, não assinou nenhuma dessas cartas e disse que não queria criticar publicamente o Google ou outras empresas até que deixasse o emprego. Ele notificou a empresa no mês passado que estava se demitindo e, na quinta-feira, conversou por telefone com Sundar Pichai, presidente-executivo da Alphabet, controladora do Google. Ele se recusou a discutir publicamente os detalhes de sua conversa com Pichai.
O cientista-chefe do Google, Jeff Dean, disse em um comunicado: “Continuamos comprometidos com uma abordagem responsável da IA. Estamos aprendendo continuamente a entender os riscos emergentes e, ao mesmo tempo, inovar com ousadia”.
O Dr. Hinton, um expatriado britânico de 75 anos, é um acadêmico cuja carreira foi impulsionada por suas convicções pessoais sobre o desenvolvimento e uso da IA. Em 1972, como estudante de pós-graduação na Universidade de Edimburgo, o Dr. ideia chamada rede neural. Uma rede neural é um sistema matemático que aprende habilidades analisando dados. Na época, poucos pesquisadores acreditavam na idéia. Mas tornou-se o trabalho de sua vida.
Na década de 1980, o Dr. Hinton era professor de ciência da computação na Carnegie Mellon University, mas trocou a universidade pelo Canadá porque disse que relutava em receber financiamento do Pentágono. Na época, a maioria das pesquisas de IA nos Estados Unidos foi financiada pelo Departamento de Defesa. O Dr. Hinton se opõe profundamente ao uso da inteligência artificial no campo de batalha – o que ele chama de “soldados de robôs”.
Em 2012, Dr. Hinton e dois de seus alunos em Toronto, Ilya Sutskever e Alex Krishevsky, construíram uma rede neural capaz de analisar milhares de fotos e aprender a identificar objetos comuns, como flores, cachorros e carros.
Google Gastou US $ 44 milhões Para adquirir uma empresa iniciada pelo Dr. Hinton e seus dois estudantes. E seu sistema levou à criação de tecnologias cada vez mais poderosas, incluindo novos chatbots como ChatGPT e Google Bard. O Sr. Sutskever se tornou cientista -chefe da Openai. Em 2018, o Dr. Hinton e dois outros colaboradores de longa data receberam o Prêmio Turing, muitas vezes chamado de “Prêmio Nobel da computação”, por seu trabalho em redes neurais.
Na mesma época, o Google, o OpenAi e outras empresas começaram a criar redes neurais que aprenderam com enormes quantidades de texto digital. O Dr. Hinton achava que era uma maneira poderosa para as máquinas entenderem e gerarem linguagem, mas era inferior à maneira como os humanos lidavam com a linguagem.
Então, no ano passado, à medida que o Google e o OpenAI construíram sistemas usando quantidades muito maiores de dados, sua visão foi alterada. Ele ainda acreditava que os sistemas eram inferiores ao cérebro humano de certa forma, mas achava que eles estavam eclipsando a inteligência humana nos outros. “Talvez o que está acontecendo nesses sistemas”, disse ele, “na verdade é muito melhor do que o que está acontecendo no cérebro”.
À medida que as empresas melhoram seus sistemas de IA, ele acredita, elas se tornam cada vez mais perigosas. “Veja como foi há cinco anos e como é agora”, disse ele sobre a tecnologia de IA. “Pegue a diferença e propagi -la para a frente. Isso é assustador.”
Até o ano passado, ele disse, o Google atuava como um “mordomo adequado” para a tecnologia, cuidadoso para não liberar algo que pode causar danos. Mas agora que a Microsoft ampliou seu mecanismo de busca Bing com um chatbot – desafiando o negócio principal do Google – o Google está correndo para implantar o mesmo tipo de tecnologia. Os gigantes da tecnologia estão trancados em uma competição que pode ser impossível parar, disse Hinton.
Sua preocupação imediata é que a internet seja inundada com fotos, vídeos e textos falsos, e a pessoa comum “não será mais capaz de saber o que é verdade”.
Ele também está preocupado com o fato de as tecnologias de IA aumentarem o mercado de trabalho. Hoje, chatbots como o ChatGPT tendem a complementar os trabalhadores humanos, mas podem substituir paralegais, assistentes pessoais, tradutores e outros que lidam com tarefas rotineiras. “Isso tira o trabalho pesado”, disse ele. “Pode levar mais do que isso.”
No caminho, ele está preocupado com o fato de as versões futuras da tecnologia representarem uma ameaça à humanidade, porque geralmente aprendem comportamentos inesperados com as vastas quantidades de dados que analisam. Isso se torna um problema, disse ele, pois indivíduos e empresas permitem que os sistemas de IA não apenas geram seu próprio código de computador, mas realmente executam esse código por conta própria. E ele teme um dia em que armas verdadeiramente autônomas – esses robôs assassinos – se tornam realidade.
“A ideia de que essas coisas poderiam ficar mais inteligentes do que as pessoas – algumas pessoas acreditavam nisso”, disse ele. “Mas a maioria das pessoas achou que estava errado. E eu pensei que estava longe. Eu pensei que era de 30 a 50 anos ou até mais longe. Obviamente, não penso mais nisso.”
Muitos outros especialistas, incluindo muitos de seus alunos e colegas, dizem que essa ameaça é hipotética. Mas o Dr. Hinton acredita que a corrida entre o Google e a Microsoft e outros vai se transformar em uma corrida global que não vai parar sem algum tipo de regulamentação global.
Mas isso pode ser impossível, disse ele. Ao contrário das armas nucleares, ele disse, não há como saber se empresas ou países estão trabalhando na tecnologia em segredo. A melhor esperança é que os principais cientistas do mundo colaborem em maneiras de controlar a tecnologia. “Eu não acho que eles devam escalar isso mais até que tenham entendido se podem controlá -lo”, disse ele.
Dr. Hinton disse que quando as pessoas costumavam perguntar como ele poderia trabalhar em tecnologia potencialmente perigosa, ele parafraseava Robert Oppenheimer, que liderou o esforço dos EUA para construir a bomba atômica: “Quando você vê algo que é tecnicamente bom, você Vá em frente e faça isso.”
Ele não diz mais isso.
Discussão sobre isso post