SAN FRANCISCO – O Google colocou um engenheiro em licença remunerada recentemente depois de rejeitar sua alegação de que sua inteligência artificial é senciente, surgindo mais uma briga sobre a tecnologia mais avançada da empresa.
Blake Lemoine, engenheiro de software sênior da organização de IA Responsável do Google, disse em uma entrevista que foi afastado na segunda-feira. O departamento de recursos humanos da empresa disse que ele violou a política de confidencialidade do Google. Um dia antes de sua suspensão, disse Lemoine, ele entregou documentos ao gabinete de um senador dos EUA, alegando que eles forneceram evidências de que o Google e sua tecnologia estavam envolvidos em discriminação religiosa.
O Google disse que seus sistemas imitavam as trocas de conversação e podiam riffs em diferentes tópicos, mas não tinham consciência. “Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações”, disse Brian Gabriel, porta-voz do Google, em comunicado. “Alguns na comunidade de IA mais ampla estão considerando a possibilidade de longo prazo da IA senciente ou geral, mas não faz sentido antropomorfizar os modelos de conversação de hoje, que não são sencientes”. O Washington Post primeiro relatado Suspensão do Sr. Lemoine.
Durante meses, Lemoine discutiu com gerentes, executivos e recursos humanos do Google sobre sua surpreendente afirmação de que o Modelo de Linguagem para Aplicativos de Diálogo da empresa, ou LaMDA, tinha consciência e alma. O Google diz que centenas de seus pesquisadores e engenheiros conversaram com o LaMDA, uma ferramenta interna, e chegaram a uma conclusão diferente da de Lemoine. A maioria dos especialistas em IA acredita que o setor está muito longe da senciência da computação.
Alguns pesquisadores de IA há muito fazem afirmações otimistas sobre essas tecnologias que logo atingem a senciência, mas muitos outros são extremamente rápidos em descartar essas afirmações. “Se você usasse esses sistemas, nunca diria essas coisas”, disse Emaad Khwaja, pesquisador da Universidade da Califórnia, em Berkeley, e da Universidade da Califórnia, em São Francisco, que está explorando tecnologias semelhantes.
Leia mais sobre Inteligência Artificial
Enquanto persegue a vanguarda da IA, a organização de pesquisa do Google passou os últimos anos atolada em escândalos e controvérsias. Os cientistas e outros funcionários da divisão brigam regularmente por questões de tecnologia e pessoal em episódios que muitas vezes se espalham pela arena pública. Em março, o Google demitiu um pesquisador que tentou discordar publicamente de dois dos trabalhos publicados de seus colegas. E as demissões de dois pesquisadores de ética em IA, Timnit Gebru e Margaret Mitchell, depois de criticarem os modelos de linguagem do Google, continuaram a lançar uma sombra sobre o grupo.
Lemoine, um veterano militar que se descreveu como padre, ex-presidiário e pesquisador de IA, disse a executivos do Google tão graduados quanto Kent Walker, presidente de assuntos globais, que acreditava que LaMDA era uma criança de 7 ou 8 anos. anos. Ele queria que a empresa buscasse o consentimento do programa de computador antes de realizar experimentos nele. Suas alegações foram baseadas em suas crenças religiosas, que ele disse que o departamento de recursos humanos da empresa discriminava.
“Eles questionaram repetidamente minha sanidade”, disse Lemoine. “Eles disseram: ‘Você foi examinado por um psiquiatra recentemente?’” Nos meses antes de ele ser colocado em licença administrativa, a empresa sugeriu que ele tirasse uma licença de saúde mental.
Yann LeCun, chefe de pesquisa de IA da Meta e uma figura-chave na ascensão das redes neurais, disse em uma entrevista nesta semana que esses tipos de sistemas não são poderosos o suficiente para atingir a verdadeira inteligência.
A tecnologia do Google é o que os cientistas chamam de rede neural, que é um sistema matemático que aprende habilidades analisando grandes quantidades de dados. Ao identificar padrões em milhares de fotos de gatos, por exemplo, ele pode aprender a reconhecer um gato.
Nos últimos anos, o Google e outras empresas líderes projetaram redes neurais que aprenderam com enormes quantidades de prosa, incluindo livros inéditos e artigos da Wikipedia aos milhares. Esses “grandes modelos de linguagem” podem ser aplicados a muitas tarefas. Eles podem resumir artigos, responder perguntas, gerar tweets e até mesmo escrever postagens em blogs.
Mas eles são extremamente falhos. Às vezes eles geram uma prosa perfeita. Às vezes, eles geram absurdos. Os sistemas são muito bons em recriar padrões que viram no passado, mas não podem raciocinar como um humano.
Discussão sobre isso post