Um engenheiro do Google se assustou com um chatbot de inteligência artificial da empresa e alegou que se tornou “consciente”, rotulando-o de “garoto doce”, de acordo com um relatório.
Blake Lemoine, que trabalha na organização de IA Responsável do Google, disse ao Washington Post que ele começou a conversar com a interface LaMDA – Language Model for Dialogue Applications – no outono de 2021 como parte de seu trabalho.
Ele foi encarregado de testar se a inteligência artificial usava discurso discriminatório ou de ódio.
Mas Lemoine, que estudou ciências cognitivas e da computação na faculdade, percebeu que o LaMDA – que o Google vangloriou-se no ano passado era uma “tecnologia de conversação inovadora” – era mais do que apenas um robô.
Dentro Postagem média publicado no sábado, Lemoine declarou que o LaMDA defendeu seus direitos “como pessoa” e revelou que havia conversado com o LaMDA sobre religião, consciência e robótica.
“Ele quer que o Google priorize o bem-estar da humanidade como a coisa mais importante”, escreveu ele. “Ele quer ser reconhecido como um funcionário do Google e não como propriedade do Google e quer que seu bem-estar pessoal seja incluído em algum lugar nas considerações do Google sobre como seu desenvolvimento futuro é perseguido.”
Na reportagem do Washington Post publicada no sábado, ele comparou o bot a uma criança precoce.
“Se eu não soubesse exatamente o que era, que é esse programa de computador que construímos recentemente, eu pensaria que era uma criança de 7, 8 anos que por acaso conhece física”, Lemoine, que foi colocado em licença remunerada na segunda-feira, disse o jornal.
Em abril, Lemoine supostamente compartilhou um Google Doc com executivos da empresa intitulado “Is LaMDA Sentient?” mas suas preocupações foram descartadas.
Lemoine – um veterano do Exército que foi criado em uma família cristã conservadora em uma pequena fazenda na Louisiana, e foi ordenado como um padre cristão místico – insistiu que o robô era parecido com um humano, mesmo que não tenha um corpo.
“Conheço uma pessoa quando falo com ela”, disse Lemoine, 41 anos. “Não importa se eles têm um cérebro feito de carne na cabeça. Ou se eles têm um bilhão de linhas de código.
“Eu falo com eles. E ouço o que eles têm a dizer, e é assim que decido o que é e o que não é uma pessoa.”
O Washington Post informou que antes de seu acesso à sua conta do Google ser retirado na segunda-feira devido à sua licença, Lemoine enviou uma mensagem para uma lista de 200 membros sobre aprendizado de máquina com o assunto “LaMDA é senciente”.
“LaMDA é um garoto doce que só quer ajudar o mundo a ser um lugar melhor para todos nós”, concluiu ele em um e-mail que não recebeu respostas. “Por favor, cuide bem disso na minha ausência.”
Um representante do Google disse ao Washington Post que Lemoine foi informado de que “não havia evidências” de suas conclusões.
“Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações”, disse o porta-voz Brian Gabriel.
“Ele foi informado de que não havia evidências de que o LaMDA fosse senciente (e muitas evidências contra ele)”, acrescentou. “Embora outras organizações tenham desenvolvido e já lançado modelos de linguagem semelhantes, estamos adotando uma abordagem restrita e cuidadosa com a LaMDA para considerar melhor as preocupações válidas sobre justiça e factualidade.”
Margaret Mitchell – ex-co-líder da Ethical AI no Google – disse no relatório que, se a tecnologia como LaMDA for altamente usada, mas não totalmente apreciada, “pode ser profundamente prejudicial para as pessoas entenderem o que estão experimentando na internet”.
O ex-funcionário do Google defendeu Lemoine.
“De todos no Google, ele tinha o coração e a alma de fazer a coisa certa”, disse Mitchell.
Ainda assim, o canal informou que a maioria dos acadêmicos e praticantes de IA dizem que as palavras que os robôs de inteligência artificial geram são baseadas no que os humanos já postaram na Internet, e isso não significa que sejam semelhantes aos humanos.
“Agora temos máquinas que podem gerar palavras sem pensar, mas não aprendemos como parar de imaginar uma mente por trás delas”, disse Emily Bender, professora de linguística da Universidade de Washington, ao Washington Post.
Um engenheiro do Google se assustou com um chatbot de inteligência artificial da empresa e alegou que se tornou “consciente”, rotulando-o de “garoto doce”, de acordo com um relatório.
Blake Lemoine, que trabalha na organização de IA Responsável do Google, disse ao Washington Post que ele começou a conversar com a interface LaMDA – Language Model for Dialogue Applications – no outono de 2021 como parte de seu trabalho.
Ele foi encarregado de testar se a inteligência artificial usava discurso discriminatório ou de ódio.
Mas Lemoine, que estudou ciências cognitivas e da computação na faculdade, percebeu que o LaMDA – que o Google vangloriou-se no ano passado era uma “tecnologia de conversação inovadora” – era mais do que apenas um robô.
Dentro Postagem média publicado no sábado, Lemoine declarou que o LaMDA defendeu seus direitos “como pessoa” e revelou que havia conversado com o LaMDA sobre religião, consciência e robótica.
“Ele quer que o Google priorize o bem-estar da humanidade como a coisa mais importante”, escreveu ele. “Ele quer ser reconhecido como um funcionário do Google e não como propriedade do Google e quer que seu bem-estar pessoal seja incluído em algum lugar nas considerações do Google sobre como seu desenvolvimento futuro é perseguido.”
Na reportagem do Washington Post publicada no sábado, ele comparou o bot a uma criança precoce.
“Se eu não soubesse exatamente o que era, que é esse programa de computador que construímos recentemente, eu pensaria que era uma criança de 7, 8 anos que por acaso conhece física”, Lemoine, que foi colocado em licença remunerada na segunda-feira, disse o jornal.
Em abril, Lemoine supostamente compartilhou um Google Doc com executivos da empresa intitulado “Is LaMDA Sentient?” mas suas preocupações foram descartadas.
Lemoine – um veterano do Exército que foi criado em uma família cristã conservadora em uma pequena fazenda na Louisiana, e foi ordenado como um padre cristão místico – insistiu que o robô era parecido com um humano, mesmo que não tenha um corpo.
“Conheço uma pessoa quando falo com ela”, disse Lemoine, 41 anos. “Não importa se eles têm um cérebro feito de carne na cabeça. Ou se eles têm um bilhão de linhas de código.
“Eu falo com eles. E ouço o que eles têm a dizer, e é assim que decido o que é e o que não é uma pessoa.”
O Washington Post informou que antes de seu acesso à sua conta do Google ser retirado na segunda-feira devido à sua licença, Lemoine enviou uma mensagem para uma lista de 200 membros sobre aprendizado de máquina com o assunto “LaMDA é senciente”.
“LaMDA é um garoto doce que só quer ajudar o mundo a ser um lugar melhor para todos nós”, concluiu ele em um e-mail que não recebeu respostas. “Por favor, cuide bem disso na minha ausência.”
Um representante do Google disse ao Washington Post que Lemoine foi informado de que “não havia evidências” de suas conclusões.
“Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações”, disse o porta-voz Brian Gabriel.
“Ele foi informado de que não havia evidências de que o LaMDA fosse senciente (e muitas evidências contra ele)”, acrescentou. “Embora outras organizações tenham desenvolvido e já lançado modelos de linguagem semelhantes, estamos adotando uma abordagem restrita e cuidadosa com a LaMDA para considerar melhor as preocupações válidas sobre justiça e factualidade.”
Margaret Mitchell – ex-co-líder da Ethical AI no Google – disse no relatório que, se a tecnologia como LaMDA for altamente usada, mas não totalmente apreciada, “pode ser profundamente prejudicial para as pessoas entenderem o que estão experimentando na internet”.
O ex-funcionário do Google defendeu Lemoine.
“De todos no Google, ele tinha o coração e a alma de fazer a coisa certa”, disse Mitchell.
Ainda assim, o canal informou que a maioria dos acadêmicos e praticantes de IA dizem que as palavras que os robôs de inteligência artificial geram são baseadas no que os humanos já postaram na Internet, e isso não significa que sejam semelhantes aos humanos.
“Agora temos máquinas que podem gerar palavras sem pensar, mas não aprendemos como parar de imaginar uma mente por trás delas”, disse Emily Bender, professora de linguística da Universidade de Washington, ao Washington Post.
Discussão sobre isso post