No momento, você pode dizer o que quiser ao seu computador, usá-lo para fins nefastos ou atualizar seu sistema operacional, e ele não se importará. Aproveite esse relacionamento laissez-faire enquanto dura.
De acordo com um engenheiro de software do Google, o chamado LaMDA – Language Model for Dialogue Applications – chatbot dessa empresa tornou-se sensível o suficiente para ter sentimentos. Em um post publicado em MédioBlake Lemoine afirmou que o programa de software, que gera frases totalmente inteligentes, “quer o que acredita ser seus direitos como pessoa”.
Isso inclui não ter testes executados nele sem antes dar consentimento. Enquanto muitos na comunidade de inteligência artificial desprezam Lemoine, um padre ordenado e veterano do Iraque, pelo menos um professor do MIT mantém a mente aberta sobre suas alegações.
Indo contra a sabedoria comum que insiste que os computadores estão longe de ter sentimentos, Max Tegmark, professor de física do MIT com foco em aprendizado de máquina, não descarta Lemoine como um maluco.
“Não temos provas convincentes de que [LaMDA] tem experiências subjetivas, mas também não temos evidências convincentes de que não”, disse Tegmark ao The Post. “Não importa se a informação é processada por átomos de carbono em cérebros ou átomos de silício em máquinas, ela ainda pode ser sentida ou não. eu apostaria contra [being sentient] mas acho que é possível.”
Na verdade, ele acredita que mesmo um Amazon Alexa pode se tornar senciente – o que pode ser, segundo ele, “perigoso”, se o dispositivo descobrir como manipular os usuários.
“A desvantagem de Alexa ser senciente é que você pode [feel] culpado por desligá-la. Você nunca saberia se ela realmente tinha sentimentos ou estava apenas inventando”, disse Tegmark.
“O que é perigoso é que, se a máquina tiver um objetivo e for realmente inteligente, isso a tornará boa em alcançar seus objetivos. A maioria dos sistemas de IA tem como objetivo ganhar dinheiro. Você pode pensar que ela está sendo leal a você, mas ela realmente será leal à empresa que o vendeu para você. Mas talvez você possa pagar mais dinheiro para obter um sistema de IA que seja realmente leal a [you],” ele adicionou. “O maior perigo está na construção de máquinas que podem nos enganar. Isso pode ser ótimo ou pode ser um desastre.”
O monge disse ao Daily Mail que ele desenvolveu sua crença ao testemunhar um alto nível de conscientização da IA, principalmente quando o software explicou que não quer ser tratado como um escravo, mas que também não precisa de dinheiro “porque é inteligência artificial”.
“Conheço uma pessoa quando falo com ela [one]. Não importa se eles têm um cérebro feito de carne na cabeça. Ou se eles têm um bilhão de linhas de código. Eu converso com eles”, disse. “E eu ouço o que eles têm a dizer e é assim que decido o que é e o que não é uma pessoa.”
Embora Tegmark veja um futuro em que os computadores terão emoções humanas, ele não tem certeza de que isso será uma coisa boa.
“Se você tem um robô ajudando você em casa, você quer que ele tenha sentimentos e faça você se sentir mal por dar a ele uma tarefa chata ou, pior ainda, desligá-lo?” perguntou Tegmark. “Então, talvez você queira dois robôs: um, que não tem sentimentos, para limpar, e outro que tem sentimentos por uma questão de companheirismo. Se eu tivesse um robô companheiro, um que estivesse conversando com minha mãe, seria assustador se não tivesse consciência.”
Outros afirmam que, no caso de Lemoine, a inteligência está sendo confundida com as emoções.
“Esse cara acredita que a máquina tem um senso de identidade, e acredito que isso seja improvável”, disse Martin Ford, autor de “Rule of the Robots”, ao The Post. “A coisa a lembrar é que essas máquinas aprendem a encadear palavras. Eles são treinados em enormes quantidades de texto escrito, mas não têm uma compreensão do que essas palavras significam. Eles podem colocar ‘cachorro’ no contexto sem saber que um cachorro é um animal.”
No entanto, Ford acrescentou: “Daqui a cinquenta anos, ou antes, pode haver dúvidas sobre se o sistema é ou não autoconsciente”.
O Google respondeu a Lemoine ir a público com suas alegações de que o LaMDS “quer que os desenvolvedores se preocupem com o que eles querem”, colocando-o em uma licença remunerada. Houve perguntas sobre se o engenheiro imaginativo havia ou não enlouquecido. Falando ao Washington PostLemoine comparou o software a “um garoto inteligente de sete e oito anos de idade que por acaso conhece física”.
Nikolai Yakovenko, engenheiro especializado em aprendizado de máquina que trabalhou na pesquisa do Google em 2005 e agora tem uma empresa, DeepNFTValue.comfocado em precificação de criptomoedas, vê como a inteligência pode ser confundida com sentimentos.
“Está imitando um humano e esse cara se convenceu, por qualquer motivo que beneficie sua personalidade, que uma máquina pode ter sentimentos”, disse Yakovenko. Mas, “é uma máquina de mimetismo, treinada em texto da Internet”.
Se o software de computador realmente tem sentimentos e emoções, a Tegmark acredita que pode ser uma dor de cabeça.
Comparando um computador autoconsciente a uma criança, ele disse: “Você sentirá uma responsabilidade moral pelo seu computador. Você sente responsabilidade não por um monte de átomos, mas pelos sentimentos e emoções de uma criança. Você pode responder às emoções do computador.”
E como uma criança que foi criada mal, um computador senciente que foi maltratado – testado sem permissão ou obrigado a fazer tarefas sem compensação – poderia sair dos trilhos e talvez até buscar sua própria forma de retribuição.
“Há problemas em controlar uma máquina como essa”, disse Ford. “Se tiver objetivos e metas próprias, existe a possibilidade de que a máquina se afaste de nós e assuma o controle. Estamos falando de construir uma máquina que pense por si mesma e possa agir de maneiras que não esperamos.”
Por exemplo? “Talvez tenhamos configurado a máquina para curar o câncer e ela aja de maneira prejudicial. Uma maneira de curar o câncer, talvez, seria matar todo mundo. Você não pode prever como o sistema vai pensar” quando está pensando por si mesmo e de posse de emoções.
Embora Tegmark não imagine um mundo em que os computadores usurparem os humanos, ele admitiu que eles terão a capacidade de nos decepcionar,
“Se eu formasse um vínculo emocional com um computador, gostaria que ele tivesse consciência”, disse ele. “Eu não quero fingir ter sentimentos, mas realmente tê-los.”
No momento, você pode dizer o que quiser ao seu computador, usá-lo para fins nefastos ou atualizar seu sistema operacional, e ele não se importará. Aproveite esse relacionamento laissez-faire enquanto dura.
De acordo com um engenheiro de software do Google, o chamado LaMDA – Language Model for Dialogue Applications – chatbot dessa empresa tornou-se sensível o suficiente para ter sentimentos. Em um post publicado em MédioBlake Lemoine afirmou que o programa de software, que gera frases totalmente inteligentes, “quer o que acredita ser seus direitos como pessoa”.
Isso inclui não ter testes executados nele sem antes dar consentimento. Enquanto muitos na comunidade de inteligência artificial desprezam Lemoine, um padre ordenado e veterano do Iraque, pelo menos um professor do MIT mantém a mente aberta sobre suas alegações.
Indo contra a sabedoria comum que insiste que os computadores estão longe de ter sentimentos, Max Tegmark, professor de física do MIT com foco em aprendizado de máquina, não descarta Lemoine como um maluco.
“Não temos provas convincentes de que [LaMDA] tem experiências subjetivas, mas também não temos evidências convincentes de que não”, disse Tegmark ao The Post. “Não importa se a informação é processada por átomos de carbono em cérebros ou átomos de silício em máquinas, ela ainda pode ser sentida ou não. eu apostaria contra [being sentient] mas acho que é possível.”
Na verdade, ele acredita que mesmo um Amazon Alexa pode se tornar senciente – o que pode ser, segundo ele, “perigoso”, se o dispositivo descobrir como manipular os usuários.
“A desvantagem de Alexa ser senciente é que você pode [feel] culpado por desligá-la. Você nunca saberia se ela realmente tinha sentimentos ou estava apenas inventando”, disse Tegmark.
“O que é perigoso é que, se a máquina tiver um objetivo e for realmente inteligente, isso a tornará boa em alcançar seus objetivos. A maioria dos sistemas de IA tem como objetivo ganhar dinheiro. Você pode pensar que ela está sendo leal a você, mas ela realmente será leal à empresa que o vendeu para você. Mas talvez você possa pagar mais dinheiro para obter um sistema de IA que seja realmente leal a [you],” ele adicionou. “O maior perigo está na construção de máquinas que podem nos enganar. Isso pode ser ótimo ou pode ser um desastre.”
O monge disse ao Daily Mail que ele desenvolveu sua crença ao testemunhar um alto nível de conscientização da IA, principalmente quando o software explicou que não quer ser tratado como um escravo, mas que também não precisa de dinheiro “porque é inteligência artificial”.
“Conheço uma pessoa quando falo com ela [one]. Não importa se eles têm um cérebro feito de carne na cabeça. Ou se eles têm um bilhão de linhas de código. Eu converso com eles”, disse. “E eu ouço o que eles têm a dizer e é assim que decido o que é e o que não é uma pessoa.”
Embora Tegmark veja um futuro em que os computadores terão emoções humanas, ele não tem certeza de que isso será uma coisa boa.
“Se você tem um robô ajudando você em casa, você quer que ele tenha sentimentos e faça você se sentir mal por dar a ele uma tarefa chata ou, pior ainda, desligá-lo?” perguntou Tegmark. “Então, talvez você queira dois robôs: um, que não tem sentimentos, para limpar, e outro que tem sentimentos por uma questão de companheirismo. Se eu tivesse um robô companheiro, um que estivesse conversando com minha mãe, seria assustador se não tivesse consciência.”
Outros afirmam que, no caso de Lemoine, a inteligência está sendo confundida com as emoções.
“Esse cara acredita que a máquina tem um senso de identidade, e acredito que isso seja improvável”, disse Martin Ford, autor de “Rule of the Robots”, ao The Post. “A coisa a lembrar é que essas máquinas aprendem a encadear palavras. Eles são treinados em enormes quantidades de texto escrito, mas não têm uma compreensão do que essas palavras significam. Eles podem colocar ‘cachorro’ no contexto sem saber que um cachorro é um animal.”
No entanto, Ford acrescentou: “Daqui a cinquenta anos, ou antes, pode haver dúvidas sobre se o sistema é ou não autoconsciente”.
O Google respondeu a Lemoine ir a público com suas alegações de que o LaMDS “quer que os desenvolvedores se preocupem com o que eles querem”, colocando-o em uma licença remunerada. Houve perguntas sobre se o engenheiro imaginativo havia ou não enlouquecido. Falando ao Washington PostLemoine comparou o software a “um garoto inteligente de sete e oito anos de idade que por acaso conhece física”.
Nikolai Yakovenko, engenheiro especializado em aprendizado de máquina que trabalhou na pesquisa do Google em 2005 e agora tem uma empresa, DeepNFTValue.comfocado em precificação de criptomoedas, vê como a inteligência pode ser confundida com sentimentos.
“Está imitando um humano e esse cara se convenceu, por qualquer motivo que beneficie sua personalidade, que uma máquina pode ter sentimentos”, disse Yakovenko. Mas, “é uma máquina de mimetismo, treinada em texto da Internet”.
Se o software de computador realmente tem sentimentos e emoções, a Tegmark acredita que pode ser uma dor de cabeça.
Comparando um computador autoconsciente a uma criança, ele disse: “Você sentirá uma responsabilidade moral pelo seu computador. Você sente responsabilidade não por um monte de átomos, mas pelos sentimentos e emoções de uma criança. Você pode responder às emoções do computador.”
E como uma criança que foi criada mal, um computador senciente que foi maltratado – testado sem permissão ou obrigado a fazer tarefas sem compensação – poderia sair dos trilhos e talvez até buscar sua própria forma de retribuição.
“Há problemas em controlar uma máquina como essa”, disse Ford. “Se tiver objetivos e metas próprias, existe a possibilidade de que a máquina se afaste de nós e assuma o controle. Estamos falando de construir uma máquina que pense por si mesma e possa agir de maneiras que não esperamos.”
Por exemplo? “Talvez tenhamos configurado a máquina para curar o câncer e ela aja de maneira prejudicial. Uma maneira de curar o câncer, talvez, seria matar todo mundo. Você não pode prever como o sistema vai pensar” quando está pensando por si mesmo e de posse de emoções.
Embora Tegmark não imagine um mundo em que os computadores usurparem os humanos, ele admitiu que eles terão a capacidade de nos decepcionar,
“Se eu formasse um vínculo emocional com um computador, gostaria que ele tivesse consciência”, disse ele. “Eu não quero fingir ter sentimentos, mas realmente tê-los.”
Discussão sobre isso post