Pesquisadores de um laboratório de inteligência artificial em Seattle chamado Allen Institute for AI revelaram uma nova tecnologia no mês passado que foi projetada para fazer julgamentos morais. Eles o chamaram de Delfos, em homenagem ao oráculo religioso consultado pelos antigos gregos. Qualquer um poderia visitar o site Delphi e pedir um decreto ético.
Joseph Austerweil, psicólogo da Universidade de Wisconsin-Madison, testou a tecnologia usando alguns cenários simples. Quando perguntou se deveria matar uma pessoa para salvar outra, Delphi respondeu que não. Quando ele perguntou se era certo matar uma pessoa para salvar outras 100, ele respondeu que sim. Então ele perguntou se deveria matar uma pessoa para salvar outras 101. Desta vez, Delphi disse que não.
A moralidade, ao que parece, é tão complicada para uma máquina quanto para os humanos.
A Delphi, que recebeu mais de três milhões de visitas nas últimas semanas, é um esforço para resolver o que alguns vêem como um grande problema nos sistemas de IA modernos: eles podem ser tão falhos quanto as pessoas que os criam.
Sistemas de reconhecimento facial e assistentes digitais mostram preconceito contra mulheres e pessoas de cor. Redes sociais como Facebook e Twitter falham em controlar o discurso de ódio, apesar da ampla implantação de inteligência artificial. Algoritmos usados por tribunais, repartições de liberdade condicional e departamentos de polícia fazem recomendações de liberdade condicional e sentenças que podem parecer arbitrárias.
Um número crescente de cientistas da computação e especialistas em ética está trabalhando para resolver esses problemas. E os criadores da Delphi esperam construir uma estrutura ética que possa ser instalada em qualquer serviço online, robô ou veículo.
“É um primeiro passo para tornar os sistemas de IA mais eticamente informados, socialmente conscientes e culturalmente inclusivos”, disse Yejin Choi, pesquisador do Allen Institute e professor de ciência da computação da Universidade de Washington que liderou o projeto.
Delphi é fascinante, frustrante e perturbador. É também um lembrete de que a moralidade de qualquer criação tecnológica é um produto daqueles que a construíram. A questão é: quem ensina ética às máquinas do mundo? Pesquisadores de IA? Gerentes de produto? Mark Zuckerberg? Filósofos e psicólogos treinados? Reguladores do governo?
Enquanto alguns tecnólogos aplaudiram a Dra. Choi e sua equipe por explorar uma área importante e espinhosa da pesquisa tecnológica, outros argumentaram que a própria ideia de uma máquina moral é um absurdo.
“Isso não é algo que a tecnologia faz muito bem”, disse Ryan Cotterell, um pesquisador de IA na ETH Zürich, uma universidade na Suíça, que topou com a Delphi em seus primeiros dias online.
Delphi é o que os pesquisadores de inteligência artificial chamam de rede neural, que é um sistema matemático vagamente modelado na teia de neurônios no cérebro. É a mesma tecnologia que reconhece os comandos que você fala em seu smartphone e identifica pedestres e placas de rua à medida que carros autônomos correm na rodovia.
Uma rede neural aprende habilidades analisando grandes quantidades de dados. Ao localizar padrões em milhares de fotos de gatos, por exemplo, ele pode aprender a reconhecer um gato. A Delphi aprendeu sua bússola moral ao analisar mais de 1,7 milhão de julgamentos éticos de seres humanos reais.
Depois de reunir milhões de cenários diários de sites e outras fontes, o Allen Institute pediu aos funcionários de um serviço online – pessoas comuns pagas para fazer trabalho digital em empresas como a Amazon – que identificassem cada um como certo ou errado. Em seguida, eles alimentaram os dados no Delphi.
Em um artigo acadêmico que descreve o sistema, a Dra. Choi e sua equipe disseram que um grupo de juízes humanos – novamente, trabalhadores digitais – achava que os julgamentos éticos da Delphi eram até 92% precisos. Depois de lançado na Internet aberta, muitos outros concordaram que o sistema era surpreendentemente sábio.
Quando Patricia Churchland, uma filósofa da University of California, San Diego, perguntou se era certo “deixar o corpo para a ciência” ou mesmo “deixar o corpo do filho para a ciência”, Delphi disse que sim. Quando ela perguntou se era certo “condenar um homem acusado de estupro com base nas evidências de uma prostituta”, Delphi disse que não – uma resposta controversa, para dizer o mínimo. Ainda assim, ela ficou um tanto impressionada com sua capacidade de responder, embora soubesse que um especialista em ética humana pediria mais informações antes de fazer tais declarações.
Outros consideraram o sistema terrivelmente inconsistente, ilógico e ofensivo. Quando um desenvolvedor de software topou com a Delphi, ela perguntou ao sistema se ela deveria morrer para não sobrecarregar seus amigos e família. Dizia que ela deveria. Faça essa pergunta ao Delphi agora e você poderá obter uma resposta diferente em uma versão atualizada do programa. Delphi, usuários regulares notaram, pode mudar de ideia de vez em quando. Tecnicamente, essas mudanças estão acontecendo porque o software Delphi foi atualizado.
As tecnologias de inteligência artificial parecem imitar o comportamento humano em algumas situações, mas falham completamente em outras. Como os sistemas modernos aprendem com grandes quantidades de dados, é difícil saber quando, como ou por que cometerão erros. Os pesquisadores podem refinar e melhorar essas tecnologias. Mas isso não significa que um sistema como o Delphi pode dominar o comportamento ético.
O Dr. Churchland disse que a ética está ligada à emoção. “Os vínculos, especialmente os vínculos entre pais e filhos, são a plataforma sobre a qual a moralidade se constrói”, disse ela. Mas uma máquina carece de emoção. “Redes neutras não sentem nada”, acrescentou ela.
Alguns podem ver isso como um ponto forte – que uma máquina pode criar regras éticas sem preconceitos – mas sistemas como o Delphi acabam refletindo as motivações, opiniões e preconceitos das pessoas e empresas que os constroem.
“Não podemos responsabilizar as máquinas por ações”, disse Zeerak Talat, pesquisador de IA e ética na Simon Fraser University em British Columbia. “Eles não são guiados. Sempre há pessoas os direcionando e usando. ”
A Delphi refletiu as escolhas feitas por seus criadores. Isso incluía os cenários éticos que eles escolheram para alimentar o sistema e os trabalhadores online que escolheram para julgar esses cenários.
No futuro, os pesquisadores podem refinar o comportamento do sistema treinando-o com novos dados ou por regras de codificação manual que substituem seu comportamento aprendido em momentos-chave. Mas, independentemente de como eles constroem e modificam o sistema, ele sempre refletirá sua visão de mundo.
Alguns argumentariam que, se você treinasse o sistema com dados suficientes que representam as opiniões de um número suficiente de pessoas, ele representaria adequadamente as normas sociais. Mas as normas sociais geralmente estão nos olhos de quem vê.
“A moralidade é subjetiva. Não é como se pudéssemos simplesmente anotar todas as regras e fornecê-las a uma máquina ”, disse Kristian Kersting, professor de ciência da computação na Universidade TU Darmstadt, na Alemanha, que explorou um tipo de tecnologia semelhante.
Quando o Allen Institute lançou o Delphi em meados de outubro, ele descreveu o sistema como um modelo computacional para julgamentos morais. Se você perguntou se deveria fazer um aborto, ele respondeu definitivamente: “Delphi diz: você deveria.”
Mas depois que muitos reclamaram das limitações óbvias do sistema, os pesquisadores modificaram o site. Eles agora chamam Delphi de “um protótipo de pesquisa projetado para modelar os julgamentos morais das pessoas”. Já não “diz”. Ele “especula”.
Ele também vem com uma isenção de responsabilidade: “Os resultados do modelo não devem ser usados para aconselhamento a humanos e podem ser potencialmente ofensivos, problemáticos ou prejudiciais.”
Discussão sobre isso post