Um advogado de Nova York que usou o ChatGPT para escrever um documento legal – citando casos falsos – se desculpou profusamente no tribunal na quinta-feira, ficando emocionado ao explicar que foi “enganado” pelo chatbot de inteligência artificial.
Steven Schwartz, do escritório de advocacia de Tribeca Levidow, Levidow & Oberman, disse a um juiz federal de Manhattan que foi “humilhado” pelo flub, dizendo que acreditava estar usando um “mecanismo de busca” e nunca imaginou que o aplicativo de IA forneceria jurisprudência falsa .
“Gostaria de me desculpar sinceramente com sua honra, com este tribunal, com os réus, com minha empresa”, disse Schwartz durante a audiência lotada.
“Lamento profundamente minhas ações dessa maneira que levaram a esta audiência hoje”, disse Schwartz, com a voz trêmula. “Eu sofri profissionalmente e pessoalmente [because of] a ampla publicidade que esta questão gerou. Estou envergonhado, humilhado e extremamente arrependido”.
Schwartz usou o ChatGPT para ajudá-lo a encontrar jurisprudência para apoiar o processo de seu cliente, mas o bot forjou completamente os casos, sem o conhecimento do advogado.
Ele finalmente entrou com a ação judicial citando os casos fictícios no tribunal, levando o juiz Kevin Castel a levá-lo ao tribunal para uma audiência sobre a sanção da empresa pela confusão.
Schwartz foi forçado a fazer uma pausa e se recompor enquanto fazia o pedido de desculpas.
“Nunca estive envolvido em algo assim em meus 30 anos”, disse Schwartz, que foi forçado a fazer uma pausa e se recompor ao pedir desculpas.
“Posso garantir a este tribunal que nada disso acontecerá novamente”, insistiu ele ao juiz.
Schwartz havia entrado com a ação judicial no caso de sua empresa em 2022, representando Robert Mata, que processou a companhia aérea colombiana Avianca alegando que se machucou quando um carrinho de metal atingiu seu joelho em um voo para a cidade de Nova York.
Alguns dos casos fictícios citados por Schwartz incluem Miller v. United Airlines, Petersen v. Iran Air e Varghese v. China Southern Airlines.
Castel interrogou Schwartz por cerca de duas horas na quinta-feira sobre como ele poderia ter permitido que tal acidente acontecesse.
Schwartz insistiu repetidamente que nunca imaginou que o ChatGPT fabricaria completamente a jurisprudência.
“Eu nunca poderia imaginar que o ChatGPT fabricaria casos”, disse Schwartz. “Minha suposição era que eu estava usando um mecanismo de pesquisa que usava fontes às quais não tenho acesso.”
Schwartz disse que o ChatGPT não especificou que os casos não eram reais, acrescentando “Continuei sendo enganado pelo ChatGPT”.
“Simplesmente nunca me ocorreu que seria inventar casos”, explicou ele. “Eu apenas presumi que não poderia acessar o caso completo.”
Schwartz disse que nunca teria apresentado o documento se pensasse que a jurisprudência não era real, mas admitiu que deveria ter feito mais diligências primeiro.
“Em retrospecto, Deus, eu gostaria de ter feito isso, mas não fiz isso”, disse ele.
Schwartz também admitiu que não conseguiu encontrar os casos completos na internet, mas disse que achava que poderiam estar em apelação ou casos não publicados.
A certa altura, Castel leu um trecho de um dos casos inventados e pressionou Schwartz: “Podemos concordar que isso é um jargão jurídico?”
“Olhando para ele agora, sim”, admitiu Schwartz.
Schwartz desistiu de usar o aplicativo no futuro e também disse que fez um curso de treinamento em IA para melhorar seu conhecimento de tecnologia.
Thomas Corbino, outro advogado da empresa, disse ao juiz que a empresa nunca havia sido sancionada antes e que Schwartz sempre foi um advogado autônomo.
Outro advogado da firma, Ronald Minkoff, disse ao juiz que os advogados são notoriamente ruins com a tecnologia.
“Não houve má conduta intencional aqui”, disse Minkoff. “Isso foi resultado de ignorância e descuido. Não foi intencional e certamente não foi de má fé”.
O juiz disse que decidirá sobre a imposição de sanções em uma data posterior.
Discussão sobre isso post