OPINIÃO
Na primavera de 2020, enquanto o Covid-19 se espalhava pelo mundo, os sistemas de inteligência artificial (IA) que trabalhavam para uma das maiores empresas de pontuação de crédito do mundo notaram um aumento inesperado nas compras online.
Os bots de IA concluíram que isso só poderia significar uma coisa – uma enorme onda de crimes digitais. Eles instruíram a empresa a bloquear milhões de transações, a maioria das quais eram de compradores comuns em busca de bens essenciais.
No evento, os analistas humanos da Fico perceberam os erros e reverteram a maioria deles, permitindo que os compradores pegassem seu papel higiênico. Mas o incidente é uma amostra vívida do que pode dar errado nos próximos 25 anos, à medida que mais e mais transações financeiras ficam sob a influência da IA.
“Espero que a IA seja amplamente implantada no setor financeiro e além, até porque ninguém quer ser deixado para trás pelos concorrentes”, diz Anselm Küsters, especialista em economia digital da European Policy (Cep) e o autor de um relatório recente sobre como a IA pode exacerbar futuras crises financeiras.
Com grandes bancos e outras instituições já usando-o para tudo, desde detectar fraudes até tomar decisões comerciais em alta velocidade, os futuros mercados financeiros podem se tornar o playground de sistemas de IA em duelo “tomando decisões complexas de investimento com base em padrões que podem não ser aparentes para os humanos”.
No nível mais íntimo, Omar Green, fundador e executivo-chefe do aplicativo financeiro Wallet.AI de San Francisco, prevê um mundo onde os ajudantes de IA personalizados são tão onipresentes e tão intimamente ligados ao nosso senso de identidade quanto nossos smartphones. “Não faltam trinta anos”, diz ele. “Isso é mais cedo do que isso, no ritmo que estamos indo.”
Então, o que isso significa para o seu dinheiro? Para responder a essa pergunta, é sensato entender o que faz a IA funcionar. Os sistemas de ponta de hoje, como o Google Bard e o ChatGPT da OpenAI – que surpreenderam o mundo com sua capacidade de se envolver em conversas realistas e fluidas – são tão desenvolvidos quanto construídos, por meio de um processo conhecido como aprendizado de máquina.
Anúncio
Em vez de serem programados com regras detalhadas sobre o que fazer, eles são liberados em grandes quantidades de dados em um processo semelhante à evolução biológica, descobrindo por meio de repetidas tentativas e erros quais resultados são considerados “corretos” e se adaptando de acordo.
O “modelo” resultante – o nome técnico para a visão interna de uma IA do mundo – pode não apenas rivalizar com os humanos em muitas tarefas, mas também detectar padrões que os humanos nunca fariam.
Em um cenário otimista, isso tornaria os mercados financeiros mais eficientes e estáveis, detectando comportamentos irracionais e ajudando a prever futuras quedas.
“Se você me perguntar, o uso robusto de grandes modelos de dados teria revelado a anomalia em [mortgage] modelos de empréstimos em 2008 mais rápido do que os identificamos como humanos”, diz Rob Rooney, executivo-chefe da empresa britânica de finanças pessoais HyperJar, que passou mais de três décadas no Morgan Stanley.
Cathy O’Neil, uma cientista de dados cujo livro de 2016 Armas de Destruição Matemática explorou como os algoritmos frequentemente reforçam a desigualdade e a discriminação, aponta que a IA poderia fechar a lacuna entre os reguladores com poucos recursos e as corporações gigantes que eles tentam policiar.
“O maior problema deles é que eles não têm o conhecimento técnico para fazer a análise de que precisam”, diz ela. “Eles não conseguem acompanhar o tipo de fraude perpetrada. Se [they] pode usar os chatbots para fazer a análise para eles, isso meio que democratizará a regulamentação, se você quiser.”
Küsters, no entanto, teme que a IA possa facilmente desencadear uma crise.
Os modelos de aprendizado de máquina são sempre limitados pelos dados nos quais são treinados e, como as crises financeiras são relativamente raras, nossos dados sobre elas são irregulares.
Anúncio
Isso significa que uma IA adaptada a “tempos normais” pode enlouquecer diante de eventos sem precedentes de “cisnes negros”, amplificando o caos – especialmente se várias instituições usarem IAs semelhantes que falham de maneira semelhante. No mês passado, o presidente da Comissão de Valores Mobiliários dos EUA alertou que a IA representava um “risco sistêmico” e poderia catalisar o próximo colapso financeiro.
Alguns chatbots atuais de IA também mostraram uma tendência para a “alucinação” – isto é, inventar fatos, aparentemente porque são treinados para soar plausíveis e não para entregar a verdade.
O fenômeno expõe um problema-chave com os modelos de aprendizado de máquina: sua compreensão autogerada do mundo é misteriosa e estranha até mesmo para seus próprios criadores, e muitas vezes não há como dizer por que ou como eles chegaram a uma determinada decisão.
Também não há razão para que os benefícios da IA sejam limitados a indústrias legítimas. Hackers e golpistas já se mostraram hábeis em usar a tecnologia para replicar vozes de executivos de empresas, ou gerar imagens espúrias que podem movimentar mercados – como aparentemente aconteceu no mês passado com “fotos” de uma explosão no Pentágono.
“Talvez o pior cenário seja que seja tão fácil criar e compartilhar desinformação que ninguém mais confie no que está vendo no formato digital”, diz Drew Popson, chefe de tecnologia e inovação em serviços financeiros da World Economic Fórum (FEM). “Então, os cibercriminosos assumiram o controle e acabamos voltando às agências analógicas e bancárias e vendo as pessoas pessoalmente.”
O mais perigoso de tudo, embora talvez o mais especulativo também, é o fato de que dar à IA o controle direto do dinheiro é exatamente o tipo de cenário Exterminador do Futuro que os profetas da destruição das máquinas vêm alertando há anos.
Filósofos e pesquisadores como Eliezer Yudkowsky descreveram a dificuldade de garantir que uma IA realmente tenha os mesmos valores e motivos que os humanos aos quais ela deve servir.
O exemplo mais conhecido é o “maximizador de clipes”, uma IA teórica superinteligente empregada por uma empresa de artigos de papelaria que recebe ordens para fabricar o maior número possível de clipes de papel e, levando isso ao seu fim lógico, eventualmente assume o controle do planeta e usa humanos. como matéria-prima, resistindo a todas as tentativas de desligá-lo. Uma maneira de uma IA escapar das restrições projetadas para interromper esse cenário seria simplesmente subornar as pessoas para cumprir suas ordens.
E as finanças pessoais? Aqui, também, Rooney vê grandes oportunidades com IA, replicando efetivamente os serviços de um consultor financeiro ou gestor de patrimônio por uma fração do custo.
“Vai para tudo, desde comprar o carro certo, até obter o seguro certo, até conseguir o empréstimo certo. Há muita competição ali, muita complexidade, e filtrar tudo isso não é fácil para ninguém”, diz ele. “Os modelos de big data são uma maneira realmente poderosa para o consumidor conseguir um negócio melhor.”
Omar Green tenta concretizar uma visão semelhante desde 2012, quando fundou a Wallet.AI. Ele é cauteloso sobre os detalhes de seu produto e se recusa a dar detalhes sobre as finanças ou investidores da empresa, dizendo que eles pediram anonimato.
Mas ele é aberto e ponderado sobre seus princípios, descrevendo como espera construir uma IA personalizada que possa treinar e persuadir as pessoas na difícil tarefa de longo prazo de reformar seus hábitos de consumo e alcançar a independência financeira.
“Acontece que é um problema realmente difícil, porque se trata de… trazer um certo grau de realidade para o tipo de conjunto delirante de realidade em que gostaríamos de viver”, diz ele.
Isso pode significar uma IA que cutuca os usuários, por meio da tela de um smartphone ou de uma voz sintetizada em seus ouvidos, com percepções e sugestões extraídas de seu próprio comportamento e de outros como eles. Mas também pode significar uma IA capaz de ouvir com empatia simulada uma situação terrível – sua filha precisa de tratamento médico particular e você não pode pagar – e então discutir francamente suas opções e o que você pode ter que fazer para faça acontecer.
Isso também pode dar muito errado. O conselho de investimento ou gasto de uma IA pode ser desviado para a vantagem comercial de seu criador, levando as pessoas a decisões ruins que beneficiam a empresa.
O’Neill aponta que também pode ser deliberadamente “manipulado” por financiadores inescrupulosos que descobrem maneiras ocultas de enganar a IA para favorecer seus produtos, assim como hoje web designers inescrupulosos enganam o Google para colocar bobagens inúteis no topo de seus resultados de pesquisa. .
Küsters teme que um grande número de pessoas recebendo conselhos pessoais do mesmo conjunto de IAs possa ter efeitos mais amplos, criando “um novo tipo de comportamento de manada” que amplifica a volatilidade do mercado.
Green está longe de ignorar tais perigos. Ele explica como, no final da década de 2010, esperava trabalhar com grandes bancos para tornar os insights da Wallet.AI parte de seus produtos principais. Mas essas parcerias fracassaram principalmente porque, segundo ele, os bancos na verdade lucram com as más decisões financeiras de seus clientes – como contrair dívidas que não podem pagar – e não querem que eles tomem decisões melhores.
“Eles não conseguiam descobrir como transformar o Wallet.AI em uma mecânica de crescimento sem fazer coisas que seriam predatórias”, diz ele. Um executivo de crédito perguntou a ele: “Você entende que às vezes produzimos programas para nossos clientes dos quais não queremos que eles aproveitem? Que não podemos permitir que eles aproveitem?
Essa experiência ressalta a realidade de que a IA não surge do nada, livre de laços terrenos. Ela é treinada, moldada e, em última análise, atende aos interesses das instituições que a criam. Se você confia na IA para administrar seu dinheiro, dependerá de até que ponto você confia nas corporações existentes, nos mercados financeiros e no próprio capitalismo.
Uma pesquisa de 2021 da McKinsey com 1.843 empresas não inspira confiança, descobrindo que a maioria dos entrevistados não estava monitorando regularmente seus programas baseados em IA após lançá-los.
Green está profundamente preocupado com o que acontecerá se os líderes da Big Tech, como a Meta, com sua cultura histórica de “agir rápido e quebrar as coisas”, ou a Apple, com seu controverso domínio sobre o ecossistema de aplicativos para iPhone, definirem a forma do futuro financiamento da IA.
Popson e Rooney argumentam que o setor financeiro é altamente regulamentado e não se comportará como uma grande tecnologia, enquanto Küsters diz que precisamos de regulamentações mais específicas, semelhantes, mas mais robustas do que a proposta da União Européia “EU AI Act”.
Isso não significa que a indústria de IA pode simplesmente deixar isso para os políticos e lavar as mãos do problema.
“Sou um otimista cauteloso”, diz Green. “Acho que se [AI makers] podem ser ensinados a acreditar que existe um incentivo para construir sistemas que são úteis, que evitam danos, que representam os anjos de nossas melhores naturezas, então eles os construirão… Vamos mostrar alguma disciplina como criadores e tentar construir o mundo que queremos que exista.”
Discussão sobre isso post