Em fevereiro, a Meta fez um movimento incomum no mundo em rápida evolução da inteligência artificial: decidiu doar suas joias da coroa da IA.
A gigante do Vale do Silício, dona do Facebook, Instagram e WhatsApp, havia criado um Tecnologia AI, chamada LLaMA, que podem alimentar chatbots online. Mas, em vez de manter a tecnologia para si mesma, a Meta liberou o código de computador subjacente do sistema. Acadêmicos, pesquisadores do governo e outros que forneceram seu endereço de e-mail à Meta puderam baixar o código assim que a empresa examinou o indivíduo.
Essencialmente, a Meta estava distribuindo sua tecnologia de IA como um software de código aberto – código de computador que pode ser copiado, modificado e reutilizado livremente – fornecendo a pessoas de fora tudo o que precisavam para criar seus próprios chatbots rapidamente.
“A plataforma que vencerá será a aberta”, disse Yann LeCun, cientista-chefe de IA da Meta, em entrevista.
À medida que a corrida para liderar a IA esquenta no Vale do Silício, a Meta se destaca de seus rivais por adotar uma abordagem diferente para a tecnologia. Impulsionada por seu fundador e executivo-chefe, Mark Zuckerberg, a Meta acredita que a coisa mais inteligente a fazer é compartilhar seus mecanismos de IA subjacentes como uma forma de espalhar sua influência e, finalmente, avançar mais rapidamente em direção ao futuro.
Suas ações contrastam com as do Google e da OpenAI, as duas empresas que lideram a nova corrida armamentista de IA. Preocupadas com o fato de ferramentas de IA, como chatbots, serem usadas para espalhar desinformação, discurso de ódio e outros conteúdos tóxicos, essas empresas estão se tornando cada vez mais sigilosas sobre os métodos e softwares que sustentam seus produtos de IA.
Google, OpenAI e outros criticaram o Meta, dizendo que uma abordagem de código aberto irrestrita é perigosa. O rápido aumento da IA nos últimos meses levantou alarmes sobre os riscos da tecnologia, incluindo como ela poderia derrubar o mercado de trabalho se não fosse implantada adequadamente. E poucos dias após o lançamento do LLaMA, o sistema vazou para o 4chan, o quadro de mensagens online conhecido por espalhar informações falsas e enganosas.
“Queremos pensar com mais cuidado em fornecer detalhes ou código de código aberto” da tecnologia de IA, disse Zoubin Ghahramani, vice-presidente de pesquisa do Google que ajuda a supervisionar o trabalho de IA. “Onde isso pode levar ao uso indevido?”
Mas a Meta disse que não via razão para manter seu código para si mesma. O crescente sigilo no Google e na OpenAI é um “grande erro”, disse o Dr. LeCun, e uma “visão muito ruim do que está acontecendo”. Ele argumenta que consumidores e governos se recusarão a adotar a IA, a menos que esteja fora do controle de empresas como Google e Meta.
“Você quer que todo sistema de IA esteja sob o controle de algumas poderosas empresas americanas?” ele perguntou.
A OpenAI se recusou a comentar.
A abordagem de código aberto da Meta para IA não é nova. A história da tecnologia está repleta de batalhas entre sistemas de código aberto e proprietários ou fechados. Alguns acumulam as ferramentas mais importantes usadas para construir as plataformas de computação de amanhã, enquanto outros as doam. Mais recentemente, o Google abriu o código do sistema operacional móvel Android para assumir o domínio da Apple em smartphones.
Muitas empresas compartilharam abertamente suas tecnologias de IA no passado, por insistência de pesquisadores. Mas suas táticas estão mudando por causa da corrida em torno da IA. Essa mudança começou no ano passado, quando a OpenAI lançou o ChatGPT. O grande sucesso do chatbot impressionou os consumidores e aumentou a concorrência no campo da IA, com o Google agindo rapidamente para incorporar mais IA em seus produtos e a Microsoft investindo US$ 13 bilhões na OpenAI.
Embora Google, Microsoft e OpenAI tenham recebido a maior parte da atenção em IA, a Meta também investiu na tecnologia por quase uma década. A empresa gastou bilhões de dólares construindo o software e o hardware necessários para criar chatbots e outras “IA generativas”, que produzem textos, imagens e outras mídias por conta própria.
Nos últimos meses, a Meta trabalhou furiosamente nos bastidores para transformar seus anos de pesquisa e desenvolvimento em IA em novos produtos. O Sr. Zuckerberg está focado em tornar a empresa uma líder em IA, realizando reuniões semanais sobre o assunto com sua equipe executiva e líderes de produto.
A maior jogada de IA da Meta nos últimos meses foi o lançamento do LLaMA, que é conhecido como modelo de linguagem grande, ou LLM (LLaMA significa “Large Language Model Meta AI”.) LLMs são sistemas que aprendem habilidades analisando grandes quantidades de texto, incluindo livros, artigos da Wikipédia e logs de bate-papo. O ChatGPT e o chatbot Bard do Google também são construídos sobre esses sistemas.
Os LLMs identificam padrões no texto que analisam e aprendem a gerar seu próprio texto, incluindo trabalhos de conclusão de curso, postagens de blog, poesia e código de computador. Eles podem até manter conversas complexas.
Em fevereiro, a Meta lançou o LLaMA abertamente, permitindo que acadêmicos, pesquisadores do governo e outros que forneceram seu endereço de e-mail baixem o código e o usem para criar seu próprio chatbot.
Mas a empresa foi além de muitos outros projetos de IA de código aberto. Ele permitia que as pessoas baixassem uma versão do LLaMA depois de ter sido treinado em enormes quantidades de texto digital retirado da Internet. Os pesquisadores chamam isso de “liberar os pesos”, referindo-se aos valores matemáticos específicos aprendidos pelo sistema à medida que analisa os dados.
Isso foi significativo porque a análise de todos esses dados normalmente requer centenas de chips de computador especializados e dezenas de milhões de dólares, recursos que a maioria das empresas não possui. Aqueles que têm os pesos podem implantar o software de forma rápida, fácil e barata, gastando uma fração do que custaria para criar um software tão poderoso.
Como resultado, muitos na indústria de tecnologia acreditavam que a Meta havia estabelecido um precedente perigoso. E em poucos dias, alguém lançou os pesos do LLaMA no 4chan.
Na Universidade de Stanford, os pesquisadores usaram a nova tecnologia da Meta para construir seu próprio sistema de IA, que foi disponibilizado na internet. Um pesquisador de Stanford chamado Moussa Doumbouya logo o usou para gerar textos problemáticos, de acordo com capturas de tela vistas pelo The New York Times. Em um caso, o sistema forneceu instruções para descartar um cadáver sem ser pego. Também gerou material racista, incluindo comentários que apoiavam as opiniões de Adolf Hitler.
Em uma conversa privada entre os pesquisadores, que foi vista pelo The Times, Doumbouya disse que distribuir a tecnologia ao público seria como “uma granada disponível para todos em uma mercearia”. Ele não respondeu a um pedido de comentário.
Stanford prontamente removeu o sistema de IA da internet. O projeto foi concebido para fornecer aos pesquisadores tecnologia que “capturou os comportamentos de modelos de IA de ponta”, disse Tatsunori Hashimoto, professor de Stanford que liderou o projeto. “Retiramos a demonstração porque ficamos cada vez mais preocupados com o potencial de uso indevido além de um ambiente de pesquisa.”
O Dr. LeCun argumenta que esse tipo de tecnologia não é tão perigoso quanto parece. Ele disse que um pequeno número de indivíduos já pode gerar e espalhar desinformação e discurso de ódio. Ele acrescentou que o material tóxico pode ser fortemente restringido por redes sociais como o Facebook.
“Você não pode impedir que as pessoas criem informações sem sentido ou perigosas ou o que quer que seja”, disse ele. “Mas você pode impedir que seja disseminado.”
Para Meta, mais pessoas usando software de código aberto também podem nivelar o campo de jogo, pois compete com OpenAI, Microsoft e Google. Se todos os desenvolvedores de software do mundo construíssem programas usando as ferramentas da Meta, isso poderia ajudar a consolidar a empresa para a próxima onda de inovação, afastando a potencial irrelevância.
O Dr. LeCun também apontou para a história recente para explicar por que a Meta estava comprometida com a tecnologia de IA de código aberto. Ele disse que a evolução da internet do consumidor foi o resultado de padrões comunitários abertos que ajudaram a construir a rede de compartilhamento de conhecimento mais rápida e ampla que o mundo já viu.
“O progresso é mais rápido quando está aberto”, disse ele. “Você tem um ecossistema mais vibrante, onde todos podem contribuir.”
Discussão sobre isso post