A Casa Branca anunciou na quinta-feira suas primeiras novas iniciativas destinadas a domar os riscos da inteligência artificial desde que um boom de chatbots alimentados por IA levou a pedidos crescentes para regulamentar a tecnologia.
A National Science Foundation planeja gastar US$ 140 milhões em novos centros de pesquisa dedicados à IA, disseram autoridades da Casa Branca. O governo também prometeu divulgar rascunhos de diretrizes para agências governamentais para garantir que o uso de IA proteja “os direitos e a segurança do povo americano”, acrescentando que várias empresas de IA concordaram em disponibilizar seus produtos para escrutínio em agosto em uma conferência de segurança cibernética.
Os anúncios foram feitos horas antes de a vice-presidente Kamala Harris e outros funcionários do governo se encontrarem com os executivos-chefes do Google, Microsoft, OpenAI, fabricante do popular chatbot ChatGPT, e Anthropic, uma startup de IA, para discutir a tecnologia. Um alto funcionário do governo disse na quarta-feira que a Casa Branca planejava convencer as empresas de que elas têm a responsabilidade de lidar com os riscos de novos desenvolvimentos de IA. imagens realistas. A explosão de interesse pela tecnologia começou no ano passado, quando a OpenAI lançou o ChatGPT para o público e as pessoas imediatamente começaram a usá-lo para buscar informações, fazer trabalhos escolares e ajudá-los em seu trabalho. Desde então, algumas das maiores empresas de tecnologia correram para incorporar chatbots em seus produtos e aceleraram a pesquisa de IA, enquanto os capitalistas de risco despejaram dinheiro em start-ups de IA.
Mas o boom da IA também levantou questões sobre como a tecnologia transformará as economias, sacudirá a geopolítica e fortalecerá a atividade criminosa. Os críticos temem que muitos sistemas de IA sejam opacos, mas extremamente poderosos, com potencial para tomar decisões discriminatórias, substituir pessoas em seus empregos, espalhar desinformação e talvez até infringir a lei por conta própria.
Presidente Biden disse recentemente que “resta saber” se a IA é perigosa, e alguns de seus principais nomeados prometeram intervir se a tecnologia for usada de maneira prejudicial.
Porta-vozes do Google e da Microsoft se recusaram a comentar antes da reunião na Casa Branca. Um porta-voz da Anthropic confirmou que a empresa estaria presente. Uma porta-voz da OpenAI não respondeu a um pedido de comentário.
Os anúncios se baseiam em esforços anteriores do governo para colocar barreiras na IA No ano passado, a Casa Branca divulgou o que chamou de “Projeto para uma Declaração de Direitos da IA”, que dizia que sistemas automatizados deveriam proteger a privacidade dos dados dos usuários, protegê-los de resultados discriminatórios e deixar claro por que certas ações foram tomadas. Em janeiro, o Departamento de Comércio também divulgou uma estrutura para reduzir o risco no desenvolvimento da IA, que estava em andamento há anos.
A introdução de chatbots como o ChatGPT e o Bard do Google colocou uma enorme pressão sobre os governos para agir. A União Europeia, que já vinha negociando regulamentações para IA, enfrentou novas demandas para regulamentar uma faixa mais ampla de IA, em vez de apenas sistemas vistos como inerentemente de alto risco.
Nos Estados Unidos, membros do Congresso, incluindo o senador Chuck Schumer de Nova York, o líder da maioria, passaram a redigir ou propor legislação para regular a IA. Mas é mais provável que medidas concretas para controlar a tecnologia no país venham primeiro das agências de aplicação da lei em Washington.
Um grupo de agências governamentais se comprometeu em abril a “monitorar o desenvolvimento e o uso de sistemas automatizados e promover a inovação responsável”, punindo as violações da lei cometidas com o uso da tecnologia.
Em um ensaio publicado no The New York Times na quarta-feira, Lina Khan, presidente da Comissão Federal de Comércio, disse que o país estava em um “ponto de decisão chave” com a IA. Ela comparou os desenvolvimentos recentes da tecnologia ao nascimento de gigantes da tecnologia como o Google e Facebook, e ela alertou que, sem uma regulamentação adequada, a tecnologia poderia consolidar o poder das maiores empresas de tecnologia e dar aos golpistas uma ferramenta poderosa.
“À medida que o uso da IA se torna mais difundido, os funcionários públicos têm a responsabilidade de garantir que essa história aprendida com muito esforço não se repita”, disse ela.
Discussão sobre isso post