Os legisladores da Europa assinaram na quarta-feira o primeiro conjunto de regras abrangentes do mundo para inteligência artificial, eliminando um obstáculo importante à medida que as autoridades de todo o mundo correm para controlar a IA.
Um esforço de um ano de Bruxelas para elaborar proteções para a IA tornou-se mais urgente à medida que os rápidos avanços em chatbots como o ChatGPT mostram os benefícios que a tecnologia emergente pode trazer – e os novos perigos que ela representa.
Aqui está uma olhada na Lei de Inteligência Artificial da UE:
COMO FUNCIONAM AS REGRAS?
A medida, proposta pela primeira vez em 2021, vai reger qualquer produto ou serviço que utilize um sistema de inteligência artificial. A lei classificará os sistemas de IA de acordo com quatro níveis de risco, do mínimo ao inaceitável.
Aplicativos mais arriscados, como contratação ou tecnologia voltada para crianças, enfrentarão requisitos mais rígidos, incluindo maior transparência e uso de dados precisos.
Caberá aos 27 estados membros da UE fazer cumprir as regras. Os reguladores podem forçar as empresas a retirar seus aplicativos do mercado.
Em casos extremos, as violações podem resultar em multas de até 40 milhões de euros (US$ 43 milhões) ou 7% da receita global anual de uma empresa, que no caso de empresas de tecnologia como Google e Microsoft podem chegar a bilhões.
QUAIS SÃO OS RISCOS?
Um dos principais objetivos da UE é proteger contra quaisquer ameaças de IA à saúde e segurança e proteger os valores e direitos fundamentais.
Isso significa que alguns usos de IA são absolutamente proibidos, como sistemas de “pontuação social” que julgam as pessoas com base em seu comportamento.
Também é proibida a IA que explora pessoas vulneráveis, incluindo crianças, ou usa manipulação subliminar que pode resultar em danos, por exemplo, um brinquedo falante interativo que incentiva comportamentos perigosos.
As ferramentas de policiamento preditivo, que processam dados para prever quem cometerá crimes, também foram lançadas.
Os legisladores reforçaram a proposta original da Comissão Europeia, o poder executivo da UE, ampliando a proibição do reconhecimento facial remoto em tempo real e da identificação biométrica em público. A tecnologia escaneia os transeuntes e usa IA para combinar seus rostos ou outras características físicas com um banco de dados.
Uma emenda contenciosa para permitir exceções à aplicação da lei, como encontrar crianças desaparecidas ou prevenir ameaças terroristas, não foi aprovada.
Os sistemas de IA usados em categorias como emprego e educação, que afetariam o curso da vida de uma pessoa, enfrentam requisitos difíceis, como ser transparente com os usuários e tomar medidas para avaliar e reduzir os riscos de viés dos algoritmos.
A maioria dos sistemas de IA, como videogames ou filtros de spam, se enquadra na categoria de baixo ou nenhum risco, diz a comissão.
E O CHATGPT?
A medida original mal mencionava os chatbots, principalmente ao exigir que fossem rotulados para que os usuários soubessem que estavam interagindo com uma máquina. Posteriormente, os negociadores adicionaram provisões para cobrir a IA de uso geral, como o ChatGPT, depois que ela explodiu em popularidade, sujeitando essa tecnologia a alguns dos mesmos requisitos dos sistemas de alto risco.
Uma adição importante é um requisito para documentar completamente qualquer material protegido por direitos autorais usado para ensinar sistemas de IA a gerar texto, imagens, vídeos e músicas que se assemelhem ao trabalho humano.
Isso permitiria aos criadores de conteúdo saber se suas postagens de blog, livros digitais, artigos científicos ou músicas foram usados para treinar algoritmos que alimentam sistemas como o ChatGPT. Então eles poderiam decidir se seu trabalho foi copiado e buscar reparação.
POR QUE AS REGRAS DA UE SÃO TÃO IMPORTANTES?
A União Europeia não é um grande participante no desenvolvimento de IA de ponta. Esse papel é assumido pelos EUA e China. Mas Bruxelas costuma desempenhar um papel de definição de tendências com regulamentações que tendem a se tornar padrões globais de fato e se tornou pioneira nos esforços para atingir o poder de grandes empresas de tecnologia.
O tamanho do mercado único da UE, com 450 milhões de consumidores, torna mais fácil para as empresas cumprir a lei do que desenvolver diferentes produtos para diferentes regiões, dizem os especialistas.
Mas não é apenas uma repressão. Ao estabelecer regras comuns para IA, Bruxelas também está tentando desenvolver o mercado inspirando confiança entre os usuários.
“O fato de que essa regulamentação pode ser aplicada e as empresas serão responsabilizadas é significativo”, porque outros lugares como Estados Unidos, Cingapura e Grã-Bretanha apenas ofereceram “orientação e recomendações”, disse Kris Shrishak, tecnólogo e membro sênior do Conselho Irlandês para as Liberdades Civis.
“Outros países podem querer adaptar e copiar” as regras da UE, disse ele.
Empresas e grupos industriais alertam que a Europa precisa encontrar o equilíbrio certo.
“A UE está prestes a se tornar líder na regulamentação da inteligência artificial, mas ainda não se sabe se ela liderará a inovação da IA”, disse Boniface de Champris, gerente de políticas da Computer and Communications Industry Association, um grupo de lobby para empresas de tecnologia. empresas.
“As novas regras de IA da Europa precisam lidar com riscos claramente definidos, deixando flexibilidade suficiente para que os desenvolvedores forneçam aplicativos de IA úteis para o benefício de todos os europeus”, disse ele.
Sam Altman, CEO da OpenAI, fabricante do ChatGPT, expressou apoio a algumas proteções da IA e assinou com outros executivos de tecnologia um alerta sobre os riscos que ela representa para a humanidade. Mas ele também disse que é “um erro colocar regulamentação pesada em campo agora”.
Outros estão tentando recuperar o atraso nas regras da IA. A Grã-Bretanha, que deixou a UE em 2020, está disputando uma posição na liderança da IA. O primeiro-ministro Rishi Sunak planeja sediar uma cúpula mundial sobre segurança de IA neste outono.
“Quero fazer do Reino Unido não apenas o lar intelectual, mas o lar geográfico da regulamentação global de segurança da IA”, disse Sunak em uma conferência de tecnologia nesta semana.
QUAL É O PRÓXIMO?
Pode levar anos até que as regras entrem em vigor. O próximo passo são as negociações de três vias envolvendo os países membros, o Parlamento e a Comissão Europeia, possivelmente enfrentando mais mudanças enquanto tentam chegar a um acordo sobre o texto.
A aprovação final está prevista para o final deste ano, seguida de um período de carência para as empresas e organizações se adaptarem, geralmente em torno de dois anos.
Brando Benifei, um membro italiano do Parlamento Europeu que co-lidera seu trabalho na Lei de IA, disse que pressionaria por uma adoção mais rápida das regras para tecnologias de rápida evolução, como IA generativa.
Para preencher a lacuna antes que a legislação entre em vigor, a Europa e os EUA estão elaborando um código de conduta voluntário que as autoridades prometeram no final de maio que seria elaborado em semanas e poderia ser expandido para outros “países com ideias semelhantes”.
(Esta história não foi editada pela equipe do News18 e foi publicada a partir de um feed de agência de notícias sindicalizado – Associated Press)
Discussão sobre isso post