O acordo de Elon Musk para tornar o Twitter privado, que gerou questões sobre poder, censura e segurança para o futuro da plataforma, aconteceu poucos dias depois que a União Europeia chegou a um acordo histórico para tornar as mídias sociais menos tóxicas para os usuários. Os novos padrões da UE e a ética de transparência em que se baseiam vão, pela primeira vez, abrir a cortina sobre os algoritmos que escolhem o que vemos e quando o vemos em nossos feeds.
No caso da Europa, a secamente nomeada Lei de Serviços Digitais é a legislação de mídia social mais significativa da história. Isso vai ao cerne do que tentei fazer como denunciante que trabalhou dentro do Facebook: tornar as mídias sociais muito melhores sem afetar a liberdade de expressão. Hoje, as estratégias de moderação de conteúdo mal implementadas do Facebook deixar aqueles com maior risco de violência no mundo real desprotegidos e só consistentemente ter sucesso em uma coisa: irritar a todos.
Em outubro passado, apresentei uma mensagem simples: o Facebook sabia que estava cortando custos para ganhar mais dinheiro, e o público estava pagando o preço. Em mais de 20.000 páginas de documentos que revelei à Securities and Exchange Commission e ao Congresso, o público soube o que o Facebook já sabia – sua produtos estavam estimulando o ódio e a divisão, levando adolescentes a buracos de coelho de automutilação e anorexiadeixando milhões de usuários sem sistemas básicos de segurança para discurso de ódio ou incitação à violência e, às vezes, foram usados até para vender humanos em toda a plataforma.
As empresas globais já haviam escolhido estratégias de maximização de lucros em detrimento do interesse público antes. Vimos isso com poluição na indústria química, danos ambientais na extração de recursos naturais e hipotecas predatórias em serviços financeiros.
O que distingue as más práticas dessas outras indústrias da Big Tech é simples – existem leis que as responsabilizam. É isso que o governo pretende fazer no capitalismo democrático: usar a lei para orientar o mercado de volta ao alinhamento com o interesse público. Quando o poder monopolista concentrado privilegia os poucos sobre os muitos e distorce o funcionamento do livre mercado, esse tipo de correção é vital.
A forma como a nova lei europeia é aplicada será tão importante como a sua aprovação. É um amplo e abrangente conjunto de regras e padrões, não muito diferente dos padrões de segurança alimentar para limpeza e rotulagem de alérgenos. Mas o que também é notável é que ele se concentra na supervisão do design e implementação de sistemas (como como os algoritmos se comportam) em vez de determinar o que é um discurso bom ou ruim.
A lei exige que o Facebook e outras grandes plataformas sociais sejam transparentes sobre qual conteúdo está sendo amplificado e compartilhado de forma viral na plataforma. E deve aplicar proteções ao consumidor a recursos que, entre outras coisas, espionam usuários, viciam crianças ou enfraquecem a segurança pública. Com a transparência finalmente exigida, será mais fácil para os reguladores europeus e a sociedade civil verificar se as empresas estão seguindo as regras.
Essas regras são como sistemas nos Estados Unidos que obrigam as empresas farmacêuticas a manter os medicamentos seguros e a permitir que a Food and Drug Administration verifique independentemente os resultados. A maioria das pessoas não está ciente deles, mas estamos todos felizes por eles estarem lá.
O novo requisito de acesso a dados permitirá pesquisas independentes sobre o impacto dos produtos de mídia social na saúde pública e no bem-estar. Por exemplo, Facebook, Instagram e outros terão que abrir a caixa preta de quais páginas, postagens e vídeos obtêm mais curtidas e compartilhamentos – iluminando os resultados dos algoritmos.
Isso permitirá que milhares de pessoas, não apenas aquelas que trabalham nessas empresas, resolvam os problemas complexos de como os mercados de informação mudam os resultados sociais. Como especialista em algoritmos e cientista de dados, estou mais empolgado com isso. Não dependeremos mais de acreditar na palavra das empresas quando elas dizem que estão tentando resolver um problema de segurança. A responsabilidade democrática e do investidor e a supervisão de grandes empresas se resumem a saber se podemos diagnosticar com precisão os problemas que seus produtos estão causando, conceber soluções e verificar se a indústria está realmente seguindo com eles. A era do “apenas confie em nós” acabou.
Por que isso aconteceu na Europa? Por que não aqui na América, que deu origem a essas tecnologias incríveis? A Europa sabe que as estratégias de censura do Facebook falham em sociedades onde muitos idiomas são falados porque exigem que os sistemas de censura sejam construídos um idioma de cada vez. Somente a estratégia de focar na segurança do produto funciona de forma equitativa em todos os idiomas, mesmo nos menos falados.
A Europa está aprovando as mudanças que o Congresso vem tentando garantir – com um lista de contas bipartidárias – por muitos anos. Mas, nos Estados Unidos, o dono do Facebook e do Instagram, Meta, investe pesadamente dentro lobistas e especialistas em comunicação em resposta a preocupações sobre discurso de ódio, teorias da conspiração e desinformação.
A indústria enquadrou falsamente o caminho a seguir como uma escolha entre liberdade de expressão e segurança. A Meta afirma que adoraria que todos estivessem seguros, mas essa segurança viria ao custo da liberdade de expressão. Os documentos em minhas divulgações pintam um quadro diferente: a Meta sabe que as escolhas de produtos que faz dão a mais alcance ao mais divisivo e ideias extremas, e sabe como desfazer essas escolhas para priorizar que o julgamento humano direcione nossa atenção em vez de apenas computadores. As ideias incluem reprimir os robôs que amplificam a desinformação, exigir que os usuários cliquem em um link antes de compartilhá-lo novamente ou ajudar a direcionar mais intencionalmente a distribuição de informações fazendo com que os usuários copiem/colem conteúdo compartilhado fora de amigos de amigos. Estas são escolhas de produtos que podem reduzir o discurso de ódio, conteúdo nocivo e desinformação.
Então, por que o Facebook não os implementou totalmente? Essas mudanças adicionam atrito e atrasam um pouco a disseminação do conteúdo, o que também significa desacelerar um pouco o crescimento dos lucros do Facebook. O foco a laser do Facebook em retornos trimestrais roubou uma oportunidade de construir o sucesso a longo prazo; é mais provável que usemos o Facebook daqui a 10 anos se for seguro e agradável de usar. Discutir sobre a censura funciona apenas para promover o interesse próprio do Facebook – enquanto também envolve nossos amigos, vizinhos e legisladores em nós raivosos que são impossíveis de desatar.
Deixe-me ser claro: a censura não é a solução. Podemos ter redes sociais que nos conectem com nossos amigos e familiares e que não nos dividam de nossos compatriotas.
A Europa estabeleceu um caminho que podemos adaptar – à nossa maneira exclusivamente americana – e seguir.
Frances Haugen é cientista de dados com especialização em classificação algorítmica, tendo trabalhado no Facebook, Google, Yelp e Pinterest, e é defensora da liberdade de expressão, responsabilidade e transparência nas mídias sociais.
O Times está empenhado em publicar uma diversidade de letras para o editor. Gostaríamos de saber o que você pensa sobre este ou qualquer um de nossos artigos. Aqui estão alguns pontas. E aqui está nosso e-mail: [email protected].
Siga a seção de opinião do The New York Times sobre Facebook, Twitter (@NYTopinion) e Instagram.
Discussão sobre isso post