Os legisladores passaram anos investigando como o discurso de ódio, a desinformação e o bullying em sites de mídia social podem causar danos no mundo real. Cada vez mais, eles apontam o dedo para os algoritmos que alimentam sites como Facebook e Twitter, o software que decide que conteúdo os usuários verão e quando o verão.
Alguns legisladores de ambas as partes argumentam que, quando os sites de mídia social aumentam o desempenho de postagens odiosas ou violentas, os sites se tornam cúmplices. E eles propuseram projetos de lei para privar as empresas de um escudo legal que lhes permite evitar ações judiciais sobre a maior parte do conteúdo postado por seus usuários, nos casos em que a plataforma ampliou o alcance de uma postagem prejudicial.
O Comitê de Energia e Comércio da Câmara realizará uma audiência na quarta-feira para discutir várias das propostas. A audiência também incluirá o testemunho de Frances Haugen, a ex-funcionária do Facebook que recentemente vazou um tesouro de documentos internos reveladores da empresa.
Remover o escudo legal, conhecido como Seção 230, significaria uma mudança radical para a internet, porque há muito habilita a vasta escala de sites de mídia social. A Sra. Haugen disse que apóia a mudança da Seção 230, que faz parte da Lei de Decência nas Comunicações, de modo que não cubra mais certas decisões tomadas por algoritmos em plataformas de tecnologia.
Mas o que, exatamente, conta como amplificação algorítmica? E qual, exatamente, é a definição de prejudicial? As propostas oferecem respostas muito diferentes a essas questões cruciais. E a forma como eles respondem pode determinar se os tribunais consideram os projetos de lei constitucionais.
Aqui está como as contas tratam dessas questões espinhosas:
O que é amplificação algorítmica?
Algoritmos são em todos os lugares. Basicamente, um algoritmo é um conjunto de instruções que dizem a um computador como fazer algo. Se uma plataforma pudesse ser processada a qualquer momento que um algoritmo fizesse algo contra uma postagem, produtos que os legisladores não estão tentando regulamentar podem ser enredados.
Algumas das leis propostas definem o comportamento que desejam regulamentar em termos gerais. Um projeto de lei patrocinado pela senadora Amy Klobuchar, democrata de Minnesota, exporia uma plataforma para ações judiciais se “promover” o alcance da desinformação de saúde pública.
O projeto de lei de Klobuchar sobre desinformação em saúde daria um passe para as plataformas se seu algoritmo promovesse conteúdo de forma “neutra”. Isso pode significar, por exemplo, que uma plataforma que classifica as postagens em ordem cronológica não precisa se preocupar com a lei.
Outra legislação é mais específica. Um projeto de lei dos representantes Anna G. Eshoo da Califórnia e Tom Malinowski de Nova Jersey, ambos democratas, define amplificação perigosa como fazer qualquer coisa para “classificar, solicitar, promover, recomendar, ampliar ou alterar de forma semelhante a entrega ou exibição de informações”.
Outro projeto de lei redigido pelos democratas da Câmara especifica que as plataformas só poderiam ser processadas quando a amplificação em questão fosse motivada pelos dados pessoais de um usuário.
“Essas plataformas não são espectadores passivos – elas estão escolhendo conscientemente os lucros em vez das pessoas, e nosso país está pagando o preço”, disse o representante Frank Pallone Jr., presidente do Comitê de Energia e Comércio, em um comunicado ao anunciar a legislação.
O novo projeto de lei do Sr. Pallone inclui uma isenção para qualquer empresa com cinco milhões ou menos de usuários mensais. Também exclui postagens que aparecem quando um usuário pesquisa algo, mesmo que um algoritmo os classifique, e hospedagem na web e outras empresas que constituem a espinha dorsal da Internet.
Qual conteúdo é prejudicial?
Os legisladores e outros apontaram para uma ampla gama de conteúdo que consideram estar vinculado a danos no mundo real. Existem teorias da conspiração, que podem levar alguns adeptos a se tornarem violentos. Postagens de grupos terroristas podem levar alguém a cometer um ataque, como os parentes de um homem argumentaram quando processaram o Facebook depois que um membro do Hamas o esfaqueou fatalmente. Outros legisladores expressaram preocupação com anúncios direcionados que levam à discriminação habitacional.
A maioria dos projetos de lei atualmente em tramitação no Congresso aborda tipos específicos de conteúdo. O projeto de lei da Sra. Klobuchar cobre “desinformação sobre saúde”. Mas a proposta deixa para o Departamento de Saúde e Serviços Humanos determinar o que, exatamente, isso significa.
“A pandemia de coronavírus nos mostrou como a desinformação pode ser letal e é nossa responsabilidade agir”, disse Klobuchar ao anunciar a proposta, que foi co-escrita pelo senador Ben Ray Luján, um democrata do Novo México.
A legislação proposta pela Sra. Eshoo e pelo Sr. Malinowski adota uma abordagem diferente. Aplica-se apenas à ampliação de postagens que violam três leis – duas que proíbem violações dos direitos civis e uma terceira que processa o terrorismo internacional.
O projeto de lei do Sr. Pallone é o mais novo do grupo e se aplica a qualquer postagem que “tenha contribuído materialmente para um dano físico ou emocional grave a qualquer pessoa”. Este é um alto padrão legal: sofrimento emocional teria de ser acompanhado por sintomas físicos. Mas pode abranger, por exemplo, uma adolescente que vê postagens no Instagram que diminuem tanto seu valor que ela tenta se machucar.
O que pensam os tribunais?
Os juízes têm sido céticos quanto à ideia de que as plataformas devem perder sua imunidade legal quando ampliam o alcance do conteúdo.
No caso envolvendo um ataque pelo qual o Hamas assumiu a responsabilidade, a maioria dos juízes que ouviram o caso concordou com o Facebook que seus algoritmos não custavam a proteção do escudo legal para conteúdo gerado pelo usuário.
Se o Congresso criar uma isenção para o escudo legal – e ela resiste ao escrutínio legal – os tribunais podem ter que seguir seu exemplo.
Mas se os projetos se tornarem lei, eles provavelmente atrairão questões significativas sobre se violam as proteções de liberdade de expressão da Primeira Emenda.
Os tribunais decidiram que o governo não pode conceder benefícios a um indivíduo ou empresa condicionados à restrição de expressão que a Constituição protegeria de outra forma. Portanto, a indústria de tecnologia ou seus aliados poderiam desafiar a lei com o argumento de que o Congresso estava encontrando um método secreto de limitar a liberdade de expressão.
“A questão é: o governo pode banir diretamente a amplificação algorítmica?” disse Jeff Kosseff, professor associado de leis de segurança cibernética na Academia Naval dos Estados Unidos. “Vai ser difícil, especialmente se você está tentando dizer que não pode amplificar certos tipos de discurso.”
Discussão sobre isso post