Este artigo faz parte do boletim informativo On Tech. Aqui está uma coleção de colunas anteriores.
Em um grupo do Facebook para jardineiros, os sistemas automatizados da rede social às vezes discussões sinalizadas sobre uma ferramenta de quintal comum como conversa sexual imprópria.
o Facebook congelou as contas de alguns nativos americanos anos atrás porque seus computadores acreditavam erroneamente que nomes como Lance Browneyes eram falsos.
A empresa rejeitou repetidamente anúncios de empresas que vendem roupas para pessoas com deficiência, principalmente em uma confusão que confundiu os produtos com promoções médicas, que são contra suas regras.
O Facebook, que se renomeou como Meta, e outras redes sociais devem fazer julgamentos complicados para equilibrar o apoio à liberdade de expressão, mantendo fora material indesejado, como imagens de abuso sexual infantil, incitações violentas e golpes financeiros. Mas não foi isso que aconteceu nos exemplos acima. Esses foram erros cometidos por um computador que não conseguia lidar com nuances.
As redes sociais são espaços públicos essenciais que são muito grandes e rápidos demais para que qualquer um gerencie com eficiência. Chamadas erradas acontecem.
Esses erros sem glamour não são tão importantes quanto decidir se o Facebook deve expulsar o ex-presidente dos EUA de seu site. Mas as pessoas comuns, negócios e grupos que atendem ao interesse público, como organizações de notícias, sofrem quando as redes sociais cortam suas contas e não conseguem encontrar ajuda ou descobrir o que fizeram de errado.
Isso não acontece com frequência, mas uma pequena porcentagem de erros no tamanho do Facebook se soma. Jornal de Wall Street calculado que o Facebook pode fazer cerca de 200.000 ligações erradas por dia.
As pessoas que pesquisam redes sociais me disseram que o Facebook – e seus pares, embora eu me concentre no Facebook aqui – poderia fazer muito mais para cometer menos erros e mitigar os danos quando der errado.
Os erros também levantam uma questão maior: aceitamos que as empresas sejam tão essenciais que, quando não consertam os erros, não há muito o que fazer?
Os críticos da empresa e o Conselho de Supervisão do Facebook semi-independente disseram repetidamente que o Facebook precisa tornar mais fácil para os usuários cujas postagens foram excluídas ou contas foram desativadas entender quais regras eles violaram e apelar das decisões judiciais. O Facebook fez um pouco disso, mas não o suficiente.
Os pesquisadores também querem mergulhe nos dados do Facebook para analisar sua tomada de decisão e com que frequência ela erra. A empresa tende a se opor a essa ideia como uma intrusão na privacidade de seus usuários.
O Facebook disse que está trabalhando para ser mais transparente e que gasta bilhões de dólares em sistemas de computadores e pessoas para supervisionar as comunicações em seus aplicativos. As pessoas vão discordar de suas decisões sobre as postagens, não importa o quê.
Mas seus críticos novamente dizem que não fez o suficiente.
“Esses são problemas legitimamente difíceis, e eu não gostaria de fazer essas trocas e decisões”, disse Evelyn Douek, pesquisador sênior do Knight First Amendment Institute da Columbia University. “Mas acho que eles ainda não tentaram de tudo ou investiram recursos suficientes para dizer que temos o número ideal de erros.”
A maioria das empresas que cometem erros enfrenta sérias consequências. O Facebook raramente faz isso. Ryan Calo, professor da faculdade de direito da Universidade de Washington, fez a comparação entre o Facebook e a demolição de prédios.
Quando as empresas derrubam prédios, detritos ou vibrações podem danificar propriedades ou até ferir pessoas. Calo me disse que, devido aos riscos inerentes, as leis dos EUA impõem às empresas de demolição um alto padrão de responsabilidade. As empresas devem tomar precauções de segurança e possivelmente cobrir quaisquer danos. Essas consequências potenciais idealmente os tornam mais cuidadosos.
Mas Calo disse que as leis que regem a responsabilidade na internet não fizeram o suficiente para responsabilizar as empresas também pelos danos que essas informações, ou restringi-las, podem causar.
“É hora de parar de fingir que isso é tão diferente de outros tipos de danos sociais”, disse Calo.
Antes de irmos …
Abraços para isso
Isto garoto cavando a neve está exausto (SUPIRO PROFUNDO) e quer contar tudo a você.
Nós queremos ouvir de você. Conte-nos o que você acha deste boletim informativo e o que mais você gostaria que explorássemos. Você pode nos alcançar em ontech@nytimes. com.
Se você ainda não recebeu este boletim informativo em sua caixa de entrada, por favor inscreva-se aqui. Você também pode ler colunas anteriores em tecnologia.
Discussão sobre isso post