É fácil esquecer como o Facebook é novo, mas lembre-se que sim. A primeira vez que entrei no site de rede social foi por volta de 2006. Eu estava tendo aulas em um programa de enriquecimento de adultos em uma pequena escola católica em Charlotte, Carolina do Norte. Um jovem professor de literatura usou o Facebook para cultivar a comunicação informal com os alunos da idade tradicional. Entrei no Facebook usando meu endereço de e-mail da universidade, que na época era necessário para me inscrever.
O layout e a organização das informações do Facebook – o que os estudiosos agora chamam de “recursos” – não eram intuitivos para mim. Isso me obrigou a “gostar” da professora de literatura que nos incentivou a nos inscrevermos, seguida pelos demais alunos da turma. Não sabia que esse espaço digital era uma extensão da vida institucional da universidade, então fiquei surpreso e desanimado quando o professor me repreendeu por ter feito uma piada no meu mural do Facebook. Abandonei aquela aula e desativei minha primeira conta no Facebook. Eu não tentaria novamente por mais dois anos. Naquela época, qualquer pessoa com mais de 13 anos com um endereço de e-mail poderia ingressar na plataforma. Na época, essa expansão parecia a democratização de uma plataforma online de elite. Está claro agora que este também foi o momento em que o Facebook foi encaminhado para se tornar o boondoggle político que é hoje.
Abrir o Facebook deu incentivos para escala e fazer da escala sua prioridade número 1. Quando as plataformas priorizam a escala sobre a segurança dos usuários ou mesmo a experiência do usuário, os proprietários da plataforma escolheram um conjunto de crenças políticas que informam suas decisões econômicas.
Tarleton Gillespie é pesquisador principal da Microsoft Research New England e professor associado afiliado da Cornell University. Ele também é o autor de “Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media”. Tarleton tem argumentou que, “as plataformas agora funcionam em escala e sob um conjunto de expectativas que demandam cada vez mais automação. No entanto, os tipos de decisões que as plataformas devem tomar, especialmente na moderação de conteúdo, são precisamente os tipos de decisões que não devem ser automatizadas e talvez não possam ser. ” Confiar decisões a algoritmos quando deveriam ser tomadas por humanos é uma decisão política; isso significa escala é política. Isso é algo que o fundador do Facebook está bem ciente.
A redatora de discursos de Mark Zuckerberg de 2009 a 2011, Kate Losse, diz que uma de suas frases favoritas durante seu tempo com ele foi “empresas sobre países. ” A declaração pode ser descartada como a fanfarronice de um jovem bilionário. Também pode ser visto como um princípio fundamental da busca da tecnologia por escala como política. É melhor pensar nisso como ambos. A política de escala de plataforma é semelhante à política de “grande demais para falir” que tornou os bancos impenetráveis aos riscos de sua própria responsabilidade durante a crise financeira de 2008. Há muito a ser dito sobre se os bancos deveriam ter sido resgatados e quem pagou os custos de longo prazo por isso. Mas está pelo menos dentro do reino da razão aceitar que as instituições financeiras estão realmente tão entrelaçadas com a política, militarização e geopolítica dos EUA que defender sua escala é uma questão de interesse nacional. É difícil fazer um caso semelhante para o Facebook. Zuckerberg pode muito bem tornar o Facebook inevitavelmente, mas ainda temos tempo para determinar se devemos governar o Facebook como se fosse inevitável.
A questão da inevitabilidade é complicada por outra dimensão de escala: o Facebook não é apenas um problema político dos Estados Unidos. Quando o Facebook caiu nesta semana, as outras plataformas da empresa também caíram, Instagram e WhatsApp. A interrupção trouxe à tona a divisão entre a experiência política do Facebook entre diferentes grupos. Para muitos americanos, a queda do Facebook é um inconveniente; havia memes sobre como redescobrir o marido, escrever prazos ou estantes durante as horas de interrupção do Facebook. Mas internacionalmente, o WhatsApp é o principal serviço de mensagens. Isso é infraestrutura crítica para o governo federal nas Filipinas e hospitais na Índia. Imigrantes nos Estados Unidos temem entrar em contato com suas famílias em lugares como Malásia, Gana e Brasil. Mas as falhas em como as pessoas usam o Facebook também se tornaram visíveis em outros domínios, como o de pessoas com deficiência que se preocupam em se comunicar com seus amigos, familiares e cuidadores em plataformas de uso gratuito.
Meu colega da UNC, Matt Perault, me disse esta semana que a política de tecnologia é como toda formulação de política no sentido de que é uma análise de custo-benefício. Ou seja, uma boa política aceita os trade-offs entre regulamentações insuficientes, mas práticas, para algum benefício social acordado, embora incompleto. O insight de Matt vem de seu cargo anterior como diretor de políticas públicas no Facebook e agora como diretor de um laboratório UNC sobre política de tecnologia da informação. É uma lente útil para visualizar os comentários feitos pela denunciante do Facebook, Frances Haugen, em depoimento no Congresso esta semana. Ela testemunhou que a empresa “prefere o lucro à segurança” e explicou que conduziu sua própria pesquisa sobre recursos de plataforma que incentivam comportamentos perigosos, como distúrbios alimentares e automutilação. Apesar dessa pesquisa, o Facebook opta por desenvolver recursos que geram atenção, o que por sua vez gera lucro, mesmo quando esses recursos são perigosos para alguns usuários.
Siva Vaidhyanathan é professor da Universidade da Virgínia e principal especialista nas implicações sociais e culturais do domínio político do Facebook. Em um recente podcast com Virginia Heffernan, outra estudiosa da mídia, Siva caracterizou o testemunho de Haugen como equivalente aos documentos fumegantes que derrubaram a indústria do tabaco. No caso da Big Tobacco, decidimos que fumar era agradável, mas também perigoso para a saúde pública. Fizemos uma análise de custo-benefício de compensações imperfeitas e escolhemos o bem-estar coletivo. Algumas pessoas foram prejudicadas por essa troca. Pessoas com dependência física tiveram que pagar mais por seu vício, por exemplo. Mas a troca foi feita. Prestar atenção à política de tecnologia e debates sobre o Facebook pode ter parecido um nicho 10 ou até cinco anos atrás. Com a última semana – das interrupções ao testemunho no Congresso – está claro para mim que agora é a hora de cada cidadão informado ter uma posição sobre a regulamentação do Facebook. Devemos ser guiados pela compreensão dos trade-offs e a quem eles afetam.
Se decidirmos regulamentar o Facebook, algumas pessoas perderão uma plataforma de comunicação crítica, embora predatória. Pessoas pobres, deficientes e o sul global provavelmente, como costumam fazer, sofrerão o impacto de reverter más decisões políticas. E em países onde o domínio dos negócios do Facebook se tornou a comunicação nacional e infraestrutura econômica, as marginalizações serão agravadas. Um Facebook reduzido por uma regulamentação significativa pode não ter os incentivos para revelar discurso de ódio, desinformação e imagens de controle como aquelas que levam à alimentação desordenada. É quase certo que terá menos poder de amplificação para comprometer eleições democráticas ou direcionar seus familiares a golpes financeiros ou teorias de conspiração. A questão para nós é se as vantagens valem a pena e se podemos construir sistemas para isolar os vulneráveis das desvantagens.
Tressie McMillan Cottom (@tressiemcphd) é professor associado da University of North Carolina na Chapel Hill School of Information and Library Science, autor de “Thick: And Other Essays” e bolsista da MacArthur em 2020.
Discussão sobre isso post