A mídia social pode parecer uma banca de jornal gigante, com mais opções do que qualquer outra banca de jornal. Contém notícias não só de veículos jornalísticos, mas também de sua avó, seus amigos, celebridades e pessoas de países que você nunca visitou. É uma festa abundante.
Mas muitas vezes você não consegue escolher no buffet. Na maioria das plataformas de mídia social, os algoritmos usam seu comportamento para restringir as postagens que são exibidas. Se você enviar a postagem de uma celebridade para um amigo, mas passar pela de sua avó, ela poderá exibir mais postagens como a da celebridade em seu feed. Mesmo quando você escolhe quais contas seguir, o algoritmo ainda decide quais postagens mostrar a você e quais enterrar.
Existem muitos problemas com esse modelo. Existe a possibilidade de ficarmos presos nas bolhas do filtro, onde ver apenas notícias que confirmam nossas crenças pré-existentes. Existem buracos de coelho, onde os algoritmos podem levar as pessoas a um conteúdo mais extremo. E existem algoritmos orientados ao engajamento que geralmente recompensam o conteúdo ultrajante ou horrível.
No entanto, nenhum desses problemas é tão prejudicial quanto o problema de quem controla os algoritmos. Nunca o poder de controlar o discurso público esteve tão completamente nas mãos de algumas corporações com fins lucrativos, sem requisitos para servir ao bem público.
A aquisição do Twitter por Elon Musk, que ele renomeou como X, mostrou o que pode acontecer quando um indivíduo impulsiona uma agenda política ao controlar uma empresa de mídia social.
Desde que o Sr. Musk comprou a plataforma, ele declarou repetidamente que quer derrotar o “vírus da mente acordada”- que ele tem lutou para definir, mas isso em grande parte parece significar políticas democráticas e progressistas. Ele tem contas restabelecidas que foram banidas por causa da supremacia branca e anti-semita pontos de vista que eles defendiam. Ele tem jornalistas banidos e ativistas. Ele promoveu figuras de extrema-direita como Tucker Carlson e Andrew Tate, que foram expulsos de outras plataformas. Ele mudou as regras para que os usuários possam pagar para ter algumas postagens impulsionadas pelo algoritmo e supostamente mudou o algoritmo para impulsionar suas próprias postagens. O resultado, como Charlie Warzel disse no The Atlantic, é que a plataforma agora é uma “rede social de extrema direita” que “avança os interesses, preconceitos e teorias da conspiração da ala direita da política americana”.
A aquisição do Twitter foi um acerto de contas público com controle algorítmico, mas qualquer empresa de tecnologia poderia fazer algo semelhante. Para impedir aqueles que sequestram algoritmos para obter poder, precisamos de um movimento pró-escolha de algoritmos. Nós, os usuários, devemos poder decidir o que lemos na banca.
No meu mundo ideal, gostaria de poder escolher meu feed em uma lista de provedores. Eu adoraria ter um feed elaborado por bibliotecários, que já são especialistas em curadoria de informações, ou do meu canal de notícias favorito. E eu gostaria de poder comparar como é um feed curado pela American Civil Liberties Union em comparação com um curado pela Heritage Foundation. Ou talvez eu só queira usar a curadoria da minha amiga Susie, porque ela tem muito bom gosto.
Há um movimento mundial crescente para nos fornecer alguma escolha algorítmica – de um grupo de Belgrado exigindo que algoritmos de recomendação devem ser um “bem público” aos reguladores europeus que exigem que as plataformas dêem aos usuários pelo menos um opção de algoritmo que não se baseia no rastreamento do comportamento do usuário.
Um dos primeiros lugares para começar a tornar essa visão uma realidade é uma rede social chamada Céu azulque recentemente abriu seus dados para permitir que os desenvolvedores construir algoritmos personalizados. A empresa, que é financiada pelo fundador do Twitter, Jack Dorsey, disse que 20% de seus 265.000 usuários estão usando feeds personalizados.
No meu feed Bluesky, costumo alternar entre feeds chamados Tech News, Cute Animal Pics, PositiviFeed e meu favorito, Home +, que inclui “conteúdo interessante de seus círculos sociais estendidos”. Alguns deles foram construídos por desenvolvedores Bluesky e outros foram criados por desenvolvedores externos. Tudo o que preciso fazer é ir para Meus feeds e selecionar um feed em um amplo menu de opções, incluindo MLB+, um feed sobre beisebol, até #Disability, um que seleciona palavras-chave relacionadas a deficiência ou arrecadação de fundos da UA, um feed de fundos ucranianos -levantar postagens.
Escolher entre essa ampla seleção de feeds me libera de ter que decidir quem seguir. Mudar de rede social é menos cansativo – não preciso reconstruir minha rede no Twitter. Em vez disso, posso simplesmente mergulhar em feeds já selecionados que me apresentam novas pessoas e tópicos.
“Acreditamos que os usuários devem ter uma palavra a dizer sobre como sua atenção é direcionada, e os desenvolvedores devem ser livres para experimentar novas formas de apresentar informações”, disse Bluesky. executivo-chefe, Jay Graber, me disse em uma mensagem de e-mail.
Claro, também há desafios para a escolha algorítmica. Quando o professor de ciências políticas de Stanford Francis Fukuyama liderou um grupo de trabalho que em 2020 entidades externas propostas oferecem escolha algorítmica, os críticos concordaram com muitas preocupações.
Robert Faris e Joan Donovan, então do Harvard’s Shorenstein Center, escreveram que estavam preocupados que a proposta de Fukuyama poderia deixar as plataformas fora do gancho por suas falhas na remoção de conteúdo prejudicial. Nathalie Maréchal, Ramesh Srinivasan e Dipayan Ghosh argumentaram que sua abordagem não faça nada para mudar o modelo de negócios subjacente de algumas plataformas de tecnologia que incentiva a criação de conteúdo tóxico e manipulador.
O Sr. Fukuyama concordou que sua solução pode não ajudar a reduzir o conteúdo tóxico e a polarização. “Lamento a toxicidade do discurso político nos Estados Unidos e em outras democracias hoje, mas não estou disposto a tentar resolver o problema descartando o direito à liberdade de expressão”, escreveu ele. em resposta aos críticos.
Quando dirigia a equipe de ética do Twitter, Rumman Chowdhury desenvolveu protótipos para oferecer aos usuários escolhas algorítmicas. Mas sua pesquisa revelou que muitos usuários achavam difícil imaginar ter controle de seu feed. “O paradigma da mídia social que temos não é aquele em que as pessoas entendem ter agência”, disse Chowdhury, cuja equipe do Twitter foi demitida quando Musk assumiu. Ela fundou a organização sem fins lucrativos Humane Intelligence.
Mas só porque as pessoas não sabem o que querem, isso não significa que a escolha algorítmica não seja importante. Eu não sabia que queria um iPhone até ver um.
E com outra eleição nacional se aproximando e a desinformação circulando descontroladamente, acredito que pedir às pessoas que escolham a desinformação – em vez de aceitá-la passivamente – faria a diferença. Se os usuários tivessem que escolher um feed de notícias antivacina e ver que existem outros feeds para escolher, a existência dessa escolha seria educativa.
Algoritmos tornam nossas escolhas invisíveis. Tornar essas escolhas visíveis é um passo importante na construção de um ecossistema de informações saudável.
Discussão sobre isso post