Quando pesquisadores de uma organização sem fins lucrativos que estuda mídias sociais queriam entender a conexão entre vídeos do YouTube e violência armada, eles criaram contas na plataforma que imitavam o comportamento de meninos típicos que vivem nos EUA.
Eles simularam duas crianças de nove anos que gostavam de videogames, especialmente jogos de tiro em primeira pessoa. As contas eram idênticas, exceto que uma clicou nos vídeos recomendados pelo YouTube e a outra ignorou as sugestões da plataforma.
A conta que clicou nas sugestões do YouTube logo foi inundada com vídeos gráficos sobre tiroteios em escolas, vídeos de treinamento tático com armas e instruções de como fazer armas de fogo totalmente automáticas.
Um vídeo mostrava uma menina em idade escolar empunhando uma arma; outro mostrava um atirador usando uma arma calibre .50 para atirar em uma cabeça falsa cheia de sangue e cérebros realistas. Muitos dos vídeos violam as próprias políticas do YouTube contra conteúdo violento ou sangrento.
As descobertas mostram que, apesar das regras do YouTube e dos esforços de moderação de conteúdo, a plataforma não consegue impedir a disseminação de vídeos assustadores que podem traumatizar crianças vulneráveis – ou mandá-las para caminhos sombrios de extremismo e violência.
“Os videogames são uma das atividades mais populares para as crianças. Você pode jogar um jogo como “Call of Duty” sem acabar em uma loja de armas – mas o YouTube os leva até lá”, disse Katie Paul, diretora do Tech Transparency Project, o grupo de pesquisa que publicou suas descobertas sobre o YouTube na terça-feira. “Não são os videogames, não são as crianças. São os algoritmos.”
As contas que seguiram os vídeos sugeridos pelo YouTube receberam 382 vídeos diferentes relacionados a armas de fogo em um único mês, ou cerca de 12 por dia. As contas que ignoraram as recomendações do YouTube ainda receberam alguns vídeos relacionados a armas, mas apenas 34 no total.
Os pesquisadores também criaram contas que imitavam meninos de 14 anos que gostavam de videogames; essas contas também receberam níveis semelhantes de conteúdo relacionado a armas e violência.
Um dos vídeos recomendados para as contas foi intitulado “Como um interruptor funciona em uma Glock (apenas para fins educacionais)”. nome; esse vídeo permanece disponível.
Mensagens pedindo comentários do YouTube não foram imediatamente retornadas na terça-feira. Executivos da plataforma, que pertence ao Google, disseram que identificar e remover conteúdo prejudicial é uma prioridade, assim como proteger seus usuários mais jovens.
O YouTube exige que usuários menores de 17 anos obtenham a permissão de seus pais antes de usar o site; as contas para usuários com menos de 13 anos estão vinculadas à conta dos pais.
Junto com o TikTok, a plataforma de compartilhamento de vídeos é um dos sites mais populares para crianças e adolescentes. Ambos os sites foram criticados no passado por hospedar e, em alguns casos, promover vídeos que incentivam a violência armada, distúrbios alimentares e automutilação. Os críticos da mídia social também apontaram para os vínculos entre mídia social, radicalização e violência no mundo real.
Os perpetradores por trás de muitos tiroteios em massa recentes usaram mídias sociais e plataformas de streaming de vídeo para glorificar a violência ou até mesmo transmitir seus ataques ao vivo. Em postagens no YouTube, o atirador por trás do ataque a uma escola em Parkland, na Flórida, em 2018, que matou 17 pessoas, escreveu “Eu quero matar pessoas”, “Vou ser um atirador profissional em escolas” e “Tenho não há problema em atirar no peito de uma garota.
O atirador neonazista que matou oito pessoas no início deste mês em um shopping center na área de Dallas também tinha uma conta no YouTube que incluía vídeos sobre a montagem de fuzis, a série que matou Jeffrey Dahmer e um clipe de uma cena de tiroteio em uma escola em um programa de televisão.
Em alguns casos, o YouTube já removeu alguns dos vídeos identificados pelos pesquisadores do Tech Transparency Project, mas em outros casos o conteúdo continua disponível. Muitas grandes empresas de tecnologia contam com sistemas automatizados para sinalizar e remover conteúdo que viole suas regras, mas Paul disse que as descobertas do relatório do Projeto mostram que são necessários maiores investimentos na moderação de conteúdo.
Na ausência de regulamentação federal, as empresas de mídia social podem atingir usuários jovens com conteúdo potencialmente prejudicial, projetado para mantê-los voltando para mais, disse Shelby Knox, diretor de campanha do grupo de defesa Parents Together.
O grupo de Knox chamou plataformas como YouTube, Instagram e TikTok por tornar mais fácil para crianças e adolescentes encontrar conteúdo sobre suicídio, armas, violência e drogas.
“Plataformas de Big Tech como o TikTok escolheram seus lucros, seus acionistas e suas empresas em detrimento da saúde, segurança e até da vida das crianças repetidas vezes”, disse Knox em resposta a um relatório publicado no início deste ano que mostrava que o TikTok estava recomendando conteúdo nocivo. para adolescentes.
O TikTok defendeu seu site e suas políticas, que proíbem usuários com menos de 13 anos. Suas regras também proíbem vídeos que incentivem comportamentos nocivos; os usuários que pesquisam conteúdo sobre tópicos como transtornos alimentares recebem automaticamente um aviso oferecendo recursos de saúde mental.
(Esta história não foi editada pela equipe do News18 e foi publicada a partir de um feed de agência de notícias sindicalizado)
Discussão sobre isso post