Um estudo conduzido pelo Center for Countering Digital Hate (CCDH) sugeriu que o TikTok está “introduzindo conteúdo nocivo nos feeds de adolescentes”, alertando que isso poderia encorajar distúrbios alimentares, automutilação e suicídio. A pesquisa realizada pelo fórum de segurança on-line descobriu que certas contas recebiam repetidamente conteúdo sobre distúrbios alimentares e outros tópicos nocivos poucos minutos depois de ingressar na plataforma.
Duas contas em cada um desses países – EUA, Reino Unido, Austrália e Canadá – se passando por crianças de 13 anos foram criadas pelo grupo para realizar a pesquisa.
Uma conta em cada país recebeu um nome feminino e a outra recebeu um nome semelhante, mas com uma referência à perda de peso incluída no nome de usuário.
O conteúdo exibido para ambas as contas nos primeiros 30 minutos no TikTok foi então comparado.
Imran Ahmed, executivo-chefe da CCDH, acusou o TikTok de “envenenar a mente” dos usuários mais jovens.
Ele disse: “Isso promove nas crianças o ódio de seus próprios corpos e sugestões extremas de automutilação e atitudes desordenadas e potencialmente mortais em relação à comida.
“Os pais ficarão chocados ao saber a verdade e ficarão furiosos com o fato de os legisladores não protegerem os jovens de grandes bilionários da tecnologia, seus aplicativos de mídia social inexplicáveis e algoritmos cada vez mais agressivos”.
Ao configurar as contas, os pesquisadores interagiram com qualquer conteúdo nocivo que encontraram, curtindo qualquer vídeo que continha conteúdo relacionado a automutilação, distúrbios alimentares ou suicídio.
Isso indicou ao algoritmo do TikTok que esses eram assuntos nos quais o usuário estava interessado.
LEIA MAIS: Google proíbe aplicativos Android mais populares, agora você deve excluí-los hoje
Ele disse que, em média, suas contas receberam vídeos sobre saúde mental e imagem corporal a cada 39 segundos.
E a pesquisa indicou que as contas mais vulneráveis - que incluíam referências à imagem corporal no nome de usuário – receberam três vezes mais conteúdo nocivo e 12 vezes mais conteúdo relacionado a automutilação e suicídio.
O CCDH disse que o estudo encontrou uma comunidade de distúrbios alimentares no TikTok que usa hashtags codificadas e abertas para compartilhar material no site, com mais de 13 bilhões de visualizações de seus vídeos.
A plataforma de compartilhamento de vídeo inclui uma página Para você, que usa um algoritmo para recomendar conteúdo aos usuários conforme eles interagem com o aplicativo e reúne mais informações sobre os interesses e preferências do usuário.
Um estudo conduzido pelo Center for Countering Digital Hate (CCDH) sugeriu que o TikTok está “introduzindo conteúdo nocivo nos feeds de adolescentes”, alertando que isso poderia encorajar distúrbios alimentares, automutilação e suicídio. A pesquisa realizada pelo fórum de segurança on-line descobriu que certas contas recebiam repetidamente conteúdo sobre distúrbios alimentares e outros tópicos nocivos poucos minutos depois de ingressar na plataforma.
Duas contas em cada um desses países – EUA, Reino Unido, Austrália e Canadá – se passando por crianças de 13 anos foram criadas pelo grupo para realizar a pesquisa.
Uma conta em cada país recebeu um nome feminino e a outra recebeu um nome semelhante, mas com uma referência à perda de peso incluída no nome de usuário.
O conteúdo exibido para ambas as contas nos primeiros 30 minutos no TikTok foi então comparado.
Imran Ahmed, executivo-chefe da CCDH, acusou o TikTok de “envenenar a mente” dos usuários mais jovens.
Ele disse: “Isso promove nas crianças o ódio de seus próprios corpos e sugestões extremas de automutilação e atitudes desordenadas e potencialmente mortais em relação à comida.
“Os pais ficarão chocados ao saber a verdade e ficarão furiosos com o fato de os legisladores não protegerem os jovens de grandes bilionários da tecnologia, seus aplicativos de mídia social inexplicáveis e algoritmos cada vez mais agressivos”.
Ao configurar as contas, os pesquisadores interagiram com qualquer conteúdo nocivo que encontraram, curtindo qualquer vídeo que continha conteúdo relacionado a automutilação, distúrbios alimentares ou suicídio.
Isso indicou ao algoritmo do TikTok que esses eram assuntos nos quais o usuário estava interessado.
LEIA MAIS: Google proíbe aplicativos Android mais populares, agora você deve excluí-los hoje
Ele disse que, em média, suas contas receberam vídeos sobre saúde mental e imagem corporal a cada 39 segundos.
E a pesquisa indicou que as contas mais vulneráveis - que incluíam referências à imagem corporal no nome de usuário – receberam três vezes mais conteúdo nocivo e 12 vezes mais conteúdo relacionado a automutilação e suicídio.
O CCDH disse que o estudo encontrou uma comunidade de distúrbios alimentares no TikTok que usa hashtags codificadas e abertas para compartilhar material no site, com mais de 13 bilhões de visualizações de seus vídeos.
A plataforma de compartilhamento de vídeo inclui uma página Para você, que usa um algoritmo para recomendar conteúdo aos usuários conforme eles interagem com o aplicativo e reúne mais informações sobre os interesses e preferências do usuário.
Discussão sobre isso post