Os polêmicos algoritmos do Facebook protegem seus usuários de serem expostos a conteúdo extremo, discurso de ódio e desinformação, afirmou o vice-presidente de política e assuntos globais da empresa em entrevistas no domingo.
Nick Clegg defendeu o Facebook contra as alegações da denunciante Frances Haugen de que seus algoritmos empurram clickbait e conteúdo extremo – mas insistiu que a empresa nunca seria capaz de eliminar totalmente a desinformação e discurso de ódio de suas plataformas.
“Se você remover os algoritmos … a primeira coisa que aconteceria é que as pessoas veriam mais, não menos, discurso de ódio – mais, não menos desinformação”, disse Clegg a Dana Bash no State of the Union da CNN. “Esses algoritmos são projetados precisamente para funcionar quase como filtros de spam gigantes para identificar e descontinuar conteúdo impróprio.”
“Para cada dez mil bits de conteúdo, você veria apenas cinco bits de alturas de discurso de ódio”, disse ele. “Eu gostaria que pudéssemos eliminá-lo a zero. Temos um terço da população mundial em nossas plataformas. Claro que vemos o bom, o mau e o feio da natureza humana em nossas plataformas. ”
Clegg insistiu com Bash que os algoritmos do Facebook não desempenharam nenhum papel especial na preparação para o Capitol Riot em 6 de janeiro. No programa da NBC “Meet The Press”, ele disse a Chuck Todd que a alegação de Haugen de que o Facebook suspendeu medidas destinadas a diminuir o tom do usuário os feeds após as eleições presidenciais de 2020 “simplesmente não eram verdade”.
“Na verdade, mantivemos a grande maioria deles até a inauguração, e mantivemos alguns permanentemente”, disse Clegg a Todd, acrescentando que algumas das mudanças foram “pontuais”.
Ele disse que a empresa revogou “ferramentas contundentes” – como reduzir a circulação de vídeos, oportunidades de engajamento cívico e anúncios políticos – que inadvertidamente estavam “recolhendo um monte de conteúdo legal lúdico legítimo e totalmente inocente”.
“Fizemos isso de forma excepcional”, disse Clegg. “Simplesmente deixamos que o conteúdo perfeitamente normal circule menos em nossa plataforma. Isso é algo que fizemos por causa das circunstâncias excepcionais. ”
Clegg disse a Todd que o ônus recai sobre o Congresso para “criar um regulador digital” e definir regras para privacidade de dados e moderação de conteúdo.
“Não acho que ninguém queira que uma empresa privada julgue sobre essas trocas realmente difíceis entre, você sabe, a liberdade de expressão de um lado e a moderação ou remoção de conteúdo do outro”, disse ele. “Há divergências políticas fundamentais. A direita acha que nós … censuramos muito conteúdo, a esquerda acha que não removemos o suficiente. ”
Clegg disse a George Stephanopoulos da ABC que era “extremamente enganoso” fazer uma analogia com o conhecimento relatado do Facebook sobre os danos que seus produtos causam às crianças e à sociedade para a conscientização das empresas de tabaco sobre o perigo dos cigarros.
“Nos anos 80 e 90, havia analogias de que assistir televisão demais era como alcoolismo, ou jogos de fliperama como Pac Man era como, você sabe, abuso de drogas”, disse ele. “Não podemos mudar a natureza humana. Você sempre verá coisas ruins online. ”
.
Os polêmicos algoritmos do Facebook protegem seus usuários de serem expostos a conteúdo extremo, discurso de ódio e desinformação, afirmou o vice-presidente de política e assuntos globais da empresa em entrevistas no domingo.
Nick Clegg defendeu o Facebook contra as alegações da denunciante Frances Haugen de que seus algoritmos empurram clickbait e conteúdo extremo – mas insistiu que a empresa nunca seria capaz de eliminar totalmente a desinformação e discurso de ódio de suas plataformas.
“Se você remover os algoritmos … a primeira coisa que aconteceria é que as pessoas veriam mais, não menos, discurso de ódio – mais, não menos desinformação”, disse Clegg a Dana Bash no State of the Union da CNN. “Esses algoritmos são projetados precisamente para funcionar quase como filtros de spam gigantes para identificar e descontinuar conteúdo impróprio.”
“Para cada dez mil bits de conteúdo, você veria apenas cinco bits de alturas de discurso de ódio”, disse ele. “Eu gostaria que pudéssemos eliminá-lo a zero. Temos um terço da população mundial em nossas plataformas. Claro que vemos o bom, o mau e o feio da natureza humana em nossas plataformas. ”
Clegg insistiu com Bash que os algoritmos do Facebook não desempenharam nenhum papel especial na preparação para o Capitol Riot em 6 de janeiro. No programa da NBC “Meet The Press”, ele disse a Chuck Todd que a alegação de Haugen de que o Facebook suspendeu medidas destinadas a diminuir o tom do usuário os feeds após as eleições presidenciais de 2020 “simplesmente não eram verdade”.
“Na verdade, mantivemos a grande maioria deles até a inauguração, e mantivemos alguns permanentemente”, disse Clegg a Todd, acrescentando que algumas das mudanças foram “pontuais”.
Ele disse que a empresa revogou “ferramentas contundentes” – como reduzir a circulação de vídeos, oportunidades de engajamento cívico e anúncios políticos – que inadvertidamente estavam “recolhendo um monte de conteúdo legal lúdico legítimo e totalmente inocente”.
“Fizemos isso de forma excepcional”, disse Clegg. “Simplesmente deixamos que o conteúdo perfeitamente normal circule menos em nossa plataforma. Isso é algo que fizemos por causa das circunstâncias excepcionais. ”
Clegg disse a Todd que o ônus recai sobre o Congresso para “criar um regulador digital” e definir regras para privacidade de dados e moderação de conteúdo.
“Não acho que ninguém queira que uma empresa privada julgue sobre essas trocas realmente difíceis entre, você sabe, a liberdade de expressão de um lado e a moderação ou remoção de conteúdo do outro”, disse ele. “Há divergências políticas fundamentais. A direita acha que nós … censuramos muito conteúdo, a esquerda acha que não removemos o suficiente. ”
Clegg disse a George Stephanopoulos da ABC que era “extremamente enganoso” fazer uma analogia com o conhecimento relatado do Facebook sobre os danos que seus produtos causam às crianças e à sociedade para a conscientização das empresas de tabaco sobre o perigo dos cigarros.
“Nos anos 80 e 90, havia analogias de que assistir televisão demais era como alcoolismo, ou jogos de fliperama como Pac Man era como, você sabe, abuso de drogas”, disse ele. “Não podemos mudar a natureza humana. Você sempre verá coisas ruins online. ”
.
Discussão sobre isso post