Os funcionários do Facebook alertaram a empresa durante anos que ela não estava respondendo com eficácia a conteúdo abusivo e prejudicial, principalmente em países em desenvolvimento, de acordo com documentos que vazaram e entrevistas com ex-funcionários.
O Facebook sabe que não contratou funcionários suficientes com habilidades linguísticas e conhecimento de eventos locais necessários para encontrar postagens de usuários em vários países em desenvolvimento que violem as regras da empresa, informou a Reuters, citando documentos da empresa que vazaram.
E os sistemas de inteligência artificial que o Facebook usa para encontrar esse tipo de conteúdo frequentemente não são capazes de funcionar bem o suficiente, mostram os documentos.
Ao mesmo tempo, a empresa não tornou mais fácil para os usuários em todo o mundo sinalizarem postagens que eles acham que violam as regras da plataforma, de acordo com os documentos, que foram vazados pela denunciante Frances Haugen.
Versões retiradas dos documentos, que foram compartilhadas em queixas formais com a Comissão de Valores Mobiliários, bem como com o Congresso, foram então compartilhadas com um consórcio de organizações de notícias, incluindo a Reuters, que deve publicar uma série de histórias na segunda-feira.
Em uma análise postada no quadro de mensagens interno do Facebook no ano passado, um funcionário relatou “lacunas significativas” em certos países sob risco de violência no mundo real, especialmente Mianmar e Etiópia.
O alcance internacional do Facebook tem sido fundamental para seu crescimento contínuo, especialmente à medida que aumentam os pedidos de regulamentação em países como os Estados Unidos e o Reino Unido.
A empresa agora opera em mais de 190 países e possui mais de 2,8 bilhões de usuários mensais que postam conteúdo em mais de 160 idiomas.
Mas o fracasso do Facebook em policiar efetivamente o conteúdo em algumas partes do mundo chamou a atenção global em 2018, depois que especialistas das Nações Unidas que estavam investigando a limpeza étnica contra a minoria muçulmana rohingya de Mianmar disseram que o Facebook foi amplamente usado para espalhar discurso de ódio contra eles.
Como resultado, a empresa disse que aumentaria o quadro de funcionários em alguns países, como Mianmar, com trabalhadores mais informados sobre os eventos locais e que falavam o idioma local para monitorar o conteúdo, disse um ex-funcionário à Reuters.
Mas, ainda neste mês, a Reuters encontrou postagens no Facebook em amárico, uma das línguas mais comuns da Etiópia, descrevendo diferentes grupos étnicos como inimigos e fazendo ameaças de morte.
Milhares foram mortos e milhões deslocados em um conflito de quase um ano no país entre o governo etíope e as forças rebeldes na região de Tigray.
Avaliações internas também indicaram que o Facebook teve problemas com moderação de conteúdo em grande parte do Oriente Médio, Índia, outras partes da Ásia e do Norte da África, de acordo com a Reuters.
E abordar a questão não era uma prioridade para a gestão da empresa, disseram à Reuters três ex-funcionários do Facebook que trabalharam para os escritórios da empresa na Ásia-Pacífico, Oriente Médio e Norte da África nos últimos cinco anos.
Ashraf Zeitoon, ex-chefe de política do Facebook para o Oriente Médio e Norte da África, que saiu em 2017, descreveu a abordagem da empresa para o crescimento global como “colonial”, ecoando afirmações feitas por Haugen, que disse que a empresa coloca os lucros antes das pessoas.
O porta-voz do Facebook, Mavis Jones, disse em um comunicado que a empresa possui falantes nativos em todo o mundo que revisam o conteúdo em mais de 70 idiomas.
A empresa também tem especialistas em questões humanitárias e de direitos humanos que estão trabalhando para impedir o abuso na plataforma do Facebook em lugares onde há um risco elevado de conflito e violência, disse ela.
“Sabemos que esses desafios são reais e estamos orgulhosos do trabalho que fizemos até agora”, disse Jones.
.
Os funcionários do Facebook alertaram a empresa durante anos que ela não estava respondendo com eficácia a conteúdo abusivo e prejudicial, principalmente em países em desenvolvimento, de acordo com documentos que vazaram e entrevistas com ex-funcionários.
O Facebook sabe que não contratou funcionários suficientes com habilidades linguísticas e conhecimento de eventos locais necessários para encontrar postagens de usuários em vários países em desenvolvimento que violem as regras da empresa, informou a Reuters, citando documentos da empresa que vazaram.
E os sistemas de inteligência artificial que o Facebook usa para encontrar esse tipo de conteúdo frequentemente não são capazes de funcionar bem o suficiente, mostram os documentos.
Ao mesmo tempo, a empresa não tornou mais fácil para os usuários em todo o mundo sinalizarem postagens que eles acham que violam as regras da plataforma, de acordo com os documentos, que foram vazados pela denunciante Frances Haugen.
Versões retiradas dos documentos, que foram compartilhadas em queixas formais com a Comissão de Valores Mobiliários, bem como com o Congresso, foram então compartilhadas com um consórcio de organizações de notícias, incluindo a Reuters, que deve publicar uma série de histórias na segunda-feira.
Em uma análise postada no quadro de mensagens interno do Facebook no ano passado, um funcionário relatou “lacunas significativas” em certos países sob risco de violência no mundo real, especialmente Mianmar e Etiópia.
O alcance internacional do Facebook tem sido fundamental para seu crescimento contínuo, especialmente à medida que aumentam os pedidos de regulamentação em países como os Estados Unidos e o Reino Unido.
A empresa agora opera em mais de 190 países e possui mais de 2,8 bilhões de usuários mensais que postam conteúdo em mais de 160 idiomas.
Mas o fracasso do Facebook em policiar efetivamente o conteúdo em algumas partes do mundo chamou a atenção global em 2018, depois que especialistas das Nações Unidas que estavam investigando a limpeza étnica contra a minoria muçulmana rohingya de Mianmar disseram que o Facebook foi amplamente usado para espalhar discurso de ódio contra eles.
Como resultado, a empresa disse que aumentaria o quadro de funcionários em alguns países, como Mianmar, com trabalhadores mais informados sobre os eventos locais e que falavam o idioma local para monitorar o conteúdo, disse um ex-funcionário à Reuters.
Mas, ainda neste mês, a Reuters encontrou postagens no Facebook em amárico, uma das línguas mais comuns da Etiópia, descrevendo diferentes grupos étnicos como inimigos e fazendo ameaças de morte.
Milhares foram mortos e milhões deslocados em um conflito de quase um ano no país entre o governo etíope e as forças rebeldes na região de Tigray.
Avaliações internas também indicaram que o Facebook teve problemas com moderação de conteúdo em grande parte do Oriente Médio, Índia, outras partes da Ásia e do Norte da África, de acordo com a Reuters.
E abordar a questão não era uma prioridade para a gestão da empresa, disseram à Reuters três ex-funcionários do Facebook que trabalharam para os escritórios da empresa na Ásia-Pacífico, Oriente Médio e Norte da África nos últimos cinco anos.
Ashraf Zeitoon, ex-chefe de política do Facebook para o Oriente Médio e Norte da África, que saiu em 2017, descreveu a abordagem da empresa para o crescimento global como “colonial”, ecoando afirmações feitas por Haugen, que disse que a empresa coloca os lucros antes das pessoas.
O porta-voz do Facebook, Mavis Jones, disse em um comunicado que a empresa possui falantes nativos em todo o mundo que revisam o conteúdo em mais de 70 idiomas.
A empresa também tem especialistas em questões humanitárias e de direitos humanos que estão trabalhando para impedir o abuso na plataforma do Facebook em lugares onde há um risco elevado de conflito e violência, disse ela.
“Sabemos que esses desafios são reais e estamos orgulhosos do trabalho que fizemos até agora”, disse Jones.
.
Discussão sobre isso post