NAIRÓBI (Reuters) – Um tribunal trabalhista no Quênia decidiu nesta segunda-feira que a Meta, controladora do Facebook, pode ser processada no país da África Oriental depois que um ex-moderador de conteúdo entrou com uma ação contra ela alegando más condições de trabalho.
A ação foi movida por uma pessoa em nome de um grupo e também foi movida contra a Sama, empresa terceirizada local da Meta. Pede uma compensação financeira, uma ordem para que os moderadores terceirizados tenham o mesmo plano de saúde e salário dos funcionários da Meta, que os direitos de sindicalização sejam protegidos e uma auditoria independente de direitos humanos do escritório.
A decisão do tribunal de relações trabalhistas e trabalhistas do Quênia pode ter implicações sobre como a Meta trabalha com moderadores de conteúdo globalmente. A empresa norte-americana trabalha com milhares de moderadores em todo o mundo, encarregados de revisar o conteúdo gráfico publicado em sua plataforma.
A Meta argumentou que o tribunal queniano não tinha jurisdição porque a empresa não está sediada no país africano e, portanto, deveria ser excluída do caso.
“Como a petição levantou certas questões reais que ainda não foram determinadas, seria inoportuno para o país excluir os dois réus do assunto”, disse o juiz Jacob Gakeri em sua decisão na segunda-feira.
Meta não respondeu imediatamente a um pedido de comentário.
O ex-moderador de conteúdo Daniel Motaung, que diz ter desenvolvido PTSD por causa de seu trabalho, entrou com o processo.
A Meta já enfrentou processos judiciais por moderação de conteúdo antes.
Em 2021, um juiz da Califórnia aprovou um acordo de $ 85 milhões entre o Facebook e mais de 10.000 moderadores de conteúdo que acusaram a empresa de não protegê-los de danos psicológicos resultantes de sua exposição a imagens explícitas e violentas.
Meta também está enfrentando outro processo no Quênia. Em dezembro, dois pesquisadores etíopes e um grupo de direitos humanos do Quênia entraram com uma ação acusando a Meta de permitir que postagens violentas e odiosas da Etiópia florescessem no Facebook, inflamando a guerra civil etíope.
A Meta disse que o discurso de ódio e a incitação à violência são contra as regras do Facebook e do Instagram, outra de suas plataformas, e que está investindo pesado para remover esse tipo de conteúdo.
A empresa de terceirização local da Meta, Sama, disse no mês passado que não forneceria mais serviços de moderação de conteúdo para a empresa.
A Sama já rejeitou alegações de que seus funcionários foram pagos injustamente, que o processo de recrutamento era opaco ou que seus benefícios de saúde mental eram inadequados.
(Reportagem de Ayenat Mersie; Edição de George Obulutsa e Susan Fenton)
NAIRÓBI (Reuters) – Um tribunal trabalhista no Quênia decidiu nesta segunda-feira que a Meta, controladora do Facebook, pode ser processada no país da África Oriental depois que um ex-moderador de conteúdo entrou com uma ação contra ela alegando más condições de trabalho.
A ação foi movida por uma pessoa em nome de um grupo e também foi movida contra a Sama, empresa terceirizada local da Meta. Pede uma compensação financeira, uma ordem para que os moderadores terceirizados tenham o mesmo plano de saúde e salário dos funcionários da Meta, que os direitos de sindicalização sejam protegidos e uma auditoria independente de direitos humanos do escritório.
A decisão do tribunal de relações trabalhistas e trabalhistas do Quênia pode ter implicações sobre como a Meta trabalha com moderadores de conteúdo globalmente. A empresa norte-americana trabalha com milhares de moderadores em todo o mundo, encarregados de revisar o conteúdo gráfico publicado em sua plataforma.
A Meta argumentou que o tribunal queniano não tinha jurisdição porque a empresa não está sediada no país africano e, portanto, deveria ser excluída do caso.
“Como a petição levantou certas questões reais que ainda não foram determinadas, seria inoportuno para o país excluir os dois réus do assunto”, disse o juiz Jacob Gakeri em sua decisão na segunda-feira.
Meta não respondeu imediatamente a um pedido de comentário.
O ex-moderador de conteúdo Daniel Motaung, que diz ter desenvolvido PTSD por causa de seu trabalho, entrou com o processo.
A Meta já enfrentou processos judiciais por moderação de conteúdo antes.
Em 2021, um juiz da Califórnia aprovou um acordo de $ 85 milhões entre o Facebook e mais de 10.000 moderadores de conteúdo que acusaram a empresa de não protegê-los de danos psicológicos resultantes de sua exposição a imagens explícitas e violentas.
Meta também está enfrentando outro processo no Quênia. Em dezembro, dois pesquisadores etíopes e um grupo de direitos humanos do Quênia entraram com uma ação acusando a Meta de permitir que postagens violentas e odiosas da Etiópia florescessem no Facebook, inflamando a guerra civil etíope.
A Meta disse que o discurso de ódio e a incitação à violência são contra as regras do Facebook e do Instagram, outra de suas plataformas, e que está investindo pesado para remover esse tipo de conteúdo.
A empresa de terceirização local da Meta, Sama, disse no mês passado que não forneceria mais serviços de moderação de conteúdo para a empresa.
A Sama já rejeitou alegações de que seus funcionários foram pagos injustamente, que o processo de recrutamento era opaco ou que seus benefícios de saúde mental eram inadequados.
(Reportagem de Ayenat Mersie; Edição de George Obulutsa e Susan Fenton)
Discussão sobre isso post