Os usuários do Facebook que assistiram recentemente a um vídeo de um tablóide britânico apresentando homens negros viram uma mensagem automática da rede social perguntando se eles gostariam de “continuar vendo vídeos sobre primatas”, fazendo com que a empresa investigasse e desabilitasse o recurso de inteligência artificial que empurrou a mensagem.
Na sexta-feira, o Facebook se desculpou pelo que chamou de “um erro inaceitável” e disse que estava analisando o recurso de recomendação para “evitar que isso aconteça novamente”.
O vídeo, datado de 27 de junho de 2020, era do The Daily Mail e apresentava clipes de homens negros em altercações com civis e policiais brancos. Não tinha conexão com macacos ou primatas.
Darci Groves, ex-gerente de design de conteúdo do Facebook, disse que um amigo recentemente lhe enviou uma captura de tela do prompt. Ela então postou em um fórum de feedback de produto para funcionários atuais e ex-funcionários do Facebook. Em resposta, um gerente de produto do Facebook Watch, o serviço de vídeo da empresa, chamou-o de “inaceitável” e disse que a empresa estava “investigando a causa raiz”.
A Sra. Groves disse que a solicitação foi “horrível e flagrante”.
Dani Lever, porta-voz do Facebook, disse em um comunicado: “Como já dissemos, embora tenhamos feito melhorias em nossa IA, sabemos que não é perfeito e temos mais progresso a fazer. Pedimos desculpas a qualquer pessoa que possa ter visto essas recomendações ofensivas. ”
Google, Amazon e outras empresas de tecnologia têm estado sob escrutínio há anos por vieses em seus sistemas de inteligência artificial, particularmente em torno de questões raciais. Estudos demonstraram que a tecnologia de reconhecimento facial é tendenciosa contra pessoas de cor e tem mais problemas para identificá-las, levando a incidentes em que negros foram discriminados ou presos por causa de erros de computador.
Em um exemplo em 2015, Fotos do Google rotulou erroneamente as fotos de negros como “gorilas”, pelos quais o Google disse que estava “genuinamente arrependido” e que trabalharia para corrigir o problema imediatamente. Mais de dois anos depois, Com fio descobriram que a solução do Google era censurar a palavra “gorila” nas pesquisas, ao mesmo tempo que bloqueava “chimpanzé”, “chimpanzé” e “macaco”.
O Facebook tem um dos maiores repositórios do mundo de imagens enviadas por usuários para treinar seus algoritmos de reconhecimento facial e de objetos. A empresa, que personaliza o conteúdo para os usuários com base em seus hábitos anteriores de navegação e visualização, às vezes pergunta às pessoas se gostariam de continuar vendo as postagens em categorias relacionadas. Não ficou claro se mensagens como a dos “primatas” foram generalizadas.
O Facebook e seu aplicativo de compartilhamento de fotos, Instagram, têm lutado com outros problemas relacionados à corrida. Depois do Campeonato Europeu de futebol em julho, por exemplo, três membros negros da seleção inglesa de futebol foram abusados racialmente na rede social por perderem pênaltis no jogo do campeonato.
Questões raciais também causaram conflitos internos no Facebook. Em 2016, Mark Zuckerberg, o presidente-executivo, funcionários perguntados parar de riscar a frase “Black Lives Matter” e substituí-la por “All Lives Matter” em um espaço comum na sede da empresa em Menlo Park, Califórnia. Centenas de funcionários também realizaram uma paralisação virtual no ano passado para protestar contra a forma como a empresa lidou com um cargo do presidente Donald J. Trump sobre o assassinato de George Floyd em Minneapolis.
Posteriormente, a empresa contratou um vice-presidente de direitos civis e lançou uma auditoria de direitos civis. No um relatório anual de diversidade em julho, o Facebook informou que 4,4% de seus funcionários nos Estados Unidos eram negros, ante 3,9% no ano anterior.
Groves, que deixou o Facebook no verão depois de quatro anos, disse em uma entrevista que uma série de erros na empresa sugeria que lidar com problemas raciais não era uma prioridade para seus líderes.
“O Facebook não pode continuar cometendo esses erros e dizendo: ‘Sinto muito’”, disse ela.
Discussão sobre isso post