O Dr. Orridge não respondeu aos pedidos de comentários para este artigo. Uma porta-voz do Broward College disse que não poderia discutir o caso por causa das leis de privacidade estudantil. Em um e-mail, ela disse que os professores “exercitam seu melhor julgamento” sobre o que veem nos relatórios da Honorlock. Ela disse que um primeiro aviso por desonestidade apareceria no registro do aluno, mas não teria consequências mais sérias, como impedir o aluno de se formar ou transferir créditos para outra instituição.
Quem decide
A Honorlock não divulgou anteriormente exatamente como sua inteligência artificial funciona, mas uma porta-voz da empresa revelou que a empresa atua detecção de rosto usando o Rekognition, uma ferramenta de análise de imagem que a Amazon começou a vender em 2016. O software Rekognition procura por pontos de referência faciais – nariz, olhos, sobrancelhas, boca – e retorna uma pontuação de confiança de que o que está na tela é um rosto. Também pode inferir a estado emocional, gênero e ângulo do rosto.
A Honorlock sinalizará um participante do teste como suspeito se detectar vários rostos na sala ou se o rosto do participante desaparecer, o que pode acontecer quando as pessoas cobrem o rosto com as mãos em frustração, disse Brandon Smith, presidente e diretor de operações da Honorlock.
A Honorlock às vezes usa funcionários humanos para monitorar os participantes do teste; “inspetores ao vivo” aparecerão por bate-papo se houver um grande número de sinalizadores em um exame para descobrir o que está acontecendo. Recentemente, esses inspetores descobriram que o Rekognition estava registrando erroneamente rostos em fotos ou pôsteres como pessoas adicionais na sala.
Quando algo assim acontece, Honorlock diz aos engenheiros da Amazon. “Eles pegam nossos dados reais e os usam para melhorar sua IA”, disse Smith.
O Rekognition deveria ser um passo à frente do que Honorlock estava usando. Uma ferramenta anterior de detecção de rosto do Google era pior na detecção de rostos de pessoas com vários tons de pele, disse Smith.
Mas o Rekognition também foi acusado de preconceito. Em uma série de estudos, Joy Buolamwini, pesquisadora de computadores e diretora executiva da Algorithmic Justice League, descobriu que softwares de classificação de gênero, incluindo Reconhecimentofuncionou menos bem em mulheres de pele mais escura.
O Dr. Orridge não respondeu aos pedidos de comentários para este artigo. Uma porta-voz do Broward College disse que não poderia discutir o caso por causa das leis de privacidade estudantil. Em um e-mail, ela disse que os professores “exercitam seu melhor julgamento” sobre o que veem nos relatórios da Honorlock. Ela disse que um primeiro aviso por desonestidade apareceria no registro do aluno, mas não teria consequências mais sérias, como impedir o aluno de se formar ou transferir créditos para outra instituição.
Quem decide
A Honorlock não divulgou anteriormente exatamente como sua inteligência artificial funciona, mas uma porta-voz da empresa revelou que a empresa atua detecção de rosto usando o Rekognition, uma ferramenta de análise de imagem que a Amazon começou a vender em 2016. O software Rekognition procura por pontos de referência faciais – nariz, olhos, sobrancelhas, boca – e retorna uma pontuação de confiança de que o que está na tela é um rosto. Também pode inferir a estado emocional, gênero e ângulo do rosto.
A Honorlock sinalizará um participante do teste como suspeito se detectar vários rostos na sala ou se o rosto do participante desaparecer, o que pode acontecer quando as pessoas cobrem o rosto com as mãos em frustração, disse Brandon Smith, presidente e diretor de operações da Honorlock.
A Honorlock às vezes usa funcionários humanos para monitorar os participantes do teste; “inspetores ao vivo” aparecerão por bate-papo se houver um grande número de sinalizadores em um exame para descobrir o que está acontecendo. Recentemente, esses inspetores descobriram que o Rekognition estava registrando erroneamente rostos em fotos ou pôsteres como pessoas adicionais na sala.
Quando algo assim acontece, Honorlock diz aos engenheiros da Amazon. “Eles pegam nossos dados reais e os usam para melhorar sua IA”, disse Smith.
O Rekognition deveria ser um passo à frente do que Honorlock estava usando. Uma ferramenta anterior de detecção de rosto do Google era pior na detecção de rostos de pessoas com vários tons de pele, disse Smith.
Mas o Rekognition também foi acusado de preconceito. Em uma série de estudos, Joy Buolamwini, pesquisadora de computadores e diretora executiva da Algorithmic Justice League, descobriu que softwares de classificação de gênero, incluindo Reconhecimentofuncionou menos bem em mulheres de pele mais escura.
Discussão sobre isso post