Embora a força-tarefa não tenha definido um número exato de como os descendentes de escravos podem ser compensados pelo excesso de policiamento, encarceramento em massa e discriminação habitacional, os economistas que a aconselham estimam que as perdas sofridas pelos residentes negros do estado podem chegar a centenas de bilhões. de dólares. Ainda não se sabe se a compensação será realmente aprovada.
A conversa sobre as reparações mostra que a Califórnia tem uma capacidade única de lidar com sua história conturbada. Mas esse pensamento nem sempre se estende ao futuro. Sistemas de inteligência artificial estão sendo usados para moderar conteúdo nas mídias sociais, avaliar inscrições em faculdades, vasculhar currículos de empregos, gerar fotos e obras de arte falsas, interpretar dados de movimento coletados na zona de fronteira e identificar suspeitos em investigações criminais. Modelos de linguagem como o ChatGPT, fabricado pela empresa OpenAI, com sede em São Francisco, também atraíram muita atenção por seu potencial de perturbar áreas como design, direito e educação.
Mas se o sucesso da IA pode ser medido em avaliações de bilhões de dólares e IPOs lucrativos, seus fracassos são suportados por pessoas comuns. Os sistemas de IA não são neutros; eles são treinados em grandes conjuntos de dados que incluem, por exemplo, material de exploração sexual ou dados de policiamento discriminatórios. Como resultado, eles reproduzem e ampliam os piores preconceitos de nossa sociedade. Por exemplo, o software de reconhecimento racial usado em investigações policiais rotineiramente identifica erroneamente pessoas negras e pardas. Os credores hipotecários baseados em IA têm maior probabilidade de negar empréstimos imobiliários a pessoas de cor, ajudando a perpetuar as desigualdades habitacionais.
Este parece ser um momento em que podemos aplicar o pensamento histórico à questão da tecnologia, para que possamos evitar que as injustiças que resultaram de mudanças anteriores que alteraram paradigmas voltem a acontecer. Em abril, dois legisladores apresentaram um projeto de lei na Assembleia Estadual que tenta proibir o viés algorítmico. O Writers Guild of America, que está em greve, incluiu limites ao uso de IA em suas demandas. A resistência ao excesso também vem de dentro da indústria de tecnologia. Três anos atrás, Timnit Gebru, chefe da equipe de IA ética do Google, foi demitida depois de soar o alarme sobre os perigos de modelos de linguagem como o GPT-3. Mas agora até os executivos de tecnologia ficaram cautelosos: em seu depoimento perante o Senado, Sam Altman, executivo-chefe da OpenAI, admitiu que os sistemas de IA precisam ser regulamentados.
A questão que enfrentamos tanto com as reparações quanto com a IA não é tão diferente daquela que surgiu quando um frade franciscano partiu para o Caminho Real em 1769. Não é tanto “Como será o futuro?” — embora seja uma pergunta empolgante — mas “Quem terá direito ao futuro? Quem pode ser beneficiado por reparos sociais ou novas tecnologias e quem pode ser prejudicado?” A resposta pode muito bem ser decidida na Califórnia.
Então Lalami é autor de quatro romances, incluindo “The Other Americans”. Seu livro mais recente é uma obra de não ficção, “Conditional Citizens”. Ela mora em Los Angeles. Benjamim Marra é ilustrador, cartunista e diretor de arte. Suas ilustrações para “Wayfaring Strangers: Acid Nightmares” do Numero Group foram indicadas ao Grammy.
Embora a força-tarefa não tenha definido um número exato de como os descendentes de escravos podem ser compensados pelo excesso de policiamento, encarceramento em massa e discriminação habitacional, os economistas que a aconselham estimam que as perdas sofridas pelos residentes negros do estado podem chegar a centenas de bilhões. de dólares. Ainda não se sabe se a compensação será realmente aprovada.
A conversa sobre as reparações mostra que a Califórnia tem uma capacidade única de lidar com sua história conturbada. Mas esse pensamento nem sempre se estende ao futuro. Sistemas de inteligência artificial estão sendo usados para moderar conteúdo nas mídias sociais, avaliar inscrições em faculdades, vasculhar currículos de empregos, gerar fotos e obras de arte falsas, interpretar dados de movimento coletados na zona de fronteira e identificar suspeitos em investigações criminais. Modelos de linguagem como o ChatGPT, fabricado pela empresa OpenAI, com sede em São Francisco, também atraíram muita atenção por seu potencial de perturbar áreas como design, direito e educação.
Mas se o sucesso da IA pode ser medido em avaliações de bilhões de dólares e IPOs lucrativos, seus fracassos são suportados por pessoas comuns. Os sistemas de IA não são neutros; eles são treinados em grandes conjuntos de dados que incluem, por exemplo, material de exploração sexual ou dados de policiamento discriminatórios. Como resultado, eles reproduzem e ampliam os piores preconceitos de nossa sociedade. Por exemplo, o software de reconhecimento racial usado em investigações policiais rotineiramente identifica erroneamente pessoas negras e pardas. Os credores hipotecários baseados em IA têm maior probabilidade de negar empréstimos imobiliários a pessoas de cor, ajudando a perpetuar as desigualdades habitacionais.
Este parece ser um momento em que podemos aplicar o pensamento histórico à questão da tecnologia, para que possamos evitar que as injustiças que resultaram de mudanças anteriores que alteraram paradigmas voltem a acontecer. Em abril, dois legisladores apresentaram um projeto de lei na Assembleia Estadual que tenta proibir o viés algorítmico. O Writers Guild of America, que está em greve, incluiu limites ao uso de IA em suas demandas. A resistência ao excesso também vem de dentro da indústria de tecnologia. Três anos atrás, Timnit Gebru, chefe da equipe de IA ética do Google, foi demitida depois de soar o alarme sobre os perigos de modelos de linguagem como o GPT-3. Mas agora até os executivos de tecnologia ficaram cautelosos: em seu depoimento perante o Senado, Sam Altman, executivo-chefe da OpenAI, admitiu que os sistemas de IA precisam ser regulamentados.
A questão que enfrentamos tanto com as reparações quanto com a IA não é tão diferente daquela que surgiu quando um frade franciscano partiu para o Caminho Real em 1769. Não é tanto “Como será o futuro?” — embora seja uma pergunta empolgante — mas “Quem terá direito ao futuro? Quem pode ser beneficiado por reparos sociais ou novas tecnologias e quem pode ser prejudicado?” A resposta pode muito bem ser decidida na Califórnia.
Então Lalami é autor de quatro romances, incluindo “The Other Americans”. Seu livro mais recente é uma obra de não ficção, “Conditional Citizens”. Ela mora em Los Angeles. Benjamim Marra é ilustrador, cartunista e diretor de arte. Suas ilustrações para “Wayfaring Strangers: Acid Nightmares” do Numero Group foram indicadas ao Grammy.
Discussão sobre isso post