Após a tragédia, no que veio a ser conhecido como o Chamada de Christchurch, a indústria de tecnologia e os governos em todo o mundo se comprometeram a “eliminar o conteúdo terrorista e extremista violento online”. O GIFCT criou o Protocolo de incidente de conteúdo, que é ativado quando ocorre um evento de violência em massa. O processo envolve o hash de conteúdo relacionado e a colaboração para garantir que ele seja removido o mais rápido possível. PRESENTE ativado o Protocolo de Incidentes de Conteúdo em 14 de maio após o ataque em Buffalo.
Mas a internet está cheia de pessoas, algumas das quais quebraram bússolas morais, e assim o processo de parar a proliferação de conteúdo terrorista é contraditório: essas pessoas tente colocar o conteúdo de volta e para evitar a detecção. Nesse caso em particular, embora o Twitch tenha puxado a transmissão rapidamente, os usuários do 4chan colaboraram para arquivá-la e reenviá-la. Além disso, houve uma proliferação e uma expansão no uso de plataformas menores, que podem ter poucos recursos ou abordagens deliberadamente negligentes para a moderação de conteúdo. Se você for procurar vídeos relacionados à tragédia de Buffalo, poderá encontrá-los em alguns segundos em algumas das plataformas alternativas e pequenos sites. O Google removeu o conteúdo do manifesto do Drive, mas foi republicado em serviços de nicho. As principais plataformas jogam Whac-a-Mole com conteúdo compartilhado desses hosts menores.
Você perguntou, o que precisa ser feito. Impedir o compartilhamento de conteúdo é reativo. Precisamos ser proativos, como sociedade, para evitar que essas atrocidades ocorram.
Quais são as ameaças futuras com as quais você está mais preocupado?
Temos uma crise de confiança e uma perda de confiança nas instituições que não é causada pelas mídias sociais, embora o ambiente geral da informação contribua para isso. Há um ciclo de feedback acontecendo; a desconfiança é continuamente reforçada, inclusive por alegações falsas ou enganosas de mídias e influenciadores hiperpartidários incentivados. Qualquer tentativa de rotular ou rebaixar até mesmo as postagens mais flagrantemente erradas ou os manipuladores recorrentes mais comprometidos é atualmente processada como “censura”. Quem deve ser o árbitro da verdade? Quem vigia os vigias? Estamos aparentemente presos em uma crise de legitimidade em todos os níveis da sociedade que ninguém tem autoridade moral para romper.
Embora ainda não estejamos em um mundo virtual, como isso será diferente dos desafios atuais enfrentados pelas empresas de mídia social?
Bem, em primeiro lugar, parece não teremos pernas em realidade virtual, porque é muito complicado de implementar. Mas, além disso, os desafios específicos da moderação em tempo real provavelmente serão transferidos para o mundo virtual. Problemas comuns a plataformas baseadas em voz, como Clubhouse ou plataformas de jogos, provavelmente são mais relevantes do que os de plataformas baseadas em texto ou postagem. Dar aos usuários controles altamente granulares que podem ajudá-los a definir melhor seus próprios limites e moldar experiências será muito mais relevante. Nick Clegg, chefe de assuntos globais da Meta, recentemente comparado o desafio de moderar a RV ao de decidir se deve ou não intervir em uma discussão acalorada em um bar. Então, estaremos em um bar, sem pernas, estabelecendo normas à medida que avançamos.
As lutas da tecnologia atingem empregos
Apenas alguns meses atrás, era um mercado de vendedores quando se tratava de talentos em tecnologia, pois funcionários altamente procurados flexionaram seus músculos exigindo arranjos de trabalho flexíveis e grandes aumentos salariais, além de buscar e conseguir tanto investimento inicial quanto necessário. Agora, como escrevi na semana passada, todas essas portas estão se fechando com uma desaceleração simultânea da economia, do mercado de ações e do financiamento de risco. Após um incrível boom de 13 anos, vem o inevitável congelamento de contratações e salários e até demissões.
Após a tragédia, no que veio a ser conhecido como o Chamada de Christchurch, a indústria de tecnologia e os governos em todo o mundo se comprometeram a “eliminar o conteúdo terrorista e extremista violento online”. O GIFCT criou o Protocolo de incidente de conteúdo, que é ativado quando ocorre um evento de violência em massa. O processo envolve o hash de conteúdo relacionado e a colaboração para garantir que ele seja removido o mais rápido possível. PRESENTE ativado o Protocolo de Incidentes de Conteúdo em 14 de maio após o ataque em Buffalo.
Mas a internet está cheia de pessoas, algumas das quais quebraram bússolas morais, e assim o processo de parar a proliferação de conteúdo terrorista é contraditório: essas pessoas tente colocar o conteúdo de volta e para evitar a detecção. Nesse caso em particular, embora o Twitch tenha puxado a transmissão rapidamente, os usuários do 4chan colaboraram para arquivá-la e reenviá-la. Além disso, houve uma proliferação e uma expansão no uso de plataformas menores, que podem ter poucos recursos ou abordagens deliberadamente negligentes para a moderação de conteúdo. Se você for procurar vídeos relacionados à tragédia de Buffalo, poderá encontrá-los em alguns segundos em algumas das plataformas alternativas e pequenos sites. O Google removeu o conteúdo do manifesto do Drive, mas foi republicado em serviços de nicho. As principais plataformas jogam Whac-a-Mole com conteúdo compartilhado desses hosts menores.
Você perguntou, o que precisa ser feito. Impedir o compartilhamento de conteúdo é reativo. Precisamos ser proativos, como sociedade, para evitar que essas atrocidades ocorram.
Quais são as ameaças futuras com as quais você está mais preocupado?
Temos uma crise de confiança e uma perda de confiança nas instituições que não é causada pelas mídias sociais, embora o ambiente geral da informação contribua para isso. Há um ciclo de feedback acontecendo; a desconfiança é continuamente reforçada, inclusive por alegações falsas ou enganosas de mídias e influenciadores hiperpartidários incentivados. Qualquer tentativa de rotular ou rebaixar até mesmo as postagens mais flagrantemente erradas ou os manipuladores recorrentes mais comprometidos é atualmente processada como “censura”. Quem deve ser o árbitro da verdade? Quem vigia os vigias? Estamos aparentemente presos em uma crise de legitimidade em todos os níveis da sociedade que ninguém tem autoridade moral para romper.
Embora ainda não estejamos em um mundo virtual, como isso será diferente dos desafios atuais enfrentados pelas empresas de mídia social?
Bem, em primeiro lugar, parece não teremos pernas em realidade virtual, porque é muito complicado de implementar. Mas, além disso, os desafios específicos da moderação em tempo real provavelmente serão transferidos para o mundo virtual. Problemas comuns a plataformas baseadas em voz, como Clubhouse ou plataformas de jogos, provavelmente são mais relevantes do que os de plataformas baseadas em texto ou postagem. Dar aos usuários controles altamente granulares que podem ajudá-los a definir melhor seus próprios limites e moldar experiências será muito mais relevante. Nick Clegg, chefe de assuntos globais da Meta, recentemente comparado o desafio de moderar a RV ao de decidir se deve ou não intervir em uma discussão acalorada em um bar. Então, estaremos em um bar, sem pernas, estabelecendo normas à medida que avançamos.
As lutas da tecnologia atingem empregos
Apenas alguns meses atrás, era um mercado de vendedores quando se tratava de talentos em tecnologia, pois funcionários altamente procurados flexionaram seus músculos exigindo arranjos de trabalho flexíveis e grandes aumentos salariais, além de buscar e conseguir tanto investimento inicial quanto necessário. Agora, como escrevi na semana passada, todas essas portas estão se fechando com uma desaceleração simultânea da economia, do mercado de ações e do financiamento de risco. Após um incrível boom de 13 anos, vem o inevitável congelamento de contratações e salários e até demissões.
Discussão sobre isso post