FOTO DO ARQUIVO: Os clientes procuram produtos na nova Apple Store na Broadway, no centro de Los Angeles, Califórnia, EUA, 24 de junho de 2021. REUTERS / Lucy Nicholson
9 de agosto de 2021
Por Stephen Nellis e Joseph Menn
(Reuters) – A Apple Inc. disse na segunda-feira que todas as bibliotecas de fotos dos usuários do iPhone serão verificadas em busca de imagens de abuso infantil se forem armazenadas no serviço online iCloud.
A revelação veio em uma série de briefings à mídia em que a Apple está tentando dissipar o alarme sobre seu anúncio na semana passada de que irá escanear os telefones, tablets e computadores dos usuários em busca de milhões de fotos ilegais.
Enquanto o Google, Microsoft e outras plataformas de tecnologia verificam fotos carregadas ou anexos de e-mail em um banco de dados de identificadores fornecido pelo Centro Nacional para Crianças Desaparecidas e Exploradas e outras câmaras de compensação, os especialistas em segurança acusam o plano da Apple de ser mais invasivo.
Alguns disseram que esperavam que os governos tentassem forçar a fabricante do iPhone a expandir o sistema para examinar dispositivos para outros materiais.
Em uma postagem em seu site no domingo, a Apple disse que lutaria contra tais tentativas, que podem ocorrer em tribunais secretos.
“Já enfrentamos demandas para construir e implantar mudanças impostas pelo governo que degradam a privacidade dos usuários antes, e recusamos firmemente essas demandas”, escreveu a Apple. “Continuaremos a recusá-los no futuro.”
No briefing na segunda-feira, funcionários da Apple disseram que o sistema da empresa, que será lançado neste outono com o lançamento de seu sistema operacional iOS 15, irá verificar os arquivos existentes no dispositivo de um usuário se os usuários têm essas fotos sincronizadas com os servidores de armazenamento da empresa.
Julie Cordua, executiva-chefe da Thorn, um grupo que desenvolveu tecnologia para ajudar as autoridades policiais a detectar o tráfico sexual, disse que cerca de metade do material de abuso sexual infantil é formatado como vídeo.
O sistema da Apple não verifica os vídeos antes de eles serem enviados para a nuvem da empresa, mas a empresa disse que planeja expandir seu sistema de maneiras não especificadas no futuro.
A Apple está sob pressão internacional devido ao baixo número de suas denúncias de material de abuso em comparação com outros fornecedores. Algumas jurisdições europeias estão debatendo a legislação para responsabilizar as plataformas pela disseminação desse material.
Os executivos da empresa argumentaram na segunda-feira que as verificações no dispositivo preservam a privacidade mais do que executar verificações no armazenamento em nuvem da Apple diretamente. Entre outras coisas, a arquitetura do novo sistema não diz nada à Apple sobre o conteúdo do usuário, a menos que um número limite de imagens tenha sido ultrapassado, o que aciona uma revisão humana.
Os executivos reconheceram que um usuário pode ser implicado por agentes mal-intencionados que ganham o controle de um dispositivo e instalam remotamente material conhecido de abuso infantil. Mas eles disseram que esperavam que tais ataques fossem muito raros e que, em qualquer caso, uma revisão procuraria outros sinais de invasão criminosa.
(Reportagem de Joseph Menn e Stephen Nells em San Francisco; Edição de Dan Grebler)
.
FOTO DO ARQUIVO: Os clientes procuram produtos na nova Apple Store na Broadway, no centro de Los Angeles, Califórnia, EUA, 24 de junho de 2021. REUTERS / Lucy Nicholson
9 de agosto de 2021
Por Stephen Nellis e Joseph Menn
(Reuters) – A Apple Inc. disse na segunda-feira que todas as bibliotecas de fotos dos usuários do iPhone serão verificadas em busca de imagens de abuso infantil se forem armazenadas no serviço online iCloud.
A revelação veio em uma série de briefings à mídia em que a Apple está tentando dissipar o alarme sobre seu anúncio na semana passada de que irá escanear os telefones, tablets e computadores dos usuários em busca de milhões de fotos ilegais.
Enquanto o Google, Microsoft e outras plataformas de tecnologia verificam fotos carregadas ou anexos de e-mail em um banco de dados de identificadores fornecido pelo Centro Nacional para Crianças Desaparecidas e Exploradas e outras câmaras de compensação, os especialistas em segurança acusam o plano da Apple de ser mais invasivo.
Alguns disseram que esperavam que os governos tentassem forçar a fabricante do iPhone a expandir o sistema para examinar dispositivos para outros materiais.
Em uma postagem em seu site no domingo, a Apple disse que lutaria contra tais tentativas, que podem ocorrer em tribunais secretos.
“Já enfrentamos demandas para construir e implantar mudanças impostas pelo governo que degradam a privacidade dos usuários antes, e recusamos firmemente essas demandas”, escreveu a Apple. “Continuaremos a recusá-los no futuro.”
No briefing na segunda-feira, funcionários da Apple disseram que o sistema da empresa, que será lançado neste outono com o lançamento de seu sistema operacional iOS 15, irá verificar os arquivos existentes no dispositivo de um usuário se os usuários têm essas fotos sincronizadas com os servidores de armazenamento da empresa.
Julie Cordua, executiva-chefe da Thorn, um grupo que desenvolveu tecnologia para ajudar as autoridades policiais a detectar o tráfico sexual, disse que cerca de metade do material de abuso sexual infantil é formatado como vídeo.
O sistema da Apple não verifica os vídeos antes de eles serem enviados para a nuvem da empresa, mas a empresa disse que planeja expandir seu sistema de maneiras não especificadas no futuro.
A Apple está sob pressão internacional devido ao baixo número de suas denúncias de material de abuso em comparação com outros fornecedores. Algumas jurisdições europeias estão debatendo a legislação para responsabilizar as plataformas pela disseminação desse material.
Os executivos da empresa argumentaram na segunda-feira que as verificações no dispositivo preservam a privacidade mais do que executar verificações no armazenamento em nuvem da Apple diretamente. Entre outras coisas, a arquitetura do novo sistema não diz nada à Apple sobre o conteúdo do usuário, a menos que um número limite de imagens tenha sido ultrapassado, o que aciona uma revisão humana.
Os executivos reconheceram que um usuário pode ser implicado por agentes mal-intencionados que ganham o controle de um dispositivo e instalam remotamente material conhecido de abuso infantil. Mas eles disseram que esperavam que tais ataques fossem muito raros e que, em qualquer caso, uma revisão procuraria outros sinais de invasão criminosa.
(Reportagem de Joseph Menn e Stephen Nells em San Francisco; Edição de Dan Grebler)
.
Discussão sobre isso post