Apple Enfrenta Ação Judicial por CSAM no iCloud

Horácio T

Apple Enfrenta Ação Judicial por Alegações de Armazenamento de Material Abusivo no iCloud

A Apple está sob o foco de uma ação judicial iniciada pelo procurador-geral da Virgínia Ocidental, JB McCuskey, que acusa a empresa de utilizar o iCloud para armazenar e distribuir material de abuso sexual infantil online. De acordo com McCuskey, a Apple tinha conhecimento dessa prática “há anos” e “escolheu não tomar providências”.

Comunicações Internas da Apple Sob Investigação

O processo inclui supostas capturas de tela de mensagens trocadas entre executivos da Apple, Eric Friedman e Herve Sibert, que reconhecem a presença e distribuição de CSAM no iCloud desde fevereiro de 2020. Em uma dessas conversas, Friedman teria afirmado que o iCloud é “a maior plataforma para distribuição de pornografia infantil” e que a Apple “optou por não saber em lugares suficientes onde realmente não podemos dizer”.

Comparação com Outras Empresas de Tecnologia

A ação destaca o número de relatórios de CSAM detectados enviados ao Centro Nacional para Crianças Desaparecidas e Exploradas em 2023: Apple (267), Google (1,47 milhões) e Meta (30,6 milhões). A acusação afirma que a Apple falhou em implementar ferramentas de detecção de CSAM, incluindo uma ferramenta de escaneamento proprietária em desenvolvimento. Em 2021, a Apple iniciou um projeto para escanear imagens no iCloud em busca de CSAM, mas o abandonou no ano seguinte.

O Papel da Criptografia de Ponta a Ponta

A ação também aborda a oferta de segurança da Apple, Proteção Avançada de Dados, disponível desde dezembro de 2022 no iCloud. Essa funcionalidade permite a criptografia de ponta a ponta de fotos e vídeos na plataforma de armazenamento em nuvem. O processo alega que essa criptografia é “uma barreira para a aplicação da lei, incluindo a identificação e acusação de criminosos e abusadores de CSAM”.

Resposta da Apple e Preocupações de Privacidade

Em resposta, a Apple afirmou ao CNET que “segurança e privacidade” são centrais em suas decisões, especialmente em relação às crianças. “Estamos inovando todos os dias para combater ameaças em constante evolução e manter a plataforma mais segura e confiável para crianças”, declarou a empresa. As funcionalidades líderes do setor em controle parental, como a Segurança de Comunicação, são projetadas para proteger usuários menores de 18 anos, mas não abordam adultos envolvidos na distribuição e armazenamento de CSAM.

Defensores da privacidade, como a Electronic Frontier Foundation, elogiaram a introdução da criptografia no iCloud em 2022, destacando que “escaneamento constante para imagens de abuso infantil pode levar a investigações indevidas e falsos positivos”. Eles ressaltaram as proteções para dados sensíveis armazenados no iCloud contra possíveis violações de dados e demandas governamentais.

Conclusão

Com o aumento das violações de dados e das solicitações de informações de usuários por governos e agências de aplicação da lei, a Apple enfrenta um desafio complexo ao equilibrar privacidade, segurança e conformidade legal. A transparência da empresa em relação às solicitações governamentais ainda é uma questão em aberto, com relatórios disponíveis até dezembro de 2024.

Do listening am eagerness oh objection collected solicitude so decisively unpleasing conviction is partiality he.

Share This Article
Redator e apaixonado por cultura pop em geral.