Apple Enfrenta Ação Judicial por Alegações de Armazenamento de Material Abusivo no iCloud
A Apple está sob o foco de uma ação judicial iniciada pelo procurador-geral da Virgínia Ocidental, JB McCuskey, que acusa a empresa de utilizar o iCloud para armazenar e distribuir material de abuso sexual infantil online. De acordo com McCuskey, a Apple tinha conhecimento dessa prática “há anos” e “escolheu não tomar providências”.
Comunicações Internas da Apple Sob Investigação
O processo inclui supostas capturas de tela de mensagens trocadas entre executivos da Apple, Eric Friedman e Herve Sibert, que reconhecem a presença e distribuição de CSAM no iCloud desde fevereiro de 2020. Em uma dessas conversas, Friedman teria afirmado que o iCloud é “a maior plataforma para distribuição de pornografia infantil” e que a Apple “optou por não saber em lugares suficientes onde realmente não podemos dizer”.
Comparação com Outras Empresas de Tecnologia
A ação destaca o número de relatórios de CSAM detectados enviados ao Centro Nacional para Crianças Desaparecidas e Exploradas em 2023: Apple (267), Google (1,47 milhões) e Meta (30,6 milhões). A acusação afirma que a Apple falhou em implementar ferramentas de detecção de CSAM, incluindo uma ferramenta de escaneamento proprietária em desenvolvimento. Em 2021, a Apple iniciou um projeto para escanear imagens no iCloud em busca de CSAM, mas o abandonou no ano seguinte.
O Papel da Criptografia de Ponta a Ponta
A ação também aborda a oferta de segurança da Apple, Proteção Avançada de Dados, disponível desde dezembro de 2022 no iCloud. Essa funcionalidade permite a criptografia de ponta a ponta de fotos e vídeos na plataforma de armazenamento em nuvem. O processo alega que essa criptografia é “uma barreira para a aplicação da lei, incluindo a identificação e acusação de criminosos e abusadores de CSAM”.
Resposta da Apple e Preocupações de Privacidade
Em resposta, a Apple afirmou ao CNET que “segurança e privacidade” são centrais em suas decisões, especialmente em relação às crianças. “Estamos inovando todos os dias para combater ameaças em constante evolução e manter a plataforma mais segura e confiável para crianças”, declarou a empresa. As funcionalidades líderes do setor em controle parental, como a Segurança de Comunicação, são projetadas para proteger usuários menores de 18 anos, mas não abordam adultos envolvidos na distribuição e armazenamento de CSAM.
Defensores da privacidade, como a Electronic Frontier Foundation, elogiaram a introdução da criptografia no iCloud em 2022, destacando que “escaneamento constante para imagens de abuso infantil pode levar a investigações indevidas e falsos positivos”. Eles ressaltaram as proteções para dados sensíveis armazenados no iCloud contra possíveis violações de dados e demandas governamentais.
Conclusão
Com o aumento das violações de dados e das solicitações de informações de usuários por governos e agências de aplicação da lei, a Apple enfrenta um desafio complexo ao equilibrar privacidade, segurança e conformidade legal. A transparência da empresa em relação às solicitações governamentais ainda é uma questão em aberto, com relatórios disponíveis até dezembro de 2024.
