Demandan a Apple por negligencia debido a la supuesta distribución de material de abuso sexual infantil en iCloud
Por Ramishah Maruf y Clare Duffy
La oficina del fiscal general de Virginia Occidental demandó a Apple el jueves, alegando que el gigante tecnológico permitió que materiales de abuso sexual infantil (CSAM) se almacenaran y distribuyeran en su servicio iCloud.
La demanda afirma que, durante años, Apple priorizó la privacidad del usuario por sobre la seguridad infantil. La compañía tiene un control estricto sobre su hardware, software e infraestructura en la nube, lo que significa que no puede alegar desconocer el problema, argumentó la oficina del fiscal general.
Durante años, Apple ha enfrentado críticas contrapuestas: por un lado, que debería hacer más para evitar que el CSAM se almacene y comparta en sus servicios; por el otro, que debería proteger la privacidad de las fotos y documentos personales de sus usuarios.
La demanda sostiene que las empresas tecnológicas estadounidenses están obligadas por ley federal a reportar el contenido detectado al Centro Nacional para Niños Desaparecidos y Explotados. Mientras Google presentó 1.47 millones de reportes en 2023, Apple supuestamente solo presentó 267.
“Estas imágenes son un registro permanente del trauma de un niño, y ese niño es revictimizado cada vez que el material se comparte o se visualiza”, dijo el fiscal general de Virginia Occidental, JB McCuskey, en un comunicado. “Esta conducta es despreciable e inexcusable la inacción de Apple”.
“En Apple, proteger la seguridad y privacidad de nuestros usuarios, especialmente los niños, es central en lo que hacemos. Innovamos cada día para combatir amenazas en constante evolución y mantener la plataforma más segura y confiable para los niños”, dijo un portavoz de Apple en un comentario a CNN.
Apple también se refirió a Seguridad, una función que ofrece la compañía en las comunicaciones que advierte a los niños y difumina la imagen cuando se detecta desnudez al recibir o intentar enviar contenido, y muestra una advertencia. Funciona en aplicaciones como Mensajes y FaceTime, así como en AirDrop y en la función de Carteles de Contacto del iPhone y la herramienta de selección de imágenes de la aplicación Fotos. El vocero agregó que los controles parentales y características de Apple “están diseñados con la seguridad, protección y privacidad de nuestros usuarios en su núcleo”.
McCuskey dijo durante una conferencia de prensa el jueves que grandes empresas con vastos recursos como Apple tienen la responsabilidad de abordar problemas de seguridad como estos.
“Hay una opinión social que dicta que también tienes que ser parte de la solución de estos problemas a gran escala, y uno de esos problemas es la explotación de niños en este país”, dijo.
La demanda alega que el sistema de almacenamiento iCloud de Apple “reduce la fricción” para que los usuarios accedan y distribuyan repetidamente CSAM porque facilita la visualización y búsqueda de imágenes y videos a través de los dispositivos.
Es ilegal poseer CSAM en Estados Unidos y en muchos otros países.
Apple ha construido su marca en torno a garantías de privacidad para los usuarios. Pero la demanda afirma que Apple y sus líderes conocían los problemas de CSAM de la compañía. La queja incluye una captura de pantalla de lo que describe como una conversación de mensajes de texto de 2020 sobre el tema, en la que un ejecutivo sugirió que el enfoque de la compañía en la privacidad la convertía en “la mejor plataforma para distribuir pornografía infantil”.
Otras empresas tecnológicas utilizan herramientas como Microsoft PhotoDNA para detectar imágenes de explotación infantil, señaló la oficina del fiscal general de Virginia Occidental. Microsoft afirma que proporciona esta tecnología de forma gratuita a organizaciones calificadas, incluidas empresas tecnológicas.
Apple dijo en 2021 que usaría su propio modelo llamado NeuralHash para detectar material de abuso sexual infantil. Pero abandonó el plan tras las críticas sobre cuestiones de privacidad, decidiendo en su lugar centrarse en la función de Seguridad en las comunicaciones.
La demanda alega que NeuralHash es una herramienta muy inferior a PhotoDNA. Acusa a Apple de negligencia por “no implementar tecnologías adecuadas de reporte de CSAM”, entre otros reclamos.
La demanda surge en un momento de mayor escrutinio sobre el impacto de las grandes tecnológicas en los niños. En 2023, la oficina del fiscal general de Nuevo México acusó a Meta de cerrar cuentas que utilizaba para investigar supuestos abusos sexuales infantiles en Facebook e Instagram. El Fiscal General de Nuevo México, Raúl Torrez, acusó a Meta en la demanda de crear un “caldo de cultivo” para depredadores infantiles en esas plataformas.
Meta rechazó enérgicamente las acusaciones en ese momento, afirmando que “utilizamos tecnología sofisticada, contratamos expertos en seguridad infantil, reportamos contenido al Centro Nacional para Niños Desaparecidos y Explotados, y compartimos información y herramientas con otras empresas y autoridades, incluidos los fiscales generales estatales, para ayudar a erradicar a los depredadores”. Más recientemente, la portavoz de Meta, Stephanie Otway, dijo en un comunicado que la demanda de Nuevo México contiene “argumentos sensacionalistas, irrelevantes y distractivos”.
La oficina del fiscal general de Virginia Occidental busca daños legales y punitivos, medidas cautelares, así como requisitos para que Apple implemente medidas efectivas de detección.
The-CNN-Wire
™ & © 2026 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.
Esta historia ha sido actualizada con información y contexto adicional.