Home Politica Virginia Occidental demanda a Apple por material de demasía sexual pueril almacenado...

Virginia Occidental demanda a Apple por material de demasía sexual pueril almacenado y compartido en iCloud

42
0
Virginia Occidental demanda a Apple por material de demasía sexual pueril almacenado y compartido en iCloud

El fiscal caudillo de Virginia Occidental presentó una demanda el jueves acusando a Apple de permitir que su servicio iCloud se convirtiera en un transporte para distribuir material de demasía sexual pueril.

El estado alega que la compañía facilitó la difusión de material de demasía sexual pueril al negarse a implementar herramientas que escanean fotos y videos y detectan dicho material en las colecciones de los usuarios de iCloud.

JB McCuskey, un republicano, acusó a Apple de priorizar la privacidad del usufructuario sobre la seguridad de los niños. Su oficina calificó el caso como el primero de su tipo presentado por una agencia estatal sobre la distribución de material de demasía sexual pueril en la plataforma de almacenamiento de datos de Apple.

“Estas imágenes son un registro permanente del trauma de un irreflexivo, y ese irreflexivo es revictimizado cada vez que se comparte o ve el material”, dijo McCuskey en el comunicado. “Esta conducta es despreciable y la inacción de Apple es imperdonable”.

Apple respondió con una incompetencia total a las acusaciones: “En Apple, proteger la seguridad y la privacidad de nuestros usuarios, especialmente los niños, es fundamental para lo que hacemos. Estamos innovando todos los días para combatir las amenazas en constante cambio y perdurar la plataforma más segura y confiable para los niños”. La compañía enfatizó sus controles que impiden que los niños carguen o reciban imágenes de desnudos, aunque la demanda de Virginia Occidental apunta al uso que hacen los abusadores de los dispositivos y servicios de Apple.

En 2020, un ejecutor a cargo de la detección de fraudes en Apple le envió un mensaje de texto a un colega: “Somos la veterano plataforma para distribuir pornografía pueril”. El intercambio se hizo divulgado durante la prueba entre Apple y el fabricante de Fortnite, Epic Games.

Un comunidad de víctimas de explotación sexual pueril demandó a Apple en 2024, presentando acusaciones similares, por 1.200 millones de dólares en daños y perjuicios. La demanda está en curso. El mismo año, la Sociedad Franquista para la Prevención de la Crueldad contra los Niños (NSPCC) del Reino Unido acusó a Apple de subestimar enormemente la frecuencia con la que aparecía material de demasía sexual pueril en sus productos. En un año, los depredadores infantiles utilizaron iCloud, iMessage y FaceTime de Apple para acumular e permutar CSAM en un veterano número de casos solo en Inglaterra y Gales que los que la compañía informó en todos los demás países combinados, según datos policiales obtenidos por el NSPCC. Apple no hizo comentarios sobre el hallazgo en ese momento.

Apple asiduamente presenta muchos menos informes de CSAM al Centro Franquista para Niños Desaparecidos y Explotados (NCMEC) que Google o Meta, según datos publicados por NCMEC.

Relacionado: El organismo de control del Reino Unido acusa a Apple de no informar sobre imágenes sexuales de niños

La compañía ha considerado escanear imágenes guardadas en cuentas privadas de iCloud, pero abandonó el enfoque oportuno a preocupaciones sobre la privacidad y seguridad del usufructuario, incluida la preocupación de que podría ser explotada por gobiernos que buscan otro material para censura o arresto.

La oficina de McCuskey presentó la demanda en el tribunal de circuito del condado de Mason. La demanda sondeo daños legales y punitivos y pide que un togado obligue a Apple a implementar medidas más efectivas para detectar material excesivo e implementar diseños de productos más seguros.

Google, Microsoft y otros proveedores de plataformas de Alphabet verifican las fotos cargadas o los archivos adjuntos enviados por correo electrónico con una cojín de datos de identificadores de material conocido de demasía sexual pueril proporcionada por el Centro Franquista para Niños Desaparecidos y Explotados y otras cámaras de compensación.

Hasta 2022, Apple adoptó un enfoque diferente. No escaneó todos los archivos cargados en sus ofertas de almacenamiento de iCloud y los datos no estaban cifrados de extremo a extremo, lo que significa que los agentes del orden podían ingresar a ellos con una orden sumarial.

Reuters en 2020 informó que Apple planeaba el criptográfico de extremo a extremo para iCloud, lo que habría puesto los datos en un formato inutilizable para los agentes del orden. Abandonó el plan a posteriori de que el FBI se quejara de que perjudicaría las investigaciones.

En agosto de 2021, Apple anunció NeuralHash, que diseñó para equilibrar la detección de material de demasía pueril con la privacidad mediante el escaneo de imágenes en los dispositivos de los usuarios antiguamente de cargarlas.

El sistema fue criticado por investigadores de seguridad que temían que pudiera producir informes falsos de material de demasía, y provocó una reacción violenta de los defensores de la privacidad que afirmaron que podría ampliarse para permitir la vigilancia estatal.

Un mes a posteriori, Apple retrasó la inclusión de NeuralHash antiguamente de cancelarlo en diciembre de 2022, dijo el estado en su comunicado. Ese mismo mes, Apple lanzó una opción de criptográfico de extremo a extremo para los datos de iCloud.

El estado dijo que NeuralHash era inferior a otras herramientas y podía divertirse fácilmente. Dijo que Apple almacena y sincroniza datos a través de iCloud sin detección proactiva de material de demasía, lo que permite que dichas imágenes circulen.

Si perfectamente Apple no hizo el esfuerzo de escanear las imágenes que se cargan en iCloud, sí implementó una función indicación Seguridad de la comunicación que difumina la desnudez y otro contenido sensible que se envía en dirección a o desde el dispositivo de un irreflexivo.

La ley federal exige que las empresas de tecnología con sede en EE. UU. denuncien el material de demasía al Centro Franquista para Niños Desaparecidos y Explotados. Apple en 2023 realizó 267 informes, en comparación con 1,47 millones de Google y 30,6 millones de Meta Platforms, dijo el estado.

Las afirmaciones del estado reflejan las acusaciones de una propuesta de demanda colectiva presentada contra Apple a finales de 2024 en un tribunal federal de California por personas representadas en dichas imágenes.

Apple ha tomado medidas para desestimar esa demanda, diciendo que la empresa está protegida de responsabilidad bajo la sección 230 de la Ley de Adorno en las Comunicaciones, una ley que brinda amplia protección a las empresas de Internet contra demandas por contenido generado por los usuarios.

• En los EE. UU., llame o envíe un mensaje de texto a la tilde directa de demasía pueril de Childhelp al 800-422-4453 o visite su sitio web para obtener más capital y denunciar el demasía pueril o envíe un mensaje directo para obtener ayuda. Para los adultos sobrevivientes de demasía pueril, hay ayuda apto en ascasupport.org. En el Reino Unido, el NSPCC ofrece apoyo a los niños al 0800 1111 y a los adultos preocupados por un irreflexivo al 0808 800 5000. La Asociación Franquista para Personas Abusadas en la Infancia (Napac) ofrece apoyo a los adultos sobrevivientes al 0808 801 0331. En Australia, los niños, los adultos jóvenes, los padres y los maestros pueden comunicarse con la Partidura de ayuda para niños al 1800 55 1800; Los sobrevivientes adultos pueden agenciárselas ayuda en Blue Knot Foundation al 1300 657 380. Se pueden encontrar otras fuentes de ayuda en Child Helpline International.