Apple y su lucha tibia contra el abuso infantil
Apple pasó años intentando diseñar un sistema que detuviera la propagación de material de abuso sexual infantil en iPhones e iCloud.
Apple pasó años intentando diseñar un sistema que detuviera la propagación de material de abuso sexual infantil en iPhones e iCloud. Cuando la compañía lo abandonó, miembros clave del equipo detrás del proyecto se fueron y los investigadores de protección infantil se frustraron. Pero el enfoque de Apple en la privacidad ganó muchos admiradores en el proceso.
Joe Mollick había pasado gran parte de su vida soñando con convertirse en un oncólogo rico y famoso, una luminaria en el tratamiento del cáncer, el hombre que curaría la enfermedad de una vez por todas. Era una búsqueda quijotesca para el hombre de 60 años, una que lo dejó derrotado y desesperadamente aislado. Recurrió a la pornografía para aliviar sus sentimientos de soledad. Cuando esos sentimientos se volvieron más severos, su gusto por la pornografía también aumentó; comenzó a buscar material de abuso sexual infantil (CSAM, por sus siglas en inglés).
Cuando la policía atrapó por primera vez a Mollick subiendo CSAM en una aplicación de mensajería llamada Kik en 2019, registraron sus dispositivos electrónicos y descubrieron un alijo de 2,000 imágenes y videos ilegales de niños y alrededor de 800 archivos descritos en una orden de registro revisada por Forbes como «erotismo infantil». Los investigadores descubrieron que el material había sido subido y almacenado en su cuenta de iCloud, aunque no fue Apple quien notificó a la policía. Fue Kik quien proporcionó la pista que llevó a la captura de Mollick y a una sentencia de dos años de prisión. La compañía fue alertada sobre las imágenes por una herramienta de Microsoft llamada PhotoDNA, que utiliza una huella digital digital para identificar CSAM conocido.
Que Apple no haya señalado el material ilegal no es sorprendente: aparte de su escaneo estándar de los archivos adjuntos de correo electrónico salientes, la empresa ha optado durante mucho tiempo por no analizar datos sin cifrar de iCloud en busca de CSAM conocido. Y aunque desarrolló un sistema criptográfico para hacer precisamente eso, Apple lo abandonó a fines de 2022, un movimiento polarizante que recibió elogios de los defensores de la privacidad y la indignación de los defensores de la seguridad infantil. La compañía presentó la controvertida decisión como un reflejo de su compromiso con la privacidad, una postura que le ha valido a la empresa más rica del mundo muchos elogios.
Aun así, los críticos dicen que Apple no ha desarrollado una respuesta sostenida y exitosa a la explotación infantil en sus servicios y ha quedado muy atrás de sus competidores en ayudar a la policía a atrapar a los delincuentes que la proliferan. Una revisión de Forbes de aproximadamente 100 casos federales en los que los investigadores buscaron tecnologías de Apple, creyendo que se usaron en la explotación infantil, encontró que los sistemas de la empresa se utilizaron para almacenar y transmitir miles de elementos de CSAM entre 2014 y 2023.
Pero a diferencia de empresas como Google y Meta, que escanean proactivamente sus servicios en busca de dicho material y proporcionan millones de pistas cada año a la organización sin fines de lucro National Center For Missing And Exploited Children (NCMEC) y a las fuerzas del orden público, Apple reporta solo cientos a pesar de tener cientos de millones de usuarios de iCloud.
Dentro de Apple, ha habido perturbaciones en su función de confianza y seguridad en los 18 meses entre el anuncio de la tecnología anti-CSAM y su abandono. Dos ejecutivos de seguridad infantil, Melissa Marrus Polinsky, que pasó 10 años como directora de investigaciones y seguridad infantil de Apple, y Margaret Richardson, directora de confianza y seguridad de la empresa, se fueron. También se marcharon dos ejecutivos clave que participaron en el trabajo anti-CSAM de la empresa: la directora de privacidad, Jane Horvath, y el líder de iCloud, Michael Abbott. Ninguno respondió a las solicitudes de comentarios. Apple declinó hacer comentarios.
Esas salidas fueron significativas. Cuando Polinsky y Richardson se fueron, dejaron «lagunas bastante grandes en la organización», dijo un ex empleado de Apple a Forbes. Otro dijo que el grupo centrado en la protección infantil se había dispersado, con roles reorganizados y asignados a otros equipos. Gran parte de la función se ha trasladado a la ingeniería de privacidad, según una fuente con conocimiento de la situación.
Esa área está dirigida ahora por Erik Neuenschwander, un veterano ejecutivo técnico de Apple. Neuenschwander, recientemente nombrado director de privacidad y seguridad infantil, se centró principalmente en la ingeniería de software en sus roles anteriores. Trabajando junto a él están Chuck Gillingham, un ex fiscal adjunto del condado de Santa Clara, y Ruben van der Dussen, un ingeniero de privacidad que antes trabajaba en Thorn, la organización sin fines de lucro anti-CSAM fundada por Ashton Kutcher. El personal de confianza y seguridad finalmente informa a Mike Thornberry, quien ha pasado la mayor parte de sus 23 años en Apple supervisando las ventas y Apple Pay.
Apple ha sostenido durante mucho tiempo que la privacidad es un derecho humano fundamental. La compañía se negó famosamente a construir para el FBI una puerta trasera en iOS que eludiría varias características de seguridad importantes y permitiría a las fuerzas del orden acceder a los datos personales almacenados en los iPhones.
Apple argumentó que hacerlo otorgaría al gobierno y a otros el poder de ingresar a los dispositivos de cualquier persona para espiar y recopilar datos sensibles. Desde entonces, la compañía se ha movido hacia una cifra aún mayor de sus hardware y software, lo que ha irritado al FBI y otras agencias de aplicación de la ley. Aunque el cifrado de iCloud está activado por defecto, Apple podría escanear los archivos de cualquier usuario que le solicite recuperar sus datos, como cuando inician sesión en un nuevo dispositivo, restauran archivos de una copia de seguridad o piden ayuda si pierden el acceso a su cuenta.
Los defensores de la seguridad infantil dicen que el compromiso inquebrantable de Apple con la privacidad tiene un costo: Apple es esencialmente ciega a los materiales dañinos e ilegales almacenados en sus servicios. Como dijo un ex empleado a Forbes, esta postura:
«Apple oculta otros daños sociales muy graves»
Los tecnólogos y veteranos de la aplicación de la ley dicen que los competidores en todos los ámbitos, desde Google, Meta y Microsoft hasta Dropbox y otros proveedores de almacenamiento en la nube personal, son mucho más proactivos en la búsqueda de los depredadores sexuales que abusan de sus plataformas. Cada año, esas empresas proporcionan millones, a veces decenas de millones, de ciberconsejos más que Apple al NCMEC, que revisa y cataloga los consejos antes de entregárselos a los investigadores de abuso infantil.
«Nunca han estado realmente interesados en contribuir a la protección de los niños en su plataforma», dijo Jim Cole, quien pasó dos décadas en la unidad de investigaciones de seguridad nacional del DHS. «Han abrazado fuertemente la senda de la privacidad y la ley no les exige buscar CSAM».
Apple no quiso comentar sobre una lista detallada de preguntas, en su lugar proporcionó a Forbes una carta de Erik Neuenschwander, director de privacidad y seguridad infantil de Apple, que abordaba las demandas recientes de la organización sin fines de lucro Heat Initiative para que Apple reinstaurara los planes de escaneo de sus sistemas en busca de CSAM. Neuenschwander dijo que Apple abandonó el proyecto porque «no era prácticamente posible implementarlo sin poner en peligro en última instancia la seguridad y la privacidad de nuestros usuarios», pero enfatizó que la compañía ofrece otras características de seguridad para combatir la explotación infantil.
El escaneo masivo de los usuarios de Apple «abriría la puerta a la vigilancia a granel», advirtió Neuenschwander en la carta, informada por primera vez por Wired:
«¿Cómo pueden los usuarios estar seguros de que una herramienta para un tipo de vigilancia no se ha reconfigurado para espiar otros contenidos, como la actividad política o la persecución religiosa? Las herramientas de vigilancia masiva tienen amplias implicaciones negativas para la libertad de expresión y, por extensión, para la democracia en su conjunto»
Erik Neuenschwander, director de privacidad y seguridad infantil de Apple.
Agregó que los fallos en este tipo de escaneo podrían causar problemas a los padres «cuando no han hecho nada más que compartir imágenes perfectamente normales y apropiadas de sus bebés».
El Dilema de iCloud
Desde diciembre de 2022, Apple ha proporcionado dos niveles de cifrado para iCloud. La «protección de datos estándar» cifra los datos en el servidor y en tránsito, pero Apple retiene las claves necesarias para descifrarlos. La «protección avanzada de datos» hace básicamente lo mismo, pero Apple no puede recuperar los datos cifrados. Dado que los usuarios deben optar explícitamente por la segunda opción, es probable que Apple tenga acceso a una cantidad considerable de datos no cifrados de iCloud.
Apple también maneja información no solo de sus propias aplicaciones, sino de aplicaciones de terceros, como correo electrónico, redes sociales y plataformas de mensajería donde los usuarios tienen activadas las copias de seguridad de dispositivos, algo que a menudo señalan las fuerzas del orden al solicitar órdenes de registro para buscar cuentas de iCloud. Esto incluye datos de WhatsApp de Meta y otras aplicaciones de mensajería centradas en la privacidad, así como aplicaciones como Kik que a menudo son utilizadas por depredadores.
Presumiblemente, Apple podría escanear iCloud con PhotoDNA, una de las herramientas más ampliamente adoptadas en la lucha contra el material de explotación infantil en línea, dijo John Rouse, un veterano recién jubilado de 25 años de investigaciones de abuso infantil en Australia y ex presidente del Grupo de Trabajo de Investigaciones Encubiertas en Internet de Interpol. Creado en 2009 por Microsoft y Dartmouth College, el software convierte las imágenes en valores numéricos únicos llamados hash. Estos pueden compararse con una base de datos de hash de CSAM conocidos. Una coincidencia inicia una investigación adicional.
PhotoDNA es tan ampliamente utilizado: Facebook y Google lo han estado utilizando durante más de una década, Snapchat desde al menos 2020, que es efectivamente un estándar de la industria. Pero no es algo que Apple haya abrazado. La compañía no realiza «ningún escaneo proactivo de sus tecnologías o sus almacenamientos, o cualquier transmisión para ayudar a la aplicación de la ley a detener la explotación infantil, cero», dijo Rouse. «No contribuyen».
Como todas las empresas de tecnología, Apple está obligada por ley a responder a órdenes de registro y también debe informar material de abuso sexual infantil que encuentre en sus plataformas a las autoridades federales a través del «CyberTipline» administrado por NCMEC.
El año pasado, mientras que Meta, Facebook e Instagram presentaron un total de 26 millones de informes, Google presentó 2 millones y TikTok casi 300,000, Apple presentó 234. El año anterior a eso: 160.
Apple no es una empresa de redes sociales, por lo que esta comparación no es del todo directa. Dicho esto, WhatsApp, que está cifrado de extremo a extremo, escanea contenido no cifrado, como fotos de perfil y de grupo, en busca de CSAM. Proporcionó más de 1 millón de consejos cibernéticos a NCMEC en 2022; Microsoft envió 110,000; Dropbox, casi 46,000; y Synchronoss, el proveedor de almacenamiento en la nube para Verizon, más de 30,000.
Los planes originales de Apple de llevar a cabo escaneos en fotos dirigidas a iCloud sin invadir la privacidad del usuario eran como «proponer magia en lugar de realidad».
Meredith Whittaker, presidenta de Signal
Desde finales de la década de 2010, Apple comenzó a trabajar en una herramienta que escanearía sus servidores en busca de CSAM mientras mantenía la privacidad del cliente. Anunciado en agosto de 2021 y llamado NeuralHash, Apple dijo que el software podía detectar CSAM previamente identificado en el dispositivo, antes de que se cargara y sin mirar ni capturar ninguna información sobre fotos que no fueran de CSAM. La comunidad de seguridad infantil aplaudió la iniciativa. Pero una voz aún más fuerte atacó, calificando a NeuralHash como una grave amenaza para la privacidad.
Al frente de esa carga estaba la Electronic Frontier Foundation, que describió la herramienta de Apple como «una puerta trasera para un aumento en la vigilancia y la censura en todo el mundo». Joe Mullin, el activista principal de la campaña sin fines de lucro contra Apple, argumentó que las técnicas propuestas para encontrar imágenes abusivas habrían llevado a una vigilancia generalizada de los usuarios de Apple.
«Están tratando de localizar imágenes específicas que son criminales, no hay duda al respecto, pero las técnicas que estaban proponiendo usar eran como… hagamos del mundo entero un montón de paja y hagamos que un algoritmo lo busque»
Joe Mullin, el activista principal de la campaña sin fines de lucro contra Apple
También afirmó que las herramientas de escaneo a menudo son inexactas y no auditables.
Meredith Whittaker, presidenta de Signal, le dijo a Forbes que los planes originales de Apple de realizar escaneos en las fotos dirigidas a iCloud sin invadir la privacidad del usuario eran como «proponer magia en lugar de realidad». Apple lo dijo así en la reciente carta de Neuenschwander, su director de privacidad y seguridad infantil, en respuesta a las demandas recientes de escanear las fotos de iCloud en busca de CSAM. Fue la declaración más fuerte que Whittaker había visto de la gran tecnológica sobre el tema en 20 años de debate. «Fue categórico en que nunca será posible», dijo Whittaker. Señaló investigaciones previas que encontraron vulnerabilidades en NeuralHash, afirmando que la tecnología podría potencialmente filtrar información sobre imágenes que no son de CSAM o ser explotada para incriminar a alguien.
«La declaración de Apple es la campana de la muerte para la idea de que es posible escanear las comunicaciones de todos y preservar la privacidad. Apple tiene a muchos de los mejores criptógrafos e ingenieros de software de la Tierra + recursos infinitos. Si ellos no pueden, nadie puede. (No pueden. Nadie puede)».
Meredith Whittaker, presidenta de Signal
Todas las empresas de tecnología deberían equilibrar la privacidad y la seguridad… Cuando no haces una y sólo haces la otra, puedes abusar de tu tecnología» Agregó.
Julie Cordua, presidenta de Thorn
La reacción pública a NeuralHash fue tan mala que Apple detuvo su implementación en otoño de 2021 y luego la canceló en diciembre de 2022. El movimiento dejó a algunos que habían trabajado en el software desilusionados y frustrados. La herramienta era «increíble», dijo un ex empleado. «Fue revolucionaria. Y requirió una tremenda cantidad de trabajo». Dijo otro: «No lo describieron muy bien. No lo hicieron porque Apple no suele llevar a la gente con ellos. Les gusta sorprender y deleitar, pero no entienden que cosas como estas realmente requieren que lleves a la gente contigo en cada paso».
Dentro de un año del anuncio, los directores Polinsky y Richardson se fueron, la primera fue a trabajar para el Departamento de Justicia y la segunda se mudó a GoFundMe. Bhowmick, el ingeniero líder en la detección de CSAM, fundó su propia startup de seguridad, Samooha. La directora de privacidad, Horvath, se mudó a un bufete de abogados, Gibson, Dunn & Crutcher, a principios de este año, mientras que el líder de iCloud, Abbott, dejó la empresa en abril de este año para unirse a GM.
También enojados por la reversión de Apple estaban los defensores y los funcionarios de aplicación de la ley que consideraban el lanzamiento de NeuralHash y el compromiso de la compañía como un gran avance en la batalla contra la explotación infantil. Thorn, el grupo anti-CSAM respaldado por Kutcher, está entre los decepcionados por el abandono de los planes de Apple. «Cada empresa de tecnología debería equilibrar la privacidad y la seguridad», dijo Julie Cordua, presidenta de Thorn.
«Cuando no haces una y solo haces la otra, puedes tener abuso de tu tecnología».
Julie Cordua, presidenta de Thorn.
Tampoco ayuda que el abandono de Apple de NeuralHash parece haber exacerbado la ya tensa relación entre la compañía y los investigadores de explotación infantil. Rouse dijo que Apple se ha vuelto cada vez más «retirada». «No se comunican… no tienen diálogo con nosotros», dijo. «Y eso es realmente decepcionante cuando son uno de los mayores proveedores de tecnología del mundo».
Pero para los defensores de la privacidad, la decisión de Apple fue la única que pudo haber tomado y NeuralHash una idea que debería haber abandonado antes. Incluso Tim Sweeney, fundador y CEO de Epic Games, quien ha criticado públicamente a Apple como «una amenaza para la libertad en todo el mundo», entre otras cosas, elogió a la compañía por mantener su postura ante las críticas recientes.
Anteriormente, Sweeney calificó los ahora desaparecidos planes de Apple para la detección de CSAM como «software espía gubernamental instalado por Apple basado en una presunción de culpabilidad» y «una locura fuera de control».
«Un movimiento sensato por parte de Apple para resistir las campañas de presión para espiar los documentos y las comunicaciones privadas de los usuarios en nombre de los gobiernos», escribió Sweeney en Twitter la semana
pasada. «Alabemos a Apple por esto». Apple y Epic se han enzarzado en una batalla legal durante años que ha involucrado una guerra de nervios sobre las tarifas de la App Store y la capacidad de los usuarios de los iPhones para cargar aplicaciones de fuentes externas a Apple.
Sweeney dijo que los intentos de introducir la detección de CSAM eran «una locura fuera de control».
«Resistamos la presión de crear y aplicar estos sistemas de vigilancia estatal generalizados», tuiteó Sweeney, citando un artículo de Arvind Narayanan, profesor de Princeton y criptógrafo que también ha advertido sobre el enfoque de Apple para la detección de CSAM. Apple tampoco respondió a las solicitudes de comentarios sobre los elogios de Sweeney.
«Para los defensores de la privacidad, la decisión de Apple fue la única que pudo haber tomado y NeuralHash una idea que debería haber abandonado antes.»
Las salidas en confianza y seguridad
Dos de las salidas de Apple en el último año involucraron a personas que habían desempeñado papeles significativos en el trabajo de la empresa en la protección infantil. Polinsky trabajó en la confianza y la seguridad de Apple durante 10 años y tenía un conocimiento profundo de cómo la compañía podría abordar el problema del CSAM. «Sabía qué sería necesario para escanear y eliminar el contenido», dijo un ex empleado de Apple.
Richardson, mientras tanto, era una de las defensoras internas de la protección infantil más conocidas de Apple. Había trabajado en confianza y seguridad en la empresa durante seis años, se había reunido con agentes de la ley, había testificado ante el Congreso y había hablado en conferencias sobre la necesidad de que Apple hiciera más para proteger a los niños. Aunque no dirigió directamente la tecnología anti-CSAM de la empresa, su departamento se encontraba en el mismo grupo que trabajaba en la tecnología.
La experiencia de Apple en la lucha contra el CSAM se ha disipado. Ahora se reporta al nuevo líder de privacidad, Neuenschwander. Thornberry, de Apple, también asumió nuevas responsabilidades en la seguridad infantil después de la salida de Richardson.
La configuración es más grande que solo Apple. En general, se necesita mucho más para combatir la explotación infantil que simplemente escanear fotos, dijo la presidenta de Thorn, Cordua. Eso incluye herramientas de identificación de imágenes, detección de texto y detección de audio, y técnicas de inteligencia artificial para rastrear la explotación sexual infantil en línea. Aunque Apple ha implementado algunas de estas medidas, como la detección de texto en su aplicación de mensajes, su reparto de ciberconsejos a NCMEC sigue siendo pequeño.
Los defensores de la protección infantil están divididos en su visión de las prioridades de Apple. «No es como si todos los miembros de la comunidad de protección infantil estuvieran unidos en una sola voz sobre lo que debería hacer Apple», dijo un empleado de Apple. Si bien algunos quieren que la compañía de Cupertino haga más para ayudar a las fuerzas del orden, otros están felices con el enfoque de Apple en la privacidad. «Es un equilibrio difícil», dijo. «Creo que hay una línea delicada entre permitir que el gobierno y las empresas espíen a la gente y ayudar a proteger a los niños».
«En general, se necesita mucho más para combatir la explotación infantil que simplemente escanear fotos.»
Erik Neuenschwander, director de privacidad y seguridad infantil de Apple.
Neuenschwander señaló en su carta que Apple está tomando otras medidas para combatir la explotación infantil, incluido el uso de detección de texto y otras herramientas de identificación de contenido en su aplicación de mensajes, que funcionan en la fase de entrega y no en la fase de almacenamiento de las fotos. Sin embargo, las detecciones de texto, como un mensaje que dice «voy a hacerte daño», no detectarían una foto de abuso infantil compartida con un mensaje que dijera algo completamente inofensivo como «mira esta bonita foto de mi sobrina».
Thornberry también proporciona a las fuerzas del orden información sobre presuntos depredadores sexuales que utilizan servicios en línea. Aunque Thornberry no escanea los servidores de Apple, como lo haría con los clientes, rastrea las cuentas sospechosas que utiliza la organización sin fines de lucro y luego las rastrea en línea para identificar a sus propietarios. Esa es una parte importante de su trabajo, según el presidente de Thorn, Cordua, que también trabajó anteriormente en una unidad de explotación infantil de 60 personas del Departamento de Seguridad Nacional de EE. UU. Esa unidad descubrió imágenes que muestran que los padres están explotando sexualmente a sus hijos para compartir fotos de abuso infantil en línea. «Nunca verás eso en un sistema de escaneo», dijo Cordua.
La detección de texto y otras herramientas de identificación de contenido tampoco detectarían un chat de texto con un depredador sexual que se relaciona con un niño a través de una aplicación de mensajería. Apple no ofrece detalles sobre cómo Thornberry y su equipo de cuatro personas rastrean a los depredadores sexuales en línea, pero Cordua dijo que lo hacen de manera efectiva.
«Trabajaríamos con [Thornberry] para resolver cualquier problema que encontrara en la forma en que estamos escaneando o que estamos procesando el material de abuso infantil. Si algo falla en la parte de protección, en el análisis de esa alerta o si hay algo que hagamos que sea peligroso para un niño, necesitamos saberlo y queremos corregirlo».
Neuenschwander en su carta
Neuenschwander enfatizó que la seguridad infantil sigue siendo una prioridad para Apple. «Es especialmente importante que nuestras acciones aquí sean transparentes y controlables por la sociedad en general», dijo en la carta. «Estamos comprometidos a seguir colaborando con los expertos para mejorar la seguridad de nuestros dispositivos y servicios».
Los ex empleados de Apple están más preocupados por los problemas que puede causar la falta de privacidad que cualquier mejora real en la seguridad infantil. Como dijo uno de ellos: «No hay razón para que cualquier ciudadano se sienta seguro usando iCloud, porque cualquiera con una orden de registro puede conseguir que su información sea recogida por la policía». Otro dijo que estaba «realmente contento» de ver que Apple había abandonado NeuralHash y esperaba que no fuera una señal de que la compañía estaba planeando hacer cambios más prof
undos en su enfoque de la privacidad. «Nunca he estado tan preocupado por lo que Apple podría hacer a las personas como lo estoy ahora», dijo un ex empleado. «Lo que están haciendo es completamente ilegal y va a hacer que alguien se lastime».