El gigante tecnológico ha dicho que sus actualizaciones de software para iPhone, iPad y Mac previstas para el otoño incluirán una nueva función para luchar contra la explotación infantil.
Durante años, Apple se ha centrado en añadir nuevos programas a sus teléfonos, todos ellos diseñados para hacer la vida más fácil. Sus sistemas escanean los correos electrónicos en busca de nuevas citas en el calendario, y su asistente de voz Siri sugiere llamar a los amigos en sus cumpleaños. Pero la última función de Apple se centra en el abuso.El gigante tecnológico dijo en una nueva sección de su sitio web publicada el jueves que planea agregar un software de escaneo a sus iPhones, iPads, computadoras Mac y Apple Watches cuando los nuevos sistemas operativos iOS 15, iPad OS 15, MacOS Monterey y WatchOS 8 se lancen en otoño.
El nuevo programa, que según Apple está diseñado para “limitar la difusión de material de abuso sexual infantil”, forma parte de una nueva colaboración entre la compañía y expertos en seguridad infantil. Apple dijo que actualizará Siri y las funciones de búsqueda para proporcionar a los padres y a los niños información que les ayude a buscar apoyo en “situaciones inseguras.” El programa también “intervendrá” cuando los usuarios intenten buscar temas relacionados con el abuso infantil. Apple también advertirá a los padres y a los niños cuando puedan estar enviando o recibiendo una foto sexualmente explícita a través de su aplicación Mensajes, ya sea ocultando la foto tras una advertencia de que puede ser “sensible” o añadiendo una ventana emergente informativa.
Pero el esfuerzo más dramático, dijo Apple, es identificar materiales de abuso sexual infantil en los propios dispositivos, con una nueva tecnología que detectará estas imágenes en la aplicación de fotos de Apple con la ayuda de bases de datos proporcionadas por el Centro Nacional para Niños Desaparecidos y Explotados. Apple dijo que el sistema está automatizado y está “diseñado teniendo en cuenta la privacidad del usuario”, y que el sistema realiza escaneos en el dispositivo antes de que las imágenes sean respaldadas en iCloud. Si el programa está convencido de haber identificado imágenes abusivas, puede compartir esas fotos con representantes de Apple, que actuarán a partir de ahí. El Financial Times ya informó de los planes de Apple.
Aunque algunos observadores de la industria aplaudieron los esfuerzos de Apple por luchar contra la explotación infantil, también les preocupaba que el gigante tecnológico pudiera estar creando un sistema del que pudieran abusar los regímenes totalitarios. Otras tecnologías han sido objeto de abusos, como el software de la empresa israelí NSO Group, que fabrica tecnología de vigilancia gubernamental. Su programa espía Pegasus, promocionado como una herramienta para luchar contra los delincuentes y los terroristas, se utilizó al parecer para hackear 50.000 números de teléfono de activistas, líderes gubernamentales, periodistas, abogados y profesores de todo el mundo.”Incluso si crees que Apple no permitirá que estas herramientas se utilicen de forma indebida, todavía hay mucho de lo que preocuparse”, tuiteó Matthew Green, profesor de la Universidad Johns Hopkins que ha trabajado en tecnologías criptográficas.
Apple no ha respondido a la petición de declaraciones.
Sin duda, otras empresas tecnológicas llevan años escaneando fotos. Facebook y Twitter han colaborado con el Centro Nacional para Niños Desaparecidos y Explotados y otras organizaciones para eliminar las imágenes de abuso sexual infantil en sus redes sociales. Microsoft y Google, por su parte, utilizan una tecnología similar para identificar estas fotos en los correos electrónicos y en los resultados de las búsquedas.
La diferencia con Apple, dicen los críticos, es que escanea las imágenes en el dispositivo, en lugar de hacerlo después de haberlas subido a Internet.