Conecta con nosotros

Noticias

Apple y los límites de la privacidad

Publicado el

¿A quién pertenecen las imágenes que almacenamos en nuestro teléfono móvil? ¿Quién es el legítimo propietario de los documentos que escribimos o de los vídeos que grabamos con nuestro terminal? Hace tan solo unos años, este tipo de preguntas no tendrían ningún sentido. Sin embargo, a medida que nos hemos acostumbrado a confiar en la nube para almacenar buena parte de nuestra información personal, los límites de quién posee qué y qué derechos se tienen sobre esos activos digitales, comienzan a diluirse.

La discusión sobre estos límites está hoy en día de plena actualidad, a raíz de una iniciativa con la que Apple se propone un fin más que loable: combatir la pornografía infantil. Y es que si bien todos aplaudimos que las compañías tecnológicas pongan su granito de arena para combatir esta lacra, el método que ha anunciado Apple para hacerlo, ha puesto a los de Cupertino en el ojo del huracán durante la última semana.

MCPRO Recomienda

Transformación Digital en España ¡Participa y envíanos tu caso de éxito!
Tendencias de inversión TIC en 2021 ¡Descárgate el informe!

Vigilando tu iPhone

La historia arranca hace unos días, cuando la compañía de Tim Cook anunció que sus iPhones en Estados Unidos pasarían a incluir herramientas específicas para combatir la pornografía infantil. La nueva tecnología se incluiría como parte de una actualización de seguridad del sistema operativo y se publicaría en el tercer trimestre de este año.

Y todo parecían felicitaciones para Apple, hasta que la multinacional explicó el funcionamiento de la herramienta. Básicamente lo que la compañía quiere introducir es una algoritmo que escanea el contenido del iPhone con el objetivo de detectar código vinculado a conocidas bases de datos desde las que se sabe se comparten imágenes de abusos a menores, en una operación que se completa una vez que las imágenes de teléfono pasan a almacenarse en iCloud.

A partir de aquí, si la herramienta detecta varios positivos en el terminal de un usuario determinado, un empleado de la compañía revisa personalmente las imágenes y, si se confirman las sospechas, se traslada la denuncia al (en Estados Unidos) «Centro Nacional para Niños Desaparecidos y Explotados«.

De las buenas intenciones a invadir la privacidad de los usuarios

Como hemos comentado antes, difícilmente vamos a encontrar a alguien que se muestre en contra de todos los esfuerzos que se lleven a cabo para combatir este tipo de delitos. Sin embargo como aseguran cada vez más analistas y expertos en ciberseguridad, el problema con la tecnología que introduce Apple es que crea un precedente.

Y es que si dispone de una herramienta capaz de detectar un determinado tipo de imágenes…¿qué le impide detectar cualquier otro contenido «ilegal»? Y cuando decimos «ilegal», no hablamos únicamente de lo que pueden considerar como tal la mayoría de los países democráticos, sino sobre todo aquellos en los que la violación de los derechos humanos y la persecución de activistas está a la orden del día.

¿Qué ocurriría si China, sin ir más lejos, obligase a Apple a modificar su herramienta para buscar en los smartphones de sus ciudadanos contenidos relacionados con la masacre de Tiananmén? ¿Se doblegaría a los intereses del gobierno comunista a cambio de no perder un mercado tan importante? Incluso en los países más democráticos, argumentos como la «lucha contra el terrorismo» podrían utilizarse para un fin similar. ¿En qué posición quedaría entonces la privacidad de los usuarios?

Ante el revuelo que, insistimos, durante la última semana ha generado este anuncio, Apple ha publicado un documento con el que ha intentado despejar las dudas que existen sobre su tecnología.

En primer lugar, la compañía ha asegurado que su algoritmo no escanea las imágenes propiamente dichas, sino metadatos (flags) que indican su procedencia (en el caso de la pornografía infantil, determinadas BBDD). En segundo término, ha asegurado que el trabajo del algoritmo se realiza en iCloud y no en los dispositivos propiamente dichos, por lo que a los usuarios les bastaría desactivar la opción de realizar una copia de seguridad en iCloud, para evitar que sus imágenes sean sometidas a ese «examen».

Pero independientemente de que las explicaciones que ha dado la multinacional sean o no convincentes, merece la pena hacer énfasis en lo frágil que se ha convertido nuestra relación con las Big Tech y hasta qué punto los usuarios por comodidad y conveniencia, han perdido casi por completo la partida de la privacidad. A la hora de combatir el crimen, tan importante son los fines, como los medios que se empleen para ello.

Periodista tecnológico con más de una década de experiencia en el sector. Editor de MuyComputerPro y coordinador de MuySeguridad, la publicación de seguridad informática de referencia.

Lo más leído

Suscríbete gratis a MCPRO

La mejor información sobre tecnología para profesionales IT en su correo electrónico cada semana. Recibe gratis nuestra newsletter con actualidad, especiales, la opinión de los mejores expertos y mucho más.

¡Suscripción completada con éxito!