Apple introduce un nuevo sistema que detectará contenidos prohibidos en los dispositivos del usuario
Apple anunció este jueves que adoptara en lo sucesivo una novedosa tecnología para detectar, mediante algoritmos ‘hash’, todo posible contenido relacionado con el abuso sexual infantil (como por ejemplo pornografía infantil) que puedan tener como material fotográfico los usuarios de sus teléfonos inteligentes iPhone y de la línea de tabletas iPad.
Desde la compañía aseguraron que la tecnología fue concebida sin dejar de considerar el respeto hacia la privacidad de los usuarios. Por tanto, el nuevo sistema no escaneará los materiales que se hallen en la nube iCloud, pero sí cotejará en dichos dispositivos los ‘hash’ de imágenes (versiones encriptadas de ellas) con la base de datos proporcionada por el Centro Nacional estadounidense para Menores Desaparecidos y Explotados (NCMEC, por sus siglas en inglés), que registra contenidos ya marcados como prohibidos.
La compañía de Cupertino sostiene que no será capaz de realizar ese cotejo a menos que la cuenta sobrepase un límite de imágenes, concebido como mínimo para disminuir la posibilidad de error, que pudieran contener escenas de abuso infantil. En ese sentido, aseguró que la probabilidad de que una cuenta sea marcada incorrectamente es de un caso por billón al año.
En caso de que el sistema detecte un material ilegal, este será rechequeado manualmente por los empleados de la empresa de Cupertino. Si la existencia del material prohibido se confirma, la compañía desconectará la cuenta respectiva y reportará al NCMEC. Por su parte, los usuarios podrán presentar una apelación para restablecer la cuenta, si consideran que se ha producido un error.
¿Defecto inminente?
Matthew Green, experto en criptografía y seguridad, advirtió que la introducción de tal sistema podría tener implicaciones adversas, ya que los algoritmos ‘hash’ no son totalmente fiables y pueden identificar algún contenido como prohibido, aunque en realidad sea adecuado.
«Están diseñados (esos algoritmos) para encontrar imágenes que se parezcan a las malas, incluso si han sido redimensionadas, comprimidas, etc. Esto significa que, dependiendo de cómo funcionen, podría ser posible que alguien haga imágenes problemáticas que «coincidan» con imágenes totalmente inofensivas. Por ejemplo, imágenes políticas compartidas por grupos perseguidos. Estas imágenes inofensivas serían reportadas al proveedor», anotó Green en su cuenta de Twitter.
La voz del experto halló eco en algunos usuarios que, aunque avalan el intento de Apple de luchar contra dichos contenidos, muestran su preocupación y temen que la posible nueva función sea usada para mal.
«Ayudar a atrapar a los depredadores y abusadores es admirable, pero hay demasiadas cosas que pueden salir mal con este método», tuiteó uno. «Esto es un gran problema de privacidad. Una empresa tecnológica escanea tus fotos personales. ¿Qué pasa cuando la foto de mi hijo es marcada porque se cayó y se lastimó y me fue enviada para mostrármela a mí, su madre?», se preguntó otro.