Sistemas de reconocimiento facial son entrenados sin tu permiso

Sistemas de reconocimiento facial son entrenados sin tu permiso

Sistemas de reconocimiento facial son entrenados sin tu permiso. FaceApp, la aplicación móvil protagonista del último viral de moda, consiste en subir nuestras fotos para obtener aproximaciones de cuál sería nuestro aspecto dentro de varias décadas (o siendo del sexo opuesto).

Sin embargo, está saltando a los titulares también por la amenaza que representa para nuestra privacidad.

LEE TAMBIÉN Reconocimiento facial sustituye al pasaporte

Al descargar las app autorizas a las compañías a usar tus imágenes

Los términos de uso (que casi nunca leemos) básicamente dan permiso a la compañía propietaria de la aplicación para dar todo tipo de usos comerciales a las imágenes que subimos.

Y peor: para hacerlo a perpetuidad. Una fuente jugosa de ganancias, teniendo en cuenta que ha recopilado más de 150 millones de fotos desde su lanzamiento.

Entre los muchos y variados posibles usos de esas imágenes destaca, además del consabido uso publicitario, la posibilidad de usar nuestras fotos para entrenar algoritmos de reconocimiento facial.

Cuantas más imágenes de rostros proporcionemos a estos sistemas de IA, mejor ‘comprenderán’ los patrones definitorios del rostro humano, cómo se mueve, cómo evoluciona con el tiempo, etc.

Esta misma información también puede servir con el fin de, por ejemplo, mejorar la generación de deepfakes.

Pero ¿usa FaceApp nuestras imágenes con alguno de estos fines? No está claro, aunque sus términos de uso parecen dejar la puerta abierta a ello:

Podemos eliminar partes de datos que puedan identificaros y compartir datos anónimos con otras partes“.

También podemos combinar su información con otra información de manera que ya no esté asociada con usted y compartir esa información agregada“.

No bajes la guardia

Si resististe la tentación de usar FaceApp, tampoco bajes la guardia. No puedes estar seguro de que tu rostro no se esté usando como material de entrenamiento para IAs de reconocimiento facial.

LEE TAMBIÉN:   Dubai: una de las ciudades más tecnológicas del mundo

Docenas de bases de datos, recopiladas por empresas e investigadores académicos, albergan ahora mismo miles o millones de imágenes.

No siempre cedidas con consentimiento del usuario. Y cada una de ellas proporciona material a varios proyectos de inteligencia artificial, en muchos casos por ser de acceso público.

¿Cuál es la fuente de todas esas imágenes? Redes sociales, apps y sitios web de almacenamiento y/o edición de fotos, webcams de emisión pública, servicios de citas online, etc.

Cuando el servicio es gratis… el producto eres tú

La polémica con FaceApp no es nueva.

Todos recordamos el reto viral del #10yearchallenge, puesto en marcha a comienzos de este año.

Kate O’Neill, editora de Wired, nos recordaba lo fácil que le estábamos poniendo a las grandes compañías de redes sociales, al usar dicha etiqueta, el uso de nuestro rostro para el entrenamiento de algoritmos de reconocimiento facial y de imágenes.

Hace tres años ya había pasado algo similar con el Project Oxford puesto en marcha por Microsoft.

Este ofrecía servicios online para encontrar ‘gemelos fantasma’ o calcular nuestra edad. Los términos de uso permitían a Microsoft y sus socios, básicamente, utilizar las imágenes que subíamos del modo en que quisiesen.

Monetizando el material multimedia

Los medios estadounidenses desvelaron recientemente que Ever, una app gratuita que ofrece espacio ilimitado para realizar copias de seguridad de nuestras fotos y vídeos, no se contentaba con las suscripciones de sus usuarios Premium.

Llevaba desde 2013 monetizando por otras vías el material multimedia de millones de usuarios de cuentas gratuitas, sin su conocimiento.

LEE TAMBIÉN:   Tardígrados: la especie más resistente del mundo que estaría viviendo en la Luna

Ever creó un “dataset privado de 13.000 millones de fotos y vídeos […] en continua expansión” del que presumía en su página web. Aunque sin vincularlo públicamente con la app móvil.

Luego usó dicho dataset para proporcionar datos de entrenamiento a la tecnología de reconocimiento facial de la compañía, que luego vendía a las fuerzas de seguridad y a compañías privadas.

Cuando el asunto saltó a los medios, el CEO de Ever dijo que este posible uso se menciona en la política de privacidad (que no en los términos de uso) de la app. A continuación decidió “actualizar” dicho texto, con el fin de dejar más claro el uso que se daba a las fotos.

La referencia ahora puede resultar demasiado vaga:

Para permitirte organizar tus archivos y permitirte compartirlos con las personas adecuadas, Ever usa tecnologías de reconocimiento facial como parte de su servicio. Tus archivos pueden ser usados para mejorar y entrenar nuestros productos y tecnologías”.

Algunas de esas tecnologías pueden ser usadas en otros de nuestros productos y servicios para clientes corporativos, incluyendo nuestras ofertas de reconocimiento facial para empresas“.

Descontrol de los datasets: cuando ni siquiera subimos imagen a ninguna app

También se supo que Microsoft había borrado discretamente su base de datos MS Celeb, presentada en 2016 como el mayor dataset del mundo enfocado al reconocimiento facial.

Contenía más de 10 millones de fotos de aproximadamente 100.000 personas, recopiladas sin solicitar permiso a las personas que aparecían en las fotos por ser todas ellas ‘personalidades públicas’. Resultó que no todas lo eran.

Mientras estuvo en activo, varias grandes compañías como Nvidia, Hitachi, IBM, Panosonic o los gigantes chinos Sensetime, Megvii y Alibaba, utilizaron el contenido de MS Celeb para sus propios proyectos de reconocimiento facial.

LEE TAMBIÉN:   ¿Es esta zapatilla indestructible?

Pero el activista que destapó los casos recuerda que el daño está ya hecho. “No puedes hacer que desaparezca un dataset. Una vez que lo publicas y la gente se lo descarga, existe en los discos duros de todo el mundo. Y no hay manera de impedirles continuar publicándolo, o usarlo para sus propios fines“.

Kim Zetter, una periodista estadounidense especializada en ciberseguridad fue una de las personas cuyo rostro pasó a formar parte, sin ella saberlo, del dataset de Microsoft:

Todos nosotros alimentamos estos sistemas de vigilancia. La idea de que esto pudiera estar siendo compartido con gobiernos y ejércitos extranjeros resulta sencillamente atroz“.

Sistemas de reconocimiento facial son entrenados sin tu permiso

Fuente: Xataka – España

Comments

comments