“Dobles digitales” para contrarrestar la tecnología de reconocimiento facial

Dado el cuestionable uso de la tecnología de reconocimiento facial por parte de las fuerzas del orden, muchas empresas de tecnología han sido duramente criticadas por suministrarla. Si bien IBM salió del negocio, Microsoft y Amazon señalaron también que no continúan suministrando esta tecnología a la policía. Por el contrario, se sabe que compañías como Clearview AI, Ayonix, Cognitec, entre otras, continúan realizando este suministro actualmente, señaló OneZero.

Como sabemos, el uso de esta tecnología incrementa los riesgos de los manifestantes al participar de cualquier acto público, en tanto su identidad puede ser capturada para (en el peor de los casos) posteriormente ser buscados por la policía. Entonces, si lo que se quiere es salvaguardar el derecho de las personas a manifestarse libremente, es necesaria una herramienta que les ayude a proteger su identidad mientras lo hacen. He aquí el nacimiento de una necesidad que el mercado buscará satisfacer.

En esa línea, la startup Brighter AI ha lanzado el sitio web “Protect Photo” que ofrece el servicio gratuito de ingeniería de privacidad que elimina las “huellas dactilares faciales” de las imágenes subidas por los usuarios a la red. Ellos hacen uso de un software patentado de “anonimización natural profunda” que escanea las fotos originales, identifica los rasgos faciales, infiere la información demográfica (edad, origen étnico y género) y combina estos datos para crear nuevas imágenes que aparentemente son muy similares a las originales. Las nuevas fotos tendrán nuevas “caras sintéticas”, comúnmente conocidos como doppelgängers digitales (tus “dobles digitales”), que evitan la identificación de personas por parte de la tecnología de reconocimiento facial.

Fuente: https://brighter.ai/

Esta nueva herramienta busca proteger la privacidad de las personas en tanto se decida la legalidad del uso de la tecnología de reconocimiento facial por parte de las fuerzas del orden. Y en tanto se establezcan las limitaciones para su uso.

No obstante, los doppelgängers digitales no son la solución definitiva, de hecho, están muy lejos de serlo. Las “caras sintéticas” podrían ser sometidas a un procedimiento de ingeniería inversa y pueden develar la identidad de la persona detrás de esa cara sintética, o, las fotos cargadas a la web de Protect Photo podrían ser eliminadas. De igual forma, tales doppelgängers digitales pueden contener otros elementos de identificación personal diferentes a los rasgos faciales, como lo son los tatuajes, ropa, u otros accesorios, con lo cual, aún con esta herramienta las personas podrían ser identificadas.

Por otro lado, muchos podrían identificar como una “solución más fácil” difuminar la foto o colocar un emoji sobre la cara del manifestante, pero, de acuerdo a la directora ejecutiva de Brighter AI, Marian Glaser, la peculiaridad de las “caras sintéticas” es que conservan la emotividad de las expresiones faciales: “la determinación, el valor e incluso la ira en los rostros de los manifestantes pueden permanecer intactos a través de las creaciones sintéticas”.

- Aviso Publicitario-
Marilú Lazo
Abogada por la Pontificia Universidad Católica del Perú (PUCP). Cuenta con experiencia en asesoría corporativa, así como en materia de protección de datos personales y nuevas tecnologías.

Similares

1,907FansMe gusta
443SeguidoresSeguir
76SeguidoresSeguir

Suscríbete

*Todos los campos son requeridos
es Spanish
X