Campaña: Con mi cara no

Posted on abril 21, 2021, 10:37 am
3 mins

La distancia entre los ojos, la nariz y la boca. La forma de la oreja. El tono de piel. Cada una de esas características únicas de los seres humanos es información personal sensible que el reconocimiento facial utiliza para identificar y autenticar de manera automática a uno o múltiples individuos. El despliegue de esta tecnología con fines de seguridad pública se extiende en Argentina con los sistemas implementados en la Ciudad de Buenos Aires, la localidad de Tigre y las provincias de Salta, Córdoba y Mendoza.

Sin embargo, de acuerdo con la Asociación por los Derechos Civiles (ADC), estas acciones se realizan sin analizar el impacto en los derechos humanos. En este marco, la entidad lanzó la campaña Con mi cara no, para concientizar sobre el reconocimiento facial. El objetivo: que la sociedad pueda entender cómo funciona, cómo se procesan los datos biométricos y por qué los riesgos de su implementación son mayores que los potenciales beneficios.

Uno de los problemas de este sistema es que no es infalible, ya que puede arrojar falsos positivos y discriminar por el tono de piel y género de una persona. La decisión sobre el entrenamiento del algoritmo y las tasas de error con las que contará el software biométrico es tanto una cuestión técnica como política”, señala Eduardo Ferreyra, oficial de proyecto de la ADC.

La tecnología biométrica toma los rasgos de las personas, realiza un mapeo de las características físicas de la cara y genera una plantilla con la representación matemática para ese rostro único. Su propósito es comparar e indicar en tiempo real en qué porcentaje la plantilla de una cara captada por una cámara de videovigilancia se corresponde con las imágenes almacenadas en una base de datos predeterminada.

Los datos biométricos están vinculados con la identidad y no se pueden reemplazar, ya que forman parte de quién es cada uno como persona, sus características y comportamientos. Esto implica que ante una filtración de esas bases de datos, miles o millones de personas van a encontrarse vulnerables a potenciales abusos y daños personales.

“El reconocimiento facial en espacios de acceso público se convierte en una herramienta de vigilancia y control, en especial, cuando es implementado de manera indiscriminada, encubierta y sin el consentimiento de la población. Esta idea de que todos somos culpables hasta que el algoritmo determine lo contrario pone en riesgo el ejercicio de derechos fundamentales, como el disfrute del espacio público y el desarrollo de nuestra vida en sociedad”, concluye Ferreyra.

Leave a Reply

  • (not be published)