El avance del reconocimiento facial y otras tecnologías biométricas ha transformado múltiples ámbitos: desde el desbloqueo de nuestros teléfonos hasta los sistemas de videovigilancia urbana. Pero detrás de estos desarrollos se esconde una cuestión crucial y muchas veces ignorada: ¿qué pasa con los datos personales de quienes aparecen en las imágenes que alimentan estas inteligencias artificiales?
El rostro como dato
La biometría se basa en la captura y análisis de características físicas únicas, como huellas digitales, patrones del iris o rasgos faciales. En el caso del reconocimiento facial, los sistemas se entrenan utilizando algoritmos de inteligencia artificial que necesitan analizar una gran cantidad de imágenes reales de rostros humanos para “aprender” a reconocerlos.
Este proceso de aprendizaje requiere datasets (conjuntos de datos) que contengan miles o millones de fotos de personas reales, en distintos ángulos, expresiones y condiciones de luz. El algoritmo identifica patrones comunes entre los rostros y genera modelos que luego le permiten distinguir una cara específica entre muchas otras.
El problema es que, en muchos casos, estas imágenes se obtienen de forma masiva desde redes sociales, sitios web o bases de datos públicas —sin que las personas lo sepan ni hayan dado su consentimiento—, lo que plantea una seria preocupación en materia de derechos.
Entre los datasets más conocidos están MegaFace, CelebA o Labeled Faces in the Wild. Algunos de estos conjuntos fueron desarrollados sin consentimiento informado de las personas retratadas, lo que genera serias dudas sobre la legalidad y legitimidad de su uso.
¿Dónde quedan los datos personales?
El derecho a la imagen, a la privacidad y a la autodeterminación informativa son pilares fundamentales de los datos personales en muchos sistemas jurídicos, incluyendo el argentino. Sin embargo, en el entorno digital, su aplicación enfrenta desafíos concretos.
Cuando una IA aprende a reconocer rostros humanos, no solo está usando datos: está procesando identidades. El uso no consentido de una imagen facial implica un tratamiento de datos sensibles que, según las leyes de protección de datos, exige un consentimiento explícito y finalidades determinadas.
En Argentina, los datos biométricos son considerados datos sensibles de acuerdo a la interpretación normativa de la Ley 25.326[¹]. Esto implica que su recolección, almacenamiento y tratamiento están sujetos a mayores exigencias legales y éticas.
¿Qué deberían hacer las empresas y los desarrolladores?
-
Evaluar la legalidad del dataset: Verificar si las imágenes utilizadas tienen origen lícito y si hubo consentimiento.
-
Minimizar el uso de datos personales: Adoptar prácticas de anonimización y reducción de datos.
-
Ser transparentes: Informar claramente a los usuarios si sus datos faciales serán usados para entrenar modelos.
-
Cumplir con los principios de protección de datos: Licitud, finalidad, proporcionalidad, y seguridad.
Hacia un enfoque ético y legal
Los desarrollos tecnológicos no deben estar por encima de los datos personales. Al contrario, deben construirse sobre la base a ellos. Si la IA necesita datos humanos para aprender, entonces necesita también respetar los derechos humanos desde su diseño.
La discusión sobre el reconocimiento facial no es solo técnica: es profundamente política, legal y ética. ¿Queremos un mundo donde nuestros rostros sean capturados y analizados sin nuestro permiso? ¿O queremos participar activamente en cómo se usan nuestros datos más íntimos?
[¹] Aunque la Ley 25.326 no menciona explícitamente los datos biométricos como sensibles, los criterios recientes de la AAIP los incluyen como tales, por su capacidad de identificar unívocamente a una persona.