Por Adela P. Depetris
El uso de la tecnología de reconocimiento facial (RF) es en la actualidad un tema de discusión en Estados Unidos y Europa debido a la forma en que se ha implementado, llegando a exponer la privacidad y seguridad de los ciudadanos. Algunas ciudades norteamericanas han prohibido su implementación. San Francisco, sede de la revolución tecnológica, prohibe en mayo de 2019 el uso del software de RF por parte de la policía y otras agencias, informa el diario The New York Times. (1) También se suma la ciudad de Berkeley, California.
El sitio web de la BBC de Londres publica en carácter de adelanto que la Unión Europea estudiaría impedir este año el uso de la tecnología de Reconocimiento Facial en el espacio público por un lapso de tres a cinco años, hasta tanto se evalúen las implicancias de su uso respecto a los derechos a la privacidad. (2) En febrero y marzo 2020 se realizarán informes y audiencias públicas sobre el tema organizadas por el consejo de los 28 paises miembros de la Unión (MEPS).
– En Argentina: invitación al Relator especial de la ONU
-
- Para evaluar la situación del derecho a la privacidad en Argentina fue invitado en 2019 por el gobierno nacional un Relator de la Organización de la Naciones Unidas. El Relator especial Joseph Canatacci al cabo de su visita entre el 6 al 17 de mayo 2019 presentó un informe (3) que se encuentra publicado en el sitio web de la institución. Sin embargo se trata de un reporte preliminar ya que las conclusiones y recomendaciones finales se presentarán en su informe al Consejo de Derechos Humanos de las Naciones Unidas en marzo de 2020.
- Unos meses antes de esta invitación, había anunciado el gobierno de la Ciudad de Buenos Aires la compra y posterior implementación y puesta en función de un software de reconocimiento facial, para localización de prófugos.(4) El software contaba al momento de la compra con 300 licencias, podía funcionar en tiempo real y simultáneo en 300 cámaras entre las 7000 con las que contaba la Ciudad en ese momento. Su uso comenzó en abril de 2019 en los andenes de trenes subterráneos y en julio de 2019 se empezó a usar en estaciones de trenes de Retiro, Once y Federico Lacroze. (5)
- El Relator dividió su informe en seis áreas: Vigilancia, Bases de datos penales, Privacidad e infancia, Cámaras (CCTV) + Reconocimiento Facial, Protección de datos, y Datos de salud. Sobre la compra e implementación del software de RF el relator expresó:
- “La justificación de tal sistema, su legitimidad, necesidad y proporcionalidad deberían haberse establecido mediante una evaluación del impacto en la privacidad (PIA , del inglés Privacy Impact Assessment) que no parece haberse llevado a cabo. “
- “El hecho de que el reconocimiento facial se esté implementando sin el PIA necesario, así como la consulta deseable y las fuertes salvaguardias, también es motivo de preocupación. El Gobierno ha aprobado una reglamentación de bajo nivel en materia de biometría, pero no una legislación detallada sobre el uso del reconocimiento facial: Resolución Nro. 398/MJYSGC/19.“
- “Las evaluaciones de impacto en la privacidad deberían ser obligatorias por ley como requisito previo para el despliegue de todas las tecnologías de vigilancia, incluidas las cámaras de vídeo-vigilancia con capacidad de reconocimiento de matrículas, faciales y de la marcha.”
- El procedimiento en sí, también fue puesto en cuestión : “Esta tecnología tiene graves implicaciones para la privacidad de millones de personas que utilizan el espacio público, con el justificativo de buscar en una lista de aproximadamente 40 mil personas que incluye delitos que no son graves y cuya exactitud no se comprueba cuidadosamente”. Los rostros reconocidos se contrastan con una lista de prófugos que se obtiene de la base de datos CONAR. En ella habría casi un 40% de personas mal buscadas o sobre las que hay información errónea. En el caso de otro 29,5% de las personas buscadas, falta información sobre el delito por el cual se realiza la pesquisa. En la lista figuran 61 menores de edad. Contiene además otros errores. (6)
– Acción Declarativa de inconstitucionalidad
Fue iniciada en noviembre de 2019, contra el gobierno de la Ciudad de Buenos Aires, por la implementación del sistema de Reconocimiento Facial en el espacio público porteño. (7) Esta acción es llevada a cabo por la Asociación por los Derechos Civiles (ADC), organización no gubernamental, apartidaria y sin fines de lucro con sede en Buenos Aires que realizó denuncias, investigaciones, y dos pedidos de Acceso a la Información. Existe una página lanzada por la organización dedicada al seguimiento de estos pasos. (8)
“No se ha respetado el principio constitucional de legalidad que exige un expreso sustento legislativo para toda interferencia en derechos fundamentales, en tanto el sistema fue implementado a través de una resolución ( Resolución 389/19 de compra directa a la empresa DANAIDE S.A., el 22 de abril de 2019, por un total de 1.511.300 dólares) y no una ley con participación de la Legislatura”.(10) No se han realizado estudios de impacto, y aún falta transparencia en la descripción de la tecnología utilizada como para poder realizar los estudios necesarios.
El debate continúa(rá)
En el New York Times se puede leer un artículo (9) de fines del 2019 donde Barry Friedman y Andrew Guthrie Ferguson (ambos profesores de leyes) buscan una salida no binaria para el problema del RF. Proponen, para habilitar su uso, cinco medidas que lo condicionan y limitan. Y agregan realísticamente: “Con cámaras tan invasivas en los postes de las calles y en los edificios la propagación del reconocimiento facial sería un Gran Hermano hecho realidad, haciendo posible rastrear cada uno de nuestros movimientos y realizar un collage de retratos íntimos de nuestras vidas. Si, prohibirlo costaría a la policía la habilidad de aprehender a un fugitivo peligroso al vuelo. Pero permitirlo podría llevar a la vigilancia en masa que está desplegando China. La mayoría no va estar conteste con eso, ni debería estarlo.”
En Buenos Aires, el abogado y analista de políticas públicas Eduardo Ferreyra, de la ADC señala que, en el caso particular de la Ciudad y nuestro país, nunca puede desentenderse la implementación de cierta tecnología del contexto en el que se aplica: “No podemos olvidar dos características principales de América Latina en general y Argentina en particular. La primera es la existencia de sociedades fuertemente marcadas por la desigualdad. La segunda es la ausencia de respuestas eficaces por parte del Estado a las demandas sociales. La presencia de ambos fenómenos implica que el espacio público en nuestro país debe ser un lugar que favorezca expresiones críticas y no un lugar para la vigilancia y control”.” (10)