País: CPLT insiste en que reconocimiento facial en mall capitalino es “desproporcionado para el fin que persigue”

La Policía de Investigaciones (PDI) informó al Consejo para la Transparencia (CPLT) de la realización de testeos entre mayo y junio de 2018, cuyos resultados mostrarían que un 90% de falsos positivos en las identificaciones de rostros.

Para el CPLT se trata de una de las medidas “tecnología extraordinariamente invasiva, equivalente a una muestra de sangre” y “que obliga a pagar a justos por pecadores” al generar un levantamiento permanente de datos personales de gente que mayoritariamente no tienen antecedentes delictuales.

Santiago, 14 de Marzo de 2019.- Como una “medida totalmente desproporcionada y extraordinariamente invasiva en relación al fin que persigue, que es la identificación de personas con antecedentes delictuales”, calificó el presidente del Consejo para la Transparencia (CPLT), Marcelo Drago, el sistema de reconocimiento facial implementado por un centro comercial capitalino.

El CPLT reiteró el llamado a revisar la iniciativa tras recibir antecedentes entregados por la Policía de Investigaciones de Chile (PDI), en respuesta a un oficio que remitido a distintas entidades que intervinieron en la implementación del sistema y a la empresa dueña del recinto comercial.

En el documento de respuesta de la PDI, la policía detalla la realización de pruebas de reconocimiento facial en “tiempo real” –desarrolladas en los meses de mayo y junio de 2018-, que permitieron establecer que: “el 90% de las identificaciones de rostros realizadas por el sistema fueron falsos positivos (identificación de persona errónea) y el otro 10% se refiere a personas precargadas en la base de datos, que si fueron reconocidas, pero estas personas corresponden a funcionarios del mall con la finalidad de evaluar el software”.

Tras conocer los antecedentes, el titular del Consejo comentó que “iniciativas como éstas son aplaudibles desde la perspectiva de la seguridad, pero sin entrar en la discusión de si son efectivas o no en términos de precisión, dado que no es un tema que le corresponda fiscalizar a nuestro Consejo”. Agregó: “lo importante es la lealtad de las empresas con sus clientes y usuarios en términos de cuidar los datos personales que recopilan”.

De acuerdo a la información proporcionada por la PDI, el sistema operaría en base a un software, de origen español, que permite escanear los rostros de los visitantes o clientes que ingresan y cruzar características faciales con información de personas adultas que registran antecedentes policiales contenidos en bases de datos de la Policía de Investigaciones.

“Insistimos en que se trata de una medida totalmente desproporcionada que muestra que los fines buscados, que es identificar delincuentes, no se condicen con el levantamiento de una enorme cantidad de datos de personas que no lo son, lo que puede prestarse para abusos y hace pagar a justos por pecadores, dado que se recoge información de personas que no tienen antecedentes delictuales y que no han dado su consentimiento para que se obtengan sus datos”, agregó Drago.

El Presidente del CPLT subrayó que la actual ley data de 1999, “previo a una infinidad de avances tecnológicos”, y afirmó que “no establece facultades para que el Consejo garantice el derecho a la protección de datos personales que sean tratados por entidades privadas. Sólo contamos con atribuciones respecto del sector público. El texto actual del proyecto de ley, que está en tramitación en el Senado, y que no registra avances desde hace varios meses, nos permitiría actuar en este caso y evitar cualquier tipo de abuso”.

¿Cómo funciona el sistema?
La PDI entregó antecedentes generales relativos al funcionamiento del software de reconocimiento facial y que involucra tres etapas: detección de un rostro proporcionado por un video o imagen; obtención de las características morfológicas de la persona; y cotejo de dichas características con una base de datos biométricos interna, lo que entregaría un porcentaje de identificación.

La Policía de Investigaciones señaló que los patrones biométricos que utilizan los algoritmos del sistema son propios de las empresas privadas intervinientes y que no habría tenido participación en el desarrollo del software testeado. Asimismo, negó que la institución esté almacenando datos personales de los clientes o transeúntes que son registrados.



Sobre WordPress