DSCN0883
Noticias

Libertades individuales vs. cámaras de vigilancia en América Latina

"Todos los que caminamos a diario por las calles de Buenos Aires seríamos sospechosos de ser fugitivos".

Artículo publicado por VICE Argentina

Hace un tiempo comencé a investigar las tensiones entre sociedad, tecnología y privacidad. Creía que iba a convertirse en un tema relevante en el futuro y como periodista debía prepararme para explicarlo. Pero me equivoqué: es una problemática del presente, que en menor o mayor medida ya nos afecta a todos por igual. Redes sociales, datos personales, inteligencia artificial, algoritmos, privacidad y biometría forman parte de nuestras vidas más de lo que creemos. Aunque parezca exagerado, la desafortunada combinación de todos ellos puede derivar en la pérdida de derechos fundamentales como la libertad de expresión, la libertad de reunión y hasta la libertad sexual. Estamos ante un fenómeno de dimensiones globales, pero que en Latinoamérica cobra otro sentido por ser una región caracterizada por la opacidad de sus instituciones.

Publicidad

A menudo, la tecnología es presentada como la solución eficiente a problemas sociales en donde la desigualdad es moneda corriente. Amparados en ese optimismo tecnológico, los políticos son los primeros en destacar las virtudes de las cámaras de seguridad en la lucha contra el delito, por ejemplo. Haz la prueba, chequéa los anuncios de gobiernos contra la criminalidad y verás que la tecnología aparecerá como protagonista.


Relacionados: Las letras pequeñas del wifi “gratis” de Buenos Aires


En el último año las autoridades locales de la región se pusieron de acuerdo para poner en marcha un nuevo juguete: el reconocimiento facial en espacios públicos. Un software montado sobre las cámaras de seguridad que detecta a una persona por sus datos biométricos. Permite encontrar una aguja en un pajar gracias a la información sobre los rasgos faciales que el Estado tiene recopilado en distintas bases de datos como nuestros documentos de identificación. Una tecnología que se nutre de inteligencia artificial y que ya se implementa en países como Estados Unidos, Reino Unido y China.

Uno de los últimos en subirse a esta nueva ola te tecnoptismo es el gobierno de la Ciudad de Buenos Aires, el distrito más rico de la Argentina. En un contacto con la prensa, el vicealcalde, Diego Santilli, anunció que el sistema de reconocimiento facial en las calles porteñas comenzaría a funcionar hacia fines de abril.

Publicidad
1556232399527-DSCN0893

Quien también se desempeña como ministro de Seguridad, anticipó que se usarán las cámaras de vigilancia para encontrar a unos 30 mil evadidos de la Justicia que podrían estar caminando por la ciudad. Así, las autoridades podrían vigilar a los más de tres millones de personas que a diario circulan por las calles porteñas para hallar a esos fugados. O sea, todos los que caminamos a diario por las calles de Buenos Aires seríamos sospechosos de ser fugitivos. Hasta el momento las autoridades porteñas no dieron demasiada información sobre el tema por lo que el asunto está dentro de una zona gris.

Consultado por VICE un portavoz del ministerio de Seguridad comentó que “el sistema no tiene nada de distinto a lo que se está haciendo en Nueva York o Londres”.


Relacionados: Tenemos que hablar de SIBIOS


Grupos de activistas pusieron el grito en el cielo al advertir que este tipo de tecnología es invasiva, pone en riesgos derechos adquiridos y hasta abre la puerta a la discriminación racial y sexual por parte del Estado. Por caso, la Asociación de Derechos Civiles (ADC) presentó ante las autoridades un pedido de acceso a la información pública para conocer los detalles del nuevo sistema. Oficialmente les respondieron que eso podría llegar en los primeros días de mayo, cuando el sistema ya estaría implementado.

En diálogo con VICE, Leandro Ucciferri, abogado e investigador del área digital de ADC, evaluó como negativos los impactos de la tecnología de reconocimiento facial en espacios públicos por considerar que existe un perjuicio para la privacidad y derechos como la libertad de expresión y de reunión. “Estudios sobre el comportamiento determinaron que las personas actúan de otra manera cuando tienen la sospecha de que están siendo observadas. La incorporación de la biometría implica que ese espacio público ya no será percibido de la misma manera. Si sos una persona pudorosa, lo más probable es que no vayas más a ese parque”, ejemplificó el especialista.

Publicidad
1556232519469-DSCN0899

En Chile, los activistas por las libertades individuales también están en alerta por la implementación masiva de este tipo de tecnología. Por el momento, el reconocimiento facial en cámaras de seguridad hasta el momento sólo quedó en un anuncio del Gobierno central, pero se estima que podría entrar en funcionamiento muy ponto. Dónde sí ya corre este tipo de tecnología es el metro de Valparaíso, donde se utiliza para detectar a quienes no pagan su boleto.

“Los rasgos faciales son datos personales sensibles y tienen el mayor nivel de protección de la ley de datos personales. Por tanto, su recolección y tratamiento debe ser algo excepcional y en casos bien fundamentados. En Chile no hay disposiciones específicas por lo que estamos en área gris”, explicó a VICE Pablo Viollier, analista de políticas públicas en Derechos Digitales, una organización chilena que vela por la defensa y la promoción de los derechos humanos en el entorno digital. En ese contexto, afirmó que la implementación de reconocimiento facial en espacios públicos “es un sistema desproporcionado y de permanente control”.

1556232549620-DSCN0917

En México, las autoridades locales también miran de cerca a este tipo de tecnología. Si bien por ahora no hay uso de reconocimiento facial en espacios públicos, esto va a cambiar muy pronto. Las actuales administraciones de los Estados de Coahuila, Guanajuato y la propia Ciudad de México tienen en carpeta planes para implementar esta tecnología. En Ciudad de México, la oficina encargada de la operación de las cámaras de vigilancia en la ciudad contempla en su plan anual la instalación de unas 50 cámaras de reconocimiento facial. Además, el sistema de transporte subterráneo prevé la compra de más de 500 de cámaras de vigilancia con esta tecnología.

Publicidad
1556232573303-DSCN0921

“Esto está ocurriendo sin que se consideren a fondo lo que el tratamiento de datos biométricos implica para la privacidad y seguridad de las personas”, apuntó Santiago Narváez, investigador de R3D, una organización dedicada a la defensa de los derechos en entornos mediados por la tecnología en diálogo con VICE. El especialista también alertó sobre las consecuencias en la expansión de estos sistemas de vigilancia ya que permiten conocer la geolocalización de las personas en tiempo real: “La legislación actual mexicana prevé que la obtención de dicha geolocalización debe de contar con previa autorización judicial”.

Claro que todo esto está lejos de ser una movida latinoamericana. China puso toda su maquinaria estatal para espiar a una minoría musulmana de la mano de su potente inteligencia artificial. Una investigación reveló que el gigante asiático utilizó un extendido sistema de reconocimiento facial para detectar a los uigures en función de su apariencia, manteniendo así un registro de sus movimientos para la búsqueda y revisión. Ni más ni menos que un perfilamiento racial por parte del Estado.


Relacionados: Hablamos con los organizadores del primer encuentro terraplanista en Argentina


Alrededor de esta controversia hay elemento clave: la inteligencia artificial. Seguramente, escuchaste hablar sobre los algoritmos en los medios. Se trata de métodos para inferir información a través de datos estadísticos y son el corazón de la inteligencia artificial. Claro que esos algoritmos no son objetivos, sino que reproducen los sesgos de las personas que los programan. En definitiva, quien programa los algoritmos alimenta al software para que haga foco en unos factores sobre otros. Cuando en Google buscamos persona exitosa, difícilmente nos arroje a una mujer como resultado porque quién programó el algoritmo del motor de búsqueda asocia el éxito a los hombres.

Publicidad

“En el caso del reconocimiento facial hay mucha evidencia en otros países que demuestra que estos tipos de algoritmos están programadas para reconocer a personas blancas. Por lo tanto, el nivel de falsos positivos es muchísimo mayor porque el algoritmo ha sido entrenado en función del seteo de datos correspondientes a hombres blancos, heterosexuales que son las personas que generan este tipo de tecnología”, afirmó Pablo Violler.

Los falsos positivos son las veces que el algoritmo identifica a una persona como parte de su “lista negra”, pero la detecta como un hombre cuando era mujer, por ejemplo. O cuando el sistema señala como sospechosa a alguien de descendencia afroamericana, latina o indígena sin que esa persona haya sido acusada alguna vez de un delito.

1556232613514-DSCN0926

El caso paradigmático ocurrió en Nueva York. Allí se puso a prueba un sistema de reconocimiento facial para detectar a los conductores que cometen infracciones de tránsito, pero los resultados fueron fatales: no detectaron ningún rostro por lo que la eficacia del sistema fue del 0 por ciento. Dicho de otra manera, la tasa de falsos positivos fue del 100 por ciento porque identificaron equivocadamente a las personas.

Para Leandro Ucciferri, la posibilidad de discriminación es el riesgo más grave en la implementación de este tipo de tecnología: “Los sesgos que puede llegar a tener ese algoritmo pueden identificar erróneamente a algunas personas que están por fuera de parámetros establecidos. ¿Qué pasa con las personas que son no binarias, trans o queers? Es decir, toda la comunidad LGBTI. Hay discriminación de género y racial. Es un problema porque no hay transparencia en los sistemas que se utilizan”.

Estamos ante una controversia regional que pone el acento en derechos muy sensibles para todos y todas. Estas cuestiones no suelen pasar por el Congreso, sino que se resuelven con decretos, resoluciones o normativas dictadas por las autoridades de turno. Un combo en donde sobresalen la falta de información pública y sobre todo la ausencia de un debate sobre su implementación.

Sigue a Xavier en Twitter