Por Reptar
EMEEQUIS.– El Plan Ángel presentado por Marcelo Ebrard hace unas semanas suscitó un agitado debate público respecto a la ética alrededor de tecnologías como el reconocimiento facial y de identificación biométrica para labores de seguridad, que incluyen sensores de patrones de movimiento corporal. En otras partes del mundo, como Estados Unidos, Reino Unido y China, esta tecnología ha sido señalada por tener sesgos discriminatorios y represivos, y hasta de persecución étnica.
Con toda esta carga simbólica, Ebrard aseguró que “vamos a disfrutar el México más seguro de la historia”, en el auditorio BlackBerry el pasado 10 de julio.
En entrevista para EMEEQUIS, Angie Contreras, tecnóloga, comunicadora y parte del Consejo Asesor seguridad TikTok (como asesora externa), bosqueja los problemas que implica la utilización de softwares para la identificación de sujetos, así como lo describió Ebrard, en plena calle, a través de cámaras de seguridad y otros dispositivos inteligentes o asistidos con inteligencia artificial.
Para ella, lo preocupante es que “se está buscando solucionar los problemas de seguridad del país con tecnología, y aquí hay que hacer una aclaración: no es que la tecnología tenga que estar mal, sino que tiene que ser una apuesta hacia el desarrollo de la sociedad, para acortar las brechas, desigualdad, para la participación ciudadana, la democratización de los países, la alfabetización”.
“Claro que la tecnología tiene que ser justamente una herramienta, pero no es una solución, y menos puede ser pensada como la solución a un problema tan grave, histórico que tenemos en México, de inseguridad, ¿por qué? Porque la inseguridad en México es un tema que ha atravesado varios sexenios”.
Contreras señala que la seguridad implica “muchísimas otras problemáticas sociales, que al contrario, el uso de la tecnología como la única solución es como ponerle una curita y ya: no es la respuesta”.
Angie Contreras piensa que el uso de la tecnología para resolver un problema complejo como la inseguridad es como “poner un curita”. Foto: Cortesia.
PELIGRO PARA LA INTIMIDAD DE LAS PERSONAS
La experta comenta que el perfilamiento que se le da a las personas a través de dispositivos de identificación se traduce en información. Ella se pregunta por esos datos que se están almacenando “y qué uso se les están dando, en México, que tiene una historia de persecución y de violencia a periodistas, activistas, defensores o la oposición política, pues imagínate toda la información que se va a estar almacenando y que de una forma tan sencilla puedan usarla para limitar, violentar, vulnerar los derechos humanos”.
“El tema algorítmico tiene todo un problema” ya que existen “temas racionales, pero también tiene el problema, por ejemplo, para identificar ciertos rostros, ¿no?”, por lo que advierte de errores al identificar a una persona que está siendo buscada por cometer un delito y al tener este tipo de cámaras colocadas en las ciudades, alguien pasa y tiene tal vez una característica facial similar, puede ser detenida, ¿por qué? Porque la máquina ha identificado que cumple con ciertas características”.
Contreras trae a la mesa el tema de la brutalidad policíaca: “Por ejemplo, prisión preventiva oficiosa, porque una máquina dijo que me parecía a una persona culpable. Y como el sistema de justicia mexicana es tan lento, imagínate lo que va a pasar (la persona), claro, estoy dramatizando, pero cualquier parecido con la realidad no es que sea mera coincidencia, es que podría pasar. Y lo grave es que una persona que está en precampaña de la campaña, su única propuesta o su propuesta más ambiciosa en temas de seguridad sea utilizar más máquinas para un tema tan delicado y una deuda que tienen los políticos y los partidos con la seguridad del país”.
Marcelo Ebrard presentando su Plan Angel en Jalisco. Foto: Fernando Carranza / Cuartoscuro.com.
El CASO CHINO, PERFILACIÓN Y DERECHOS HUMANOS
El reconocimiento facial y de otros datos biométricos ha sido una de las herramientas más importantes para la represión y vigilancia de ciudadanos chinos bajo el régimen de Xi Jinping.
En el informe de Human Rights Watch, “China’s Algorithms of Repression”, publicado en 2019, se señala que la tecnología de reconocimiento facial dentro de la aplicación IJOP, utilizada por fuerzas de seguridad chinas, “contiene una función de reconocimiento facial para verificar si una foto de una identificación coincide con la cara de una persona o para cotejar imágenes en dos documentos diferentes”.
Además, “una fuente son las cámaras de circuito cerrado de televisión, algunas de las cuales tienen reconocimiento facial o capacidades de infrarrojos (lo que les da ‘visión nocturna’). Esta tecnología de vigilancia masiva fue utilizada por la policía de Xinjiang para someter a 13 millones de uigures y otros musulmanes túrquicos a “restricciones generalizadas, en violación a sus derechos básicos”, según otro documento de la organización.
En 2022, Amnistía Internacional también publicó un análisis de la tecnología de reconocimiento facial de la policía de Nueva York. El documento señala que el “uso de la tecnología de reconocimiento facial por la policía de Nueva York contribuye a reforzar una actuación discriminatoria contra las comunidades minoritarias de la ciudad”.
El estudio reveló que el Departamento de Policía neoyorquino colocó más cámaras de reconocimiento facial en zonas con perfiles racializados: “En el Bronx, Brooklyn y Queens, la investigación también revela que cuanto más alta es la proporción de población no blanca, mayor es la concentración de cámaras de vigilancia compatibles con tecnología de reconocimiento facial”.
En suelo británico se han hecho serios cuestionamientos sobre este tipo de tecnología y su utilidad para fines represivos. En el informe “Big Brother Watch: Face Off” de la organización Big Brother Watch de 2018 se hace un análisis sobre este tipo de tecnología. El documento señala que “La Policía Metropolitana tiene el peor historial, con una precisión de menos del 2% en sus ‘coincidencias’ automatizadas de reconocimiento facial y más del 98% de las coincidencias identificando erróneamente a miembros inocentes del público”.
Además, gigantes tecnológicos como Amazon e IBM han frenado la distribución de sus tecnologías de reconocimiento facial para uso policial por las críticas sobre el reforzamiento de estereotipos racistas en Occidente. Asimismo, se ha señalado a softwares de reconocimiento de plataformas como Instagram o Google por tener problemas para la identificación de tonos de piel oscuros. Esta última salió a pedir perdón en 2015 porque Google Photos etiquetó a una pareja negra como “gorilas” en una galería de fotos.
El plan de Ebrard ha recibido críticas internas, como las de Sheinbaum o Layda Sansores. Foto: Daniel Augusto / Cuartoscuro.com.
RELACIONES EXTERIORES SÓLO USA DATOS BIOMÉTRICOS PARA REGISTRO
La tecnología de reconocimiento biométrico fue de uso muy limitado en la Secretaría de Relaciones Exteriores cuando estaba a la cabeza Marcelo Ebrard, que ocupó el cargo a partir de 2018, cuando asumió su puesto en el gabinete de Andrés Manuel López Obrador.
A través de información de transparencia, EMEEQUIS obtuvo documentos sobre el uso de información biométrica en la SRE. Esta actualmente se utiliza en el Sistema de Emisión de Pasaportes, donde se recopilan datos biométricos como fotografía, iris, firma y huellas dactilares.
Este registro también se aplica a las personas que solicitan la naturalización. Los datos biométricos de estas personas son transmitidos a la Secretaría de Gobernación a través del Instituto Nacional de Migración (INM).
Este tipo de tecnología también se usa para brindar asistencia y protección a personas mexicanas en el exterior. La Secretaría de Relaciones Exteriores también aclaró que cuenta con el resguardo de datos personales biométricos de huella digital “únicamente de los empleados que registran un Horario Laboral”.
La Secretaría de Relaciones Exteriores no aclaró la marca de tecnología que utilizó para este tipo de registros, aunque ninguno de ellos tuviera que ver con el reconocimiento facial.
El plan A.N.G.E.L. (Avanzadas Normas de Geolocalización y Seguridad) presentado por Marcelo Ebrard fue criticado por sus contrincantes dentro del partido, como la puntera en la carrera presidencial, Claudia Sheinbaum, por adelantarse a los tiempos y por proponer una solución que no resuelve el problema de fondo: “La tecnología es un instrumento, pero no la solución”, dijo la exjefa de Gobierno. Otras voces, como la gobernadora de Campeche, Layda Sansores, también reprobaron esta iniciativa, pero a nivel político. Sansores llamó la presentación de este plan como un acto de “deslealtad” por criticar la seguridad en la era lopezobradorista.
@emeequis
Powered by Froala Editor