Antonio corbillón
Jueves, 19 de marzo 2020, 01:56
En la película 'Minority Report' (2002), Tom Cruise es un policía que dispone de día y medio para probar hoy su inocencia de un crimen que cometerá en 2054. La película de Steven Spielberg se basa en una distopía, una distorsión del futuro, escrita en ... 1956 por Philip K. Dirk, quien imaginó una Unidad del Precrimen policial. Siete años antes, George Orwell había fabulado en '1984' con un Londres dominado por el control masivo y el Gran Hermano.
Publicidad
Se adelantó cuatro décadas. La capital británica ensaya estos días el primer proyecto de gran urbe europea vigilada por cámaras de reconocimiento facial. Programas que aplican los datos biométricos que cruzan las características físicas, fisiológicas y conductuales de una persona para crear perfiles. La UE discutirá este mes una posible moratoria de cinco años en su uso. En todo caso, ya no afectaría a los británicos.
La obsesión por la seguridad entre los londinenses abre la puerta al desfile de identidades virtuales gracias a miles de cámaras en las calles. «Esto no es una ficción distópica, sino cómo la tecnología ya se está utilizando en China y otros lugares», asegura la exdirectora de Privacy International en la ciudad del Big Ben, Frederike Kaltheuner.
Otros lugares, como España. Las cámaras de reconocimiento facial avanzan a buen ritmo en espacios públicos y privados. El instituto de Secundaria Enric Borràs de Badalona (Barcelona) se gastó en 2012 los fondos del Programa de Mejora del Absentismo Escolar de la Generalitat catalana en un sistema de este tipo. Dos cámaras, una de vídeo y otra infrarroja, detectan los puntos clave del rostro del niño. Si a primera hora el alumno no ha pasado por alguno de los terminales que reconocen su rostro, el sistema envía un SMS a su tutor y a los padres.
Desde que se aplica, la mayoría de las familias dicen estar «encantadas». Los 'novillos' escolares han caído drásticamente. Otros colegios de Madrid y Barcelona los aplican para controlar sus comedores. Un centro sueco fue sancionado por su gobierno con 19.000 euros de multa por probar un método similar. «Una vez más la tecnología atropella a la ley. Primero se aplica y después se analizan sus efectos», advierte el experto en Derecho Digital de la Universidad Abierta de Cataluña (UOC) Sergio de Juan Creix.
Publicidad
Más ejemplos. La agencia pública de los aeropuertos (Aena) presentó en octubre un programa piloto para aplicar el reconocimiento facial en el embarque de la T4 de Barajas-Adolfo Suárez. El programa ya está operativo desde marzo en el aeródromo de Menorca. Basta ser mayor de edad y contar con un DNI 3.0, aunque también se puede usar el documento convencional en los terminales de acceso haciéndose un 'vídeo-selfie'. En la reciente feria de turismo Fitur, Aena e Iberia presentaron su proyecto de puerta de embarque biométrica. Bienvenidos al 'Aeropuerto 4.0', como ya lo llaman.
Similar a la huella dactilar Los datos biométricos combinan características físicas, fisiológicas o conductuales para crear perfiles de comportamiento. Versión corregida y aumentada de lo que fue en su día la huella dactilar.
Inteligencia artificial El 51% de las democracias liberales están implantando sistemas de vigilancia con Inteligencia Artificial. Aunque no significa que estas prácticas vulneren las leyes, la cifra está por encima de los sistemas de control social en las autocracias y dictaduras del mundo.
«La industria se está excediendo. En caso de una brecha de seguridad se podría llegar a la suplantación de personas, de sus datos bancarios, familiares, personales. ¿Quién garantiza esto?», se cuestiona la CEO y fundadora de Legal Army, Natalia Martos. Su empresa asesora y desarrolla proyectos de ciberseguridad en organismos públicos y empresas privadas.
Publicidad
Bancos, el recinto ferial de Madrid (IFEMA) o los salones de juego que se multiplican por España, son solo algunos ámbitos privados que avanzan en el uso de estos «controles invasivos», como les llaman todos los expertos consultados. Los lugares de concentración humana son escenarios de prueba idóneos. Y sus usuarios son las 'cobayas'. La Estación Sur de Madrid usa 12 de sus 100 cámaras de control en exclusiva para este fin. En 2019, los incidentes cayeron al 20% con respecto a una década atrás, según sus gestores.
Al igual que Aena, la Empresa Municipal de Transportes (EMT) de Madrid prueba estos meses el pago del billete por la cara. Sin dinero, ni bonobús; basta una foto que se incorpora a la cámara instalada en el vehículo. Al pasar, la máquina reconoce al cliente. Y ya está. «Cosas así demuestran que nosotros mismos estamos permitiendo el Gran Hermano –avisa Efrén Santos, de ICEF (Consultores Abogados en Nuevas Tecnologías)–. Por seguridad o por comodidad, todo esto es un cambio global de los derechos humanos. Y, mientras no lo analicemos así, se impondrá la tecnología».
Publicidad
Lo demuestra el Índice de Vigilancia Global que presentó en diciembre el Programa de Democracia, Conflicto y Gobernanza Carnegie (Washington, EE UU). Tras analizar 176 países, concluye que «las democracias liberales son los principales usuarios de la vigilancia con Inteligencia Artificial». España figura en el grupo de los países occidentales que sufre más penetración de tecnología de China. Y, como recuerda Natalia Martos, de Legal Army, «China es un régimen totalitario, pero los que no lo somos empezamos a utilizar su misma tecnología».
La Asociación Española de Delegados de Protección de Datos (DPD) ha creado un grupo de trabajo para «vigilar y parar todos los excesos que detectemos», anuncia su presidente, Jorge Badiola, quien recuerda que «estos métodos podrán ser más cómodos para pagar un bus o hacer un embarque, pero hay un mercado negro de estos datos y ha habido ya 'hackeos'».
Publicidad
Los videocontroles de Londres se quedan pequeños frente a lo que ya avanza en Estados Unidos. Una investigación de 'The New York Times' ha denunciado que más de 600 agencias y policías dedicadas al orden público han comenzado a usar la aplicación Clearview AI, el último grito en reconocimiento facial.
Basta con tomar la foto, subirla a esta aplicación y enlazar todas las imágenes públicas de ese rostro, con acceso a los sitios donde se hicieron. Clearview usa más de 300 millones de fuentes extraídas de todo tipo de redes sociales (Facebook, YouTube,...) y otros millones de webs. No importa que esas redes prohíban (supuestamente) extraer esos datos. Su algoritmo de reconocimiento facial incluye la combinación con visores de realidad aumentada. Ese dígito también decide los niveles de sospecha. La compañía reconoce que logra coincidencias en los cruces de rostros «hasta el 75% de los casos».
Noticia Patrocinada
El Reglamento Europeo de Protección de Datos, en vigor desde 2018, regula la protección de nuestra intimidad. Pero los expertos insisten en que, una vez más, la tecnología supera de largo a la ley. «Hay usos tan sofisticados que permiten pasar por encima de esta norma», lamenta Martos. La fundadora de Legal Army advierte de que, en los últimos años, «empresas fuera de Europa, sobre todo de Rusia y China, se han hecho con nuestros datos. Lo que vamos a ver en diez años da miedo solo de imaginarlo», concluye.
El borrador del Libro Blanco sobre Inteligencia Artificial que ha elaborado un grupo de expertos y que presentará la Comisión Europea a mediados de mes plantea una moratoria de hasta cinco años en el uso de reconocimiento facial y condiciones más duras para los desarrolladores de Inteligencia Artificial, según filtró el portal independiente Euractiv.
Acabaría de un plumazo con proyectos como el iBorderCtrl que se ensaya ahora en las fronteras de Grecia, Hungría y Letonia. Somete a los inmigrantes a respuestas evaluadas por una cámara detectora de (presuntas) mentiras. Lo llaman 'ciencia del reconocimiento de los afectos'. Si dice que mientes, no pasas.
La ley española y el reglamento continental establecen para los datos biométricos, una protección especial. «Está prohibido salvo determinadas excepciones, entre las que destacan el consentimiento del afectado y proteger intereses vitales», resume el letrado experto en ciberseguridad de ICEF Consultores, Efrén Santos. Quien maneje bases de datos de Inteligencia Artificial debe respetar hasta siete requisitos, «desde la solidez y seguridad técnica, a la gestión de la privacidad, la no discriminación y ausencia de sesgos injustos, además de la transparencia», continúa Santos. Casos como el del instituto de Badalona «no son ilegales si respetan estas claves».
Los expertos consultados advierten de que, bajo argumentos como la seguridad nacional, se corre el riesgo de abusar en el tratamiento de estos datos.
Ante la imposibilidad de «regular continuamente a golpe de novedad técnica», Europa fía su uso a lo que los juristas de las redes llaman «normativas tecnológicamente neutras». Es decir, será la ética de cada gestor, público o privado, al interpretar la norma la que marque buenas o malas prácticas. «La disyuntiva la encontraremos en si el beneficio colectivo supera los derechos individuales, por ejemplo en las normas de un aeropuerto», dice Santos. Porque hay ventajas futuras en las que la Inteligencia Artificial «será fundamental, pero no pueden ser la excusa para vulnerar derechos fundamentales», remata.
Suscríbete durante los 3 primeros meses por 1 €
¿Ya eres suscriptor? Inicia sesión
Te puede interesar
Publicidad
Utilizamos “cookies” propias y de terceros para elaborar información estadística y mostrarle publicidad, contenidos y servicios personalizados a través del análisis de su navegación.
Si continúa navegando acepta su uso. ¿Permites el uso de tus datos privados de navegación en este sitio web?. Más información y cambio de configuración.