Sáb. Abr 20th, 2024

IEl 24 de enero, el Senado aprobó, luego de acaloradas discusiones, el artículo 7 del proyecto de ley sobre los Juegos Olímpicos, que autoriza con carácter experimental el despliegue de cámaras acopladas a sistemas algorítmicos de detección. Herramientas capaces, según sus impulsores, de detectar movimientos de multitudes, equipajes abandonados o comportamientos sospechosos. El corazón del debate se centró, y esto es bastante normal, en los principales riesgos que la banalización de las tecnologías de vigilancia supone para la privacidad. Pero otro elemento, aunque crucial, apenas fue mencionado: la eficacia de estas herramientas presentadas como «inteligentes».

Lea también: Artículo reservado para nuestros suscriptores El Senado aprueba por amplia mayoría el proyecto de ley sobre los Juegos Olímpicos con numerosas medidas de seguridad

Experimentación: el término sugiere una aplicación científica supervisada y limitada en el tiempo. Una prueba a tamaño real, cuyos resultados serían escudriñados con total transparencia por expertos, para determinar si la tecnología es actual, útil, respetuosa con la privacidad y con el presupuesto asignado.

En la práctica, la década de “experimentos” –ya– en videovigilancia aumentada muestra que sistemáticamente ocurre lo contrario. En 2016, la SNCF está probando cámaras «inteligentes» para detectar ataques. Nunca se comunicarán los resultados del experimento.

En 2019, el ayuntamiento de Niza afirma haber realizado pruebas de cámaras de reconocimiento facial que superaron el 100% de las pruebas de identificación. Seis meses después, la Comisión Nacional de Informática y Libertades critica duramente este anunciado «éxito», cuyos detalles no se han hecho públicos, lo que no permite, según la institución, teniendo “una visión objetiva de este experimento [ni] una opinión sobre su eficacia. Desde entonces, la ciudad ha recurrido a otra tecnología, sin reconocimiento facial.

En 2020, la RATP “experimenta” durante unos meses la detección automática del uso de mascarilla en el metro. Se explica hoy en Mundo no haber seguido, debido a una “tasa de detección promedio del 89%” quien se quedo “inferior a las observaciones realizadas en el campo”.

Promesas de una herramienta ultraeficiente

En el extranjero, donde se han realizado pruebas a gran escala en los Estados Unidos y el Reino Unido, a veces se han revelado datos más detallados. Elaboran una evaluación muy pobre de la utilidad de estas tecnologías. En 2017, un experimento de detección de rostros en el Carnaval de Notting Hill en Londres terminó en un fracaso casi total, con muchos «falsos positivos»: la gente declaró erróneamente. En 2021, una auditoría del gobierno en Utah, EE. UU., emitió un informe muy crítico sobre un dispositivo de CCTV ‘inteligente’ comprado por la policía del estado a la empresa Banjo dos años antes. .

Te queda el 52,61% de este artículo por leer. Lo siguiente es solo para suscriptores.