Inicio Mundo La supervisión de reconocimiento facial de IA se queda muy atrás de...

La supervisión de reconocimiento facial de IA se queda muy atrás de la tecnología, advierten los vigilantes.

23
0

El organismo de control biométrico del Reino Unido ha advertido que la supervisión nacional de la detección facial impulsada por inteligencia artificial para atrapar criminales está rezagada frente al rápido crecimiento de la tecnología.

Con la policía Metropolitana casi duplicando el número de rostros que escanean en Londres en los últimos 12 meses y un aumento en el uso de la tecnología por parte de minoristas en el Reino Unido, el Prof. William Webster, comisionado de biometría para Inglaterra y Gales, dijo que el «lento ritmo de la legislación intentaba ponerse al día con el mundo real» y «el caballo había salido antes de la carreta».

Dr. Brian Plastow, quien ocupa el mismo cargo en Escocia, advirtió que la tecnología «no es ni mucho menos tan efectiva como la policía afirma que es» y dijo que existía un «marco legal fragmentado» en todo el Reino Unido. Afirmó que en Inglaterra y Gales, la policía estaban «realmente calificándose a sí mismos».

Los organismos de control dijeron que se necesitaban nuevas leyes para regular cuándo y cómo las fuerzas policiales utilizaban la tecnología de reconocimiento facial en directo, con un nuevo regulador para frenar el uso indebido.

Varias entidades tienen la supervisión de la tecnología, incluida la Oficina del Comisionado de Información (ICO) y la Comisión de Igualdad y Derechos Humanos.

El Ministerio del Interior está considerando un nuevo marco legal para la tecnología, ya que también planea introducir a nivel nacional lo que llama «el mayor avance para atrapar criminales desde la coincidencia de ADN».

Los miembros del público etiquetados erróneamente como sospechosos por tiendas que utilizan cámaras de inteligencia artificial dijeron que no había responsabilidad ni recurso para quejarse. Dijeron que el sistema los hacía sentir «culpables hasta que se demuestre su inocencia».

La policía británica y los minoristas de la calle principal afirman que la tecnología hace que las calles sean más seguras, pero otros la critican como una vigilancia de estilo Gran Hermano, con riesgos para las libertades civiles y la privacidad de los datos.

Hasta ahora este año, la policía Metropolitana ha escaneado más de 1,7 millones de rostros en Londres en busca de sospechosos en listas de observación, un 87% más que en el mismo período en 2025.

También ha surgido: – Una auditoría independiente del uso de la tecnología de reconocimiento facial (FRT) por parte de la Metropolitana ha sido postergada indefinidamente después de que la policía solicitara retrasos. – Una encuesta muestra que el 57% de las personas creen que los sistemas son «otro paso hacia convertir al Reino Unido en una sociedad de vigilancia». – Un denunciante afirmó que los sistemas de escaneo facial basados en tiendas a veces habían sido utilizados de manera incorrecta por personal de tiendas o seguridad agregando maliciosamente a miembros del público a listas de vigilancia.

(Webster dijo: «Podríamos estar hablando de tres años, como mínimo, antes de que la regulación esté en su lugar y activa. Y ya hemos visto la implementación de reconocimiento facial en vivo en una docena de distintas fuerzas policiales. La tecnología se está volviendo más barata y en poco tiempo la veremos en todos lados, incluso en la red de cámaras de vigilancia estáticas».)

(En febrero, The Guardian reveló cómo la policía arrestó a un hombre por un robo en una ciudad que nunca había visitado después de que el software de escaneo facial desplegado en todo el Reino Unido lo confundiera con otra persona de ascendencia asiática del sur.)

(Varias personas más le contaron a The Guardian sobre el impacto de ser identificadas erróneamente por el software de escaneo facial cada vez más utilizado por minoristas para combatir el hurto en tiendas.)

Preocupaciones adicionales sobre la limitada supervisión de la tecnología en rápido desarrollo han sido causadas por el aplazamiento de la auditoría planeada por la ICO del uso de escaneo facial impulsado por IA de la Metropolitana para encontrar criminales buscados.

(La ICO, que es el regulador de datos del Reino Unido, había programado la investigación para octubre del año pasado. Pero la Metropolitana pidió que se pospusiera y ya no está seguro de que vaya a continuar, según correos electrónicos obtenidos por The Guardian bajo la Ley de Libertad de Información.)

(Muestran que la Metropolitana citó como razones para el retraso su necesidad de manejar un desafío legal a su política de escaneo facial, sobre el cual un tribunal falló a su favor la semana pasada, agentes tomando licencia de Navidad y la carga de policiar las festividades de fin de año.)

(La ICO aceptó su solicitud y la investigación ya no está segura de continuar, lo que ha llevado a afirmaciones de que el regulador está siendo «insuficientemente agresivo».)

(David Davis MP, ex secretario de Estado en la sombra de Interior y defensor de las libertades civiles, dijo: «[FRT] es un gran avance con todo tipo de implicaciones. La ICO debería ser la defensora del ciudadano común y debería ser mucho más agresiva en lo que hace».)

(La ICO y la Metropolitana dijeron que el cronograma de la revisión judicial implicaba que era apropiado posponer la auditoría propuesta.)

(La Metropolitana dijo: «Siempre hemos sido transparentes sobre nuestro uso de la tecnología de reconocimiento facial y recibimos con agrado la supervisión independiente.» La ICO dijo que estaba revisando si la auditoría sería reprogramada.)

(Una encuesta de 2.000 adultos el mes pasado realizada por Opinium encontró que casi un tercio se oponía al uso de reconocimiento facial por minoristas. Además, el 62% se preocupaba por la tecnología que podía meter a la gente en problemas por cosas que no habían hecho, según la encuesta, encargada por Face Int, una empresa de seguridad biométrica.)

(La tecnología de escaneo facial está siendo cada vez más utilizada por cadenas minoristas para apuntar a los ladrones y comportamientos antisociales y violentos en las tiendas. Sainsbury’s, Budgens y Sports Direct están entre las cadenas que utilizan Facewatch en algunas tiendas.)

(La tecnología analiza las imágenes de las CCTV y compara los rostros con una base de datos privada de delincuentes conocidos, alertando al personal cuando se hace una coincidencia.)

(Big Brother Watch, un grupo de campaña por las libertades civiles, dijo que lo habían contactado 21 personas durante el último año que creían haber sido colocadas incorrectly en listas de observación o mal identificadas.)

(Ian Clayton, un profesional jubilado de salud y seguridad de Chester, fue invitado a abandonar Home Bargains en febrero después de que le dijeran que había sido marcado en un sistema de reconocimiento facial como ladrón. Más tarde descubrió que había sido asociado erróneamente con un ladrón que había coincidido con él en una visita anterior.)

(«Se siente muy orwelliano,» dijo. «Estamos constantemente siendo grabados y puestos en estos sistemas, pero ¿deberíamos estar allí? Se siente como espiar sin motivo. Me dejó sintiéndome vulnerable, expuesto y un poco indefenso. Ahora estoy hiperconsciente de las cámaras.»)

(Lo mismo le sucedió a Warren Rajah, un estratega de datos en el sur de Londres, en una visita a Sainsbury’s. «Este es un problema de derechos civiles en el que nos estamos adentrando lentamente,» dijo. «Sabemos que las cámaras no pueden captar con tanta precisión las características de las personas con rasgos más oscuros».)

(Mientras tanto, un denunciante afirmó que a veces se habían mal utilizado los sistemas por personal de tienda o seguridad «maliciosamente» añadiendo a miembros del público a listas de observación aunque no se les hubiera atrapado haciendo nada malo.)

(Paul Fyfe, un exguardia de seguridad que trabajó con cámaras de Facewatch en Stockton-on-Tees hasta septiembre pasado, dijo que en algunos casos el personal había etiquetado a miembros del público en listas de observación incluso cuando no se les había atrapado robando o cometiendo violencia.)

(«Si tienes a alguien de quien estás enojado, a quien no puedes atrapar o te están molestando o te están amenazando, la forma más fácil de perjudicarlos es subirlos al sistema,» dijo. «En 10 a 15 ocasiones, sé que las personas han sido etiquetadas por razones maliciosas.»)

(Como resultado, los guardias de seguridad en otras tiendas con el mismo software serían alertados cada vez que entraran.)

(Nick Fisher, CEO de Facewatch, dijo: «No reconocemos las afirmaciones de que el sistema de informes de incidentes está siendo mal utilizado, incluida la grave acusación de que se está agregando maliciosamente a individuos».)

(«El sistema ha sido diseñado a propósito para no permitir el uso indebido, y tenemos reglas estrictas que rigen cómo se puede usar el sistema, con salvaguardias y controles incorporados. Los minoristas deben cumplir con estándares de evidencia claros antes de presentar un registro, y cada envío está sujeto a revisión humana antes de que cualquier individuo sea añadido a la base de datos. Si una presentación no cumple con el estándar requerido, es rechazada y devuelta al minorista.»)