Mujer era expulsada de cualquier tienda: todo por un error en un sistema de reconocimiento facial

Era acusada de robar un papel higiénico y por un error vivió momentos muy angustiantes

Guardar
Un fallo tecnológico acusó a
Un fallo tecnológico acusó a Horan de robar papel higiénico, generando confusión y afectando su salud mental. (Imagen Ilustrativa Infobae)

La historia de Danielle Horan demuestra que el uso de la tecnología en la seguridad puede tener sus fallos y es fundamental hacer una revisión continua, porque esta mujer vivió varios momentos incómodos tras ser expulsada de varias tiendas de Reino Unido por un error de reconocimiento facial, al catalogarla como una delincuente.

En medio de toda esta situación, ella pensó que era parte de una broma ante las miradas confusas de los demás clientes a los sitios donde ingresaba y era sacada por parte de la seguridad.

“En cuanto crucé el umbral de la puerta, se comunicaron por radio y me rodearon, diciéndome: ‘Tienes que salir de la tienda’. Todos me miraban. Todos los clientes en la caja y yo pensaba: ‘¿Por qué?’”, contó la mujer implicada a la BBC.

Por qué un error de reconocimiento facial acusó a una mujer de delincuente

Danielle Horan, quien se dedica al negocio del maquillaje, nunca imaginó que su identidad terminaría enredada con acusaciones de delincuencia. Su calvario comenzó tras una visita a una tienda Home Bargains en el Gran Manchester. Durante su visita, fue escoltada fuera del local sin explicación alguna.

El sistema Facewatch compartió la
El sistema Facewatch compartió la imagen de Danielle con diferentes tiendas, marcándola como una presunta delincuente. (Imagen ilustrativa Infobae)

La razón apareció más tarde: un sistema de reconocimiento facial llamado Facewatch la había marcado incorrectamente como responsable de un robo de papel higiénico valorado en aproximadamente en 10 libras esterlinas (13 dólares).

Según relató, al regresar con su madre de 81 años para intentar investigar el motivo de su expulsión, nuevamente le impidieron el acceso, lo que desencadenó sentimientos de ansiedad y frustración.

Horan, inicialmente incrédula, encontró que había sido “etiquetada” como delincuente y compartida con otras tiendas locales a través de sistemas de seguridad.

El software en cuestión, desarrollado por Facewatch, pretendía ser una herramienta de seguridad útil para identificar y prevenir el regreso de individuos responsables de hurtos. Este sistema escanea y almacena imágenes faciales de clientes para reconocer a aquellos previamente involucrados en robos. Sin embargo, en el caso de Horan, todo se debió a un error grave.

Más de 35 personas han
Más de 35 personas han reportado errores similares en sistemas de reconocimiento facial en Reino Unido, según Big Brother Watch. (Imagen Ilustrativa Infobae)

Tras la insistencia de Horan, quien revisó sus transacciones bancarias para demostrar que había pagado por el papel higiénico, Facewatch reconoció que las acusaciones eran erróneas y atribuyó el incidente a una información incorrecta presentada por las tiendas involucradas.

Como medida de remediación, Facewatch suspendió el uso de su software en las sucursales implicadas mientras se llevaba a cabo una revisión del caso y se implementaba capacitación adicional para el personal de la tienda.

El incidente tuvo un impacto considerable en esta mujer, quien describió el periodo como estresante. “Mi ansiedad era terrible. Me sentía enferma; mi mente no dejaba de cuestionar qué había hecho mal”, contó a la BBC.

Adicionalmente, Madeleine Stone, una activista de la organización Big Brother Watch, señaló que más de 35 individuos han reportado situaciones similares donde sistemas de reconocimiento facial los han calificado erróneamente como criminales.

El gobierno británico afirma que
El gobierno británico afirma que el uso de datos biométricos debe ser justo y transparente para evitar casos como el de Horan. (Imagen Ilustrativa Infobae)

“Están siendo etiquetados erróneamente sin debido proceso”, afirmó. Este fenómeno, denominado “culpabilidad por algoritmo”, desafía principios jurídicos como la presunción de inocencia.

Un sistema legal, pero con errores

Si bien el uso de tecnologías de reconocimiento facial es legal en Reino Unido, su aplicación debe adherirse a estrictas leyes de protección de datos. Las organizaciones están obligadas a procesar los datos biométricos de manera justa, lícita y transparente, garantizando que su uso sea necesario y proporcional.

El Departamento de Ciencia, Innovación y Tecnología británico confirmó que aunque estas prácticas son legales, deben asegurar que ninguna persona se encuentre en situaciones como la vivida por Horan.

La experiencia de Danielle Horan no es única, pero resalta la urgencia de establecer controles más rigurosos. Big Brother Watch ha pedido al gobierno británico que prohíba completamente la tecnología de reconocimiento facial en minoristas hasta que se asegure la adecuada protección de derechos individuales.