Estados Unidos: Reconocimiento facial falla durante una operación policial

Una mujer presentó una denuncia contra la policía de Detroit luego de que fue arrestada por error por un robo a mano armada en febrero cuando tenía 8 meses de embarazo.

Por Cuba Impacto

El uso del reconocimiento facial por parte de la policía vuelve a ser cuestionado en Estados Unidos tras la denuncia de una mujer negra detenida en febrero, y liberada a las diez horas, por un delito que no había cometido.

Porcha Woodruff, residente del estado de Michigan (norte), presentó la semana pasada una denuncia por arresto injustificado contra la ciudad de Detroit y contra el policía a cargo de la investigación en un caso de robo de auto con violencia.

Porcha Woodruff, identificada como sospechosa tras un registro con software de reconocimiento facial, pasó "aproximadamente once horas de pie o sentada en un banco de hormigón" en la comisaría cuando tenía 8 meses de embarazo, dice la denuncia. Quince días después, en marzo, un tribunal desestimó los cargos en su contra por falta de pruebas.

"¿Estás bromeando?"

“Dadas las conocidas fallas en las tecnologías de reconocimiento facial, que tienden a errar, la policía de Detroit violó los derechos de la demandante al no protegerla de los errores previsibles y sus consecuencias”, afirman sus abogados en el comunicado de denuncia.

Esta tecnología de inteligencia artificial (IA) ha sido criticada durante años por los defensores de los derechos humanos. Denuncian en particular el hecho de que los algoritmos, entrenados a partir de poblaciones predominantemente blancas, cometen más errores con las personas negras. En el caso de Porcha Woodruff, la policía utilizó imágenes grabadas por una cámara de circuito cerrado de televisión en una gasolinera.

“¿Robo de autos a mano armada? ¿Estás bromeando? ¿Ves que tengo 8 meses de embarazo? se lanzó a la policía que se presentó en su domicilio el 16 de febrero con una orden de aprehensión. Pero a pesar de las protestas de sus dos hijos, su prometido y su madre contactados telefónicamente, “se la llevaron, registraron y esposaron frente a su familia y vecinos”, relata la denuncia.

"Indiferencia deliberada"

Después de un día en la comisaría, fue al hospital que encontró su “frecuencia cardíaca baja debido a la deshidratación”. Y “ella (allí) se enteró que tenía contracciones por el estrés que le infligía”.

La denuncia culpa a la policía por no haber “establecido reglas apropiadas para el uso de esta tecnología” y por no haber “capacitado adecuadamente a sus empleados”, lo que “revela una indiferencia deliberada hacia el daño potencial que sufren las personas erróneamente identificadas”. .

En Estados Unidos, ante la presión de las asociaciones, grandes grupos como Amazon, Microsoft, IBM y Google han dejado, al menos temporalmente, de vender su software de reconocimiento facial a la policía.