IA prepara informes policiales
Un nuevo sistema ha sido puesto a prueba en EEUU. Recolecta los datos del micrófono de las cámaras de los agentes y elabora un resumen de cada incidente en unos segundos
El departamento de policía de la ciudad de Oklahoma, Estados Unidos, ha comenzado a utilizar un sistema de inteligencia artificial para elaborar reportes. La solución es provista por Axon, la misma compañía encargada de producir las cámaras personales de los agentes y las pistolas Taser.
Funcionamiento
La IA, conocida como Draft One, toma toda la información capturada por el micrófono que lleva la cámara del agente y en unos 8 segundos elabora un primer borrador del incidente a registrar.
Según la compañía la inteligencia artificial liberará a los oficiales de una parte del trabajo que es tediosa y a menudo consume la mitad del día. Axon asegura que este nuevo producto es el que más respuestas positivas ha despertado.
Límites de uso
La empresa admite que existen algunas preocupaciones. Los fiscales necesitarán asegurarse de que los informes que utilizan en los procesos criminales hayan sido elaborados, al menos en parte, por seres humanos. El motivo es simple, los policías a menudo son llamados a testificar para confirmar los documentos. Por el momento, los fiscales han recomendado que el sistema no sea empleado en arrestos, delitos graves o crímenes violentos. Solo incidentes menores, que de igual manera requieren trabajo de “escritorio”.
En la ciudad de Lafayette, donde también se ha puesto a prueba el sistema, no existe este límite. Sin embargo, los oficiales han señalado que en muchas ocasiones, en el centro de la ciudad, es imposible usarlo dado el ruido del ambiente.
Otra preocupación
También hay dudas sobre el peligro que surge de la tendencia de las IA a reproducir los patrones propios de los prejuicios humanos. Lo que podría suponer actitudes discriminatorias contra ciertos grupos.
Resúmenes de imagen
Axon también ha hecho pruebas para crear resúmenes basados en las imágenes captadas por la cámara. Pero los resultados no han sido lo esperados. La compañía ha apuntado que la información producida no ha sido notoriamente racista, pero si insensible en muchos otros aspectos.
Comentarios
Para comentar, debés estar registrado
Por favor, iniciá sesión