Algunos departamentos de Policía de Estados Unidos están experimentando con el uso de chatbots de inteligencia artificial (IA) para elaborar los primeros borradores de sus informes de incidentes. Una tecnología con el mismo modelo de IA generativa que ChatGPT extrae el sonido y las conversaciones de radio de un micrófono de la cámara corporal de la Policía y puede elaborar un informe en ocho segundos. "Era un informe mejor que el que yo podría haber escrito jamás y era cien por cien preciso. Era más fluido", afirma Matt Gilmore, sargento de la policía de Oklahoma City. La nueva herramienta podría formar parte de un conjunto de herramientas de IA en expansión que la Policía estadounidense ya está utilizando, como algoritmos que leen matrículas, reconocen rostros de sospechosos o detectan disparos.
Pocas directrices sobre el uso de los informes de IA
Rick Smith, CEO y fundador de Axon, la empresa que está detrás del producto de IA llamado Draft One, dijo que la IA tiene la posibilidad de eliminar el papeleo que la Policía tiene que hacer para que tengan más tiempo para hacer el trabajo que quieren hacer. Pero, al igual que otras tecnologías de IA utilizadas por la policía, Smith reconoció que existen dudas. Dijo que provienen principalmente de los fiscales de distrito que quieren asegurarse de que los agentes de Policía saben lo que hay en su informe en caso de que tengan que testificar en un proceso penal sobre lo que han visto en la escena del crimen.No quieren que suba nunca al estrado un agente que diga: "Eso lo ha escrito la IA, yo no"Smith CEO de Axon La introducción de los informes policiales generados por inteligencia artificial es tan nueva que hay pocas normas, si es que hay alguna, que guíen su uso. En Oklahoma City, mostraron la herramienta a los fiscales locales, que aconsejaron precaución antes de utilizarla en casos penales de alto riesgo. Pero hay ejemplos de ciudades en otros lugares de EE.UU. donde los agentes pueden utilizar la tecnología en cualquier caso o como consideren oportuno.
Preocupación por el sesgo racial de la IA
Al jurista Andrew Ferguson le gustaría que se debatieran más públicamente las ventajas y los posibles perjuicios de esta tecnología antes de que entre en vigor. Por un lado, los grandes modelos lingüísticos detrás de los chatbots de IA son propensos a inventar información falsa, un problema conocido como alucinación que podría agregar falsedades convincentes y difíciles de notar a un informe policial. "Me preocupa que la automatización y la facilidad de la tecnología hagan que los agentes de policía sean menos cuidadosos a la hora de escribir", afirma Ferguson, profesor de Derecho de la American University que trabaja en lo que se espera que sea el primer artículo de revisión jurídica sobre esta tecnología emergente. Según Ferguson, un informe policial es importante para determinar si la sospecha de un agente "justifica la pérdida de libertad de alguien". A veces es el único testimonio que ve un juez, sobre todo en delitos menores.Mientras se hace el trabajo del Policía más sencillo, hace la vida de gente de color más difícilAurelius Francisco Cofundador de la Fundaciones de Liberating Minds en Oklahoma Según Ferguson, los informes policiales generados por personas también tienen defectos, pero no está claro cuál es más fiable. La preocupación por los sesgos y prejuicios raciales de la sociedad que se incorporan a la tecnología de IA es sólo una parte de lo que el activista comunitario de Oklahoma City Aurelius Francisco considera "profundamente preocupante" de la nueva herramienta, de la que se enteró por AP. En su opinión, la automatización de esos informes "facilitará la capacidad de la Policía para acosar, vigilar e infligir violencia a los miembros de la comunidad".