Un veterano de guerra asesinado “habló” gracias a un video de IA en una audiencia de sentencia en Arizona

La tecnología usada en el juicio de Gabriel Horcasitas, condenado por el homicidio de Chris Pelkey, fue la forma en que la familia transmitió sus palabras

Guardar
La familia de Chris Pelkey
La familia de Chris Pelkey utilizó un avatar de IA para transmitir su testimonio en el juicio. (AP Photo/Matt York)

Un caso sin precedentes en el sistema judicial de Estados Unidos se presentó en Arizona, donde Chris Pelkey, un hombre asesinado en un incidente de furia al volante en 2021, “habló” durante la audiencia.

Se trataba de la sentencia de su agresor, su testimonio fue posible gracias a un video generado con inteligencia artificial (IA).

Según informó CBS News, la familia de Pelkey utilizó esta tecnología para crear un avatar que leyó una declaración de impacto de la víctima, marcando un hito en el uso de IA en los tribunales.

El incidente que llevó a la muerte de Pelkey

Gabriel Horcasitas fue condenado a
Gabriel Horcasitas fue condenado a 10,5 años por el asesinato de Chris Pelkey. (Tim Wales vía AP)

El incidente que llevó a la muerte de Pelkey ocurrió el 13 de noviembre de 2021, cuando él y Gabriel Paul Horcasitas, el hombre que posteriormente sería condenado por el homicidio, se detuvieron en un semáforo en rojo.

Pelkey salió de su camioneta y se dirigió al vehículo de Horcasitas, quien le disparó. Durante la audiencia de sentencia, el avatar de Pelkey expresó que lamentaba las circunstancias en las que ambos se conocieron, sugiriendo que en otra vida podrían haber sido amigos.

También compartió un mensaje de perdón y reflexionó sobre la importancia de aprovechar cada día y valorar a los seres queridos.

El juez Todd Lang, del Tribunal Superior del Condado de Maricopa, presidió el caso y expresó su aprecio por el uso de esta tecnología, según consignó BBC News. Lang destacó que el video reflejaba el carácter de la familia de Pelkey, que había solicitado la pena máxima para Horcasitas.

Además del video, familiares y amigos enviaron cerca de 50 cartas al juez, reforzando el mensaje de indignación por la pérdida de Pelkey.

Horcasitas, de 54 años, fue declarado culpable de homicidio y condenado a 10.5 años de prisión. Sin embargo, su abogado, Jason Lamm, informó a The Associated Press que ya se presentó una apelación, argumentando que el tribunal de apelaciones podría evaluar si el juez se basó indebidamente en el video generado por IA al dictar la sentencia.

La decisión de utilizar IA en la audiencia de sentencia

El mensaje generado por inteligencia
El mensaje generado por inteligencia artificial abogó por el perdón y la reflexión. (AP Photo/Matt York)

La idea de utilizar inteligencia artificial para que Pelkey “hablara” surgió de su hermana, Stacey Wales, quien durante años reflexionó sobre lo que su hermano habría dicho en la audiencia.

Wales explicó a la BBC que el mensaje del avatar se construyó con ética y moral, comparando la tecnología con un martillo que puede usarse tanto para destruir como para construir. En este caso, afirmó, se utilizó para construir un mensaje de perdón y reflexión.

Pelkey, nacido en Poughkeepsie, Nueva York, y residente en Arizona, fue un veterano que sirvió en Irak y Afganistán en tres ocasiones. Según su obituario, participaba activamente en su iglesia local y en misiones tanto nacionales como internacionales.

El uso de inteligencia artificial en tribunales, cada vez más común

Arizona marca un precedente usando
Arizona marca un precedente usando IA en una declaración de impacto judicial. (Imagen Ilustrativa Infobae)

El uso de inteligencia artificial en los tribunales no es nuevo, pero hasta ahora se había limitado principalmente a tareas administrativas, investigación jurídica y preparación de casos.

En Arizona, esta tecnología también ha servido para informar al público sobre sentencias en casos relevantes. Sin embargo, el empleo de IA para generar declaraciones de impacto de las víctimas representa una herramienta novedosa y, al menos en este estado, completamente legal.

La abogada de derechos de las víctimas Jessica Gattuso, quien representó a la familia de Pelkey, explicó que en Arizona las víctimas tienen la posibilidad de presentar sus declaraciones en cualquier formato digital.

Por su parte, la presidenta de la Corte Suprema de Arizona, Ann Timmer, señaló que el creciente uso de IA en los últimos años ha llevado a la creación de un comité para establecer mejores prácticas en los tribunales.

Las preocupaciones y riesgos que representa la IA en tribunales

La IA amplía sus aplicaciones
La IA amplía sus aplicaciones más allá de lo administrativo en procesos judiciales. (Imagen Ilustrativa Infobae)

No obstante, el uso de esta tecnología también ha generado preocupaciones. Gary Marchant, profesor de derecho en la Universidad Estatal de Arizona y miembro del comité mencionado, advirtió sobre los riesgos de que pruebas generadas por IA puedan ser manipuladas o utilizadas de manera indebida.

Marchant recordó un caso reciente en Nueva York, donde un hombre sin representación legal intentó usar un avatar generado por IA para defenderse en una demanda. Los jueces detectaron rápidamente que el avatar no era real, lo que subraya los desafíos que plantea esta tecnología en el ámbito judicial.

El caso de Pelkey no solo abre un debate sobre el uso ético y legal de la inteligencia artificial en los tribunales, sino que también pone de manifiesto su potencial para transformar la manera en que las víctimas y sus familias participan en los procesos judiciales.