La historia de un ciudadano que usó una IA como su abogado en una corte de Nueva York: cómo le fue

El implicado, sobreviviente de cáncer de garganta, sostuvo que recurrió a la tecnología para suplir sus dificultades al hablar en público

Guardar
Una jueza interrumpió el juicio
Una jueza interrumpió el juicio al descubrir que el supuesto abogado era un avatar digital creado por el propio acusado. (Imagen Ilustrativa Infobae)

Un ciudadano de 74 años, identificado como Jerome Dewald, intentó representarse a sí mismo en una corte de apelaciones de Nueva York utilizando un avatar de inteligencia artificial. El caso representa un episodio relevante dentro de la evolución del uso de tecnologías emergentes y el sistema judicial.

El hecho, registrado el 26 de marzo en la División de Apelaciones del Primer Departamento de la Corte Suprema del Estado de Nueva York, fue interrumpido por la jueza Sallie Manzanet-Daniels tras confirmar que la figura que hablaba en pantalla no era una persona real.

La audiencia tenía lugar en el marco de una disputa laboral. Dewald, sobreviviente de cáncer de garganta, explicó que su intención era emplear un avatar generado por inteligencia artificial para compensar las dificultades físicas que enfrenta al hablar por períodos prolongados.

El uso de inteligencia artificial
El uso de inteligencia artificial en entornos judiciales plantea nuevos desafíos éticos y procesales. (Imagen Ilustrativa Infobae)

Al inicio de la intervención grabada, el avatar expresó: “Que el tribunal me permita hablar”, antes de ser interrumpido por la jueza.

Espere. ¿Ese abogado es para el caso que...? Lo siento. Eso... esa no es una persona real”, señaló Manzanet-Daniels al notar que el orador en pantalla era una figura digital.

Dewald admitió que no contaba con abogado y que había desarrollado el avatar como recurso para exponer sus argumentos con mayor claridad. La jueza expresó su malestar por no haber sido notificada de antemano sobre el uso de la tecnología: “No aprecio que se me engañe”.

El incidente reavivó el debate
El incidente reavivó el debate sobre los límites del uso de tecnología en la administración de justicia. (Imagen Ilustrativa Infobae)

Durante la audiencia, la magistrada recordó que Dewald había hablado en otras ocasiones ante el tribunal sin mayores complicaciones. “Usted ha comparecido ante este tribunal y ha podido testificar verbalmente en el pasado. Ha ido a la oficina de mis asistentes y ha mantenido conversaciones verbales con nuestro personal durante más de 30 minutos”, declaró.

También lo acusó de intentar “usar esta sala como plataforma para su negocio”, una afirmación que Dewald negó.

El implicado aseguró que había solicitado permiso para presentar un video, aunque no detalló que este incluiría a un orador generado por inteligencia artificial.

El uso de inteligencia artificial
El uso de inteligencia artificial en entornos judiciales plantea nuevos desafíos éticos y procesales. (Imagen Ilustrativa Infobae)

Posteriormente, Dewald envió una carta de disculpa al tribunal, en la que afirmó que su intención no era engañar, sino evitar los efectos de sus dificultades para hablar en público.

El caso, aún sin resolución, generó debate sobre el uso de tecnologías emergentes en procedimientos judiciales. Las normas del estado de Nueva York no contemplan la posibilidad de que una inteligencia artificial actúe como representante legal.

Sin embargo, tampoco existe regulación federal específica que autorice o prohíba expresamente su utilización en audiencias judiciales.

Aunque no hay regulación federal
Aunque no hay regulación federal específica, los tribunales estadounidenses ya han sancionado el uso inapropiado de IA. (Imagen Ilustrativa Infobae)

Este episodio se suma a otros ocurridos en el sistema legal estadounidense. En junio de 2023, un juez federal impuso una multa de 5.000 dólares a dos abogados y a un bufete por presentar escritos legales que citaban jurisprudencia ficticia generada por una herramienta de inteligencia artificial.

Según reportó la cadena News Nation, los implicados reconocieron haber utilizado ChatGPT y no comprobar las fuentes incluidas en sus presentaciones.

Ambos casos ponen en evidencia los riesgos asociados al uso de inteligencia artificial en el ámbito jurídico, especialmente cuando las herramientas se emplean sin supervisión humana.

Aunque estas tecnologías pueden facilitar la preparación de documentos y argumentos, su uso sin control puede derivar en errores, sanciones o incluso el rechazo de pruebas.

El incidente reavivó el debate
El incidente reavivó el debate sobre los límites del uso de tecnología en la administración de justicia. (Imagen Ilustrativa Infobae)

Distintas cortes en Estados Unidos han comenzado a discutir criterios para el uso adecuado de sistemas de inteligencia artificial en procedimientos judiciales. Algunas jurisdicciones han emitido advertencias formales sobre la necesidad de verificar todo contenido generado por estas plataformas antes de presentarlo como evidencia o argumento.

En el caso de Nueva York, no se ha informado si la corte adoptará nuevas medidas o reglamentos tras el incidente. Dewald, por su parte, espera que el tribunal emita una decisión sobre su causa en las próximas semanas.