Qué riesgos conlleva que un abogado use inteligencia artificial para redactar demandas

Herramientas como ChatGPT son utilizadas por estudiantes de derecho y hasta por profesionales pero se desconoce que pueden tener alucinaciones o no tener en sus sistema la jurisprudencia reciente del país

Guardar
Este ámbito requiere mucho rigor
Este ámbito requiere mucho rigor y análisis que una máquina no puede realizar. (Imagen Ilustrativa Infobae)

El uso de inteligencia artificial (IA) en distintos sectores ha generado debates intensos sobre sus oportunidades y desafíos. Uno de los ámbitos donde esta discusión adquiere un matiz especial es el derecho, un campo que históricamente se ha caracterizado por su apego a procesos tradicionales y su resistencia al cambio.

No obstante, la aparición de herramientas como ChatGPT ha abierto la puerta a nuevas formas de trabajar, desde la automatización de tareas hasta el análisis predictivo de sentencias. En Latinoamérica, es más frecuente que estudiantes, abogados y jueces tengan dudas sobre el papel de la IA en la impartición de justicia.

La aparición de libros como ‘Inteligencia artificial. Fundamentos para abogados y estudiantes de Derecho’, del doctor Daniel Trejo Medina, apunta a la urgencia de comprender los alcances y riesgos de la tecnología en el ejercicio profesional.

Los chatbots no se enfocan
Los chatbots no se enfocan en este tipo de actividades específicas. (Foto: REUTERS/Dado Ruvic/Ilustración/Archivo)

“Ya hay quienes utilizan ChatGPT para redactar denuncias o quejas. Pero ChatGPT no fue diseñado para eso. A veces inventa sentencias. Y el riesgo es enorme”, advierte Trejo, según citó Excelsior.

Qué riesgos hay al usar IA para redactar demandas

Uno de los principales peligros es que plataformas como ChatGPT pueden generar textos que simulan rigor jurídico, pero que en realidad contienen errores, falsedades o referencias inventadas.

Además, muchos de estos sistemas se entrenan con datos y modelos jurídicos originados en marcos legales distintos al de países latinoamericanos.

De acuerdo con Trejo, copiar modelos foráneos puede derivar en decisiones equivocadas que afectan derechos humanos, porque la ley de cada país se basa en criterios breves y leyes específicas, no en precedentes.

Por qué no se puede reemplazar el criterio de los jueces por IA

El factor humano es indispensable
El factor humano es indispensable para evitar imprecisiones de una máquina. (Imagen Ilustrativa Infobae)

Aunque en otros países ya se han registrado casos donde la IA participó en la toma de decisiones judiciales, el libro de Trejo señala que “sustituir al juez, hoy, no es posible. Ni legal ni técnicamente. Pero sí puede ser una herramienta de apoyo muy valiosa”.

El peligro reside en ceder a la tentación de delegar en la IA la resolución completa de controversias. Depender de algoritmos sin conocer sus límites puede producir injusticias, sobre todo si las fuentes utilizadas no han sido validadas o si el sistema no comprende contextos jurídicos locales.

Cuáles serían los límites de la IA en la práctica jurídica

Uno de los errores frecuentes es utilizar la IA sin conocer con precisión sus alcances ni limitaciones. El doctor Trejo subraya la importancia de evaluar y verificar las fuentes de datos.

“Una IA es como una máquina de hacer tortillas: si le metes masa contaminada, te va a dar un resultado que no sirve. Por eso hay que gobernar los datos, verificar las fuentes, y tener claridad sobre cómo se entrena un algoritmo”, insiste al medio mencionado.

El reto está en saber
El reto está en saber utilizar y verificar la información de estas plataformas. (Imagen ilustrativa Infobae)

La falta de una formación puede acentuar la vulnerabilidad. Trejo advierte sobre el peligro de que futuros abogados sean capacitados por docentes alejados de la realidad judicial. “Imagina que esos mismos explican IA sin entender cómo funciona un algoritmo. Lo que están haciendo es malenseñar”.

Qué beneficios trae la IA aplicada al derecho

La IA puede aportar ventajas en la labor jurídica. Entre los beneficios identificados por Trejo destacan la capacidad de comparar casos similares, reducir contradicciones, identificar leyes derogadas, validar normas vigentes y agilizar la impartición de justicia.

El aumento en la eficiencia y la reducción de errores humanos son argumentos recurrentes para justificar su adopción. Sin embargo, estos beneficios solo pueden materializarse si los operadores jurídicos tienen criterio y capacidad de evaluar las herramientas tecnológicas.

La integración entre estos dos
La integración entre estos dos elementos es una necesidad en la mayoría de labores. (imagen ilustrativa Infobae)

El reto consiste en que abogados y jueces comprendan tanto la técnica como el marco ético y legal que rige el uso de la inteligencia artificial.

Cómo impacta el mal uso de la IA en los clientes y el sistema

El uso erróneo de la IA puede tener consecuencias graves para los clientes y para el sistema judicial en su conjunto. Trejo recalca que, en derecho, lo que está en juego no es solo dinero, sino libertad, dignidad y patrimonio.

Si la formación de los abogados no considera la realidad judicial y la comprensión técnica de los algoritmos, el riesgo se multiplica.

El experto hace un llamado a la responsabilidad en el uso de la tecnología, subrayando la necesidad de gobernar los datos y formar profesionales capaces de distinguir entre una herramienta útil y una amenaza.