Declaración de uso de IAGen: ¿necesidad o formalidad sin sentido?

La discusión sobre declarar el uso de inteligencia artificial generativa habla más sobre nuestros prejuicios tecnológicos que sobre la calidad del contenido. ¿Es hora de repensar lo qué realmente queremos evaluar?

Guardar
Le exigencia de una declaración
Le exigencia de una declaración de uso de IAGen parece ser una acción desmedida (Imagen Ilustrativa Infobae)

La “declaración de uso de IA Generativa” en textos se volvió un tema polémico a nivel mundial: hay incluso universidades que la exigen para los trabajos prácticos de los alumnos y jueces que la piden para las presentaciones judiciales de los abogados.

El debate se centra en esta tecnología porque es la que puede escribir “como si fuera una persona” y, por eso, despierta varios temores sobre las consecuencias de su uso. Sin embargo, la pregunta que nos debemos hacer es: ¿qué se está pidiendo declarar exactamente y para qué sirve?

Si consideramos que la declaración es necesaria, esto es: acompañar una nota diciendo, por ejemplo, ‘utilicé ChatGPT para buscar información y ordenar ideas’, o referenciar el software de inteligencia artificial o su uso como una comunicación personal, la justificación se apoya en fundamentos legítimos: transparencia, trazabilidad, ética profesional, protección del debido proceso, manuales de estilo, integridad académica, detección de plagio, evaluación de sesgos, etc. Nada de esto es menor.

Pero este propósito se desvanece cuando pasamos de la teoría a la práctica.

¿Alcanza con eso? ¿Hay que explicar en qué parte del texto intervino y cuánto pesó su aporte? ¿Basta para cumplir con las normas APA? ¿Tenemos una muestra para comparar el mismo contenido pero sin el uso de esta tecnología? ¿O acaso solo es un certificado de defunción intelectual?

La necesidad, tal vez, debería medirse por su aporte real en la generación del contenido final: si conocer el modo en que intervino la IAGen cambia la manera efectiva de evaluar la autoría, la originalidad o el razonamiento, entonces tiene sentido pedirla. Ahora, si no modifica esa valoración sobre la calidad del trabajo o la decisión, la declaración agrega poco y nada. El foco debería estar en lo que el estudiante puede demostrar que sabe; y en la justicia, en la identificación coherente y real de lo que se expone.

A lo expuesto, se suma lo impracticable de este marco, toda vez que existe un problema de base: herramientas como ChatGPT, Gemini, Grok, etc. son cajas negras. No podemos “abrirlas” para ver paso a paso qué hicieron ni cómo construyeron una respuesta. Sabemos lo que entra (el prompt) y lo que sale (la respuesta), pero no lo que sucedió en el medio. Por lo tanto, como ese camino no es auditable, la búsqueda de trazabilidad solo podríamos encontrarla a través del enlace a dicha conversación para revisar qué se solicitó, cuáles fueron las respuestas y qué se incorporó finalmente. Sin esa muestra, la declaración de uso que no solicite dicha medida, no aportaría nada.

Obviamente, existe la tentación de usar los famosos “detectores de contenido de IA”. El problema es que fallan seguido: a veces marcan como “generado por máquina” un texto humano (falso positivo) y otras veces dejan pasar como “humano” un texto hecho con IA (falso negativo). Si no es la propia tecnología quien se encarga de superarse a sí misma, las inyecciones en los prompts hacen el trabajo sucio.

¿Un ejemplo de todo eso? El caso del libro “Hipnocracia” (escrito por el italiano Andrea Colamedici con apoyo de IA y atribuido a un autor ficticio, Jianwei Xun), el cual demostró lo fácil que es sembrar dudas sobre si un texto es escrito por una persona o una máquina. No solo que nadie se pudo dar cuenta de la autoría del texto, sino que la discusión terminó girando más en quién lo hizo (Xun) que en lo que decía.

Pasemos entonces al otro escenario, en donde la declaración es considerada una formalidad sin sentido. ¿Por qué? Primero, porque prácticamente no existen regulaciones de carácter general que habiliten a todo el mundo -dentro de una misma organización- a exigir la declaración por igual. Entonces, ese estado en donde “cada uno hace lo que le parezca”, aun en uso de facultades legítimas, genera desigualdad entre quienes son sometidos a realizar una declaración y quienes no.

Segundo, porque su exigencia es desmedida. Nunca hemos pedido una declaración de uso de internet, ni confesiones por empleo de procesadores de texto, modelos de escritos, etc. Todos esos facilitadores que se adoptan para hacer tareas, también pueden alterar -o limitar- el pensamiento cuando organizan, sugieren o corrigen cuestiones. Es verdad que la IAGen no es una tecnología más, puede crear contenido nuevo, contaminar pensamientos y torcer voluntades de manera nunca antes vista. Pero la vara debería ser coherente con el impacto efectivo en el resultado y con la responsabilidad de quien suscribe el documento. Por ejemplo, si el diseño de la evaluación o de la decisión obliga a demostrar razonamiento, el formulario resulta estéril.

Tercero, por la hipocresía que nace de la asimetría en el uso. En educación, hoy una cátedra puede exigir a los estudiantes que confiesen su uso mientras el docente usa herramientas para redactar consignas o para corregir más rápido. Por su parte, en justicia, un juez puede ordenar a los abogados que declaren el uso y, al mismo tiempo, valerse de plataformas para armar borradores sin decirlo. A esa asimetría se suma otra más obvia: casi nunca se declara cuando otra persona colabora -aunque sea parcialmente- en la generación de un contenido, y tampoco tenemos facilidades para comprobarlo. En este contexto, la transparencia selectiva es una forma de opacidad.

Entonces, con todo esto, ¿a dónde llegamos? El balance inicial es claro: todo descansa en la honestidad intelectual de cada persona, con o sin IA. Por lo tanto, la declaración de uso de estas herramientas no debería ser un trámite ni un prejuicio.

Puede ser útil en casos justificados, cuando su contenido realmente ayude a valorar la autoría y/o la ruta del razonamiento, y solo cuando la información pedida sea necesaria, concreta y proporcional. En el resto, es desmedida frente a lo que nunca exigimos de otras tecnologías, hipócrita cuando solo se impone hacia un lado de la mesa e inútil cuando, en definitiva, una evaluación final es la que termina demostrando la adquisición del conocimiento de una persona o cuando el juzgamiento de un contenido puede ser realizado aún sin esa declaración.

Por lo tanto, antes que montar un confesionario de IA que responda a una percepción cultural, sería conveniente readecuar nuestros procesos y definir qué pretendemos con el uso de estas herramientas: ¿mejorar los mecanismos de generación de contenido o condenar su empleo?