
Con la llegada de los agentes conversacionales multimodales y multipropósitos como ChatGPT, Gemini, Claude, DeepSeek, etc., la gente creyó haber encontrado todas las respuestas a sus problemas. Entendieron -o les hicieron creer- que basta con escribir una pregunta para obtener, en segundos, una buena respuesta, amigable y convincente.
Sin embargo, al poco tiempo, también llegaron las desilusiones. “Respondió cualquier cosa”, “no me entendió”, “inventó cosas”, “alucinó”. ¿El problema? Muchos piensan que la culpa es de la inteligencia artificial. Pero, como suele pasar cuando algo no funciona, no siempre es culpa del otro. A veces, el problema somos nosotros.
La llegada de estos grandes modelos de lenguaje está cambiando por completo la forma en que nos relacionamos con la tecnología. Ya no estamos frente a chatbots de atención al cliente. Tampoco es Google. Es algo completamente distinto. Son herramientas que escriben, responden, hacen imágenes, videos, argumentan e incluso simulan pensar. Y ahí es donde empezamos a tropezar: cuando hablamos con una máquina que suena cada vez más humana, pero seguimos tratándola como si fuera una más del resto.
Uno de los principales obstáculos para el uso adecuado de estas herramientas es la falta de alfabetización tecnológica. Nos falta aprender a conversar con estos modelos. No se trata solo de hacer preguntas, sino de saber cómo preguntar, cuándo hacerlo y qué esperar de sus respuestas. La interacción con estos sistemas responde a una lógica nueva, una lógica que, si no comprendemos, nos deja atrapados en el desencanto o, peor aún, en confiar ciegamente en lo que dicen.
El segundo gran problema es el desconocimiento de los límites que estas tecnologías aún tienen. Porque claramente los tienen. Aunque parezcan saberlo todo, no lo saben. Su conocimiento no es actual, ni completo, ni infalible. No tienen acceso directo a internet (salvo excepciones y según su configuración), no razonan como lo haría una persona y no comprenden lo que dicen. Generan textos coherentes, pero eso no significa que sean correctos. Si uno pregunta por algo empático o por jurisprudencia argentina, puede que el modelo improvise, acierte o invente. Y si no lo sabemos, corremos el riesgo de tomar decisiones basadas en respuestas que suenan bien, pero no son fiables.
El tercer error, justamente, es confiar ciegamente en las respuestas. No solo por su contenido, sino por su forma. Muchas veces, los textos generados incluyen frases que delatan su origen: “¿Querés que te lo explique con un ejemplo?”, “Acá tenés un resumen en viñetas”, “¿Deseás un mapa mental?”. Estas fórmulas, diseñadas para facilitar la lectura, si luego se copian y pegan como si fuesen propias, generan graves problemas. Por eso no se trata de un estilo, sino que es una cuestión de responsabilidad ¿Validamos lo que nos devuelve el modelo? ¿Lo revisamos? ¿Lo contrastamos con otras fuentes? ¿O simplemente lo usamos y lo hacemos propio?
Frente a estos desafíos, el conocimiento marca la diferencia. El prompt engineering es la habilidad necesaria para interactuar con la inteligencia artificial generativa. No es un don reservado a especialistas en programación ni mucho menos. Es una competencia nueva, que todos podemos y deberíamos desarrollar si queremos usar estas herramientas de manera adecuada, estratégica y responsable.
Esta nuevo concepto se apoya en cinco claves fundamentales:
- Alfabetización tecnológica: comprender qué es y cómo funciona la inteligencia artificial generativa. No hace falta ser ingeniero, pero sí entender lo básico -cómo se entrenan estos modelos, qué pueden y qué no pueden hacer, por qué a veces “alucinan”, es decir, inventan información, y cómo podemos prevenirlo.
- Elección crítica de plataforma y modelo: no todas las herramientas sirven para lo mismo. Algunos modelos son mejores para redactar textos, otros para programar, otros para traducir o resumir, etc. Saber qué usar según la tarea -y saber cuándo no usar inteligencia artificial- es parte de la estrategia.
- Diseño y ejecución del prompt: saber pedir implica saber delimitar el rol, el objetivo, el estilo, el contexto, el formato de la respuesta, e incluso los datos que se le brindan (respetando, claro, la tan pisoteada normativa vigente sobre privacidad y protección de datos).
- Ajuste, verificación y validación: ninguna respuesta debe usarse sin revisión. Es clave analizar si lo que el modelo generó es correcto y resulta aplicable. Contrastar con fuentes, revisar el estilo y verificar su consistencia es parte de la tarea. Y si no estamos conformes, ajustar el prompt y volver a intentar.
- Responsabilidad en el uso: el uso de IA puede tener consecuencias éticas, sociales, penales, etc. ¿Qué impacto tiene delegar tareas en una máquina? ¿Qué sesgos puede reproducir? ¿Quién se hace responsable del contenido generado? La trazabilidad, la transparencia y la conciencia del alcance son esenciales para un uso prudente. Hoy en día lo que más valoran las empresas y organizaciones a nivel mundial no es solo que se sepa usar inteligencia artificial, sino que se obtengan resultados rápidos y precisos con ella. En ese contexto, saber interactuar con un modelo de lenguaje ya es una ventaja competitiva concreta. Y no se trata de conocer fórmulas de prompts, sino de tener criterio, pensar en forma deliberada y saber cómo pedir exactamente lo que se necesita.
ChatGPT, Gemini, Claude y compañía no vinieron a reemplazarnos. Vinieron a desafiarnos, a obligarnos a reflexionar sobre cómo pensamos, cómo preguntamos y cómo decidimos.
Nos exigen más, no menos. Porque si fallamos al usarlos no es por lo que son, sino porque todavía no entendimos cómo funcionan ni cómo debemos interactuar con ellos.
Los modelos de lenguaje no piensan por nosotros, pero sí nos invitan a pensar mejor. No toman decisiones, pero nos obligan a revisar las nuestras. Y ese es, quizás, su mayor valor: desafiarnos a ser más críticos, más precisos, más conscientes del uso que hacemos de la tecnología.
Al final de cuentas, no es ChatGPT, sos vos.
Últimas Noticias
De la burla al crimen: lo que no supimos detener a tiempo
Otra vez. Un hecho extremo irrumpe y nos sacude. Un joven mata a otro. Ocurre en una escuela, ocurre entre adolescentes. Ocurre, una vez más, en un espacio que debería ser de cuidado, de aprendizajes y de construcción de futuro

Podés estatizar, pero no podés violar contratos
La discusión por YPF volvió al centro de la escena. Y conviene despejar el ruido para entender lo esencial: Argentina no fue condenada por expropiar. Fue condenada por no cumplir las reglas al hacerlo.

Frenar una ley por anticipado: la cautelar que tensiona los límites del poder judicial
Un fallo que suspendió 82 artículos de la reforma laboral reabre un debate clave: hasta dónde puede llegar un juez en sede cautelar frente a una ley del Congreso

Los secretos de los CEO’s para sobrevivir al caos mundial y salir ganando
La nueva normalidad global obliga a los CEOs a gestionar la incertidumbre y construir confianza como’ principal activo para sostener el crédito, los acuerdos y la operación diaria de sus empresas

El acuerdo de hace 50 años que Trump no puede romper
La relación estratégica que vincula la seguridad del flujo petrolero con el dominio del dólar impide que la actual administración estadounidense modifique la política frente a Irán sin riesgos para el sistema financiero global




