
Investigar el impacto de la inteligencia artificial es necesario. Sin embargo, cuando las conclusiones que arrojan estos estudios se presentan como verdades, se promueve una narrativa que bloquea la comprensión y atenta contra su implementación.
Desde hace un tiempo, pero con mayor intensidad en los últimos meses, se volvió habitual leer investigaciones que intentan demostrar el impacto que tendrá la inteligencia artificial en la vida de las personas. Algunas provienen de universidades reconocidas, otras de organismos internacionales y otras son investigaciones particulares. En todos los casos, el mensaje siempre es el mismo: arrojar métricas de cómo esta tecnología modificaría nuestros vínculos, hábitos y decisiones.
El problema de todo esto es que esas conclusiones se presentan como verdades, cuando en realidad apenas son hipótesis iniciales.
Sin dudas, el uso masivo de plataformas generativas como ChatGPT, Claude o Gemini desató una fiebre para testearlas. Y aunque resulte necesario impulsar estudios para medir su impacto, especialmente aquellos que abordan dimensiones sensibles como el aprendizaje, el pensamiento o la toma de decisiones, debemos tener presente que la mayoría de estas investigaciones trabajan con pequeñas muestras y con escenarios limitados, que no permiten aún afirmar efectos generales ni definitivos para la humanidad.
Por eso, los resultados que ofrecen estas investigaciones deben leerse como tendencias, no como diagnósticos definitivos. Sin dudas, aportan datos relevantes que deben ser observados con atención, no solo para orientar el desarrollo de esta tecnología, sino también para garantizar una implementación responsable.
Uno de los ejemplos más difundidos en los últimos meses fue el estudio del MIT que sugiere que herramientas como ChatGPT pueden volvernos “perezosos cognitivamente”. El trabajo lógicamente es serio, está bien diseñado, y sugiere que el acceso inmediato a respuestas formuladas de manera persuasiva puede llevar a que las personas adopten soluciones erróneas si suenan confiables. Es un dato valioso. Pero no alcanza para decretar que la IA está atrofiando nuestras capacidades mentales, ni que estamos ante una generación que ya no razona por sí misma.
Algo similar ocurre con el pronóstico laboral. Informes del Foro Económico Mundial y de consultoras privadas han proyectado -incluso con cifras exactas- la cantidad de empleos que se perderán o transformarán con esta tecnología en los próximos cinco o diez años. Algunos incluso detallan sectores, porcentajes y geografías. Pero esas proyecciones se apoyan siempre en supuestos que están en constante revisión, como ser el ritmo de adopción, el grado de sustitución, la regulación estatal o el comportamiento de las personas usuarias. En ese sentido, cabe preguntarnos ¿tiene sentido afirmar cómo será el futuro si el presente todavía está en construcción?
Y este fenómeno no es nuevo. La historia está llena de predicciones fallidas ante la aparición de nuevas tecnologías. Por ejemplo, cuando se inventó la imprenta, se dijo que nadie querría viajar más, porque bastaría con leer para conocer el mundo. Cuando se popularizó la calculadora, se advirtió que los estudiantes perderían la capacidad de pensar. Y, en forma más reciente, cuando surgieron los buscadores de internet, se pensaba que era el fin de las investigaciones serias. Ninguna de esas profecías se cumplió. Hoy, con la inteligencia artificial, la historia parece repetirse (corsi e ricorsi, hubiera dicho el filósofo italiano Giambattista Vico).
Eso no puede terminar envolviéndonos en falsos dilemas. El tema no es si usamos o no inteligencia artificial. Para salir de ese entuerto, lo primero que hay que hacer es considerar que las investigaciones disponibles hasta ahora son apenas un punto de partida. No están para ser consideradas como determinaciones absolutas. Son insumos altamente útiles pero que requieren interpretación crítica y, sobre todo, comunicación responsable.
Hecho ese ejercicio, después resultan válidas todas las preguntas sobre cómo usamos estas herramientas, con qué fines y bajo qué condiciones.
Por lo tanto, no se trata de que estas investigaciones se equivoquen al anticipar. El verdadero riesgo aparece cuando la comunidad les otorga una seguridad que no poseen. Cuando eso sucede, lejos de contribuir a la alfabetización, se instala una narrativa alarmista que paraliza, exagera y distorsiona. Eso provoca que, en lugar de fomentar pensamiento crítico, se consoliden mecanismos defensivos que no ayudan a comprender las luces y sombras que posee la tecnología más disruptiva de la historia de la humanidad.
Basta de futurología. No necesitamos proyecciones de escenarios que nadie puede asegurar. La cuestión no es que existan predicciones, sino que estas se adopten como si no admitieran revisión.
A fin de cuentas, hay que recordar que, cuando las investigaciones se comunican como certezas que no llegan a concretarse, lo que se debilita no es la credibilidad de quienes investigan, sino nuestra propia capacidad para comprender el fenómeno.
Últimas Noticias
La “pandemia digital” que genera la IA: cuando la velocidad de implementación atenta contra las empresas
Esta ola exige que asumamos que la Inteligencia Artificial no es una tendencia, sino una realidad con la que debemos convivir para sobrevivir

Dos años de Milei
El gobierno libertario cumple dos años con avances en ordenamiento macroeconómico y reducción de la inflación en Argentina

Una red para defender la Justicia: cuando las juezas y los jueces deciden ponerse de pie
Más de un centenar de magistrados de todo el país fundaron la primera Red de Jueces y Juezas Penales de la República Argentina

Un tema urgente para las relaciones bilaterales: la flota pesquera china en la milla 201
La depredación de los buques del gigante asiático en el límite de la Zona Económica Exclusiva (ZEE) daña sensiblemente a la biodiversidad marina, además de exponer los retos de vigilancia de Argentina en un área estratégica y disputada

Estrategia Nacional de Defensa (END): una nueva oportunidad
El nombramiento del Teniente General Carlos Presti en reemplazo de Luis Petri es un paso importante para definir una política de Estado a largo plazo que asegure la recuperación ordenada del sistema




