
Gobiernos gritan a viva voz: hagamos cursos de programación, robótica, inteligencia artificial. ¿Pero se adaptan los programas de educación inicial, primaria y secundaria para que los egresados realmente los aprovechen? Voy a ser más directo: ¿se está enseñando a pensar?
Porque, más allá de que alguien termine como programador, ingeniero, arquitecto o artista, necesita cultura general, pensamiento lógico, crítico y método científico. Sin esas bases, cualquier curso avanzado es solo un manual de instrucciones, no una formación real.
Cuando aprendí a programar a los 10 años, los ingenieros usaban diagramas para enseñarme a hacer un asado. Nunca me faltaron fósforos después de eso. Porque no se trataba solo de programar, sino de aprender a descomponer problemas, pensar procesos, entender causas y efectos.
Hoy, mientras la inteligencia artificial avanza, enfrentamos un problema crítico: si no fortalecemos la educación de base, tendremos generaciones entrenando modelos sin entender sus sesgos, ni cuestionar los datos o el impacto de sus decisiones. Una sociedad donde pocos entienden y controlan la tecnología, y el resto sólo la ejecuta.
El sistema educativo sigue priorizando la memorización sobre la comprensión
El problema no es la falta de cursos de IA, sino la falta de educación para formar humanos capaces de razonar sobre IA. Pensamiento lógico, método científico y análisis crítico no se aprenden en un curso: son estructuras mentales que deben desarrollarse desde la educación básica.
Pero el sistema educativo sigue priorizando la memorización sobre la comprensión. En vez de enseñar a cuestionar y analizar, se dan datos fragmentados que los estudiantes repiten sin contexto. Así, crecen sin herramientas para detectar sesgos, evaluar información o hacer preguntas relevantes.
No es un problema nuevo. Muchas sociedades funcionaron con el conocimiento centralizado en una élite, mientras la mayoría solo ejecutaba sin entender. Los aztecas, por ejemplo, tenían eruditos que dominaban matemáticas, astronomía y arquitectura, pero el resto no accedía a ese saber.
Si trasladamos este modelo al futuro, corremos el riesgo de repetirlo: unos pocos entrenan y controlan la IA, mientras el resto la usa sin entender cómo funciona ni cómo puede ser manipulada en su contra.
La inteligencia artificial, por más avanzada que parezca, no piensa más allá de su entrenamiento. Solo replica y amplifica patrones de los datos que recibió. Existen técnicas como el aprendizaje reforzado o la autoevaluación entre modelos, pero ese «autoentrenamiento» es autorreferencial: se basa en sus propios datos y métricas, sin criterio externo ni conciencia de lo que excluye.
El problema no es la falta de cursos de IA, sino la falta de educación para formar humanos capaces de razonar sobre IA
Una IA puede afinar lo que ya sabe, pero no puede repensarse sola. No cuestiona su entrenamiento, ni detecta sesgos estructurales o el sentido del camino que sigue. Para eso necesita humanos críticos, que aporten nuevas perspectivas y le enseñen a ver otras realidades. Sin esa intervención, sólo se repite con más precisión.
Aquí está la paradoja: sin suficientes humanos con pensamiento crítico para entrenar, supervisar y corregir a la IA, esta se vuelve inútil o peligrosa.
Si el conocimiento queda en pocas manos, la IA solo reflejará la visión de esa élite. Y si no se renueva ni se cuestiona desde diversas perspectivas, caemos en un ciclo de endogamia: una IA que repite los mismos sesgos y errores sin evolucionar.
El resultado: una inteligencia artificial, pero no inteligente.
No basta con enseñar a programar. Hay que enseñar a pensar. Para que la IA sea verdaderamente útil, necesitamos más humanos capaces de dialogar con ella, entrenarla con criterio y entender sus implicancias filosóficas, éticas y sociales.
Esto exige reformar la educación desde la base. No podemos aspirar a un futuro tecnológico sin una población que entienda sus fundamentos. Sin lógica, pensamiento crítico y método científico, caeremos en una nueva era feudal del conocimiento: unos pocos diseñan la realidad, el resto la acepta.
Si queremos que la IA sea una verdadera extensión de la inteligencia humana, y no solo una herramienta sesgada, necesitamos más mentes que hagan preguntas antes de dar respuestas.
La pregunta clave no es «¿cómo entrenamos a la IA?», sino «¿quién está entrenando a los humanos?», y para qué.
El autor es tecnólogo, fundador y director ejecutivo de iurika-symbiotics
Últimas Noticias
La portación de armas en el nuevo Código Penal
La norma propone endurecer las penas por tenencia ilegal, diferenciando claramente entre armas de uso civil y de guerra

El empresario imputado por delitos sexuales pidió cautelares para frenar la difusión: qué puede ordenar un juez y qué no
Marcelo Porcel está acusado de abusar a los compañeros de sus hijos, todos alumnos del colegio Palermo Chico. Las medidas que solicitó y por qué no todas tienen la misma legitimidad

Con sustento, firmeza y decisión ante la OROP-PS
Perú debe llegar con una delegación preparada, con propuestas claras y una posición firme orientada a la defensa de sus intereses marítimos y al aprovechamiento responsable de sus recursos hidrobiológicos

Interoperar, regular y escalar: el nuevo desafío de las fintech de pagos
En 2025, las transacciones interoperables superaron los 132 millones mensuales, con un crecimiento de un 58 % frente al año anterior

Rediseñar el trabajo desde las habilidades: liderar en la era de la inteligencia artificial
Si bien este análisis se basa en datos de Estados Unidos, muchas de sus conclusiones son relevantes para Perú y América Latina



