Científico pide que “no le tengamos miedo a la inteligencia artificial” aunque nuestro cerebro es un sistema predictivo que se equivoca constantemente

“Si no somos conscientes de nuestros sesgos, la IA tampoco lo será”, afirma Fabricio Ballarini

Guardar
El biólogo Fabricio Ballarini fue
El biólogo Fabricio Ballarini fue uno de los ponentes en el Summit IA Human Future 2025. (Tedx Talks)

Frente a una audiencia de más de 800 personas en el Summit IA Human Future 2025, el científico argentino Fabricio Ballarini propuso una mirada diferente sobre la inteligencia artificial. Invitó a abandonar el miedo infundado hacia esta tecnología y a enfocarse en la comprensión profunda del pensamiento humano. En esa línea, subrayó que el verdadero desafío se halla en la capacidad de entender cómo operan la mente y los sesgos de cada persona, con el fin de tomar mejores decisiones en la era digital.

Ballarini, quien cuenta con formación en Ciencias Biológicas y un doctorado en la Facultad de Medicina de la Universidad de Buenos Aires, remarcó que la alfabetización científica resulta clave para convivir de manera consciente con las nuevas tecnologías. Consideró que el miedo es estéril y propuso como alternativa la adquisición de herramientas que permitan identificar los propios prejuicios antes de interactuar con sistemas basados en IA. “No se trata de temerle a la IA. Se trata de entender cómo pensamos nosotros. Si no comprendemos nuestros propios sesgos, vamos a tomar malas decisiones con o sin inteligencia artificial”, expresó durante su intervención.

Ponentes del Summit IA Human
Ponentes del Summit IA Human Future 2025. (Portal de América)

El cerebro humano y la ilusión de la perfección

En su presentación, Fabricio Ballarini señaló que la creencia en la infalibilidad de la mente humana constituye un mito. Definió al cerebro como un sistema predictivo proclive al error y sostuvo que la inteligencia artificial, al utilizar datos generados por personas, tiende a reproducir y amplificar los mismos sesgos cognitivos presentes en sus creadores.

La inteligencia artificial va a replicar lo que somos. Si no somos conscientes de nuestros sesgos, la IA tampoco lo será”, afirmó ante el público. También cuestionó la tendencia a idealizar la inteligencia humana y demonizar la inteligencia artificial, al indicar que el problema principal surge de la falta de entendimiento sobre los mecanismos del aprendizaje y el razonamiento.

Educación, pensamiento crítico y responsabilidad social

Ballarini dedicó parte central de su charla a señalar deficiencias en los sistemas educativos, los cuales suelen privilegiar la memorización en detrimento del razonamiento y la capacidad de formular preguntas. Definió la curiosidad como el principal recurso para enfrentar un futuro incierto y abogó por la necesidad de enseñar a pensar y a ejercitar el juicio crítico en tiempos de inteligencia artificial. Sostuvo que la alfabetización científica debe comprenderse como un derecho elemental, indispensable para tomar decisiones informadas y evitar que otros asuman ese rol en nombre de la sociedad.

Fabricio Ballarini. (Vida y Salud)
Fabricio Ballarini. (Vida y Salud)

El científico advirtió sobre el peligro de entregarse a la fascinación tecnológica y se pronunció por el análisis de sus implicancias éticas y sociales. Consideró que la inteligencia artificial, por sí sola, no posee valor moral y que su impacto depende exclusivamente de las personas que la programan, los datos utilizados y los fines buscados. “La inteligencia artificial no es buena ni mala en sí misma. Es una herramienta. Y las herramientas tienen impacto según cómo las usemos”, detalló.

A modo de cierre, Ballarini alentó a líderes, docentes y ciudadanos a ejercer un rol activo y responsable en el uso de la inteligencia artificial. Advirtió que no resulta suficiente desarrollar tecnologías avanzadas, sino que se requiere una sociedad preparada para emplearlas con criterio. Sostuvo que el futuro con IA permanece abierto y que corresponde a cada uno decidir el rumbo que habrá de tomar colectivamente.