Así funciona la inteligencia artificial que enseña a los robots blandos a adaptarse observándose a sí mismos

Según informó Forbes, el sistema utiliza redes neuronales y técnicas de observación por computadora para que entiendan y ajusten su movimiento, con aplicaciones potenciales para el hogar, tareas agrícolas y procesos de manufactura

Guardar
La tecnología implementada por el
La tecnología implementada por el MIT elimina la necesidad de sensores físicos y modelos preprogramados en la robótica blanda (Imagen Ilustrativa Infobae)

Un grupo de investigadores del Instituto Tecnológico de Massachusetts (MIT) desarrolló un sistema que permite a robots blandos aprender cómo se comporta su cuerpo usando únicamente cámaras comunes.

Sin sensores ni programación manual, estos dispositivos lograron construir un modelo interno de su geometría y funcionamiento observando su propio movimiento. La investigación fue realizada por el laboratorio CSAIL (Computer Science and Artificial Intelligence Laboratory) del MIT y publicada en junio en Nature.

El avance representa un cambio significativo en la forma en que los robots pueden adquirir capacidades de adaptación y control. Mediante el uso de inteligencia artificial y visión artificial, el sistema prescinde por completo de sensores físicos, GPS o simulaciones digitales.

Según los investigadores, este enfoque podría reducir los costos de fabricación y acelerar el desarrollo de robots capaces de operar en entornos dinámicos, como el hogar, el campo o la industria.

Aprendizaje autónomo mediante observación visual

El sistema desarrollado se basa en la capacidad de los robots de observarse a sí mismos mientras realizan movimientos aleatorios. A partir de estos registros visuales, logran construir un modelo interno que les permite entender cómo su cuerpo responde a las órdenes motoras.

Este proceso se fundamenta en una técnica denominada Campos Jacobianos Neuronales, que permite mapear señales visuales a un campo visomotor denso y continuo, lo que habilita el control en tiempo real.

El avance podría reducir costos
El avance podría reducir costos y acelerar el desarrollo de robots adaptativos para el hogar, la industria y el campo (Captura de video: YouTube - Figure)

Daniela Rus, directora de CSAIL, explicó que las manos robóticas suaves utilizadas en el experimento pudieron aprender a agarrar objetos únicamente mediante observación, sin sensores, modelos previos ni programación manual.

“Los Campos Jacobianos Neuronales permiten que los robots blandos de CSAIL controlen su movimiento en tiempo real basándose únicamente en lo que ven”, explicó Rus a Forbes.

Eliminación de sensores y modelos preprogramados

El nuevo enfoque prescinde de muchos de los elementos que tradicionalmente hacen costoso y complejo el desarrollo robótico. Los métodos convencionales exigen la incorporación de sensores físicos en cada articulación o la creación de modelos tridimensionales detallados.

El sistema del MIT reemplaza esa arquitectura con redes neuronales entrenadas mediante imágenes bidimensionales y técnicas de visión por computadora.

Vincent Sitzmann, profesor del Departamento de Ingeniería Eléctrica y Ciencias de la Computación del MIT e investigador principal de CSAIL, detalló a Forbes que la red neuronal utilizada aprende a reconstruir un modelo tridimensional del robot a partir de una imagen mediante una técnica llamada renderizado diferenciable.

El MIT reemplaza sensores y
El MIT reemplaza sensores y modelos complejos con visión artificial y aprendizaje automático (Imagen ilustrativa Infobae)

Esto permite que los algoritmos de aprendizaje automático comprendan cómo se mueve cada punto del cuerpo del robot bajo una orden específica.

“En lugar de medir minuciosamente cada parámetro de las articulaciones o integrar sensores en cada motor, utilizamos algoritmos de seguimiento de movimiento (seguimiento de puntos y flujo óptico) para rastrear el movimiento del robot durante el entrenamiento”, señaló Sitzmann.

Además agregó que, este sistema dota al modelo 3D del robot de una comprensión interna de cómo respondería a distintas acciones.

Resultados con tres tipos de robots

Los investigadores aplicaron este sistema a tres tipos de robots sin sensores ni modelos previos. El primero fue un brazo robótico de juguete impreso en 3D, con articulaciones sueltas, que aprendió a dibujar letras en el aire con precisión centimétrica. Este robot descubrió qué región visual se correspondía con cada canal de actuación, simplemente observando sus propios movimientos.

El MIT entrenó un brazo
El MIT entrenó un brazo robótico para escribir sin programación previa (Imagen Ilustrativa Infobae)

El segundo experimento utilizó una mano neumática suave, que aprendió por sí misma qué canal de aire activaba cada dedo. El sistema dedujo tanto la geometría como la profundidad del dispositivo usando únicamente videos en color.

El tercer caso involucró una plataforma robótica blanda, similar a una muñeca, que fue modificada con peso adicional. Esta estructura logró mantener el equilibrio y seguir trayectorias complejas. Además, el sistema cuantificó su sensibilidad al movimiento, midiendo cómo pequeñas órdenes motoras generaban desplazamientos milimétricos.

Un cambio de paradigma en la robótica blanda

Sitzmann señaló que los robots blandos, a diferencia de los convencionales, se deforman de manera compleja y no están compuestos por articulaciones rígidas. Esa característica dificulta el modelado tradicional, pero permite que adopten propiedades similares a las de organismos vivos, como flexibilidad, adaptabilidad y sensibilidad.

Para el equipo del MIT, este tipo de enfoque puede aplicarse en sectores que no requieran una precisión submilimétrica, como la automatización doméstica, la robótica agrícola o la fabricación de bajo costo.

“En el futuro, con la incorporación de la detección táctil, este paradigma podría incluso extenderse a aplicaciones que requieren alta precisión”, comentó Sitzmann a Forbes.