
Un grupo de investigadores del Instituto Tecnológico de Massachusetts (MIT) desarrolló un sistema que permite a robots blandos aprender cómo se comporta su cuerpo usando únicamente cámaras comunes.
Sin sensores ni programación manual, estos dispositivos lograron construir un modelo interno de su geometría y funcionamiento observando su propio movimiento. La investigación fue realizada por el laboratorio CSAIL (Computer Science and Artificial Intelligence Laboratory) del MIT y publicada en junio en Nature.
El avance representa un cambio significativo en la forma en que los robots pueden adquirir capacidades de adaptación y control. Mediante el uso de inteligencia artificial y visión artificial, el sistema prescinde por completo de sensores físicos, GPS o simulaciones digitales.
Según los investigadores, este enfoque podría reducir los costos de fabricación y acelerar el desarrollo de robots capaces de operar en entornos dinámicos, como el hogar, el campo o la industria.
Aprendizaje autónomo mediante observación visual
El sistema desarrollado se basa en la capacidad de los robots de observarse a sí mismos mientras realizan movimientos aleatorios. A partir de estos registros visuales, logran construir un modelo interno que les permite entender cómo su cuerpo responde a las órdenes motoras.
Este proceso se fundamenta en una técnica denominada Campos Jacobianos Neuronales, que permite mapear señales visuales a un campo visomotor denso y continuo, lo que habilita el control en tiempo real.

Daniela Rus, directora de CSAIL, explicó que las manos robóticas suaves utilizadas en el experimento pudieron aprender a agarrar objetos únicamente mediante observación, sin sensores, modelos previos ni programación manual.
“Los Campos Jacobianos Neuronales permiten que los robots blandos de CSAIL controlen su movimiento en tiempo real basándose únicamente en lo que ven”, explicó Rus a Forbes.
Eliminación de sensores y modelos preprogramados
El nuevo enfoque prescinde de muchos de los elementos que tradicionalmente hacen costoso y complejo el desarrollo robótico. Los métodos convencionales exigen la incorporación de sensores físicos en cada articulación o la creación de modelos tridimensionales detallados.
El sistema del MIT reemplaza esa arquitectura con redes neuronales entrenadas mediante imágenes bidimensionales y técnicas de visión por computadora.
Vincent Sitzmann, profesor del Departamento de Ingeniería Eléctrica y Ciencias de la Computación del MIT e investigador principal de CSAIL, detalló a Forbes que la red neuronal utilizada aprende a reconstruir un modelo tridimensional del robot a partir de una imagen mediante una técnica llamada renderizado diferenciable.

Esto permite que los algoritmos de aprendizaje automático comprendan cómo se mueve cada punto del cuerpo del robot bajo una orden específica.
“En lugar de medir minuciosamente cada parámetro de las articulaciones o integrar sensores en cada motor, utilizamos algoritmos de seguimiento de movimiento (seguimiento de puntos y flujo óptico) para rastrear el movimiento del robot durante el entrenamiento”, señaló Sitzmann.
Además agregó que, este sistema dota al modelo 3D del robot de una comprensión interna de cómo respondería a distintas acciones.
Resultados con tres tipos de robots
Los investigadores aplicaron este sistema a tres tipos de robots sin sensores ni modelos previos. El primero fue un brazo robótico de juguete impreso en 3D, con articulaciones sueltas, que aprendió a dibujar letras en el aire con precisión centimétrica. Este robot descubrió qué región visual se correspondía con cada canal de actuación, simplemente observando sus propios movimientos.

El segundo experimento utilizó una mano neumática suave, que aprendió por sí misma qué canal de aire activaba cada dedo. El sistema dedujo tanto la geometría como la profundidad del dispositivo usando únicamente videos en color.
El tercer caso involucró una plataforma robótica blanda, similar a una muñeca, que fue modificada con peso adicional. Esta estructura logró mantener el equilibrio y seguir trayectorias complejas. Además, el sistema cuantificó su sensibilidad al movimiento, midiendo cómo pequeñas órdenes motoras generaban desplazamientos milimétricos.
Un cambio de paradigma en la robótica blanda
Sitzmann señaló que los robots blandos, a diferencia de los convencionales, se deforman de manera compleja y no están compuestos por articulaciones rígidas. Esa característica dificulta el modelado tradicional, pero permite que adopten propiedades similares a las de organismos vivos, como flexibilidad, adaptabilidad y sensibilidad.
Para el equipo del MIT, este tipo de enfoque puede aplicarse en sectores que no requieran una precisión submilimétrica, como la automatización doméstica, la robótica agrícola o la fabricación de bajo costo.
“En el futuro, con la incorporación de la detección táctil, este paradigma podría incluso extenderse a aplicaciones que requieren alta precisión”, comentó Sitzmann a Forbes.
Últimas Noticias
Tether: este es el precio de la criptomoneda este 17 de julio
Esta moneda digital se ha visto envuelta en diversas polémicas, principalmente por asegurar que cada token está respaldado por un dólar

Captan las imágenes más cercanas al Sol jamás tomadas: así es la nave que ha logrado esta proeza
Las fotografías han mostrado por primera vez la zona donde el campo magnético del Sol cambia de dirección

Roblox lanza plataforma de licencias con Netflix y Lionsgate
La plataforma de videojuegos en línea ya ha trabajado previamente con grandes estudios como Warner Bros Discovery, desarrollando campañas y juegos especiales

Esto es todo lo que puedes hacer con la aplicación de Photoshop en tu celular
Actualmente, la versión completa de la aplicación está disponible para iOS y ha debutado en versión beta para Android

Perplexity impulsa la próxima generación de navegación web con IA y agentes inteligentes
La startup de San Francisco presenta una plataforma que integra asistentes avanzados, personalización y velocidad para transformar la experiencia digital y desafiar a los gigantes tecnológicos
