El auge de la inteligencia artificial en la construcción: entre la eficiencia y el debate sobre la privacidad laboral

MIT Technology Review explicó que la adopción de sistemas como Safety AI y Safeguard AI impulsan entornos más seguros, pero también se plantean desafíos éticos y técnicos sobre el control, la vigilancia y la aceptación por parte de los trabajadores

Guardar
La inteligencia artificial revoluciona la
La inteligencia artificial revoluciona la seguridad en obras de construcción con análisis visual avanzado (Imagen Ilustrativa Infobae)

La industria de la construcción es una de las más dinámicas y esenciales en la economía global, pero también una de las más peligrosas. Cada año, miles de trabajadores enfrentan condiciones de riesgo que derivan en lesiones graves o muertes.

Con este contexto marcado por la urgencia de soluciones preventivas más eficaces, la inteligencia artificial (IA) comienza a desempeñar un rol destacado. Herramientas como Safety AI, desarrollada por DroneDeploy, buscan transformar la forma en que se detectan y abordan los peligros laborales mediante sistemas de análisis visual automatizado.

Frente al surgimiento de la prometedora tecnología, MIT Technology Review informó que esta innovación representa un paso importante hacia entornos de trabajo más seguros, aunque aún plantea desafíos técnicos, éticos y operativos.

Safety AI de DroneDeploy identifica
Safety AI de DroneDeploy identifica riesgos laborales y mejora la prevención de accidentes en la industria de la construcción (DroneDeploy)

Safety AI: un modelo que analiza y alerta

Lanzada en octubre de 2024, Safety AI es una herramienta que utiliza modelos de lenguaje visual (VLM), una tecnología que combina procesamiento de lenguaje natural con análisis de imágenes. A diferencia de sistemas tradicionales de machine learning, que reconocen objetos específicos, los VLM pueden interpretar escenas completas y razonar sobre ellas.

Esta metodología permite identificar situaciones de riesgo, como el uso incorrecto de una escalera, incluso si los elementos individuales —como casco o arnés— están presentes.

Asimismo, Safety AI ya está en funcionamiento en cientos de obras en Estados Unidos, y fue adaptada para cumplir con normativas de seguridad en países como Canadá, Reino Unido, Corea del Sur y Australia. La herramienta se alimenta de un “conjunto de datos dorado” construido a partir de decenas de miles de imágenes etiquetadas con infracciones.

Philip Lorenzo, ejecutivo de DroneDeploy, sostuvo que el sistema alcanza una precisión del 95% al identificar condiciones peligrosas, aunque la empresa aún no publicó datos validados externamente. Según explicó en el informe, este modelo es sometido a evaluaciones mediante preguntas estructuradas, que imitan el razonamiento de un inspector humano.

El razonamiento de Safety AI
El razonamiento de Safety AI interpreta riesgos potenciales, como escaleras mal ubicadas (DroneDeploy)

Limitaciones técnicas y el papel del juicio humano

Aunque resulte prometedora, la tecnología no es infalible. Chen Feng, director del laboratorio AI4CE de la Universidad de Nueva York, señaló que todavía existen “problemas fundamentales” en estos modelos, como la generación de errores o alucinaciones, y la dificultad para interpretar estructuras tridimensionales a partir de imágenes planas.

DroneDeploy intentó abordar estas limitaciones integrando técnicas adicionales, como segmentación de imágenes y fotogrametría, que permiten construir representaciones espaciales más precisas. Aun así, Lorenzo reconoció que hay situaciones poco frecuentes que el sistema no puede anticipar, por lo que enfatiza que Safety AI debe verse como un complemento a la supervisión humana y no un reemplazo.

Entre eficiencia y vigilancia: la visión de los usuarios

La incorporación de IA en las obras generó distintas reacciones. Aaron Tan, gerente de proyectos de concreto en el área de la Bahía de San Francisco, valoró la posibilidad de recibir alertas digitales sin necesidad de desplazarse a cada sitio. “Si el software demuestra su eficacia en la protección de los trabajadores, es probable que estos terminen aceptándolo”, declaró en MIT Technology Review.

Sin embargo, también persisten recelos, especialmente en torno a la privacidad. Algunos trabajadores temen que las herramientas se conviertan en mecanismos de control, conocidos como bossware, diseñados más para sancionar que para prevenir.

La colaboración entre IA y
La colaboración entre IA y supervisores humanos se perfila como la mejor estrategia para reducir riesgos sin perder confianza (Imagen Ilustrativa Infobae)

Alternativas tecnológicas y fiabilidad

Safety AI no es la única propuesta tecnológica en el mercado. La empresa Safeguard AI, con sede en Jerusalén, mantiene un enfoque basado en machine learning tradicional combinado con supervisión humana.

El director ejecutivo de la compañía, Izhak Paz, afirmó que este modelo es más confiable y se adapta mejor a nuevos riesgos mediante ajustes constantes. La herramienta se utiliza en aproximadamente 3.500 obras en Israel, Estados Unidos y Brasil.

Otra iniciativa destacada es la de Buildots, empresa de Tel Aviv, que usa IA para generar reportes visuales del progreso de obra. Aunque no realiza análisis de seguridad, su enfoque busca una precisión del 99%, sin tolerancia a errores que puedan comprometer la toma de decisiones.

La diferencia entre los enfoques radica en el nivel de autonomía. Mientras los sistemas tradicionales dependen de grandes volúmenes de datos etiquetados y de la intervención humana para ajustes, los modelos generativos, como el de Safety AI, ofrecen mayor capacidad de razonamiento contextual, aunque aún requieren validación constante.

El modelo alcanza un 95%
El modelo alcanza un 95% de precisión, pero expertos advierten sobre limitaciones técnicas y la necesidad de supervisión humana (DroneDeploy)

Integración con auditorías y supervisión

Para que herramientas como Safety AI sean aceptadas ampliamente, será necesario validar su desempeño mediante auditorías externas. Así lo plantean sus desarrolladores, que apuestan por una supervisión dual: tecnológica y humana.

“Mientras sea verificado por una persona”, planteó Ryan Calo, experto en derecho de inteligencia artificial y robótica en la Universidad de Washington, el uso de IA puede contribuir a reducir riesgos laborales sin comprometer la responsabilidad profesional.

La aplicación de inteligencia artificial generativa en la seguridad de obras abre nuevas posibilidades, pero también impone límites. La colaboración entre tecnologías avanzadas y supervisores experimentados aparece como el camino más viable para proteger vidas sin sacrificar derechos ni confianza en el lugar de trabajo.