Vehículos autotripulados: responsabilidad humana indelegable

Cuando la automatización diluye la imputabilidad, el derecho pierde capacidad de respuesta

Guardar
Tesla Modelo 3
Tesla Modelo 3

Los sistemas de autoconducción constituyen uno de los desarrollos más significativos de la IA aplicada a la vida civil. Porque a diferencia de otros sistemas automatizados, los vehículos no operan en entornos cerrados ni plenamente controlables, sino en espacios públicos compartidos, atravesados por normas jurídicas, expectativas sociales y conductas humanas imprevisibles. Por ello, el problema central que plantean no es meramente técnico, sino normativo y obliga a pensar, incluso excediendo el ámbito del transporte, si es ético y jurídicamente válido delegar decisiones cuando el riesgo, el daño y el conflicto entre bienes jurídicos fundamentales son inevitables.

La transformación inédita expuesta por los vehículos autotripulados radica en que los algoritmos dejan de ser instrumentos meramente ejecutivos para convertirse en instancias decisionales delegadas, capaces de seleccionar cursos de acción bajo condiciones de conflicto normativo, incertidumbre y daño potencial. Esto exige trascender lo ingenieril de la automatización y abordar el tema en términos de responsabilidad e imputabilidad.

Joshua Kroll señala precisamente que estos algoritmos adquieren relevancia ética y jurídica no por una supuesta agencia moral, que no poseen, sino por los efectos normativamente significativos de sus decisiones. La cuestión central, entonces, no es si estos sistemas mejoran ciertos indicadores de seguridad o eficiencia, sino qué decisiones resulta legítimo delegarles, bajo qué criterios y con qué estructura de responsabilidad humana preservada.

Desde la bioética y el derecho, la noción de contingencia resulta decisiva. Porque no se trata de eventos meramente improbables, sino de situaciones que no pueden ser plenamente anticipadas ni normativizadas ex ante, y que exigen decisiones bajo una incertidumbre irreductible. El problema aquí es que los algoritmos de autoconducción se basan en modelos probabilísticos entrenados sobre datos históricos, limitando epistémicamente al sistema cuando enfrenta situaciones singulares o inéditas.

Como advierte Nicholas Diakopoulos, en escenarios no representados en los datos de entrenamiento el algoritmo no delibera, sino que ejecuta una priorización previamente codificada. A diferencia del agente humano, en los sistemas autónomos la decisión, en sentido normativo, no ocurre en el instante del evento, sino en la fase de diseño. Es decir, la ética del incidente se decide antes del incidente. Esta constatación desplaza el análisis ético-jurídico hacia la arquitectura decisional ex ante.

Los accidentes documentados con vehículos autotripulados confirman que el problema no es técnico, sino ético y jurídico. El atropello fatal en Arizona (2018) con un vehículo autotripulado mostró con claridad esta dificultad. El sistema detectó al peatón, pero clasificó erróneamente su comportamiento y demoró la activación del frenado de emergencia. Esta tendencia se reforzó en 2025, reportando Waymo 900 colisiones en operaciones autotripuladas; Cruise acumuló 150 incidentes similares; y Tesla registró más de 1000 reportes bajo su sistema Full Self-Driving, según la NHTSA. En todos estos casos, la responsabilidad se diluyó entre diseñadores, fabricantes y operadores, sin un sujeto imputable claramente identificado.

Y cuando la automatización diluye la imputabilidad, el derecho pierde capacidad de respuesta. Sin trazabilidad decisional ni responsabilidad claramente asignable, la tecnología produce zonas de irresponsabilidad estructural incompatibles con los principios básicos del Estado de Derecho.

Frente a estas dificultades, algunos enfoques han intentado resolver los problemas de la automatización mediante la formalización algorítmica de decisiones morales. Un ejemplo es el proyecto Moral Machine, desarrollado en el MIT y promovido, entre otros, por Iyad Rahwan. Este enfoque parte de dos supuestos discutibles: que las intuiciones morales agregadas de grandes poblaciones pueden constituir una base normativa legítima y que dichas preferencias pueden traducirse en reglas algorítmicas aplicables en tiempo real. Al respecto, estudios posteriores muestran sesgos culturales persistentes y una preferencia mayoritaria por la intervención humana en contingencias reales.

Pero, ante todo, la objeción fundamental al Moral Machine es metodológica, porque confunde descripción con normatividad. Que una mayoría exprese determinadas preferencias no las convierte en normas éticamente justificadas ni jurídicamente defendibles. Desde la bioética y el derecho, este desplazamiento constituye una forma sofisticada de falacia naturalista, al saltar injustificadamente del ser al deber ser.

Como ya advirtió Michael Sandel, la ética pública no puede reducirse a la agregación de preferencias sin perder su vínculo con la justicia. El derecho no se funda en encuestas, sino en principios que limitan incluso la voluntad mayoritaria. Además, estos enfoques descansan implícitamente en el utilitarismo, maximizando vidas salvadas y minimizando daño total, pero que automatizado, pierde los mecanismos deliberativos que podrían moderarlo en contextos humanos. En este sentido, Patrick Lin ha señalado que convertir problemas morales en problemas de optimización algorítmica no los resuelve, sino que los sustrae del control democrático entendido como capacidad de revisión de decisiones que afecten bienes jurídicos fundamentales, preservación de la imputabilidad y exigencia de justificación pública. Estos algoritmos introducen además una lógica incompatible con el principio de dignidad humana, al tratar la vida como variable de intercambio.

Más aún, ¿quién respondería jurídicamente por una muerte causada por una regla decisional fundada en preferencias estadísticas globales? Wendell Wallach y Colin Allen han enfatizado que la responsabilidad distribuida en sistemas de IA exige límites claros a la delegación, precisamente para resguardar la imputabilidad humana. El problema no es cómo optimizar el cálculo, sino cómo evitar la erosión del principio básico de atribución y responsabilidad.

Esta problemática se agrava por la tensión entre algoritmos transnacionales y marcos jurídicos nacionales. En Argentina, el Decreto 196/2025 modificó la Ley de Tránsito 24.449 para autorizar pruebas experimentales de vehículos autotripulados, exigiendo siniestralidad inferior a la humana y aprobación previa de la ANSV. En la UE, estos sistemas son clasificados como de “alto riesgo”, con exigencias estrictas de auditoría y explicabilidad bajo ISO/IEC 42001. En EEUU, la NHTSA investiga la responsabilidad de fabricantes por fallos en sistemas de conducción automatizada. Estas diferencias no derivan de divergencias técnicas en la programación, sino de concepciones distintas sobre responsabilidad, riesgo tolerable y soberanía normativa.

Frente a estas insuficiencias, la Ética del Límite ofrece una respuesta. Su aporte central no consiste en diseñar “mejores algoritmos morales”, sino en no delegar decisiones a sistemas carentes de responsabilidad moral y jurídica cuando implique la posible lesión de bienes jurídicos fundamentales como vida, integridad o dignidad, bajo condiciones de contingencia extrema e incertidumbre irreductible.

Aplicada a la autoconducción, esta perspectiva implica rechazar la automatización de decisiones sacrificiales y priorizar diseños que restrinjan el dominio decisional algorítmico en contextos normativamente críticos, preservando la imputabilidad, la normativa local y la justificación pública. La Ética del Límite distingue así entre automatización instrumental, compatible con la responsabilidad humana, y automatización decisional, que debe ser estrictamente restringida. El límite no es técnico, sino normativo, porque donde no pueda garantizarse una cadena clara de imputabilidad humana, la delegación deviene contraria a los principios éticos y jurídicamente incompatible con los fundamentos del Estado de Derecho, aun cuando prometa beneficios en términos de eficiencia.

Este criterio resulta aplicable a otras automatizaciones por IA para decisiones médicas, judiciales, educativas o securitarias. Porque en todos estos ámbitos, el núcleo del problema es el mismo, la delegación de decisiones normativamente críticas donde la responsabilidad no puede ser delegada sin erosión institucional.

El debate sobre los vehículos autotripulados no es tecnológico, sino ético y jurídico. La automatización moral muestra que la delegación irrestricta no es un progreso, sino una abdicación de la responsabilidad. La Ética del Límite permite reordenar este problema desde su raíz, no persistiendo fútilmente en enseñar ética a las máquinas, sino estableciendo límites normativos claros respecto de aquello que, como sociedad, no debemos delegar en su nombre.