
En un momento en que los sistemas de salud atraviesan transformaciones inéditas, y la inteligencia artificial ya es utilizada en diagnósticos, decisiones terapéuticas y predicción de enfermedades, surgen preguntas bioéticas urgentes. ¿Quién es responsable cuando una IA se equivoca?. ¿Podemos confiar en un algoritmo para tomar decisiones sobre la vida humana?. ¿Cómo se garantiza la equidad, la no maleficencia y la autonomía en los procesos automatizados?.
Para explorar estas y otras cuestiones, Infobae conversó con el Rabino Dr. Fishel Szlajen, bioeticista argentino de reconocimiento internacional, recientemente condecorado con la medalla de plata al mérito por la Pontificia Academia para la Vida en el Vaticano.
-¿Cuál es su visión general sobre el uso de inteligencia artificial en el ámbito de la salud?
FS: -La inteligencia artificial en salud representa una revolución instrumental sin precedentes permitiendo escalar la capacidad cognitiva humana en términos de volumen y complejidad, clave, por ejemplo, en investigaciones epidemiológicas. Puede y de hecho ya lo realiza, optimizar diagnósticos, acelerar tiempos y reducir costos en la investigación biomédica como también ampliar el acceso a servicios en áreas desatendidas. Pero ese potencial no debe eclipsar sus riesgos ni relativizar sus límites. La IA, en sí misma, no tiene conciencia, ni intencionalidad moral y por ende no posee comprensión. Es una herramienta que sigue reglas programadas o aprende patrones de datos sin entenderlos en un sentido humano. La eficiencia, valor técnico por excelencia, no puede desplazar a la responsabilidad que es un valor ético. El problema no es la IA, sino nuestra concepción del “hype” tecnológico exagerando la publicidad y expectativas de una tecnología emergente y sin una comprensión realista de sus beneficios, hasta el punto de delegar las decisiones críticas en estos sistemas que no entienden el significado de la vida, ni pueden responder moral o legalmente por sus actos, erosionando el pacto civilizatorio.
Y dado que los sistemas de decisión algorítmica pueden impulsar comportamientos sistémicos que escapan al control de sus desarrolladores, resulta indispensable reforzar la agencia humana en las decisiones críticas y su capacidad para supervisar y gestionar sistemas complejos. En el campo de la salud, esto se traduce en dos grandes temas a resolver: 1) La opacidad y falta de transparencia de los sistemas cuyos usuarios o destinatarios no saben su funcionamiento interno, ni cuál es su base de datos ni criterios de emisión de resultados; 2) La falta de trazabilidad humana clara en la toma de decisiones clínicas automatizadas, comprometiendo derechos fundamentales.
Todo ello genera injusticias y provoca serios daños estructurales disfrazadas de neutralidad matemática.

-¿Cuáles fueron algunos de los casos beneficioso y perjudiciales del uso de IA en Salud?
FS: Podría mencionar como casos positivos, el sistema de detección temprana del cáncer de mama, logrando una reducción significativa de errores diagnósticos y permitiendo iniciar tratamientos en etapas más tempranas y reducir la ansiedad de pacientes ante falsos diagnósticos. El Moorfields Eye Hospital desarrolló un sistema de IA capaz de diagnosticar más de 50 patologías oculares, entre ellas la degeneración macular y glaucomas. También hay modelos de redes neuronales desarrollados por Stanford y Mount Sinai Hospital prediciendo eventos cardíacos fatales a partir de electrocardiogramas con gran precisión. El algoritmo qXR de interpretación de imágenes es efectivo en la detección de tuberculosis, sobre todo en países con pocos recursos diagnósticos. Durante la pandemia COVID-19, el uso de IA en el sistema BlueDot identificó brotes emergentes antes que la OMS. El AtomNet, un sistema basado en redes neuronales convolucionales predijo qué moléculas podrían inhibir proteínas asociadas a enfermedades como el ébola o ciertos cánceres, incluso antes de que esas moléculas fueran sintetizadas químicamente.
Entre los casos negativos se encuentran el Optum, diseñado para asignar recursos médicos pero que subestimaba las necesidades de pacientes negros, utilizando el gasto sanitario como proxy del estado de salud. Su sesgo estructural determinaba que los negros eran más sanos cuando en verdad tenían menor capacidad de acceso a tratamientos y medicamentos. El Epic Systems para detectar sepsis en pacientes hospitalarios, otorgaba un alto índice de falsos positivos y negativos, generando alertas innecesarias, confusión clínica y desvío de recursos. El algoritmo de trasplantes del NHS del Reino Unido, priorizaba a varones blancos jóvenes, sub-representando a mujeres y minorías étnicas en la puntuación de urgencia. generando desigualdades en la lista de espera de trasplantes hepáticos. Durante la pandemia, Países Bajos usó un algoritmo para determinar prioridad en acceso a unidades de cuidados intensivos que favorecía a pacientes más jóvenes sin comorbilidades en relación con personas mayores. El Watson for Oncology, sugería tratamientos inapropiados o incluso peligrosos para pacientes con cáncer, por haber sido entrenado con casos ficticios diseñados por médicos en lugar de registros clínicos reales de pacientes. Esto sesgó severamente su capacidad de generalización a pacientes reales con múltiples comorbilidades o condiciones atípicas.
Así, resulta necesario implementar tres acciones: a) Auditorías algorítmicas como prerrequisito de confianza y justicia en el entorno sanitario; b) Diseño, validación y aplicación de algoritmos con criterios éticos robustos y evidencia científica transparente; c) mecanismos para que el progreso técnico no sustituya la responsabilidad médica ni los controles humanos.
Porque una IA debe ser técnicamente eficaz pero su uso debe ser éticamente confiable.
-¿Cuáles son los principales desafíos bioéticos que usted identifica entre la IA y la salud?
FS: -Hay varios ejes interdependientes, pero me permito destacar los siguientes:
- Opacidad algorítmica: Muchos modelos machine learning no permiten explicar cómo se llega a una recomendación diagnóstica. Esto impide no sólo el consentimiento informado, sino también el control judicial o administrativo en caso de daños. Para ello, se propone una ética de la explicabilidad en la cual he trabajado desde hace unos años, justamente porque sin comprensión no hay responsabilidad.
- Discriminación automatizada: Las IA reproducen y muchas veces amplifican los sesgos de los datos con que son entrenadas. Si los conjuntos de datos excluyen a minorías raciales, mujeres, personas con discapacidad o poblaciones vulnerables, los errores no son accidentales, sino estructurales. Es decir, no se trata de algoritmos “malos”, sino de injusticias codificadas.
- Delegación moral: La teoría de la no delegación, que he desarrollado en mis publicaciones, sostiene que los juicios éticos no pueden ser externalizados a entidades que no sean sujetos morales ni legalmente responsables ya que socava toda noción ética y jurídica. La IA puede asistir al juicio profesional humano, pero no sustituirlo, porque al basarse en modelos probabilísticos ofrece soluciones lógicamente consistentes, pero no capturan la complejidad ética inherente a las decisiones y su contexto. El juicio humano abarca aspectos como experiencia, axiología, autonomía y empatía, que no son traducibles a la sintaxis algorítmica.
- Consentimiento automatizado: No puede hablarse realmente de consentimiento informado si el paciente no comprende cómo y por qué el sistema llega a determinada conclusión. Aquí no se trata de una simple omisión técnica, sino de una falla ética estructural.
- Relación médico-paciente mediatizada: Si el contacto humano se reemplaza por plataformas algorítmicas, la medicina se despersonaliza. El acompañamiento emocional, la escucha activa y la empatía, elementos clave para la cura y el cuidado, no pueden ser replicados por un cálculo estadístico.

-Algunos sostienen que la IA, al eliminar subjetividades, toma mejores decisiones.
FS: -Esta afirmación es un reduccionismo tecnocrático. No hay decisión clínica significativa que sea puramente técnica. Toda decisión sobre la salud implica una visión sobre el sufrimiento, la finitud, la justicia, la dignidad, la autonomía y la axiología dentro de la cual está el valor de la vida. Y esas dimensiones no sólo son claves en salud, sino que no pueden ser reducidas a funciones optimizables.
Por otro lado, la objetividad algorítmica es un mito. Todo modelo está construido a partir de decisiones humanas sobre qué datos incluir, cómo ponderarlos, qué excluir, cómo ajustar el aprendizaje, etc. La ilusión de imparcialidad técnica encubre a menudo sesgos profundos e incluso decisiones políticas en salud.
Obviamente la racionalidad humana no es perfecta, pero incluye la capacidad de deliberar, de contemplar contextos, subjetividades, de detenerse frente a conflictos morales o dilemas, clave para decisiones en salud. La IA, en cambio, sigue patrones, cuyos modelos de machine learning no distinguen entre correlación y causalidad. Es decir, estos sistemas son eficaces para detectar patrones estadísticos en grandes volúmenes de datos, pero carecen de una comprensión estructural de las relaciones causales. Por ello, la IA no diferencia entre predicción y explicación, ni comprende aquellas subjetividades como el sufrimiento, la esperanza, la intencionalidad, o la dignidad, no pudiendo por ejemplo ejercer ninguna ética del cuidado. Y en salud, eso no es un detalle, es la esencia.
-Y si hay riesgos existenciales ligados al uso descontrolado de la IA en Salud ¿cuáles son sus propuestas regulatorias concretas?
FS: -Prefiero hablar de riesgos civilizatorios concretos. La automatización de decisiones clínicas, la explotación masiva de datos biométricos y el dataísmo como reducción del cuerpo humano a un flujo informático, generan escenarios de cosificación profunda. Ya no hablamos sólo de fallas técnicas, sino de una posible reingeniería de la condición humana y donde se pretende sustituir la deliberación moral por decisiones automatizadas.
En primer lugar, he trabajado sobre la creación de protocolos y marcos normativos de gobernanza y algorítmica que incluyan comités de bioética y agencias gubernamentales para: a) evaluar la seguridad y eficacia clínica más la solidez ética y social de cada sistema para validar su implementación; b) requerir transparencia algorítmica que contemple tanto el “qué” (resultados) como el “cómo” (procesos), balanceando la necesidad de información pública, la protección de la propiedad intelectual y el respeto a los derechos individuales; c) auditorías continuas y mecanismos de trazabilidad de los sistemas utilizados para garantizar la explicabilidad y el uso ético de la inteligencia artificial en salud; d) supervisión humana obligatoria para decisiones sensibles; y e) derecho del paciente a rechazar una evaluación automatizada y exigir una opinión humana.

-¿Qué rol pueden jugar las religiones en este debate, en un mundo cada vez más secularizado?
FS: -Un rol insustituible. Las religiones no son fósiles ideológicos sino doctrinas de vida que han sobrevivido a todos los sistemas éticos seculares. Aportan categorías milenarias como dignidad, transgresión, redención, límite, responsabilidad, fe no como confianza en algo que saldrá bien sino como aquello que tiene sentido más allá de su resultado. Pero, sobre todo, aportan el concepto de trascendencia que extrae al ser humano del dominio animal y lo eleva a su humanidad. Todo lo cual el discurso tecnocientífico ha abandonado.
En mi tradición, el Talmud, por ejemplo, advierte contra el uso de conocimientos que no estén al servicio del bien común. Y señala que el conocimiento sin sabiduría puede ser altamente destructivo. Por eso, la IA no es el problema, sino quién la diseña, para qué, y bajo qué criterios de justicia, salud, educación, seguridad y trabajo.
-¿Qué opina sobre la idea de crear una “IA consciente” que pueda comprender contextos y emociones?
FS: -Esa idea surge a partir del concepto de singularidad: una especie de emergentismo o comportamiento impredecible de sistemas complejos, cuyo resultado no es reductible ni predecible a partir de sus componentes. Esto fue extraído de la física-matemática no lineal donde pequeños cambios en el sistema provocan grandes cambios en las propiedades emergentes del mismo. De allí, que ciertos futurólogos crean que de algoritmos lo suficientemente complejos y sofisticados, podría emerger propiedades como la intencionalidad o la conciencia. Esta proyección, si bien atractiva, no tiene rastros de evidencia empírica. Básicamente, es una idea comparable a una “creatio ex nihilo” tecnológica.
Hoy los algoritmos pueden simular inteligencia y decisiones éticas, pero en verdad lo único que hacen es cálculo y procesan datos mediante reglas predefinidas, detectando posibilidades y patrones. Pero carecen de conciencia, subjetividad e intencionalidad en sentido humano, y por ende de inteligencia. Confundir cálculo con pensamiento es confundir sintaxis con semántica, u autosuficiencia operativa con autonomía.

Si algún día se reconocieran formas de intencionalidad en sistemas de IA, surgirían problemas sobre su responsabilidad moral y legal, y hasta habría que pensar el posible reconocimiento de derechos. Y si alguna vez se llegara a desarrollar una conciencia artificial deberíamos redefinir nuestra comprensión del sujeto moral, la libertad y el derecho.
Pero hasta entonces, asumir que una IA “comprende” lo que hace, o que puede ejercer juicio clínico, es una irresponsabilidad conceptual. Lo que puede haber es simulación de subjetividades, pero no juicios reales. Y eso no es suficiente para confiarle decisiones vitales.
-¿Y sobre la edición genética o los implantes cibernéticos?
FS: -Todo ello constituye algunos de los mayores avances en las biotecnologías, pero también interpelan directamente nuestra noción de lo humano. Desde una bioética interseccional como la que he desarrollado, estos avances deben evaluarse ya no según si son con fines terapéuticos o desiderativos para un mejoramiento humano artificial, permitiendo lo primero y prohibiendo lo segundo. Porque este criterio resulta inconsistente dado que actualmente se implementan tratamiento médicos sin necesidad terapéutica como las cirugías plásticas. Y además se basa en nociones de normalidad y funcionalidad que en contextos de vertiginosos avances tecnológicos son constantemente variables y contextuales. Por ello, hoy el anclaje bioético para la deliberación sobre la aplicación de biotecnologías debe ser la preservación y no vulneración de la dignidad humana, basada la autonomía, voluntad, razón, libertad y capacidad de tomar decisiones morales. Es decir, el criterio para la aplicación de estas biotecnologías ya no debe ser la naturaleza de la condición tratada, si es terapéutico o desiderativo, sino la intervención de la condición humana, si preserva o menoscaba la dignidad humana.
Mismo criterio para la edición genética que ha abierto la posibilidad real de corregir mutaciones responsables de enfermedades severas, como fibrosis quística, anemia falciforme, TaySachs o distrofias musculares, entre otras. Pero cuando la manipulación genética se desvía hacia la selección de rasgos programados, realizando bebés por diseño, se corre el riesgo de una eugenesia supremacista, o bien una disgenesia, habiendo ya casos de parejas enanas o sordas, que pretendieron seleccionar embriones con genes de sordera o enanismo, para preservar en sus hijos dichas condiciones.
En el caso de las quimeras humano-animales para investigación neurológica, la preocupación radica en que la transferencia de ciertas células cerebrales, también transfieren patrones conductuales. Por ello, el riesgo principal radica en que células cerebrales humanas insertadas en embriones animales podrían transferir rasgos conductuales humanos, o viceversa, alterando la propia ontología humana y animal. Bajo la bioética interseccional que propongo, resguardando la dignidad humana, pueden producirse quimeras facilitando órganos en animales para xenotransplante, así como trasplantar células madre cerebrales humanas a animales para examinar nuevos enfoques terapéuticos neurológicos o lesiones de la medula espinal. Pero no deberían transplantarse células madre cerebrales embrionarias humanas en embriones animales o viceversa, pudiendo impactar en alguna condición ontológica, salvo antes que desarrollen dichas características de comportamiento y nunca ser transferidos para desarrollo fetal. Así como tampoco trasplantar células madre humanas a órganos sexuales de animales por la remota posibilidad de apareamiento de animales con gametos compuestos por células reproductivas humanas.
-¿Qué mensaje final le daría a quienes hoy diseñan políticas públicas sobre IA en salud?
FS: -Desde mi tradición, el judaísmo, hay un principio de prudencia transmitido de diversas formas y que puede resumirse uniendo sus tres fuentes: “El inteligente medita su curso (Prov. 14:15), debiendo ser equilibrado en su juicio y tener evidencia para confiar en que sea verdadero (Mishná, Avot 1:1;3:17), pues no debe apoyarse en milagros (Talmud, Shabat 32a). Esto es, no confiar ciegamente en algoritmos y supervisar toda decisión debiendo ser verificada y asumida por un sujeto moral. Así, el mensaje es no delegar el sentido de lo humano en el cálculo de lo eficiente. Es entender que la técnica, sin límites, no nos hace más humanos sino más vulnerables. Es escuchar no sólo a los técnicos o a los lobbies, sino también a filósofos, médicos, pacientes, teólogos, antropólogos y juristas. Y sobre todo, recordar que el progreso no es avanzar sin mirar, sino avanzar sabiendo hacia dónde y por qué.