En Estados Unidos prohíben a la inteligencia artificial ejercer como terapeuta: nueva ley con multas y límites

Las nuevas normas en el estado de Illinois imponen advertencias, multas y ajustes operativos en aplicaciones que ofrecen algún tipo de servicio relacionado con el bienestar o la salud mental

Guardar
Una nueva ley estatal impone
Una nueva ley estatal impone multas y limita estrictamente la intervención de chatbots y plataformas de IA en salud mental, subrayando el rol insustituible de los profesionales humanos en la atención terapéutica - (Imagen Ilustrativa Infobae)

El avance de la inteligencia artificial (IA) en diferentes aspectos de la vida cotidiana ha generado numerosos beneficios, pero también ha levantado preguntas sobre sus límites, especialmente en áreas sensibles como la salud mental. En Estados Unidos, el estado de Illinois se coloca a la vanguardia de la regulación al aprobar una ley que prohíbe el uso de IA para brindar terapia psicológica, emitir diagnósticos de trastornos mentales o tomar decisiones terapéuticas.

El gobernador JB Pritzker firmó la Ley de Bienestar y Supervisión de Recursos Psicológicos (WOPR), la cual establece multas de hasta 10.000 dólares para quienes infrinjan la normativa.

Regulación pionera en Illinois: IA
Regulación pionera en Illinois: IA solo para asistencia, no para intervención psicológica directa - (Imagen ilustrativa Infobae)

La proliferación de chatbots y aplicaciones de IA que prometen apoyo emocional o soluciones terapéuticas ha despertado inquietudes en la comunidad profesional. Expertos y organizaciones como la Asociación Americana de Psicología han advertido que equiparar la intervención de la IA con la de un terapeuta humano puede poner en riesgo a usuarios, especialmente a quienes atraviesan situaciones delicadas o crisis personales.

Qué aplicaciones serán restringidas en Estados Unidos

La nueva ley distingue entre aplicaciones orientadas al bienestar general, como las guías de meditación y mindfulness, que podrán seguir operando, y plataformas que buscan establecer una relación continua de apoyo psicológico o promoción de terapia guiada por IA, actividad que a partir de ahora queda prohibida en Illinois.

De esta forma, servicios que se promocionaban como “terapia 24/7” automatizada, como la app Ash Therapy, han pausado sus actividades en la región a la espera de la resolución estatal.

En los detalles de la regulación, la ley permite que profesionales de la salud mental empleen herramientas de IA en tareas administrativas, como la organización de citas o la gestión de notas clínicas.

Expertos resaltan los riesgos de
Expertos resaltan los riesgos de usar a la IA como terapeuta o psicólogo - (Imagen Ilustrativa Infobae)

Sin embargo, enfatiza el rol insustituible del especialista humano para cualquier diagnóstico, tratamiento o intervención psicológica directa. La intención es evitar que algoritmos operen sin control en áreas donde se requiere criterio clínico y responsabilidad profesional.

Qué implicaciones tiene la prohibición en los modelos de IA

El impacto de esta normativa se visualiza en el mensaje de advertencia que ofrece Ash Therapy a los usuarios en Illinois: el servicio permanecerá inactivo hasta que se definan las reglas estatales. Por su parte, empresas como OpenAI han comenzado a ajustar el comportamiento de sus sistemas.

ChatGPT, por ejemplo, ahora sugiere pausas en sesiones largas y promueve respuestas destinadas a abrir alternativas en lugar de dar directivas simples, en respuesta a reportes sobre posibles efectos adversos tras interacciones profundas con asistentes virtuales.

La decisión de Illinois llega en un contexto de aceleración y expansión de la inteligencia artificial. Herramientas como ChatGPT, Gemini y otros sistemas conversacionales se insertan cada vez más en rutinas personales, académicas o profesionales. Sin embargo, existe una línea clara entre ofrecer información de carácter general y asumir un rol que corresponde a especialistas.

La regulación distingue entre bienestar
La regulación distingue entre bienestar general y apoyo psicológico profesional, mientras expertos advierten sobre los riesgos de equiparar el acompañamiento humano con algoritmos sin criterio clínico real - (Imagen Ilustrativa Infobae)

Las políticas de estas plataformas ya restringen respuestas en temas sensibles: no entregan información personal, no acceden a cuentas privadas ni generan contenido ofensivo, y rechazan cualquier intento de guiar sobre actividades ilegales o entregar diagnósticos médicos.

Esta regulación, además, responde al crecimiento del uso de asistentes virtuales entre jóvenes y adolescentes que recurren a ellos como consejeros disponibles en todo momento.

Aunque la comodidad y la inmediatez parecen ventajas, los expertos recuerdan que la IA está programada para complacer al usuario y no necesariamente brinda ayuda ética ni contención real ante situaciones de crisis. El riesgo radica en que los usuarios depositen confianza excesiva en sistemas que, por su naturaleza, carecen de empatía, experiencia vivida o capacidad para captar matices complejos de las emociones humanas.

Comprender las limitaciones de la inteligencia artificial permite sacar provecho de sus aportes sin caer en expectativas erróneas ni exponerse a peligros innecesarios. La nueva ley de Illinois marca un precedente en la discusión global sobre hasta dónde debe avanzar la IA en ámbitos de alto impacto social.