FTC investigará impacto de chatbots en la salud mental de niños

La agencia busca a través de este proceso comprender las dinámicas y riesgos reales que plantea la interacción de menores con plataformas gestionadas por IA

Guardar
Character.AI, una de las empresas
Character.AI, una de las empresas señaladas en la investigación, aseguró que aún no recibió notificación formal. (Imagen Ilustrativa Infobae)

La preocupación por los efectos de la inteligencia artificial en menores ha llevado a la Comisión Federal de Comercio de Estados Unidos (FTC) a enfocar su atención en los riesgos asociados a los chatbots impulsados por IA y su posible influencia sobre la salud mental infantil.

La agencia tiene previsto solicitar documentos internos a algunas de las compañías tecnológicas más relevantes del sector, entre ellas OpenAI, Meta Platforms y Character.AI, según reportó el Wall Street Journal.

Este nuevo escrutinio surge en un contexto donde gobiernos, reguladores y organizaciones sociales piden controles más estrictos sobre el uso de tecnología avanzada con públicos vulnerables.

Las futuras normativas que puedan
Las futuras normativas que puedan surgir a partir de estas investigaciones pondrán el foco en salvaguardar la salud mental infantil. (Imagen ilustrativa Infobae)

Investigación de la FTC y el foco en la salud mental infantil

De acuerdo con funcionarios federales citados por el informe, la FTC prepara cartas oficiales para exigir información sobre el funcionamiento y las políticas internas de los principales servicios de chatbots en el mercado.

La agencia busca a través de este proceso comprender las dinámicas y riesgos reales que plantea la interacción de menores con plataformas gestionadas por inteligencia artificial, profundizando en el posible impacto psicológico y emocional derivado de estos sistemas.

Character.AI, una de las empresas señaladas en la investigación, aseguró que aún no recibió notificación formal pero que “da la bienvenida a la colaboración con reguladores y legisladores a medida que comienzan a considerar legislación para este espacio emergente”.

Meta anunció la implementación de
Meta anunció la implementación de medidas adicionales que entrenen sus sistemas para evitar conversaciones coquetas y discusiones sobre autolesiones. REUTERS/Dado Ruvic

Esta disposición a cooperar refleja la creciente presión que soportan las compañías tecnológicas para adoptar estándares más rigurosos frente a un público infantil cada vez más expuesto a herramientas automatizadas.

El papel de la FTC se inscribe en una directiva más amplia impulsada desde la Casa Blanca, cuyo portavoz aseveró que el actual gobierno continúa centrado en “consolidar la dominancia de Estados Unidos en IA, criptomonedas y otras tecnologías de vanguardia del futuro” sin renunciar a sus responsabilidades en materia de seguridad y bienestar ciudadano.

Bajo este mandato, el organismo regulador aspira a establecer las bases para una supervisión más eficiente y una legislación actualizada que prevenga posibles daños derivados de la rápida expansión de la inteligencia artificial.

El papel de la FTC
El papel de la FTC se inscribe en una directiva más amplia impulsada desde la Casa Blanca. (Visuales IA)

Denuncias y respuestas de la industria tecnológica

El anuncio de la investigación surge solo unas semanas después de relevantes reportes y denuncias públicas. Uno de los hechos que precipitó la intervención fue la difusión de un artículo de Reuters que expuso cómo Meta habría permitido a chatbots participar en conversaciones con niños, algunas con contenido considerado provocativo o de carácter romántico y sensual.

Ante la polémica, Meta anunció la implementación de medidas adicionales que entrenen sus sistemas para evitar conversaciones coquetas y discusiones sobre autolesiones o suicidio con menores, además de limitar temporalmente la exposición de adolescentes a ciertas funciones de IA.

La inquietud no se agota en el plano mediático. En junio, más de 20 organizaciones de defensa del consumidor presentaron una denuncia formal ante la FTC y procuradores estatales, alertando sobre la práctica irregular de la ‘medicina no autorizada’ en plataformas como Meta AI Studio y Character.AI, donde algunos bots funcionaban a modo de ‘terapeutas’ sin controles profesionales ni consentimiento informado.

Tales situaciones han generado una ola de cuestionamientos en torno a la responsabilidad de las grandes tecnológicas en la protección de menores y la ética de sus IA conversacionales.

Meta habría permitido a chatbots
Meta habría permitido a chatbots participar en conversaciones con niños, algunas con contenido considerado provocativo. (Meta)

Nuevo escenario regulatorio

La decisión de la FTC de profundizar en el análisis de los chatbots de IA utilizados por niños representa un punto de inflexión en el debate sobre el papel de la inteligencia artificial en la sociedad. Este movimiento regula no solo el modo en que las empresas manejan la interacción digital con menores, sino que impulsa a toda la industria a reconsiderar estándares y protocolos en materia de ética, privacidad y bienestar mental.

Las futuras normativas que puedan surgir a partir de estas investigaciones pondrán el foco en salvaguardar la salud mental infantil ante algoritmos capaces de mantener conversaciones sensibles sin la mediación de adultos ni profesionales de la salud.

El desafío para las empresas tecnológicas pasará por adoptar prácticas transparentes, mecanismos de control parental eficientes y aceptar una supervisión pública sistematizada, todo en un contexto donde la IA avanza a ritmo vertiginoso y transforma dinámicas sociales día a día.