
La preocupación por los efectos de la inteligencia artificial en menores ha llevado a la Comisión Federal de Comercio de Estados Unidos (FTC) a enfocar su atención en los riesgos asociados a los chatbots impulsados por IA y su posible influencia sobre la salud mental infantil.
La agencia tiene previsto solicitar documentos internos a algunas de las compañías tecnológicas más relevantes del sector, entre ellas OpenAI, Meta Platforms y Character.AI, según reportó el Wall Street Journal.
Este nuevo escrutinio surge en un contexto donde gobiernos, reguladores y organizaciones sociales piden controles más estrictos sobre el uso de tecnología avanzada con públicos vulnerables.

Investigación de la FTC y el foco en la salud mental infantil
De acuerdo con funcionarios federales citados por el informe, la FTC prepara cartas oficiales para exigir información sobre el funcionamiento y las políticas internas de los principales servicios de chatbots en el mercado.
La agencia busca a través de este proceso comprender las dinámicas y riesgos reales que plantea la interacción de menores con plataformas gestionadas por inteligencia artificial, profundizando en el posible impacto psicológico y emocional derivado de estos sistemas.
Character.AI, una de las empresas señaladas en la investigación, aseguró que aún no recibió notificación formal pero que “da la bienvenida a la colaboración con reguladores y legisladores a medida que comienzan a considerar legislación para este espacio emergente”.
Esta disposición a cooperar refleja la creciente presión que soportan las compañías tecnológicas para adoptar estándares más rigurosos frente a un público infantil cada vez más expuesto a herramientas automatizadas.
El papel de la FTC se inscribe en una directiva más amplia impulsada desde la Casa Blanca, cuyo portavoz aseveró que el actual gobierno continúa centrado en “consolidar la dominancia de Estados Unidos en IA, criptomonedas y otras tecnologías de vanguardia del futuro” sin renunciar a sus responsabilidades en materia de seguridad y bienestar ciudadano.
Bajo este mandato, el organismo regulador aspira a establecer las bases para una supervisión más eficiente y una legislación actualizada que prevenga posibles daños derivados de la rápida expansión de la inteligencia artificial.

Denuncias y respuestas de la industria tecnológica
El anuncio de la investigación surge solo unas semanas después de relevantes reportes y denuncias públicas. Uno de los hechos que precipitó la intervención fue la difusión de un artículo de Reuters que expuso cómo Meta habría permitido a chatbots participar en conversaciones con niños, algunas con contenido considerado provocativo o de carácter romántico y sensual.
Ante la polémica, Meta anunció la implementación de medidas adicionales que entrenen sus sistemas para evitar conversaciones coquetas y discusiones sobre autolesiones o suicidio con menores, además de limitar temporalmente la exposición de adolescentes a ciertas funciones de IA.
La inquietud no se agota en el plano mediático. En junio, más de 20 organizaciones de defensa del consumidor presentaron una denuncia formal ante la FTC y procuradores estatales, alertando sobre la práctica irregular de la ‘medicina no autorizada’ en plataformas como Meta AI Studio y Character.AI, donde algunos bots funcionaban a modo de ‘terapeutas’ sin controles profesionales ni consentimiento informado.
Tales situaciones han generado una ola de cuestionamientos en torno a la responsabilidad de las grandes tecnológicas en la protección de menores y la ética de sus IA conversacionales.

Nuevo escenario regulatorio
La decisión de la FTC de profundizar en el análisis de los chatbots de IA utilizados por niños representa un punto de inflexión en el debate sobre el papel de la inteligencia artificial en la sociedad. Este movimiento regula no solo el modo en que las empresas manejan la interacción digital con menores, sino que impulsa a toda la industria a reconsiderar estándares y protocolos en materia de ética, privacidad y bienestar mental.
Las futuras normativas que puedan surgir a partir de estas investigaciones pondrán el foco en salvaguardar la salud mental infantil ante algoritmos capaces de mantener conversaciones sensibles sin la mediación de adultos ni profesionales de la salud.
El desafío para las empresas tecnológicas pasará por adoptar prácticas transparentes, mecanismos de control parental eficientes y aceptar una supervisión pública sistematizada, todo en un contexto donde la IA avanza a ritmo vertiginoso y transforma dinámicas sociales día a día.
Últimas Noticias
TikTok lanza un programa gratuito para mejorar la forma en que los maestros enseñan
En alianza con el Ministerio de Educación de Colombia, la iniciativa está dirigida a fortalecer las habilidades en la creación de contenido educativo y promover el uso seguro de la aplicación. Más de 25.000 maestros de Latinoamérica ya forman parte

Adiós a ordenar el lavavajillas: este robot humanoide lo hace por ti al igual que otras tareas
El dispositivo, de 1,67 metros de altura y 20 kilos, utiliza manos avanzadas, cámaras y comunicación verbal para ejecutar actividades complejas, como organizar platos y vasos, mientras aprende de sus propios errores gracias a la IA de OpenAI

Pokémon TCG Pocket: por qué los ‘eventos botín’ son clave para el metajuego
A lo largo de los meses, el juego ha presentado eventos especiales dedicados a cartas emblemáticas como Rayquaza o Ultra Necrozma ex

Los cinco canales de YouTube más famosos para ver a Mickey Mouse y otros programas de Disney
La Casa de Mickey Mouse es una de las series que está disponible en la plataforma de Google

El 75 % de las startups colombianas cierran antes de dos años por falta de validación, equipos y metas claras
Expertos en emprendimiento resaltan la importancia de validar productos, construir equipos sólidos y estructurar pitch realistas para superar la etapa crítica de financiamiento inicial y acceder a rondas clave de capital
