
Instagram anunció que, antes de finalizar el 2025, comenzará a restringir de forma automática el contenido que pueden visualizar sus usuarios adolescentes. Esta política usará como parámetro el sistema de clasificación por edades para películas en Estados Unidos, específicamente el nivel PG-13, adaptando su plataforma para que lo accesible para menores de 18 años se asemeje a lo permitido en películas de dicha categoría.
Nueva política de control parental en Instagram: funcionamiento y alcance
La medida de Instagram, que pertenece a Meta, se orienta a mitigar la exposición de adolescentes a materiales considerados inadecuados según estándares estadounidenses. El comunicado oficial de la red social lo expresa con precisión: “Las Cuentas para Adolescentes de Instagram se regirán por la clasificación de películas PG-13, por defecto. Esto significa que los adolescentes verán contenido en Instagram similar al que verían en una película PG-13”.
De acuerdo con la nueva política, cualquier usuario menor de 18 años será automáticamente incluido en una configuración estricta, destinada a mayores de 13 años, sin posibilidad de modificar esta restricción por iniciativa propia.
Modificar el nivel de acceso solo será posible mediante autorización explícita de los padres, otorgando así a las familias un rol central en la gestión de la experiencia digital de los adolescentes.
Instagram también incorporará una nueva opción de control para tutores y responsables. “Como sabemos que cada familia es diferente, también presentamos una nueva configuración más estricta para los padres que prefieren una experiencia más restrictiva para sus hijos adolescentes”, informó la empresa.
Esto implica que los padres podrían optar por bloquear aún más el acceso a ciertos tipos de contenido, reforzando la personalización de la seguridad dentro de la plataforma.
La restricción de contenido no se limitará solo a los feeds, historias o publicaciones regulares, sino que también se extenderá a las interacciones entre usuarios jóvenes y los chatbots de inteligencia artificial desarrollados por Meta. Estos asistentes virtuales también respetarán las pautas marcadas por la clasificación PG-13, evitando que los adolescentes accedan mediante diálogo automatizado a información o temáticas que sobrepasen tales parámetros.
Respuesta de Meta ante preocupaciones sobre salud mental y seguridad en adolescentes
Esta nueva política surge dentro de un contexto de creciente preocupación global sobre los efectos del uso de redes sociales en la salud mental y el bienestar emocional de la juventud. Meta, dueña también de Facebook, WhatsApp y Messenger, lleva años bajo la mirada pública y regulatoria debido al impacto que sus aplicaciones generan en niños y adolescentes.
Las alarmas sociales se han enfocado especialmente en la exposición a contenido potencialmente dañino, la adicción a las plataformas y los riesgos asociados a la interacción con desconocidos y posibles depredadores sexuales.

La empresa viene enfrentando procesos judiciales tanto en tribunales estatales como federales dentro de Estados Unidos. Estas demandas, presentadas por afectados y sus familias, sostienen que Meta perjudica a jóvenes con un producto adictivo, proponiendo que la compañía no solo permite sino que fomenta la exposición excesiva mediante algoritmos y diseño de producto orientados a maximizar el tiempo de pantalla.
Perspectivas y desafíos de la regulación de contenido en redes sociales
La decisión de vincular la moderación de contenidos al sistema estadounidense de clasificación de películas responde a una tendencia que busca ofrecer criterios más transparentes y comprensibles para padres, tutores y autoridades. Elegir una referencia culturalmente reconocida, como el sello PG-13, ayuda a lograr que la política sea entendida y aceptada tanto por los usuarios como por sus responsables legales.
Aun así, el desafío para Meta residirá en la capacidad de identificar y clasificar de forma automática y precisa los miles de publicaciones nuevas cada minuto, especialmente cuando los matices culturales y contextuales hacen que la definición de “contenido inapropiado” pueda variar de acuerdo con cada país, comunidad o entorno familiar.

La empresa sostiene que mantiene el compromiso de proteger a los menores de contenido inapropiado y depredadores sexuales desde hace décadas, aunque los recientes procesos judiciales ponen bajo escrutinio público la efectividad y exhaustividad de las medidas implementadas.
Implementación y alcances futuros de la medida
De acuerdo con lo comunicado por Instagram, la actualización de configuraciones y herramientas entrará en vigencia antes de fin de año. Una vez aplicada, todos los perfiles pertenecientes a usuarios que no hayan cumplido 18 años quedarán sujetos de forma predeterminada a restricciones alineadas con el nivel PG-13.
Estas actualizaciones se implementarán hasta finales de año en Estados Unidos, Reino Unido, Canadá y Australia.
Las conversaciones con inteligencia artificial y la visualización de contenidos de todo tipo quedarán abarcadas por la política, conformando así un entorno digital más seguro, en línea con demandas sociales y judiciales que exigen rigor y detección proactiva ante potenciales riesgos para los jóvenes.
Últimas Noticias
Google lanzará nuevo hardware Fitbit en 2026
El potencial lanzamiento de nuevos productos Fitbit podría coincidir con la consolidación de la aplicación Fitbit Coach

Este es el robot humanoide de Noetix Robotics que cuesta lo mismo que un iPhone
Bumi puede caminar, mantener el equilibrio, bailar, responder a comandos de voz y cuenta con una programación visual fácil de usar mediante arrastrar y soltar

Microsoft prepara nueva herramienta en Windows 11 para diagnosticar errores que provocan fallos del sistema
La nueva función de diagnóstico proactivo de Windows 11 analizará la memoria del sistema tras un reinicio inesperado para detectar el origen del fallo

Google Cloud anuncia capacitación gratuita de su IA Gemini: cómo inscribirse gratis
La principal propuesta, ‘Capacita+ aprende IA con Google Cloud’, apunta a capacitar a estudiantes y profesionales de 50 universidades de 10 países de la región
Cuáles son las estrategias que suman transparencia, equidad y cooperación internacional a la inteligencia artificial
Nuevas directrices éticas, acuerdos entre organizaciones y la supervisión humana se consolidan como pilares para asegurar un desarrollo confiable de la IA, mientras instituciones, empresas y gobiernos trabajan para potenciar sus beneficios sociales y minimizar riesgos



