La plataforma social Discord, con 200 millones de usuarios activos mensuales, prepara un cambio drástico en la manera en que gestiona la edad y la privacidad de sus miembros. A partir de marzo de 2026, tanto nuevas como antiguas cuentas deberán verificar la edad si desean modificar ajustes de comunicación o acceder a contenidos restringidos.
Esta verificación podrá hacerse mediante un escaneo facial o presentando un documento de identidad. La medida transformará el anonimato que hasta ahora caracterizaba a Discord, con el objetivo de reforzar la seguridad para adolescentes.
Verificación obligatoria de edad en Discord
En el nuevo sistema, cualquier usuario que quiera desbloquear canales, servidores o contenidos clasificados por edad deberá demostrar que es mayor de edad. Discord exigirá una de dos opciones: reconocimiento facial a través de un video realizado con el propio dispositivo o el envío de una copia de un documento oficial.
La verificación será necesaria también para cambiar ciertas configuraciones de comunicación y solo los adultos verificados podrán modificar estos parámetros.
La experiencia para adolescentes se activará automáticamente en todas las cuentas, independientemente del país o antigüedad. Esta configuración por defecto limitará el acceso a funciones sensibles. Los filtros de contenido permanecerán activos y no podrán desactivarse. Los mensajes directos de desconocidos se enviarán a una bandeja separada, dificultando el contacto no solicitado.
Savannah Badalich, responsable de política de producto en Discord, aseguró: “Nuestro trabajo de seguridad es más importante que nunca cuando se trata de usuarios adolescentes”. La declaración refleja la prioridad que la plataforma otorga a la protección de los menores en línea.

Restricciones para cuentas no verificadas y despliegue global
Las cuentas que no completen la verificación quedarán sujetas a una serie de restricciones. Los filtros de contenido sensible estarán siempre activos, y los canales o servidores restringidos por edad permanecerán inaccesibles.
Además, la opción de modificar la configuración de mensajes directos solo estará habilitada para adultos que hayan probado su edad.
Discord ya había iniciado pruebas de este modelo durante 2025 en Reino Unido y Australia, impulsada por la Ley de Seguridad Online británica. Ahora, la plataforma extiende el sistema a nivel global mediante un despliegue gradual que abarcará a todos los usuarios, tanto nuevos como existentes.
Seguridad de los datos y controversias tras la filtración
La exigencia de verificación de edad llega en un contexto sensible para la plataforma. En octubre de 2025, la compañía admitió que un grupo de ciberdelincuentes comprometió a uno de sus proveedores externos de atención al cliente.

El incidente expuso fotografías de documentos de identidad de aproximadamente 70.000 usuarios, imágenes que habían sido enviadas durante apelaciones de verificación de edad. Los atacantes afirmaron haber robado datos de más de dos millones de cuentas, aunque Discord nunca reconoció esa cifra.
La gestión de datos personales se ha convertido en uno de los puntos más controvertidos del nuevo sistema. La empresa informa que ha cambiado de proveedor y ajustado su política desde el ataque. Los videos usados para reconocimiento facial ahora se procesan en el propio dispositivo y “nunca abandonan el teléfono”.
Los documentos de identidad enviados para verificación “se eliminan, en la mayoría de los casos, inmediatamente después de confirmar la edad”. Además, el estado de verificación no es visible para otros usuarios y, en principio, la compañía asegura que solo será necesario completar el proceso una vez.

Verificación de edad y endurecimiento de medidas en plataformas digitales
El endurecimiento de las reglas en Discord se da en el marco de un movimiento global hacia una mayor verificación de edad en entornos digitales. Roblox, por ejemplo, fue pionero al exigir escaneos faciales para acceder a su chat, política implementada en todo el mundo desde enero de 2026 tras pruebas en Australia, Nueva Zelanda y Países Bajos.
Roblox segmenta a sus usuarios en seis franjas etarias para impedir la comunicación entre menores y adultos, una medida relevante considerando que cerca del 40% de sus jugadores tiene menos de 13 años.
Otras redes sociales como Instagram y TikTok han reforzado sus configuraciones de seguridad para adolescentes, implementando cuentas privadas por defecto, límites de tiempo de pantalla y restricciones en las notificaciones nocturnas.

El año 2025 resultó un punto de inflexión para la protección de menores en línea. La mitad de los estados de Estados Unidos exige ya algún tipo de verificación de edad para acceder a redes sociales o contenidos para adultos.
Australia prohibió el acceso a redes sociales a menores de 16 años en diciembre de ese año. Francia, por su parte, promulgó en enero de 2026 una ley que veta el uso de redes sociales a menores de 15 años.
Últimas Noticias
Así son los perros robot que apoyarán en la seguridad durante el Mundial 2026
Estos dispositivos incorporan tecnología avanzada para vigilancia y respuesta temprana en los alrededores de los estadios

La música generada por IA ya suena en las competencias de los Juegos Olímpicos de Invierno
Los hermanos checos Mrázková y Mrázek eligieron música creada por IA para su presentación en patinaje sobre hielo
Cómo la protección de datos se ha vuelto el gran reto e la ciberseguridad en la era de la IA
La inteligencia artificial potencia tanto ataques cibernéticos como mecanismos defensivos en el entorno digital

La frase que se le atribuye a Stephen Hawking y revela quiénes tienen las mentes más fuertes y ruidosas
A través de su ejemplo, el científico invita a reconocer que, en muchos casos, la genialidad se esconde detrás de una apariencia discreta

Google ahora permite a los usuarios eliminar datos privados de sí mismos en los resultados de búsqueda
El sistema notifica cuando detecta información privada, por lo que el usuario puede solicitar la remoción inmediata de esos datos




