Discord aplica configuraciones predeterminadas para adolescentes a nivel global, requiriendo verificación de edad para acceder de forma segura a contenido sensible.Discord aplica configuraciones predeterminadas para adolescentes a nivel global, requiriendo verificación de edad para acceder de forma segura a contenido sensible.

Discord aplica configuraciones predeterminadas para adolescentes a nivel global, requiriendo verificación de edad para el acceso seguro a contenido sensible.

2026/02/10 13:09
Lectura de 4 min

Discord anunció el lunes que pronto pedirá a todos los usuarios a nivel mundial que confirmen su edad mediante reconocimiento facial o cargando una forma de identificación para acceder a contenido para adultos. 

El comunicado de prensa de Discord reveló que las características mejoradas de seguridad para adolescentes que se están implementando a nivel mundial impulsarán el objetivo de larga data de la compañía de hacer que la aplicación sea más segura y acogedora para usuarios de 13 años en adelante.

La plataforma de chat dijo que esta actualización proporcionará automáticamente a todos los usuarios nuevos y actuales en todo el mundo una experiencia apropiada para adolescentes con configuraciones de comunicación revisadas, acceso limitado a áreas restringidas por edad y filtrado de contenido que protege la privacidad y las conexiones profundas que caracterizan a Discord.

Discord amplía las verificaciones de edad global y controles de seguridad

Discord permite a las personas crear y unirse a grupos según sus intereses. La herramienta de mensajería grupal reveló que tiene más de 200 millones de usuarios mensuales.

Discord actualmente requiere que ciertos usuarios en el Reino Unido y Australia confirmen su edad para cumplir con las regulaciones de seguridad en línea. Sin embargo, la plataforma de chat anunció que implementará verificaciones de edad para todos los usuarios nuevos y existentes a nivel mundial a partir de principios de marzo de este año. Esto significa que algunos usuarios necesitarán completar un proceso de verificación de edad para cambiar ciertas configuraciones o acceder a contenido sensible, como servidores, canales restringidos por edad, comandos de la aplicación y ciertas solicitudes de mensajes.

La aplicación de servidor comunitario declaró que las nuevas configuraciones predeterminadas limitarán lo que los usuarios pueden ver y cómo pueden comunicarse. Solo los usuarios que se autentiquen como adultos podrán acceder a foros restringidos por edad y desenfocar contenido sensible. El sitio también reveló que hasta que los usuarios pasen las verificaciones de edad de Discord, no se les permitirá ver mensajes directos enviados por un usuario desconocido.

Drew Benvie, director de la consultoría de redes sociales Battenhall, afirmó que es una buena idea apoyar los esfuerzos para hacer de las redes sociales un lugar más seguro para todos los usuarios.

El movimiento de Discord llega en medio de una creciente preocupación mundial sobre cómo las plataformas de redes sociales exponen a niños y adolescentes a contenido dañino y características de diseño adictivas. 

Los gobiernos, reguladores y tribunales están examinando cada vez más a las empresas tecnológicas para determinar si están haciendo lo suficiente para proteger a los usuarios jóvenes. Las medidas recientes demuestran una presión creciente para mejorar los estándares de seguridad en línea en toda la industria.

La Unión Europea acusó el 6 de febrero a TikTok de violar las regulaciones digitales del bloque con características de "diseño adictivo" que conducen al uso compulsivo por parte de los niños.

Los reguladores de la UE dijeron que su investigación de dos años encontró que TikTok no ha hecho lo suficiente para evaluar cómo características como la reproducción automática y el desplazamiento infinito pueden afectar la salud física y emocional de los usuarios, particularmente niños y "adultos vulnerables".

La Comisión Europea dijo que cree que TikTok debería cambiar el "diseño básico" de su servicio. 

Los gigantes de las redes sociales enfrentan un juicio histórico sobre adicción infantil

Las corporaciones de redes sociales más grandes del mundo, incluida TikTok, están enfrentando una serie de juicios históricos que buscan hacerlas responsables de lesiones a niños que usan sus servicios en 2026. El 9 de febrero marcó el inicio de los argumentos de apertura en uno de esos juicios celebrado en la Corte Superior del Condado de Los Ángeles.

Hay acusaciones de que YouTube de Google y la empresa matriz de Instagram, Meta, lesionan y adictan intencionalmente a los niños. Los nombres originales de la demanda, TikTok y Snap, llegaron a acuerdos por montos desconocidos.

Un abogado estadounidense, Mark Lanier, dijo en la declaración de apertura que el caso es tan "fácil como ABC", que según dijo significa "adicción de los cerebros de los niños". El abogado también llamó a Google y Meta "dos de las corporaciones más ricas de la historia" que han "diseñado la adicción en los cerebros de los niños".

El fiscal Donald Migliori dijo en su declaración de apertura que Meta ha fabricado afirmaciones sobre la seguridad de sus plataformas al diseñar sus algoritmos para mantener a los jóvenes en línea a pesar de ser consciente de que los jóvenes son vulnerables a la explotación sexual en las redes sociales.

Hazte visible donde importa. Anuncia en Cryptopolitan Research y llega a los inversores y constructores más astutos del mundo cripto.

Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección service@support.mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.