- Roblox impone una verificación de edad obligatoria mediante estimación facial o documento para usar el chat.
- El sistema agrupa a los jugadores por franjas de edad para limitar el contacto entre adultos y menores.
- Las imágenes se procesan por Persona y se borran tras la verificación, con opciones de apelación y métodos alternativos.
- La medida llega en un contexto de presión regulatoria y demandas por la protección de menores.

La popular plataforma de juegos y experiencias creadas por usuarios, Roblox, ha comenzado a exigir un control de edad obligatorio para poder utilizar el chat allí donde esta función está disponible. Jugar seguirá siendo posible sin verificación, pero cualquier forma de comunicación escrita o de voz pasa ahora por un filtro previo de edad; la medida llega en un contexto con antecedentes sobre advertencias de seguridad y depredadores en la plataforma.
Con este cambio, la compañía da un giro relevante a cómo se relacionan los jugadores dentro del servicio: el clásico campo de fecha de nacimiento se sustituye por sistemas mucho más estrictos, como la verificación facial y el uso de documentos oficiales (similares a los procesos para verificar edad en TikTok). El movimiento pretende reducir los riesgos de contacto entre adultos y menores, y responder al creciente escrutinio regulatorio, especialmente en Europa y otros mercados occidentales.
Un nuevo chat restringido por edad
La plataforma ha puesto en marcha lo que denomina un modelo de “chat basado en la edad” que condiciona el acceso a la mensajería a la superación de un control de edad previo. Una vez verificado el usuario, el sistema lo encuadra en una de seis franjas: menores de 9 años, de 9 a 12, de 13 a 15, de 16 a 17, de 18 a 20 y mayores de 21 años.
Por defecto, el chat solo permite conversar con personas del mismo grupo de edad o de los segmentos inmediatamente superior e inferior. Es decir, un adolescente de 13 a 15 años podrá interactuar con usuarios de su rango, así como con los ubicados en 9-12 y 16-17, pero no con adultos alejados de su franja; una lógica parecida a la usada en otras plataformas para verificar edad en Discord.
En el caso de los más pequeños, los menores de 9 años tienen el chat desactivado salvo que un adulto responsable otorgue un consentimiento explícito a través de los controles parentales y complete su propia verificación. La idea es minimizar las posibilidades de interacción directa entre adultos y niños pequeños dentro de la plataforma.
Para los usuarios de 13 años en adelante se mantiene la función de “conexiones de confianza”, que permite ampliar el círculo de contactos a personas conocidas que no encajan exactamente en los rangos inmediatos, por ejemplo amigos o familiares con los que ya existe relación fuera del juego.
Cómo funciona la verificación facial de edad
El acceso al chat no se concede de manera automática. Para verificar su edad, los jugadores deben abrir la app de Roblox, activar la cámara del móvil o del ordenador y seguir las instrucciones que aparecen en pantalla. El sistema realiza un escaneo 3D del rostro para estimar la edad de la persona, no para identificarla individualmente.
La tecnología de verificación no la gestiona directamente Roblox, sino Persona, un proveedor especializado en identidad digital. Según ambas compañías, las imágenes y vídeos utilizados en el proceso se procesan de forma segura y se eliminan inmediatamente después, sin almacenarse para otros fines.
Los jugadores que tengan 13 años o más disponen de una alternativa: pueden optar por subir un documento oficial (como un DNI, pasaporte o permiso de conducir, según el país) en vez de pasar por el análisis facial. En cualquier caso, la verificación solo es necesaria para chatear; quien no quiera pasar por el proceso seguirá pudiendo jugar, pero sin acceder a las funciones sociales.
Roblox insiste en que su sistema de estimación de edad no es reconocimiento facial en el sentido clásico, ya que no busca identificar a la persona, sino únicamente calcular su grupo de edad. Esta matización es especialmente relevante en Europa, donde la normativa sobre biometría y tratamiento de datos personales es más estricta.
La empresa señala además que, si detecta inconsistencias llamativas entre la edad declarada y el comportamiento de la cuenta, podrá solicitar una nueva verificación para confirmar que el usuario se encuentra en la franja adecuada.
Margen de error, apelaciones y alternativas
La compañía ha sometido su sistema a evaluaciones externas. Laboratorios independientes en el Reino Unido han certificado que el modelo de estimación facial tiene un margen medio de error cercano al 1,4 años en menores de 18, una precisión relativamente alta para este tipo de tecnologías, aunque no perfecta.
Consciente de estas limitaciones, Roblox ha habilitado mecanismos de apelación para los casos en que el sistema sitúa al usuario en una franja que no le corresponde. Si alguien considera que su edad se ha calculado mal, puede volver a pasar el proceso utilizando otros métodos: envío de documentación oficial o intervención de los progenitores para actualizar los datos del menor.
La plataforma recuerda que ningún método de verificación es infalible y que por eso ha optado por un enfoque de varias capas: comprobación de edad, segmentación del chat, moderación automatizada y controles parentales. La empresa asegura que revisará de forma continua el rendimiento del sistema y que está abierta a introducir ajustes técnicos o de política si detecta fallos relevantes.
Además, Roblox indica que monitoriza de manera constante el comportamiento de las cuentas y puede requerir nuevas comprobaciones de edad cuando detecta signos de que un perfil podría estar siendo utilizado por una persona mayor o menor a lo declarado, una cuestión especialmente sensible en contextos de posible grooming.
Despliegue global y foco en Europa
El nuevo requisito de verificación de edad se ha ido activando a nivel mundial tras una fase de pruebas en Australia, Nueva Zelanda y los Países Bajos, donde ya es obligatorio para todos los usuarios que quieran usar el chat. En estos países piloto, la compañía afirma que más de la mitad de los jugadores activos diarios han completado el proceso.
A partir de esa experiencia inicial, Roblox ha comenzado un despliegue progresivo que incluye a la Unión Europea, Reino Unido y otros mercados clave. En la práctica, los usuarios verán un mensaje dentro de la aplicación invitándoles a completar la verificación si desean seguir chateando con otras personas.
La empresa sostiene que decenas de millones de usuarios activos diarios ya han pasado por esta verificación y que el porcentaje irá en aumento a medida que el requisito se haga imprescindible para acceder a más funciones sociales.
En el caso europeo, esta política se enmarca también en un contexto regulatorio más exigente, con normas como el Reglamento General de Protección de Datos (RGPD) y la Ley de Servicios Digitales (DSA), que presionan a las plataformas para reforzar la protección de los menores y la transparencia en el tratamiento de datos.
Roblox ha publicado información específica en su Centro de seguridad para familias, donde detalla las herramientas de control parental disponibles y ofrece guías para madres y padres sobre cómo configurar las cuentas de los menores, limitar los contactos y reportar comportamientos sospechosos.
Privacidad, seguridad y moderación de contenidos
Más allá del control de edad, la compañía insiste en que su estrategia se basa en un sistema de seguridad multicapa. Esto incluye filtros automáticos que bloquean el intercambio de datos personales (nombres reales, teléfonos, direcciones, enlaces externos) entre usuarios que no tengan una relación de confianza verificada.
La plataforma también recurre a herramientas de moderación proactiva que combinan algoritmos y equipos humanos para detectar contenido inapropiado, lenguaje de riesgo y posibles situaciones de acoso o abuso. Los jugadores pueden denunciar chats, experiencias o usuarios que incumplan las normas comunitarias.
Dentro de este paquete de medidas, Roblox subraya que las imágenes y vídeos usados en la verificación facial se borran de inmediato tras completar el proceso, y que la tecnología no se reutiliza para reconocimiento facial masivo, publicidad ni otros fines comerciales. No obstante, expertos recuerdan riesgos asociados a incidentes previos como la filtración de datos en plataformas de comunicación, lo que exige medidas robustas de gestión y supervisión.
La empresa sostiene que sus nuevos controles van más allá de lo que ofrecen otras plataformas de videojuegos y comunicación online y aspira a fijar un estándar de referencia en la industria en lo relativo a protección de menores en entornos virtuales.
Aun así, organizaciones especializadas en seguridad infantil y privacidad recuerdan que la tecnología no sustituye a la supervisión activa de las familias. Expertos consultados en distintos medios recomiendan combinar estas herramientas con reglas claras de uso en casa y conversaciones habituales sobre riesgos en internet.
Contexto legal, críticas y debate sobre la eficacia
La implantación de la verificación facial de edad llega en un momento delicado para Roblox, marcado por demandas y pesquisas regulatorias por presuntos fallos en la protección de menores frente a situaciones como el grooming o la exposición a contenidos sexuales y apuestas ilegales dentro de experiencias creadas por usuarios.
En Estados Unidos, la empresa se ha visto envuelta en numerosos litigios y en el escrutinio de varios estados, mientras que en Europa los reguladores de comunicaciones y protección de datos siguen con atención el desarrollo de las nuevas funciones de control de edad y moderación.
Algunos especialistas en seguridad digital consideran que el nuevo sistema de Roblox representa un avance importante y un mensaje claro a la industria, animando a que otras plataformas de juegos y redes sociales adopten medidas similares. Ven la verificación facial y la segmentación de chat como un freno relevante al contacto directo entre adultos y menores.
Otros expertos, sin embargo, se muestran más cautos y sostienen que la verificación de edad es solo una pieza de un problema más amplio. Señalan que el historial de la plataforma en materia de contenidos inapropiados y abusos no se corrige únicamente con un nuevo filtro técnico, y reclaman auditorías independientes, políticas de “seguridad por diseño” más estrictas y opciones de configuración más protectoras por defecto.
En este debate también pesa la cuestión de la reputación y la confianza. Para algunos analistas, la implantación de controles tan visibles busca no solo cumplir con las nuevas obligaciones legales, sino también reconstruir la imagen de la compañía ante familias y reguladores tras años de polémicas en torno a la exposición de menores a riesgos online.
Muchas voces coinciden en que, incluso con estas novedades, ningún entorno digital es completamente seguro y que la clave pasa por combinar mejor diseño de plataforma, supervisión adulta, educación digital y capacidad real de respuesta ante incidentes.
Con esta verificación facial de edad para poder chatear en Roblox, la plataforma reconfigura de raíz su experiencia social, refuerza la barrera entre adultos y menores y se adelanta a un escenario en el que las leyes europeas y de otros territorios exigirán controles de edad cada vez más robustos; el alcance real de esta medida, y hasta qué punto logrará reducir riesgos sin invadir en exceso la privacidad, dependerá tanto de su aplicación técnica como de la implicación de familias, reguladores y de la propia comunidad de jugadores.
