- Roblox hará obligatoria la verificación de edad para acceder al chat, mediante selfie, reconocimiento facial o documento de identidad.
- La plataforma dividirá a los usuarios en seis grupos de edad para limitar con quién se puede hablar y en qué condiciones.
- La medida arranca en Australia, Nueva Zelanda y Países Bajos y se extenderá al resto del mundo a partir de enero de 2026.
- Las nuevas normas buscan frenar el grooming y la explotación infantil, aunque generan dudas por el uso de datos biométricos.
Roblox, una de las plataformas de videojuegos en línea más utilizadas por niños y adolescentes, va a introducir un cambio profundo en la forma en que se puede hablar dentro del juego: el acceso al chat quedará limitado solo a quienes verifiquen su edad. Para millones de familias en Europa y España, donde Roblox es un habitual en móviles, tablets y ordenadores, este giro puede marcar un antes y un después en la forma de controlar lo que los menores hacen en Internet.
La compañía ha confirmado que sin verificación de edad el chat se bloqueará por completo, de modo que los jugadores podrán seguir creando mundos, explorando juegos y participando en actividades, pero no podrán enviar ni recibir mensajes. El objetivo declarado es reducir el riesgo de grooming, conversaciones desubicadas entre adultos y menores y otras formas de acoso que llevan años generando quejas, investigaciones oficiales y, en algunos países, incluso bloqueos del juego en entornos escolares.
Cómo será la nueva verificación de edad en el chat de Roblox
Para poder escribir mensajes o usar las herramientas sociales de la plataforma, los usuarios tendrán que pasar por un sistema de verificación que combina reconocimiento facial y/o validación de un documento oficial de identidad. Es decir, Roblox pedirá que el jugador suba una foto de su DNI, pasaporte u otro documento aceptado, o que se tome una selfie que será procesada por tecnología de estimación de edad basada en inteligencia artificial.
Desde la empresa insisten en que, técnicamente, la verificación es «voluntaria», pero en la práctica quien no complete el proceso no podrá chatear. No habrá acceso a mensajería privada, chat público ni a otras funciones sociales que permitan la comunicación directa entre usuarios, lo que limita de manera clara la experiencia de los menores que hasta ahora utilizaban el chat como una parte central del juego.
Una vez validada la información, Roblox clasificará a cada cuenta en seis franjas de edad, que van desde menores de 9 años hasta mayores de 21. En los grupos intermedios se incluirán, por ejemplo, niños de 9 a 12 años, adolescentes de 13 a 15, jóvenes de 16 a 17 y mayores de edad. Esta segmentación será la base para decidir quién puede hablar con quién y en qué condiciones, de forma que se intente evitar conversaciones cruzadas entre adultos y menores sin supervisión.
Uno de los cambios más llamativos es que los menores de 9 años no podrán utilizar el chat sin un consentimiento explícito de sus padres o tutores y sin que exista una verificación de edad adecuada. En la práctica, esto supondrá que una parte de los usuarios más pequeños verá el juego reducido a las funciones de exploración y creación, sin posibilidad de conversar con otros jugadores salvo que la familia intervenga directamente.
Roblox ha subrayado que, pese a la dureza del cambio, la intención es que el juego siga siendo atractivo y funcional: la restricción afecta al chat, no a la jugabilidad básica ni a las herramientas de creación. Los mundos creados por la comunidad seguirán estando disponibles y los niños podrán seguir acumulando experiencias, pero la parte social quedará mucho más controlada.
Despliegue por países y posibles efectos en Europa y España
La compañía ha confirmado que esta nueva política de control de edad se estrenará primero en Australia, Nueva Zelanda y Países Bajos, países que servirán como banco de pruebas para pulir el sistema de reconocimiento facial y la clasificación por rangos de edad. Se trata de mercados en los que Roblox tiene una base de usuarios muy activa y un marco regulatorio relativamente avanzado en materia de protección de menores.
Tras esa primera fase, la plataforma prevé que el sistema de verificación se extienda a nivel global a partir de enero de 2026. Aunque Roblox no ha detallado aún fechas concretas para cada país europeo, la empresa ha dejado claro que la expansión será progresiva y que llegará también a los usuarios de la Unión Europea, España incluida, en ese calendario general.
En el caso europeo, la introducción del reconocimiento facial y de la recopilación de datos de identidad se cruzará con la aplicación del Reglamento General de Protección de Datos (RGPD) y con normativas específicas sobre menores y contenidos digitales. Será clave cómo explique Roblox quién procesa esos datos, durante cuánto tiempo se conservan y con qué garantías de privacidad, algo que preocupa especialmente en territorios con agencias de protección de datos muy activas.
Para España, donde Roblox se ha consolidado como una opción habitual entre los más jóvenes, la llegada de estos requisitos puede trastocar la forma en la que muchas familias dejan que los niños jueguen. Es previsible que padres y madres tengan que implicarse más en la creación y gestión de las cuentas, decidir si permiten o no la verificación con selfie o documento, y revisar con calma las nuevas opciones de control parental.
La empresa presenta esta política como un «nuevo estándar de seguridad digital» para plataformas con una base enorme de usuarios infantiles. Sin embargo, la aceptación dependerá en buena parte de la confianza que generen los mecanismos de verificación y de la sensación de que el sistema protege de verdad sin invadir en exceso la intimidad de los menores.
Presión de denuncias, demandas y bloqueos por fallos de seguridad
El giro hacia un control mucho más estricto del chat no surge de la nada. En los últimos años, Roblox ha estado en el centro de investigaciones oficiales, demandas judiciales y críticas de organizaciones de protección de la infancia que señalaban la facilidad con la que adultos podían interactuar con niños sin apenas filtros de seguridad.
En Estados Unidos, la plataforma se ha enfrentado a demandas y pronunciamientos de fiscales generales de distintos estados, que han acusado a la empresa de no hacer lo suficiente para blindar a los menores frente al grooming y otros riesgos. Casos como los señalados por fiscales de Texas, Kentucky y Luisiana contribuyeron a dibujar un panorama en el que el chat de Roblox se veía como un espacio vulnerable.
A este contexto se sumó la investigación abierta por la Fiscalía General de Florida, donde se acusó a la compañía de beneficiarse económicamente del tiempo que los niños pasaban dentro de la plataforma sin proporcionar una protección acorde al nivel de exposición. Estas pesquisas reforzaron la imagen de que el chat de Roblox podía funcionar como un canal directo para que adultos malintencionados contactasen con menores.
El debate no se ha limitado a Estados Unidos. En América Latina, por ejemplo, un informe de Insight Society estimó que solo en México existían más de 21,8 millones de usuarios de Roblox, de los cuales cerca de cinco millones serían menores de entre 9 y 15 años. La presencia masiva de niños en un entorno con filtros de seguridad cuestionados encendió las alarmas de expertos en ciberseguridad y de organismos dedicados a los derechos de la infancia.
En algunos países, las preocupaciones se tradujeron en medidas contundentes. En Argentina se registraron casos concretos de grooming a través del chat del juego y, como respuesta, jurisdicciones como la Ciudad Autónoma de Buenos Aires y la provincia de Córdoba decidieron bloquear Roblox en los ordenadores escolares. Estas decisiones no afectaron al uso doméstico, pero enviaron un mensaje claro sobre la percepción del riesgo en entornos educativos.
Una audiencia enorme y cada vez más joven
El peso de estas críticas se entiende mejor si se mira el tamaño real de la plataforma. Según datos recientes de la propia compañía, Roblox alcanzó 151,5 millones de usuarios activos diarios en el tercer trimestre del año. Es una cifra que lo sitúa entre los espacios digitales más masivos del mundo, comparable a las grandes redes sociales en términos de usuarios conectados cada día.
Buena parte de esa base de usuarios está formada por menores de edad. En distintos mercados, estudios independientes han colocado a Roblox entre los juegos más descargados y usados por niños de primaria y primeros cursos de secundaria. En países como Argentina, por ejemplo, encabezó el ranking de descargas de juegos online durante el segundo trimestre de 2025, con más de 800.000 instalaciones entre abril y junio.
Los datos apuntan a que el núcleo de usuarios se concentra en la franja de 8 a 11 años, un tramo de edad especialmente sensible desde el punto de vista de la protección digital. Son niños que empiezan a moverse con soltura por Internet, pero que todavía no cuentan con las herramientas necesarias para detectar conductas sospechosas o posibles intentos de manipulación por parte de desconocidos.
Esta combinación de uso masivo y público infantil ha llevado a que el chat de Roblox sea visto, por parte de algunos expertos, como un entorno de alto riesgo si no se aplican controles estrictos. La posibilidad de que cualquier persona se registre, se conecte y entable conversación con menores en espacios abiertos o privados ha sido una de las principales fuentes de preocupación.
La empresa, por su parte, defiende que la introducción de la verificación de edad con reconocimiento facial o documento es precisamente una respuesta a esta realidad: busca limitar al máximo el contacto entre adultos y niños sin supervisión, reforzar los filtros de chat y posicionarse como una plataforma que se toma en serio la seguridad infantil, incluso a costa de introducir barreras que puedan incomodar a parte de sus usuarios.
Selfies, inteligencia artificial y debate sobre los datos biométricos
Uno de los puntos que más está dando que hablar es la forma concreta en la que Roblox va a comprobar la edad de sus usuarios. La compañía utilizará tecnología de estimación de edad por reconocimiento facial, de manera que el sistema analizará una selfie del jugador y, con ayuda de herramientas de inteligencia artificial, estimará si se encuentra dentro de un determinado rango de edad.
Esta selfie se suma a la opción de subir un documento oficial de identidad, que permitirá confirmar con mayor precisión la edad real del usuario. Con estos datos, la plataforma asignará a cada cuenta un grupo de edad, y en función de esa clasificación decidirá qué tipo de interacciones sociales se permiten, qué filtros se aplican al chat y con qué otros usuarios puede comunicarse esa persona.
Desde Roblox, responsables como Matt Kaufman, jefe de seguridad de la compañía, han defendido públicamente que el objetivo es convertirse en un modelo a seguir para otras plataformas digitales en materia de protección infantil. Sostienen que, dada la magnitud de los problemas de grooming y explotación infantil en Internet, medidas como la verificación con selfie son una forma razonable de subir el nivel de seguridad.
Sin embargo, una parte de la comunidad de jugadores y numerosos usuarios en redes sociales han recibido estas medidas con recelo. Algunos las califican como una estrategia de control excesivo disfrazada de política de seguridad, y advierten de que podría provocar la marcha de muchos jugadores que no quieren compartir ese tipo de datos con una empresa privada, por miedo a filtraciones o usos no previstos.
También se han alzado voces críticas en relación con la recopilación y posible almacenamiento de datos biométricos, como las características del rostro captadas en la selfie. Diversos usuarios y expertos apuntan que existen métodos menos invasivos para comprobar la edad, y que la implementación de tecnologías de reconocimiento facial debería ir acompañada de garantías muy claras sobre borrado de datos, cifrado y uso exclusivo para la verificación.
En este contexto, la llegada del sistema a Europa estará bajo la lupa de autoridades y organizaciones que vigilan el uso de inteligencia artificial aplicada al reconocimiento facial. Los reguladores comunitarios han mostrado en otras ocasiones su preocupación por el uso de datos biométricos, y no sería extraño que solicitaran explicaciones detalladas a Roblox o incluso impusieran condiciones adicionales para su despliegue en territorio europeo.
Entre la protección infantil y el rechazo de parte de la comunidad
La nueva política de verificación de edad se presenta como una respuesta directa al problema de los depredadores infantiles y la explotación sexual en entornos digitales. La empresa argumenta que, si no se controla quién hay detrás de cada cuenta, es imposible impedir que un adulto se haga pasar por menor, se infiltre en los chats y contacte con niños sin levantar sospechas.
El fiscal general de Florida, James Uthemeir, llegó a describir la plataforma como «un caldo de cultivo para que depredadores tengan acceso a los niños», acusando a la compañía de permitir que estos usuarios se aprovechen de los menores y los expongan a daños graves. Afirmaciones de este tipo han tenido un peso importante en la decisión de Roblox de ir un paso más allá y exigir una verificación en toda regla para quienes quieran hablar a través del juego.
Al mismo tiempo, sectores críticos recuerdan que no todo se resuelve con controles técnicos. Señalan que el verdadero reto pasa por combinar herramientas de moderación, educación digital, participación activa de las familias y actuación rápida ante denuncias. Temen que la verificación con reconocimiento facial pueda transmitir una falsa sensación de seguridad si después no se refuerzan otros mecanismos de supervisión.
En redes sociales, algunos jugadores y padres han expresado que, aunque entienden la necesidad de proteger a los menores, no se sienten cómodos compartiendo selfies o documentos de identidad con una empresa de videojuegos. Otros temen que niños y adolescentes intenten sortear las restricciones utilizando cuentas de adultos, datos de terceros o servicios alternativos de mensajería fuera del propio juego, trasladando el problema a espacios aún menos controlados.
Lo que sí parece claro es que, con esta decisión, Roblox asume el riesgo de perder parte de su base de usuarios que no quiera pasar por el proceso de verificación o que prefiera juegos donde la interacción social sea más abierta. A cambio, la compañía apuesta por reforzar su perfil como plataforma «segura para niños», algo que puede resultar clave frente a reguladores, colegios, instituciones y padres que llevan tiempo reclamando medidas contundentes.
Con un calendario que sitúa la expansión global de estas normas a partir de enero de 2026 y un despliegue inicial en países pioneros como Australia, Nueva Zelanda y Países Bajos, el movimiento de Roblox marca un punto de inflexión en la industria del videojuego online. El equilibrio entre proteger a los menores, respetar la privacidad y mantener una experiencia de juego atractiva será determinante para saber si otras plataformas siguen el mismo camino o si, por el contrario, el modelo genera más resistencia que adhesiones.
