- Instagram enviará alertas a padres con supervisión si sus hijos buscan repetidamente términos de suicidio o autolesión.
- Los avisos llegarán por correo electrónico, SMS, WhatsApp y notificación en la app, con recursos de ayuda especializados.
- La función se estrena en EE. UU., Reino Unido, Australia y Canadá y se ampliará a otras regiones a lo largo del año.
- Meta prepara avisos similares cuando los adolescentes hablen de suicidio o autolesión con sus chatbots de inteligencia artificial.
Instagram está dando un paso más en la protección de los menores frente al contenido relacionado con el suicidio y la autolesión. La red social ha anunciado que empezará a avisar a los padres cuando detecte que sus hijos adolescentes buscan de forma insistente este tipo de términos en un corto espacio de tiempo.
El movimiento llega en plena presión judicial y regulatoria sobre Meta por el impacto de sus plataformas en la salud mental juvenil, y se enmarca en una estrategia para ofrecer más herramientas de supervisión a las familias sin convertir la app en un sistema de vigilancia constante.
En qué consiste la nueva alerta para padres
La novedad clave es que Instagram, además de bloquear determinados resultados, comunicará directamente a los padres inscritos en las herramientas de supervisión parental que su hijo ha intentado buscar contenido sensible varias veces en poco tiempo.
La compañía explica que estas alertas se activarán cuando las búsquedas incluyan frases que promuevan el suicidio o la autolesión, términos explícitos como «suicidio» o «autolesión» o expresiones que sugieran que el adolescente podría querer hacerse daño a sí mismo.
Según Meta, el objetivo no es simplemente informar por informar, sino dar a los adultos responsables una señal temprana para que puedan ofrecer apoyo y abrir una conversación delicada con el menor en un momento potencialmente crítico.
Para recibir los avisos será imprescindible que el padre, madre o tutor tenga activada la supervisión de la cuenta del adolescente. Sin esta configuración previa, la plataforma no enviará ninguna notificación, algo que Meta remarca para subrayar que no se trata de una monitorización masiva sin consentimiento.
Desde la compañía reconocen que puede ser impactante recibir una alerta de este tipo, pero insisten en que se ha diseñado, en colaboración con expertos en prevención del suicidio, para aportar contexto, recursos y pautas de actuación y no solo un aviso frío.
Cómo se enviarán las notificaciones y qué verán los padres
Cuando se cumplan los criterios fijados por la plataforma, los padres recibirán un aviso por correo electrónico, SMS o WhatsApp, además de una notificación dentro de la propia aplicación, en función de los datos de contacto que tengan configurados en su cuenta de supervisión.
Al tocar la alerta, se abrirá un mensaje a pantalla completa en el que se explicará que el adolescente a su cargo ha intentado buscar repetidamente términos vinculados con el suicidio o la autolesión en un periodo corto de tiempo.
En ese mensaje, Instagram pondrá a disposición de las familias recursos elaborados por especialistas en salud mental y prevención del suicidio, con recomendaciones para abordar la conversación con el menor y enlaces a líneas de ayuda y servicios de apoyo profesional.
Meta insiste en que ha intentado encontrar un equilibrio: no se notificará por una sola búsqueda aislada, sino tras detectar un patrón de insistencia, para evitar un exceso de avisos que podrían acabar perdiendo efectividad si se disparan de forma constante.
La compañía también recuerda que, incluso sin estas alertas, ya mantiene políticas estrictas contra el contenido que glorifique o fomente el suicidio o la autolesión, y que este tipo de publicaciones se eliminan o se limitan severamente en la plataforma, además de ofrecer herramientas para verificar violaciones de publicaciones en Instagram.
Qué ve el adolescente y qué se bloquea ya en Instagram
Instagram asegura que las cuentas de menores tienen desde hace tiempo restricciones específicas en las búsquedas relacionadas con autolesiones y suicidio. Cuando un adolescente introduce estos términos, la app impide mostrar resultados que puedan ser dañinos o que promuevan conductas de riesgo.
En lugar de ello, el sistema redirige a los jóvenes hacia recursos de ayuda y líneas telefónicas especializadas, adaptadas en muchos casos al país en el que se encuentran, para facilitar que puedan hablar con profesionales si lo necesitan.
La nueva función no cambia ese bloqueo, sino que lo complementa: si el menor insiste en buscar de forma reiterada ese tipo de contenido, se activará el mecanismo que avisa a los padres que tienen la supervisión activada.
Meta matiza que permite a los usuarios adultos compartir relatos personales sobre sus dificultades con la salud mental, siempre que no se presenten de forma que puedan servir como guía o incentivo para autolesionarse. Ese tipo de publicaciones, añade, se ocultan a los perfiles adolescentes incluso si siguen a la persona que las publica.
Con este enfoque, la empresa intenta encontrar un punto intermedio entre evitar la exposición a contenido peligroso y permitir testimonios que puedan tener un efecto de apoyo para personas que están pasando por momentos complicados.
Despliegue por países y posible impacto en Europa
Las alertas comenzarán a activarse primero en Estados Unidos, Reino Unido, Australia y Canadá, donde empezarán a llegar a las familias «a partir de la semana que viene», según el calendario avanzado por la compañía.
Meta ha señalado que estas funciones se irán extendiendo al resto de regiones a lo largo del año. Aunque no ha concretado fechas cerradas para España o la Unión Europea, la intención de la empresa es que acaben estando disponibles de forma global.
En el contexto europeo, esta medida se cruza con debates ya abiertos sobre la regulación del entorno digital para menores, la verificación de edad y la responsabilidad de las grandes plataformas. El despliegue en la UE tendrá que encajar, además, con normas como el Reglamento de Servicios Digitales y las leyes de protección de datos.
El propio Mark Zuckerberg ha defendido en diversas comparecencias que la verificación de la edad debería recaer sobre sistemas operativos y tiendas de aplicaciones como Apple y Google, más que en los desarrolladores individuales, argumento que podría volver a la mesa cuando estas nuevas alertas se discutan con reguladores europeos.
Todo apunta a que, cuando la función llegue a España y al resto de Europa, se pondrá el foco tanto en su utilidad real para prevenir situaciones de riesgo como en el respeto a la privacidad de los adolescentes y el uso de los datos que generan sus búsquedas.
Relación con los juicios y críticas sobre salud mental juvenil
El anuncio no se produce en el vacío: Meta se enfrenta a múltiples demandas en Estados Unidos por presuntos daños a menores, en las que se acusa a sus plataformas de fomentar la adicción y de no proteger lo suficiente frente a contenidos que pueden derivar en depresión, trastornos alimentarios o pensamientos suicidas.
En uno de los casos más mediáticos, el CEO de la compañía, Mark Zuckerberg, declaró ante un tribunal en Los Ángeles en una causa en la que una usuaria afirma que desarrolló adicción a las redes sociales durante su adolescencia.
Durante ese testimonio, Zuckerberg reiteró que, a su juicio, no hay consenso científico sólido que demuestre que las redes sociales causan directamente daños en la salud mental, aunque sí reconoce que es un ámbito que se sigue estudiando y donde se están aplicando ajustes de seguridad.
Otro frente judicial abierto se encuentra en Nuevo México, donde se investiga si Meta no protegió adecuadamente a menores frente a la explotación sexual en sus servicios. En ese proceso han salido a la luz documentos internos que reflejan debates dentro de la empresa sobre cómo el cifrado de extremo a extremo podría dificultar la denuncia de casos de abuso infantil.
Meta ha rechazado las acusaciones en estos procedimientos y sostiene que invierte de forma significativa en herramientas y equipos dedicados a la seguridad infantil, presentando este nuevo sistema de alertas de Instagram como una pieza más dentro de ese esfuerzo continuo.
La inteligencia artificial entra en escena
Además de las búsquedas tradicionales, Meta reconoce que cada vez más adolescentes acuden a chatbots y sistemas de inteligencia artificial para hablar de emociones y problemas personales, en ocasiones antes que a sus propios familiares o amigos.
Por ello, la compañía ha avanzado que prepara alertas parentales similares para ciertas interacciones con su IA. Si un menor intenta mantener conversaciones con el chatbot de Meta en las que se aborden ideas de suicidio o autolesiones, también se avisará a los padres que tengan activada la supervisión.
Meta subraya que su asistente de IA ya está entrenado para responder de manera segura a adolescentes, proporcionando información prudente y orientándoles a recursos de ayuda siempre que detecta contenidos de riesgo.
Con el nuevo sistema, el foco se amplía: no solo se busca dar una respuesta responsable al adolescente, sino también implicar a los adultos de referencia cuando se perciben señales claras de posible peligro o malestar grave.
La compañía ha adelantado que ofrecerá más detalles sobre este despliegue de la IA y las alertas asociadas en los próximos meses, lo que permitirá ver hasta qué punto estos sistemas se integran en el día a día de la supervisión familiar.
Todo este paquete de cambios en Instagram refleja cómo la plataforma intenta responder a las preocupaciones sobre salud mental, seguridad infantil y uso de la inteligencia artificial en un entorno digital donde los adolescentes pasan buena parte de su tiempo. Que estas alertas funcionen como una ayuda real para las familias dependerá, en gran medida, de que los padres activen las herramientas de supervisión, de que las notificaciones lleguen en los momentos adecuados y de que se acompañen de recursos útiles y accesibles para sostener conversaciones tan delicadas como necesarias.