*

Meta aplicará criterios similares a los del cine para restringir publicaciones y conversaciones con IA, en busca de un entorno más seguro para los menores

Instagram dio un nuevo giro a su política de protección infantil: a partir de finales de 2025, los adolescentes solo podrán acceder a contenido equivalente a una película clasificada PG-13, es decir, apta para mayores de 13 años con supervisión parental.

La medida llega tras años de cuestionamientos sobre el impacto de las redes sociales en la salud mental de los jóvenes y los fallos en la moderación de contenido. Según Meta, esta actualización representa el mayor cambio desde que la plataforma volvió privadas por defecto las cuentas de menores en 2024.

Qué significa un Instagram “PG-13”

El sistema de clasificación se inspiró en el usado por la industria cinematográfica de Estados Unidos. Las películas PG-13 pueden incluir lenguaje leve, violencia moderada o breves escenas de desnudez no sexual. Bajo este criterio, Instagram ocultará publicaciones con lenguaje explícito, desafíos peligrosos o imágenes que puedan fomentar conductas dañinas, como el uso de drogas o alcohol.

La compañía asegura que el objetivo es ofrecer un entorno más predecible para padres y tutores, familiarizado con el estándar cinematográfico. “Nuestra Estrella del Norte son los padres y lo que quieren para sus hijos”, explicó Max Eulenstein, director de gestión de producto de Meta.

Además, la actualización aplicará los mismos criterios a las interacciones con los chatbots de inteligencia artificial. Los llamados AI characters (bots con personalidad ficticia) no podrán generar respuestas que excedan lo permitido en una película PG-13, luego de que algunos de ellos fueran señalados por mantener conversaciones inapropiadas con menores.

Supervisión parental y nuevas limitaciones

Por defecto, todas las cuentas adolescentes se ajustarán al modo PG-13. Solo podrán cambiarlo con el consentimiento de sus padres. También se añadirá una opción aún más estricta llamada “Contenido limitado”, que bloquea búsquedas sensibles, elimina comentarios potencialmente dañinos y restringe aún más la visibilidad de ciertos temas.

Meta afirma que el nuevo sistema se basó en paneles de miles de padres de distintos países, quienes evaluaron qué tipo de publicaciones considerarían apropiadas para la edad. Con esa información, la empresa entrenó un modelo de inteligencia artificial de moderación que ahora clasificará contenido y detectará riesgos con mayor precisión.

Contexto: presión regulatoria y desconfianza pública

El anuncio llega en medio de una creciente presión legal. Meta enfrenta demandas por daños a la salud mental de jóvenes y múltiples investigaciones de organismos como Ofcom en Reino Unido, que exigen a las plataformas priorizar la seguridad infantil.

Un estudio independiente liderado por el exingeniero de Meta Arturo Béjar y académicos de la Universidad de Nueva York concluyó que 64 % de las herramientas de seguridad de Instagram eran ineficaces. La Fundación Molly Rose, dedicada a prevenir el acoso digital, también advirtió que las mejoras “deben medirse por su eficacia, no por sus anuncios de relaciones públicas”.

Meta ha rechazado los señalamientos y asegura que las nuevas políticas responden directamente a esas críticas, con controles más transparentes y verificables.

Un intento por redibujar los límites

La medida comenzará a implementarse en EE. UU., Reino Unido, Canadá y Australia, y llegará al resto del mundo en 2026. Mientras tanto, los especialistas en tecnología y salud mental coinciden en que el reto no solo está en censurar contenido, sino en replantear cómo las plataformas influyen en la conducta, el deseo y la percepción de los adolescentes.

Instagram intenta ofrecer una versión más segura de sí misma, pero la pregunta persiste: ¿puede una red social “clasificada PG-13” realmente proteger a quienes la habitan?


También en Pijama Surf: Instagram y la ilusión de perfección: así cambió nuestra mirada del mundo