Escucha este artículo
Audio generado con IA de Google
0:00
/
0:00
En marzo pasado, la Comisión de Seguridad Digital australiana (eSafety) publicó su informe sobre el cumplimiento de la obligación legal de edad mínima para el uso de redes sociales. Sin mayores sorpresas, los resultados muestran que las políticas basadas en la prohibición de acceso a redes sociales tienen efectos limitados: la gente encuentra formas de evadir los controles de edad y, al menos por ahora, no producen reducciones verificables del daño. Aunque el gobierno australiano insiste en interpretar el problema como uno de falta de cumplimiento por parte de las plataformas, el informe confirma, en la práctica, que “prohibir no es proteger”.
Conviene recordar que Australia es pionera en la implementación de esta obligación legal. La norma, en vigor desde diciembre de 2025, prohíbe a niños, niñas y adolescentes menores de 16 años tener cuentas en redes sociales. Su propósito es legítimo: ofrecer más tiempo para el desarrollo de habilidades de alfabetización digital y resiliencia, dados los riesgos reales asociados al uso de estas plataformas.
El informe, elaborado por la entidad independiente encargada de la regulación y educación en seguridad digital en Australia (creada en 2015), analiza los primeros tres meses de aplicación de una medida que muchos han promovido como una solución efectiva para proteger a esta población.
Tres hallazgos del informe resultan particularmente interesantes. En primer lugar, el 70 % de los padres encuestados reporta que sus hijos siguen teniendo cuentas en plataformas restringidas. En segundo lugar, aunque se eliminaron millones de cuentas -4,7 millones solo en los primeros días-, no se encontró evidencia de una disminución en reportes de daño, como ciberacoso o abuso. En tercer lugar, el informe documenta una implementación parcial y tardía del mecanismo por parte de las plataformas: en muchos casos, los menores conservaron sus cuentas simplemente porque nunca se les exigió verificar su edad.
Frente a estos resultados, el gobierno australiano insiste sobre el tercer punto, enfatizando que el problema radica en que las plataformas no están haciendo lo suficiente. Argumenta que una industria de este tamaño tiene la capacidad de cumplir, y respalda las investigaciones abiertas por eSafety contra Instagram, Facebook, Snapchat, TikTok y YouTube por posibles incumplimientos.
Sin embargo, esa lectura resulta incompleta. El propio informe muestra que la regulación ha generado dinámicas de evasión, en buena medida derivadas de cómo las plataformas implementaron sus obligaciones. Por ejemplo, se ha recurrido al reconocimiento facial para estimar la edad, una tecnología con márgenes de error significativos precisamente en el grupo crítico (personas de 14 y 15 años). Asimismo, se identificaron mecanismos de verificación poco rigurosos que permitían a los adolescentes intentar repetidamente hasta lograr el resultado deseado. El informe también advierte que el cumplimiento es desigual: coexisten buenas y malas prácticas, como cabría esperar en un esquema que depende en gran medida de la autorregulación empresarial.
El problema de fondo es quedarse con el insuficiente cumplimiento de las plataformas. Una lectura transversal del informe conduce a una conclusión distinta: la prohibición no está logrando excluir a los menores de espacios de riesgo y, más importante aún, restringir el acceso no equivale a reducir los riesgos. En consecuencia, la evidencia disponible es débil para justificar restricciones amplias, especialmente cuando estas promueven herramientas que tienen otros efectos nocivos, como que pueden afectar la privacidad y aumentar la recolección de datos personales.
Es cierto que se puede -y se debe- exigir más a las empresas en el cumplimiento legal. No obstante, concentrar los esfuerzos regulatorios exclusivamente en el cumplimiento de esta obligación puede resultar insuficiente e incluso engañoso. Se refuerza la idea de que el problema se resuelve si la fachada de “verificar” la edad funciona. Desafortunadamente, el diseño de la intervención está centrado en el síntoma y no en la causa del problema. Los incentivos creados por la norma apuntan al cumplimiento formal, pero no transforman las dinámicas estructurales que hacen de las redes sociales espacios llenos de riesgos para personas que se están física, mental y socialmente desarrollando. El desafío que tenemos como sociedad es modificar el diseño y los modelos de funcionamiento de las plataformas.
Aunque todavía es pronto para concluir que el informe captura el éxito o fracaso de la ley, el caso australiano sí ilustra una tensión clave en la regulación digital contemporánea: las medidas de prohibición pueden ser políticamente atractivas y producir resultados visibles en términos de cumplimiento, pero resultan insuficientes como estrategias de protección. Necesitamos enfoques más complejos, que aborden el diseño de las plataformas, fortalezcan la educación digital y asignen responsabilidades estructurales a los diferentes actores del ecosistema: a las plataformas, y también a otros actores en la sociedad.
En última instancia, los riesgos digitales no desaparecen por excluir normativamente a una población. Son riesgos estructurales, y como tales, requieren respuestas igualmente estructurales.
