España quedó esta semana en el centro del debate global sobre el impacto de las redes sociales en niños y adolescentes al anunciar que prohibirá el acceso a estas plataformas a los menores de 16 años.
La iniciativa, presentada por el presidente pedro sánchez como parte de un paquete más amplio de medidas para regular el ecosistema digital, fue celebrado por la Comisión Europea, aunque acompañado por una advertencia: cualquier avance deberá ajustarse estrictamente a la Ley de Servicios Digitales (DSA) de la Unión Europea y no podrá imponer nuevas obligaciones a las plataformas tecnológicas.
Más allá del anuncio político, la discusión de fondo es más compleja. El consenso social en torno a la protección de los menores convive con dudas técnicas, legales también y democráticas sobre cómo se implementa la prohibición, quién controla su cumplimiento y qué otras regulaciones avanzan en paralelo.
Qué está habilitado a hacer España
Desde Bruselas, el respaldo era explícito pero condicionado. “Tenemos que ser extremadamente cuidadosos“, señaló Thomas Regnier, vocero de política digital de la Comisión Europea. “Valoramos que quieran ir un paso más allá restringiendo potencialmente el acceso de los niños a las redes sociales, pero imponer obligaciones adicionales a las plataformas no es posible”, insistió.
La normativa europea no impide que un país fije una edad mínima para acceder a redes sociales. De hecho, España, Francia, Dinamarca, Grecia e Italia lideran ese debate dentro de la Unión. Francia y Dinamarca, por ejemplo, avanzaron con límites de 15 años.
La Comisión Europea, por ahora, evita legislar de manera unificada por falta de consenso entre los Veintisiete y considera que se trata de una competencia nacional.
El verdadero interrogante aparece en la aplicacion practica. La DSA obliga a las plataformas a adoptar “medidas adecuadas y proporcionadas” para garantizar la seguridad y la privacidad de los menores, pero les da libertad para decidir cómo hacerlo. Allí es donde el plan español enfrenta su principal desafío.
Verificar la edad, el punto crítico
“El nudo gordiano es encontrar un sistema fiable”, admitido incluso desde el propio Gobierno. Métodos como el uso de tarjetas de crédito, el escaneo del DNI o el reconocimiento biometrico generan fuertes reparaciones por los riesgos que implican para la protección de datos personalesen especial cuando se trata de menores.
España apuesta por una solución propia: la Cartera Digital Betapresentada en 2024 por el Ministerio para la Transformación Digital y Función Pública.
La aplicación participa en un proyecto piloto de la Comisión Europea y se basa en la futura Cartera de Identidad Digital Europea. Permite acreditar la mayoría de edad de forma anónimasin revelar datos personales, y con credenciales que caducan cada 30 días para evitar la trazabilidad entre plataformas.
La Comisión Europea destacó el desarrollo técnico de la herramienta y eligió a España para liderar el piloto europeo, pero fue clara en un punto clave: su uso no puede ser obligatorio. Las plataformas podrán recurrir a ella solo si lo desean y siempre que no cuenten con otros sistemas de verificación eficaces.
Directrices, sanciones y límites legales
La iniciativa se aplica a X, Instagram, Facebook y TikTok. (Foto: Reuters)Además de la verificación de edad, la DSA establece directrices específicas para la protección de los menores: cuentas por defecto privadasimposibilidad de ser agregados a chats sin consentimiento, desactivación de la reproducción automática de videos, restricciones a filtros de imagencámara, micrófono y geolocalización, y algoritmos que no recomiendan contenidos ni publicidad inapropiados.
Las grandes plataformas, definidas como aquellas con más de 45 millones de usuarios mensuales —entre ellas X, Instagram, Facebook y TikTok—, están obligadas a elaborar informes anuales de evaluación de riesgos ya implementar medidas para mitigarlos. Las sanciones por incumplimiento pueden alcanzar hasta el 6% de la facturación anual.
Sánchez fue más allá al plantear que los directivos de las plataformas asuman responsabilidad legal en caso de infracciones. Esa posibilidad, sin embargo, no está contemplada en la DSA. El marco europeo sostiene que las compañías no son responsables del contenido generado por los usuarios, salvo que, una vez notificadas, no actúen para retirar material ilegal.
Críticas al paquete completo
En ese punto aparece una de las voces más críticas. Borja Adsuaraabogado experto en Derecho Digital, cuestiona la estrategia del Gobierno español.
“Hacen una técnica de comunicación desde La Moncloa, donde juntan muchas medidasvendiendo la primera que es la de los menores, porque ¿quién no va a estar de acuerdo en la protección de los menores?”, advierte. “Pero luego cuelan de rondón alguna otra medida que no tiene que ver específicamente con los menores”.
Adsuara muestra especial preocupación por la propuesta de crear una “huella del odio” y de la polarización en redes sociales. “Mientras nos tienen ocupados y entretenidos hablando de la prohibición del acceso de los menores de 16 años a las redes sociales, cuelan lo de hacer una huella del odio y de la polarizaciónque ya no va con los menores, sino con un intento de control”.
La pregunta central, para el especialista, es ¿Quién define los límites?. “¿Quién va a decidir que un mensaje es información o desinformación, es discurso de odio o libertad de opinión, o es polarización o crítica a un Gobierno?”, plantea.
Y advierte que esas decisiones podrían quedar en manos de una unidad dependiente del Ejecutivo. “Yo no quiero que esta arma la tenga ningún Gobierno. límites a la libertad de expresión los tienen que garantizar los jueces, no una unidad que dependa del gabinete del presidente”.
¿Prohibir o educar?
Sobre la restricción a los menores, Adsuara recuerda que no se trata de una idea nueva. “La obligación de verificar la edad está hasta en tres reglamentos europeos. no existe todavía la tecnología segura y eficaz para hacerlo sin poner en riesgo los datos personalesjustamente de los menores”, afirma.
El abogado reconoce que reforzar estos mensajes puede servir de apoyo a los padres, pero también plantea reparaciones de fondo. “Hay gente que dice que lo que hay que hacer es educar en el uso adecuado de las tecnologías y no niños crear burbuja”, señala.
Y va más allá: “Privar no solo de redes sociales, sino incluso de los móviles hasta los 16 o 18 años, puede generar chicos que no estén preparados cuando finalmente accedan”.
Qué pasó en el resto del mundo
España se suma así a una tendencia internacional que ya avanza en países como Australia, Francia o Dinamarcacon resultados dispares y muchas incógnitas abiertas. En el plano europeo, el Parlamento respaldó por amplia mayoría la idea de fijar los 16 años como edad mínima generalizada, aunque la Comisión aún no se ha presentado una iniciativa legislativa concreta.
es Australiaque desde el 10 de diciembre de 2025 es el primer país que puso en marcha una prohibición legal de redes sociales para menores de 16 años, la responsabilidad de aplicar la norma recae exclusivamente sobre las plataformas.
Según la legislación —la Ley de Enmienda de Seguridad en Línea (Edad Mínima en las Redes Sociales)— las empresas deben tomar “medidas razonables” para impedir que los menores crean o mantengan cuentas, y deberán implementar sistemas eficaces de verificación de edad en un plazo máximo de 12 meses.
Aunque el Gobierno no impuso una tecnología única, las opciones que se barajan incluyen uso de documentos oficiales, reconocimiento de edad por IA o validación por terceros, y las sanciones por incumplimiento pueden llegar a decenas de millones de dólares por infracción.
Sin embargo, las pruebas previas sugieren que muchos métodos (como estimaciones por rasgos faciales o identificación algorítmica) todavía tienen erroresy pueden ser menos eficaces con adolescentes cercanos a los 16 años o con diversos perfiles demográficos, lo que abre dudas sobre la confiabilidad práctica del sistema.
es franciadonde la Asamblea Nacional aprobó un proyecto de ley para prohibir el acceso a redes sociales a menores de 15 años, la aplicación práctica de la medida también enfrenta retos técnicos.
La legislación no especifica una única forma de verificación de edad, aunque se espera que los proveedores de redes requieran que todos los usuarios (incluidos los adultos) demuestren su edad, con la obligación de verificarla en nuevos perfiles desde septiembre de 2026 y en las cuentas existentes antes de fin de año.
Las autoridades recomiendan soluciones centradas en la privacidad, como sistemas de “doble anonimato” basadas en terceros verificadores o herramientas desarrolladas a nivel europeo, pero ningún método concreto está plenamente implementado.
La falta de sistemas universales y eficaces ha generado críticas, y las plataformas deberán equilibrar estas exigencias con las normas de protección de datos y las directrices de la DSA.
es Argentinaen tanto, no existe una prohibición legal equivalente a la que plantea España; Sin embargo, el debate está empezando a moverse en el ámbito legislativo y social.
Actualmente rige la Ley de Protección de Datos Personalesque articula el tratamiento de datos en entornos digitales y exige consentimiento de los padres para menores, y se conmemora cada 13 de noviembre el Día Nacional de Lucha contra el Groomingque penaliza el acoso sexual de adultos a través de medios digitales y busca sensibilizar sobre los riesgos de contacto con menores en redes o apps.
Además, el Ejecutivo y la Agencia de Acceso a la Información Pública promueven recomendaciones para proteger la privacidad y seguridad de niños y adolescentes en Internet, y en el Congreso se tramita un proyecto de ley de protección de menores en entornos digitales que propone elevar de 14 a 16 años la edad mínima de consentimiento para el tratamiento de los datos personales en plataformas.
