El Parlamento Europeo pone límites a la entrada de menores de edad a las RRSS para evitar riesgos como la adicción o la exposición a contenidos violentos, entre otros.
El Parlamento Europeo ha aprobado recientemente (con 483 votos a favor, 92 en contra y 86 abstenciones) una resolución en la que propone establecer una edad mínima de 16 años para que los menores puedan acceder por su cuenta a redes sociales, plataformas de vídeos y servicios de inteligencia artificial. Como alternativa, permite que menores entre 13 y 16 años accedan únicamente con consentimiento parental o mediante sistemas de autorización verificados.
Esta iniciativa nace de la preocupación por los crecientes riesgos asociados al uso digital indiscriminado. El texto menciona, por ejemplo, que aproximadamente un 25 % de los menores muestra un uso “problemático” del teléfono móvil, lo que podría tener efectos negativos en su salud física y mental, incluyendo trastornos del sueño, ansiedad, dependencia tecnológica y dificultades de socialización en el mundo offline.
Más allá del límite de edad, el Parlamento pide mayores controles sobre las plataformas digitales, dado que muchas de ellas incorporan modelos de negocio basados en el tiempo de uso, la recopilación masiva de datos personales y la segmentación algorítmica. Entre las medidas propuestas están: la prohibición de sistemas de recomendación basados exclusivamente en la interacción del usuario (como algoritmos que sugieren contenidos en función de clics, comentarios o visualizaciones), el bloqueo de funciones de diseño adictivo —como el desplazamiento infinito, la reproducción automática, las notificaciones persistentes o los “loops” de recompensas— y la prohibición de ciertos mecanismos de monetización dirigidos a menores, como las “cajas de recompensa” (loot boxes) en videojuegos o las compras integradas sin supervisión adulta. Asimismo, se demanda aplicar obligaciones más estrictas bajo el marco del Digital Services Act (DSA), reforzar los mecanismos de control sobre el uso de inteligencia artificial generativa y prever sanciones y responsabilidades personales para altos cargos de empresas tecnológicas en caso de infracciones graves relativas a la protección de menores y a la seguridad en línea.
La iniciativa refleja una creciente conciencia institucional sobre los peligros que el entorno digital representa para niños y adolescentes: adicción, pérdida de concentración, exposición a contenidos violentos o sexualizados, acoso en línea, pérdida de privacidad, manipulación algorítmica y riesgo de contacto con desconocidos. Establecer un marco de edad común en toda la Unión Europea podría facilitar la supervisión de plataformas transnacionales y evitar disparidades regulatorias que las empresas pudiesen aprovechar para eludir responsabilidades. También permitiría armonizar políticas de moderación de contenidos, sistemas de transparencia algorítmica y protocolos de retirada de contenidos dañinos.
Sin embargo, la propuesta presenta debilidades importantes. En primer lugar, la resolución del Parlamento no es vinculante: se trata de una recomendación política. Su eficacia dependerá de que esta postura se traduzca, en un futuro, en normativa europea concreta —posiblemente mediante directivas o reglamentos— y de que los Estados miembros y las propias plataformas digitales estén dispuestos a implementarla de forma coherente. Hasta ese momento, las medidas quedan en una declaración de intenciones y no en una obligación legal.
Por otro lado, la ambición reguladora choca con desafíos prácticos de gran envergadura. Por ejemplo, garantizar sistemas de verificación de edad fiables, interoperables entre países y respetuosos con la privacidad no resulta sencillo. La aplicación de tecnologías como la verificación biométrica, los documentos digitales o los sistemas de identidad electrónica plantea dudas sobre la protección de datos y la proporcionalidad del control. Las plataformas deberán equilibrar seguridad y privacidad, una tarea especialmente compleja en un ecosistema digital donde predominan empresas globales y donde el cumplimiento normativo es difícil de supervisar. Además, no está garantizado que todas las compañías acepten desde el primer momento un rediseño profundo de sus productos, lo cual podría suponer costes económicos, cambios en sus modelos de negocio y ajustes en sus sistemas de publicidad dirigida.
Otro riesgo a considerar es el de la efectividad real de las restricciones. Limitar el acceso podría empujar a los menores a buscar vías alternativas: plataformas emergentes menos reguladas, servidores privados, métodos de elusión o la creación de cuentas falsas con identidades ficticias. Esto podría trasladar el problema a entornos todavía más difíciles de controlar y donde la protección de menores es prácticamente inexistente. De igual modo, un exceso de restricciones sin alternativas educativas puede generar un efecto contraproducente que incentive el uso clandestino.
Por otra parte, la propuesta no aborda con suficiente profundidad la necesidad de acompañar la regulación con políticas de educación digital y alfabetización mediática. Regular la edad mínima y el diseño técnico de las plataformas podría reducir algunos riesgos, pero no garantiza que los jóvenes desarrollen habilidades críticas para navegar por el entorno digital de forma segura y responsable. Es fundamental enseñar a los menores a identificar contenidos manipulados, gestionar su privacidad, reconocer comportamientos peligrosos, regular su tiempo de uso y comprender el funcionamiento básico de los algoritmos y la inteligencia artificial.
En definitiva, la propuesta del Parlamento Europeo constituye un paso relevante y necesario en la protección de los menores en Internet. Sin embargo, tal como está planteada, su impacto real será limitado si no se acompaña de legislación vinculante, mecanismos de verificación sólidos, sanciones efectivas a los incumplidores, inversión en supervisión tecnológica y una apuesta decidida por la educación digital y el acompañamiento familiar.
Artículo publicado el 11/12/2025




