Vivimos en una era en la que la tecnología ya no es una herramienta complementaria: se ha convertido en el tejido mismo de nuestra vida social, educativa y profesional. Para jóvenes y adolescentes, su mundo —amistades, formación, identidad, entretenimiento— transcurre cada vez más en espacios digitales. Sin embargo, ese universo abierto y valioso no está exento de riesgos: exposición a contenido inapropiado, adicciones, desinformación, manipulación, acoso, problemas de salud mental.
El 26 de noviembre de 2025 marcó un hito significativo: el Parlamento Europeo aprobó una resolución no vinculante que propone establecer una edad mínima común, a nivel de toda la Unión Europea, para que los menores accedan a redes sociales, plataformas de video y chatbots de IA. Aunque aún no es ley, ha abierto un debate profundo sobre el futuro de la vida digital de los jóvenes en Europa.
Este artículo de ITD Consulting analiza en detalle qué propone esta resolución, por qué surge ahora, cuáles pueden ser sus beneficios, sus desafíos y sus implicancias a futuro con la IA.
¿Qué plantea exactamente la resolución del Parlamento Europeo?
La resolución propone establecer una edad mínima de 16 años para que una persona pueda acceder por su cuenta a redes sociales, plataformas de video y chatbots conversacionales impulsados por IA, sistemas de IA generativa, asistentes virtuales de IA y cualquier tecnología que utilice IA para interactuar, producir contenido o personalizar experiencias.
Los menores de 13 a 16 años solo podrían acceder con consentimiento explícito de padres o tutores, especialmente cuando las plataformas utilicen IA para recomendar contenido, IA para moderación automática o IA para interacción directa con el usuario.
Los menores de menos de 13 años tendrían el acceso prohibido a redes sociales, a herramientas basadas en IA, a chatbots de IA, a plataformas de video con algoritmos de IA y a cualquier servicio digital que utilice IA para aprendizaje automático o generación de contenido.

Además, sugiere medidas adicionales que modificarían profundamente el funcionamiento de las plataformas digitales que dependen de la IA:
- Prohibición de diseños adictivos, como el scroll infinito, autodespliegue continuo de videos y mecanismos pensados para incrementar la permanencia del usuario mediante algoritmos de IA que predicen comportamientos.
- Eliminación de publicidad dirigida o manipulativa hacia menores, especialmente aquella generada o segmentada mediante IA, así como restricciones al marketing de influencers amplificado por IA y a los elementos tipo “loot boxes” potenciados por análisis predictivo basado en IA.
- Bloqueo de sitios y servicios que incumplan las normas, incluyendo plataformas que no verifiquen adecuadamente la edad mediante sistemas de IA, o que utilicen IA de forma opaca o riesgosa para los menores.
- Regulación de herramientas de IA generativa, evitando la producción y difusión de contenido falso, riesgoso o inapropiado para menores, especialmente deepfakes creados con IA, imágenes manipuladas por IA o contenido sexualizado generado mediante IA.
La resolución no es jurídicamente vinculante; es una declaración de voluntad política. Para convertirse en norma obligatoria, la Comisión Europea tendría que presentar una propuesta legislativa, la cual debería ser negociada y adoptada por los Estados miembros. Esto implica un proceso largo, pero la resolución sienta una postura firme sobre la importancia del tema y sobre el rol que la IA, la IA generativa y los sistemas de IA tendrán en la protección digital de los menores.
¿Por qué ahora? — Contexto y razones para la medida
La iniciativa no surge en el vacío: responde a cambios tecnológicos acelerados, preocupaciones de salud pública y un creciente consenso de que los menores están expuestos a riesgos digitales amplificados por la IA, por algoritmos basados en IA, por plataformas que emplean IA para personalización y por sistemas de IA que operan sin supervisión suficiente. Todo esto supera la capacidad actual de supervisión, regulación y análisis humano frente a la expansión de la IA en todos los ámbitos digitales.
1. Uso masivo de dispositivos y redes por parte de menores
Numerosos estudios europeos han mostrado un incremento notable en el tiempo diario que los menores dedican a redes sociales, plataformas de video y mensajería, muchas de las cuales utilizan IA para recomendar contenido, IA para ordenar publicaciones y IA para medir el comportamiento del usuario. Muchas familias reportan que jóvenes entre 11 y 15 años utilizan dispositivos móviles durante varias horas al día, incluso durante la madrugada, lo que afecta sueño, concentración y rendimiento escolar.
Al mismo tiempo, psicólogos y organizaciones de salud han alertado sobre el aumento de síntomas vinculados al uso excesivo de redes, especialmente aquellas potenciadas por IA que amplifican contenido emocionalmente intenso: ansiedad social, problemas de autoestima, aislamiento, disminución de actividad física, impulsividad y dificultades para regular emociones. La exposición continua a algoritmos de IA que predicen y explotan patrones de comportamiento puede acentuar aún más estos problemas.
2. Tecnologías emergentes: IA, chatbots y un entorno aún más complejo
La aparición de chatbots avanzados y agentes conversacionales de IA ha añadido un nuevo nivel de riesgo que no existía hasta hace pocos años. Estas herramientas basadas en IA pueden mantener conversaciones largas, adaptarse al usuario mediante IA, imitar empatía mediante IA e incluso construir relaciones emocionales con menores gracias a la capacidad predictiva de la IA.
El Parlamento Europeo considera que este tipo de interacción impulsada por IA puede generar vínculos psicológicos que los adolescentes no están completamente preparados para manejar. También existe la preocupación de que la IA pueda entregar respuestas erróneas, confusas, sesgadas o inapropiadas sin que el menor tenga la capacidad crítica de distinguir contenido seguro del riesgoso. Además, la IA generativa puede crear imágenes, textos o videos falsos que los jóvenes no siempre pueden identificar como generados por IA, aumentando su vulnerabilidad.
3. Diseño de plataformas como factor de riesgo
Una de las novedades de la resolución es que no se centra únicamente en el contenido, sino en el diseño. Señala que muchas plataformas están construidas deliberadamente para maximizar el tiempo de uso, utilizando algoritmos alimentados por IA para detectar patrones, predecir conductas y mantener a los menores conectados más tiempo. Esto incluye técnicas como:
- Recompensas constantes generadas o gestionadas por IA, similares a dinámicas de apuestas.
- Algoritmos de IA que priorizan contenido emocionalmente intenso o extremo para asegurar mayor interacción.
- Notificaciones constantes automatizadas por sistemas de IA que provocan interrupciones y dependencia.
La UE considera que estos mecanismos potenciados por IA afectan de forma particular a menores, quienes tienen menor capacidad de autocontrol y mayor vulnerabilidad a la comparación social amplificada por la IA y la presión del grupo estimulada por algoritmos de IA.

4. Necesidad de armonización normativa
Actualmente, cada país europeo tiene reglas distintas sobre edad mínima, verificación de identidad o supervisión parental, algunas basadas en sistemas de IA y otras que aún no regulan el uso de IA para identificación digital. Esto crea un ecosistema fragmentado donde los menores de un país pueden acceder a contenidos generados por IA a los que los de otro no.
La resolución propone establecer un estándar común para garantizar una protección equitativa para todos los menores europeos, especialmente en un entorno donde la IA, la IA generativa y los algoritmos de IA seguirán expandiéndose y definiendo cada vez más la experiencia digital de los jóvenes.
Implicancias de una regulación de este tipo
De convertirse en ley, la medida tendría consecuencias importantes para familias, escuelas, plataformas y gobiernos, especialmente en un entorno donde la IA, los algoritmos de IA y los sistemas de IA son cada vez más centrales en la vida digital de los menores. Entre los beneficios esperados destaca una mayor protección, ya que la regulación reduciría la exposición de los jóvenes a contenido inapropiado generado o amplificado por IA, incluidos videos violentos, sexualizados o peligrosos que la IA podría recomendar sin filtros adecuados.
También permitiría disminuir el riesgo de adicción digital, ya que muchas de las plataformas que utilizan IA para retener la atención están diseñadas para maximizar el tiempo de uso. Además, se espera que los menores puedan ingresar al ecosistema digital —dominado por IA— con mayor madurez cognitiva, lo que les permitiría tomar decisiones más conscientes, y que disminuya el ciberacoso, muchas veces potenciado por la IA y por la facilidad que ofrece la IA para ocultar identidades o automatizar conductas dañinas.
Por otra parte, la medida implicaría responsabilidades mucho más estrictas para las plataformas tecnológicas, que dependen profundamente de la IA para sus operaciones diarias. Las empresas tendrían que implementar sistemas de verificación de edad basados en IA, crear modos de experiencia adaptada mediante IA o eliminar el acceso para los más pequeños en entornos donde la IA representa un riesgo.
También se verían obligadas a rediseñar sus servicios para eliminar elementos adictivos generados por IA, ajustar sus algoritmos de IA y transformar sus modelos de negocio para no depender de publicidad dirigida a menores elaborada con IA. Todo esto requeriría inversión tecnológica, auditorías de IA, rediseño de algoritmos de IA y ajustes en privacidad, datos y cumplimiento normativo, elevando las exigencias en torno a cómo se desarrolla y despliega la IA en plataformas globales.
Sin embargo, los retos técnicos, legales y éticos también serían significativos, especialmente en un entorno gobernado por IA. La verificación de edad basada en IA plantea dilemas sobre privacidad: ¿cómo comprobar la identidad sin que la IA invada la información personal del usuario? A esto se suma la posibilidad de que adolescentes determinados burlen controles impulsados por IA, utilizando datos de adultos, VPN o identidades falsas generadas incluso por IA.
También existen debates sobre el impacto de estas medidas en la libertad digital, ya que algunos argumentan que limitar la interacción en plataformas impulsadas por IA puede restringir la autonomía juvenil y su derecho a comunicar, aprender y crear en espacios donde la IA es la columna vertebral. Y por último, incluso si la ley se aprueba, su efectividad real dependerá de la capacidad de los Estados para supervisar, auditar sistemas de IA, detectar incumplimientos potenciados por IA y aplicar sanciones consistentes en un ecosistema digital cada vez más complejo y dominado por la IA.
El papel de la inteligencia artificial: Un desafío inesperado
La inclusión de los chatbots de IA en la regulación marca un cambio cultural profundo, porque ya no se trata únicamente de controlar contenido estático, sino de supervisar interacciones dinámicas generadas por IA, conversaciones personalizadas impulsadas por IA y vínculos emocionales que la IA puede reforzar a través de respuestas empáticas simuladas. Los agentes conversacionales de IA pueden adaptarse al usuario, recordar patrones, imitar cercanía emocional y sostener diálogos prolongados, lo que convierte a la IA en un participante activo dentro del desarrollo social de los menores. Este desplazamiento desde las plataformas tradicionales hacia experiencias altamente interactivas con IA plantea desafíos completamente nuevos, donde la IA no solo informa, sino que acompaña, influye y, en algunos casos, condiciona decisiones.
Entre los riesgos más relevantes se encuentran la dependencia emocional hacia agentes de IA que simulan empatía mediante algoritmos de IA, así como la posibilidad de que los menores reciban consejos erróneos, inseguros o inapropiados generados por IA sin filtros humanos. También existe el riesgo de exposición a contenido creado automáticamente por IA sin control de calidad, lo que puede incluir imágenes, textos o videos elaborados por IA con violencia o contenido sexual. El uso malicioso de herramientas de IA para manipular, acosar o engañar a menores se suma a la lista de preocupaciones que la regulación busca abordar. La normativa reconoce que el ecosistema digital contemporáneo es intensamente relacional gracias a la IA, y que estas relaciones impulsadas por IA pueden influir de manera profunda en el desarrollo psicológico, cognitivo y emocional de los jóvenes.
Este paso regulatorio abre el camino hacia políticas más amplias orientadas a la IA, no solo para menores, sino también para adultos, instituciones, empresas y gobiernos que interactúan con sistemas de IA diariamente. A medida que la IA se convierte en un componente estructural de la vida digital, temas como la integridad emocional, la privacidad gestionada por IA, los derechos digitales afectados por IA, los riesgos de manipulación mediante IA, la transparencia de la IA y la responsabilidad de los desarrolladores de IA serán cada vez más centrales en el debate público. Esta regulación no es un punto final, sino el inicio de una conversación más amplia sobre cómo convivimos, trabajamos, aprendemos y nos desarrollamos en un entorno en el que la IA estará presente en todas las dimensiones de la vida social.

La resolución europea marca un verdadero cambio de paradigma al reconocer que la libertad digital de los menores debe equilibrarse con su seguridad emocional y su bienestar psicológico, especialmente en un entorno dominado por la IA, la IA generativa y las plataformas impulsadas por IA. Ya no basta con suponer que los jóvenes pueden navegar sin riesgos: el ecosistema digital actual —diseñado con algoritmos de IA para maximizar la interacción— no fue construido pensando en su protección.
Retrasar la edad de acceso puede disminuir riesgos, pero es insuficiente si no se acompaña de educación digital en escuelas, recursos tecnológicos para padres, políticas integrales de salud mental y plataformas más éticas, transparentes y responsables en el uso de IA. El objetivo no es limitar por limitar, sino garantizar que las herramientas basadas en IA funcionen en favor del desarrollo, la seguridad y la autonomía de quienes aún están formando criterio.
En este contexto, la conversación recién comienza. La resolución europea no es un cierre, sino el punto de partida de un debate global sobre cómo construir un entorno digital en el que los menores puedan crecer, aprender y relacionarse de forma segura mientras interactúan con sistemas de IA cada vez más presentes. Para las organizaciones, escuelas, empresas y gobiernos, este desafío exige decisiones estratégicas, auditorías tecnológicas, evaluaciones de riesgo en IA y soluciones digitales confiables.
Si tu institución o empresa necesita asesoría profesional para comprender, implementar o adaptar políticas tecnológicas relacionadas con la IA, la seguridad digital o la modernización de infraestructura, ITD Consulting puede ayudarte. Te invitamos a contactarnos y explorar cómo podemos fortalecer tu entorno digital: escríbenos a [email protected] y hablemos de cómo llevar tu estrategia tecnológica al siguiente nivel.