El 6 de junio de 2024, Meta, la empresa matriz de Facebook, Instagram y WhatsApp, se vio envuelta en una polémica tras el anuncio de su plan para utilizar datos personales de sus usuarios para entrenar sus modelos de inteligencia artificial (IA) sin solicitar consentimiento explícito.
Este movimiento estratégico, que implica un cambio significativo en la política de privacidad de Meta, ha sido programado para entrar en vigor el 26 de junio. Sin embargo, esta decisión de Meta no ha pasado desapercibida y ha suscitado una intensa ola de críticas y preocupaciones entre diversos grupos de defensa de la privacidad en toda Europa, quienes temen por la protección y el uso indebido de los datos personales de los usuarios.
En respuesta a esta situación, la organización NOYB (None of Your Business), liderada por el conocido activista de la privacidad Max Schrems, ha tomado medidas inmediatas al presentar 11 quejas formales contra Meta en varios países europeos, incluyendo Austria, Bélgica, Francia, Alemania, Grecia, Italia, Irlanda, Países Bajos, Noruega, Polonia y España.
NOYB argumenta que los cambios propuestos por Meta no solo violan los derechos de privacidad de los usuarios, sino que también contravienen las regulaciones del Reglamento General de Protección de Datos (GDPR) de la Unión Europea.
Ante la inminente implementación de esta nueva política de Meta, NOYB está exigiendo una intervención urgente por parte de las autoridades de protección de datos de cada uno de estos países para detener lo que consideran una grave amenaza a la privacidad de los usuarios. Conoce más detalles sobre esta medida de Meta en este artículo de ITD Consulting.
El cambio en la política de privacidad de Meta
Meta anunció recientemente modificaciones en su política de privacidad, permitiendo a la compañía utilizar años de publicaciones personales, imágenes privadas y datos de seguimiento en línea para entrenar sus modelos de IA.
Este cambio en Meta entrará en vigor el 26 de junio de 2024 y afectará a millones de usuarios en Europa. Según Meta, esta medida se basa en un «interés legítimo» para desarrollar y mejorar sus tecnologías de IA.
Sin embargo, NOYB y otros defensores de la privacidad argumentan que este cambio viola las regulaciones de privacidad de la Unión Europea (UE), específicamente el Reglamento General de Protección de Datos (GDPR).
Según NOYB, Meta debería obtener el consentimiento explícito de los usuarios antes de utilizar sus datos para estos fines, en lugar de proporcionar una opción de exclusión oculta y difícil de encontrar.
Quejas presentadas por NOYB
Como se ha mencionado, el grupo de defensa de la privacidad NOYB ha presentado 11 quejas contra Meta en Austria, Bélgica, Francia, Alemania, Grecia, Italia, Irlanda, Países Bajos, Noruega, Polonia y España. NOYB insta a las autoridades de protección de datos en estos países a iniciar un procedimiento de urgencia para detener la implementación de estos cambios en Meta.
Max Schrems, fundador de NOYB, señaló que el Tribunal de Justicia de la Unión Europea (CJEU) ya ha fallado en contra de Meta en 2021, estableciendo que la empresa no tiene un «interés legítimo» que supere el derecho de los usuarios a la protección de datos cuando se trata de publicidad. Schrems argumenta que Meta está intentando utilizar los mismos argumentos para la formación de sus modelos de IA, lo cual es inaceptable y contradice los fallos del CJEU.
Respuesta de Meta
Meta ha rechazado las críticas de NOYB, afirmando en un comunicado que su enfoque cumple con las leyes de privacidad y es consistente con las prácticas de otras empresas tecnológicas que desarrollan IA en Europa, como Google y OpenAI.
Según Meta, su tecnología de IA utiliza información disponible públicamente en línea, información con licencia y datos que los usuarios han compartido públicamente en sus productos y servicios.
Meta también ha citado un blog publicado el 22 de mayo de 2024, donde detalla cómo utiliza estos datos para entrenar y mejorar sus modelos de IA. Meta defiende que su enfoque es transparente y que los usuarios tienen opciones para gestionar sus datos.
Impacto en los usuarios y la innovación
El cambio en la política de privacidad de Meta podría tener un impacto significativo en los usuarios de Facebook e Instagram en Europa. Según NOYB, los usuarios no podrán eliminar sus datos una vez que estos sean utilizados para entrenar los modelos de IA de Meta. Esto genera preocupaciones sobre la privacidad y el control de los datos personales.
Además, la decisión de Meta de pausar temporalmente el entrenamiento de sus modelos de IA en Europa, tras las quejas de NOYB, podría retrasar el desarrollo de tecnologías de IA innovadoras en la región. Meta ha expresado su decepción por esta situación, argumentando que podría afectar negativamente a la innovación y la competencia en el desarrollo de la IA en Europa.
El rol de las autoridades de protección de datos
Las autoridades de protección de datos en Europa juegan un papel crucial en la supervisión y regulación del uso de datos personales por parte de las empresas tecnológicas. NOYB ha solicitado a estas autoridades que intervengan de inmediato para detener el uso de datos personales por parte de Meta sin el consentimiento explícito de los usuarios.
La Agencia Irlandesa de Protección de Datos (DPC), que es el principal regulador de Meta en Europa, ha estado involucrada en intensas negociaciones con la empresa. Sin embargo, hasta el momento, no se ha llegado a una resolución definitiva que garantice la protección de los datos de los usuarios europeos.
Precedentes legales y el futuro de la IA en Europa
El fallo del Tribunal de Justicia de la Unión Europea (CJEU) de 2021 contra Meta establece un precedente importante para la protección de datos en la región. El tribunal determinó que Meta no puede utilizar el argumento de «interés legítimo» para justificar el uso de datos personales sin el consentimiento de los usuarios para fines publicitarios.
Este fallo debería servir como referencia para abordar el uso propuesto por Meta de los datos personales para entrenar sus modelos de IA.
Max Schrems y NOYB argumentan que Meta está ignorando deliberadamente este fallo y está trasladando la responsabilidad de proteger la privacidad a los usuarios, lo cual es inaceptable. Schrems insiste en que la ley exige que Meta obtenga el consentimiento explícito de los usuarios antes de utilizar sus datos para cualquier fin, incluidos los modelos de IA.
Comparación con otros casos similares
Meta no es la única empresa tecnológica que enfrenta críticas y acciones legales por su uso de datos personales para entrenar modelos de IA. En julio de 2023, Google también fue demandado por actualizar su política de privacidad para utilizar grandes cantidades de datos, incluidos materiales con derechos de autor, en su entrenamiento de IA.
Estos casos subrayan la creciente preocupación por la privacidad y la protección de datos en la era de la inteligencia artificial.
Opiniones y reacciones de los usuarios
El anuncio de Meta sobre los cambios en su política de privacidad ha generado una fuerte reacción entre los usuarios de Facebook e Instagram. Muchos usuarios, preocupados por su privacidad, han expresado su rechazo a que una empresa privada utilice sus textos e imágenes para entrenar modelos de IA.
Algunas publicaciones en redes sociales reflejan esta preocupación, donde los usuarios afirman que no dan su consentimiento para que Meta utilice sus datos con estos fines.
Declaraciones de Meta y la DPC
En respuesta a las críticas, Meta ha emitido un comunicado de cuatro párrafos defendiendo su tecnología y su enfoque para entrenar herramientas de IA. La empresa asegura que cumple con las leyes y regulaciones europeas y que ha incorporado comentarios regulatorios en su proceso.
La Agencia Irlandesa de Protección de Datos (DPC) ha acogido con satisfacción esta decisión, señalando que se ha tomado tras intensas negociaciones.
Meta ha argumentado que la solicitud de la DPC de retrasar el entrenamiento de sus grandes modelos de lenguaje (LLM) utilizando contenido público compartido en Facebook e Instagram representa un retroceso para la innovación europea y la competencia en el desarrollo de la IA.
El uso de datos personales por parte de Meta para entrenar sus modelos de inteligencia artificial sin consentimiento explícito de los usuarios ha generado una controversia significativa en Europa. Las 11 quejas presentadas por NOYB destacan las preocupaciones sobre la privacidad y la protección de datos, así como el cumplimiento de las regulaciones del GDPR.
Meta defiende su enfoque y asegura que cumple con las leyes de privacidad, pero las autoridades de protección de datos y los defensores de la privacidad exigen medidas más estrictas para proteger los derechos de los usuarios.
El futuro de la inteligencia artificial en Europa dependerá en gran medida de cómo se resuelva esta controversia y de la capacidad de las empresas tecnológicas para equilibrar la innovación con la protección de la privacidad.
La decisión final de las autoridades de protección de datos en los diferentes países europeos y la respuesta de Meta a estas demandas serán cruciales para determinar el rumbo de la inteligencia artificial y la protección de datos en la región.
Es esencial que se establezcan y se respeten claros estándares de privacidad para garantizar que el desarrollo de tecnologías avanzadas no se realice a expensas de los derechos de los usuarios.
Si deseas conocer más detalles de estas medidas de Meta y las respuestas que generan, además de conocer cómo proteger tu privacidad del avance de la IA, escríbenos a [email protected]. Tenemos un equipo dedicado a la exploración de la tecnología.