La inteligencia artificial (IA) ha avanzado a un ritmo acelerado en los últimos años, generando aplicaciones que afectan a casi todos los aspectos de la vida moderna. Desde el procesamiento de lenguaje natural hasta la creación de imágenes o música, los modelos de inteligencia artificial han demostrado su versatilidad y su capacidad para transformar múltiples industrias.
Sin embargo, este avance de la inteligencia artificial ha traído consigo varios problemas éticos y legales, especialmente en lo que respecta al uso de contenido con derechos de autor. A medida que las empresas de inteligencia artificial entrenan sus modelos con grandes cantidades de datos, surgen cuestionamientos sobre si están violando los derechos de los creadores de contenido al utilizar sus obras sin permiso.
Esta situación está llevando a un número creciente de demandas por infracción de derechos de autor que están marcando el futuro del uso de inteligencia artificial. A continuación, ITD Consulting te brinda los detalles de la reciente demanda de OpenAI.
El uso de contenidos públicamente disponibles en el entrenamiento de modelos de inteligencia artificial
Para entender el conflicto legal actual, es necesario primero explicar cómo las empresas de inteligencia artificial entrenan sus modelos. Los modelos de inteligencia artificial, como el que alimenta a ChatGPT o a otros asistentes virtuales similares, requieren una cantidad enorme de datos para poder generar respuestas coherentes y útiles.
Estos modelos de inteligencia artificial se entrenan utilizando textos, imágenes y otros tipos de información disponibles en internet. Parte de este contenido está disponible públicamente, como los artículos de blogs, foros, redes sociales y otros materiales que la inteligencia artificial puede utilizar para aprender patrones de lenguaje y conocimiento general.
Los modelos de inteligencia artificial como ChatGPT, por ejemplo, han sido alimentados con enormes cantidades de datos para mejorar su capacidad de generar respuestas informadas y precisas.
Sin embargo, la cuestión se complica cuando se trata de contenido protegido por derechos de autor. En este caso, muchos argumentan que las empresas de inteligencia artificial deberían obtener permisos de los creadores o propietarios de estos contenidos antes de utilizarlos para entrenar sus modelos.
El uso de material con derechos de autor sin el consentimiento adecuado podría considerarse una violación de la propiedad intelectual. El dilema legal es evidente: las empresas de inteligencia artificial a menudo afirman que los datos que utilizan están disponibles públicamente y que, por lo tanto, pueden ser utilizados bajo el principio de “uso justo”. Sin embargo, los creadores de contenido, como periodistas y artistas, argumentan que deberían recibir una compensación por su trabajo cuando se utiliza de esta manera por la inteligencia artificial.
Demandas por violación de derechos de autor
Uno de los casos más notables que ha resaltado el problema de los derechos de autor en relación con la inteligencia artificial es el litigio entre la empresa OpenAI y las publicaciones Raw Story y Alternet. En febrero de 2024, ambas publicaciones presentaron una demanda contra OpenAI, acusando a la empresa de utilizar miles de sus artículos sin permiso para entrenar su modelo ChatGPT.
Según los demandantes, OpenAI había eliminado deliberadamente la información sobre los derechos de autor, como los nombres de los autores y los avisos de copyright, lo que permitió que el modelo generara respuestas basadas en esos contenidos sin reconocer la fuente original. Este tipo de práctica, según las publicaciones, facilita el plagio y la reproducción no autorizada de material protegido.
El núcleo de la acusación se refiere a la eliminación de la información de gestión de derechos (CMI, por sus siglas en inglés), lo que facilitaría que la inteligencia artificial genere respuestas basadas en artículos protegidos sin atribuir adecuadamente el contenido. Este hecho tiene implicaciones importantes en el ámbito de la propiedad intelectual, ya que la falta de atribución de la autoría podría ser vista como un incumplimiento de los derechos del creador.
Además de la eliminación de los CMI, las publicaciones acusaron a OpenAI de utilizar su material sin la debida compensación. Los demandantes argumentan que la explotación de su trabajo en este contexto no solo representa un robo de propiedad intelectual, sino que también perjudica económicamente a los medios de comunicación al reducir su tráfico web y, por ende, sus ingresos por publicidad.
En este caso, Raw Story y Alternet buscan compensación económica por cada infracción que se haya cometido, que según sus cálculos, asciende a miles de millones de dólares.
La respuesta judicial: Un primer triunfo para OpenAI
En una decisión relevante, la jueza federal de Nueva York, Colleen McMahon, desestimó la demanda presentada por Raw Story y Alternet contra OpenAI. En su fallo, la jueza argumentó que los demandantes no pudieron demostrar un perjuicio concreto derivado de la supuesta infracción de derechos de autor.
McMahon declaró que los demandantes no habían presentado pruebas suficientes de que ChatGPT hubiese reproducido directamente el contenido de sus artículos de manera que violara sus derechos de autor. Además, subrayó que el uso de materiales de manera generalizada y pública en la web hace difícil rastrear y atribuir de manera precisa los contenidos generados por la inteligencia artificial.
McMahon también señaló que la acusación de que la inteligencia artificial había eliminado los CMI de los artículos no representaba un daño tangible. De acuerdo con la jueza, los demandantes no demostraron cómo la eliminación de estos metadatos había afectado su negocio de manera significativa.
En su sentencia, la jueza se mostró escéptica ante la posibilidad de que los medios pudieran demostrar un “daño demostrable”, tal como se requiere para que se conceda la demanda en virtud de la legislación estadounidense de derechos de autor.
Aunque esta fue una victoria para OpenAI, el caso no está cerrado. Raw Story y Alternet tienen la posibilidad de apelar la decisión y presentar nuevos argumentos ante el tribunal. Según las declaraciones de los abogados de las publicaciones, están trabajando en un nuevo caso que podría abordar las preocupaciones de la jueza sobre la falta de pruebas directas de daño.
El aumento de demandas por infracción de derechos de autor
El caso de Raw Story y Alternet no es un incidente aislado. A medida que las capacidades de la IA continúan expandiéndose, otras empresas, medios de comunicación y creadores de contenido están comenzando a presentar demandas similares.
En 2023, The New York Times demandó a OpenAI y a su socio Microsoft, acusándolos de utilizar millones de sus artículos para entrenar modelos de inteligencia artificial sin obtener la debida autorización. Esta demanda se basaba en una alegación de que los artículos del periódico se usaron para enseñar a ChatGPT sin ningún tipo de licencia o compensación.
El New York Times no es el único medio que ha tomado medidas legales. Otras publicaciones como The Wall Street Journal, CNN, y varios grupos editoriales más pequeños han comenzado a investigar cómo sus contenidos están siendo utilizados por empresas de inteligencia artificial.
Estos medios están argumentando que no solo se les debería pagar por el uso de su material, sino que también exigen que se establezcan reglas claras para proteger su propiedad intelectual.
El crecimiento de estas demandas está generando un entorno legal tenso en el que las grandes empresas tecnológicas como OpenAI, Microsoft y Google están luchando por encontrar un equilibrio entre el uso de grandes volúmenes de datos para entrenar sus modelos de IA y el respeto a los derechos de autor de los creadores de contenido.
La falta de transparencia sobre los datos de entrenamiento
Una de las principales críticas que se les hace a las empresas de inteligencia artificial es la falta de transparencia en cuanto a los datos que utilizan para entrenar sus modelos. Mientras que OpenAI y otras compañías han afirmado que utilizan datos disponibles públicamente en la web, no han proporcionado detalles claros sobre cómo se recopilan esos datos o qué tipo de información se utiliza específicamente.
Este secretismo ha alimentado la preocupación de que las empresas de inteligencia artificial estén utilizando materiales con derechos de autor sin el consentimiento de sus propietarios.
La falta de claridad sobre los conjuntos de datos que se utilizan en el entrenamiento de la inteligencia artificial ha llevado a que muchos medios y creadores de contenido cuestionen si sus obras están siendo utilizadas sin su conocimiento. Esto crea una atmósfera de desconfianza, donde los creadores de contenido se sienten vulnerables ante el poder de las grandes empresas tecnológicas que dominan el sector de la inteligencia artificial.
En respuesta a estas preocupaciones, algunas empresas de inteligencia artificial han comenzado a adoptar enfoques más transparentes, buscando acuerdos de licencia con creadores de contenido.
OpenAI, por ejemplo, ha alcanzado acuerdos con medios como El País y Le Monde, que le permiten usar su contenido a cambio de una compensación. Sin embargo, la mayoría de las empresas no han adoptado este enfoque, y la falta de regulaciones claras sobre el uso de contenido protegido por derechos de autor sigue siendo un tema candente.
La respuesta de las grandes tecnológicas: “Uso justo” y licencias
Una de las defensas más comunes de las empresas de inteligencia artificial ante las acusaciones de infracción de derechos de autor es que su uso de los datos está cubierto bajo el principio de «uso justo» o «fair use».
Según esta doctrina legal, se permite el uso de material con derechos de autor sin obtener permiso en situaciones específicas, como la investigación, la crítica o la creación de nuevos trabajos. Las empresas de inteligencia artificial sostienen que, al utilizar el contenido para entrenar modelos de lenguaje y mejorar la tecnología, están dentro de los límites del uso justo.
Google y Meta, por ejemplo, han defendido abiertamente su derecho a utilizar datos públicamente disponibles en la web para entrenar sus modelos de inteligencia artificial, argumentando que este tipo de uso beneficia a la sociedad al hacer que los avances tecnológicos sean accesibles. Sin embargo, los creadores de contenido no siempre están de acuerdo con esta interpretación del «uso justo».
Muchos argumentan que el beneficio de las grandes empresas tecnológicas de inteligencia artificial no justifica el daño a los creadores de contenido, quienes a menudo ven cómo su trabajo es utilizado sin obtener ninguna compensación.
En respuesta a estas demandas, algunas empresas están comenzando a negociar acuerdos con medios y creadores. Por ejemplo, OpenAI firmó acuerdos con Prisa (editor de El País) y Le Monde, permitiendo que sus contenidos sean utilizados para entrenar modelos de inteligencia artificial a cambio de una compensación. Sin embargo, este tipo de acuerdos es todavía limitado y no resuelve el problema generalizado de la utilización no autorizada de contenidos protegidos por derechos de autor.
Hacia un futuro de acuerdos de licencia o regulación
A medida que continúan los litigios y las demandas en el ámbito de los derechos de autor, surge la pregunta de si las empresas de inteligencia artificial deberían ser obligadas a obtener licencias para utilizar contenido protegido por derechos de autor en el entrenamiento de sus modelos.
Los expertos sugieren que uno de los caminos para resolver este conflicto sería el establecimiento de acuerdos de licencia claros entre las empresas de inteligencia artificial y los propietarios de contenido. En lugar de utilizar los datos de manera generalizada y sin permiso, las empresas podrían negociar acuerdos que permitan el uso legal de los contenidos a cambio de una compensación económica.
Por otro lado, también se está discutiendo la posibilidad de que se establezca una nueva regulación global para abordar el uso de datos en el contexto de la inteligencia artificial. Tal vez la creación de un marco legal que obligue a las empresas de inteligencia artificial a pagar por el uso de contenidos protegidos por derechos de autor sea la solución que permita equilibrar la innovación tecnológica con la protección de la propiedad intelectual.
El debate sobre el uso de contenidos con derechos de autor en el entrenamiento de modelos de inteligencia artificial es un tema complejo que continuará siendo un reto tanto legal como ético. Las empresas de inteligencia artificial argumentan que el acceso a grandes volúmenes de datos es esencial para el desarrollo y mejora de sus tecnologías, y defienden la idea de que el uso de información públicamente disponible debería estar permitido bajo el principio de «uso justo».
Sin embargo, los creadores de contenido, como medios de comunicación, autores y artistas señalan que este tipo de prácticas no solo atenta contra su propiedad intelectual, sino que también reduce sus oportunidades económicas al no recibir compensación por el uso de su trabajo. La falta de una normativa clara sobre el uso de contenidos protegidos por derechos de autor en inteligencia artificial está creando un ambiente de incertidumbre legal, donde se libra una batalla constante entre la innovación tecnológica y la protección de los derechos de los creadores.
A medida que las demandas y litigios por infracción de derechos de autor aumentan, el panorama legal se vuelve cada vez más complicado. Los tribunales deberán determinar si las empresas de inteligencia artificial realmente se benefician de un «uso justo» o si, por el contrario, están explotando de manera injusta el trabajo ajeno.
Si las decisiones judiciales siguen favoreciendo a las empresas tecnológicas, los creadores de contenido podrían verse obligados a adaptarse a un entorno en el que sus derechos de propiedad intelectual se vean sistemáticamente menospreciados. Por otro lado, si los tribunales fallan a favor de los creadores, esto podría obligar a las empresas de inteligencia artificial a repensar su modelo de negocio y establecer acuerdos más equitativos, buscando una forma de compensar a los creadores por el uso de sus obras, lo que podría alterar profundamente el desarrollo de la inteligencia artificial.
En última instancia, la solución probablemente se encuentre en una combinación de acuerdos de licencia entre las empresas de inteligencia artificial y los creadores de contenido, acompañados de una regulación más clara y robusta a nivel nacional e internacional. Si bien algunos pasos ya se han dado, como los acuerdos entre OpenAI y medios de comunicación como El País y Le Monde, aún queda un largo camino por recorrer.
La creación de marcos legales específicos que aborden el uso de datos con derechos de autor en el entrenamiento de modelos de inteligencia artificial podría equilibrar los intereses de las grandes empresas tecnológicas y los creadores de contenido, permitiendo un desarrollo más justo y sostenible de la inteligencia artificial. Este es un proceso que llevará tiempo, pero que es fundamental para asegurar que la innovación tecnológica se lleve a cabo de manera ética y respetuosa con los derechos de los individuos y las instituciones.
Si quieres conocer más de las polémicas que enfrenta a inteligencia artificial y cómo utilizarla de forma segura, escríbenos a [email protected]. Tenemos un equipo dedicado a la tecnología para asesorarte.