Las empresas de IA no están siendo tan transparentes como desea la UE

(Euractiv)- Varias grandes empresas de inteligencia artificial que han lanzado recientemente nuevos modelos parecen no estar cumpliendo las normas de transparencia de la UE para estas herramientas. En virtud de la Ley de IA de la UE, las empresas que crean grandes modelos básicos, como los que sustentan chatbots populares como ChatGPT o Gemini de Google, están obligadas a divulgar la información sobre los datos utilizados para entrenar los modelos.

Estas divulgaciones son especialmente importantes para los artistas, escritores y otras personas que producen material protegido por derechos de autor. La UE quiere que los creativos puedan comprobar si su trabajo se ha utilizado para entrenar un modelo, lo que podría respaldar acciones legales si consideran que se han violado sus derechos.

Los desarrolladores de IA deben revelar si han utilizado conjuntos de datos disponibles públicamente o información con licencia de los titulares de los derechos. También deben enumerar los sitios web más importantes de los que han extraído datos para el entrenamiento y especificar qué contenido han utilizado. La Comisión ha recogido todo esto en una plantilla, que pretende proporcionar una «base mínima común».

Sin embargo, los principales desarrolladores de IA no se aprestan a presentar sus informes, lo que plantea la cuestión de si la Comisión tendrá que intervenir para obligarlos a cumplir una vez que finalice el periodo de gracia para la aplicación de estas normas este verano.

Plazos de cumplimiento

Los plazos para el cumplimiento de la divulgación de los datos de entrenamiento dependen de cuándo se haya producido el modelo. Las empresas que comercialicen un modelo de IA en el mercado europeo antes del 2 de agosto de 2025 tienen hasta agosto de 2027 para cumplir la norma. Sin embargo, los modelos comercializados después del 2 de agosto de 2025 deben cumplirla de inmediato.

Sin embargo, es fundamental señalar que la Comisión solo comenzará a supervisar y hacer cumplir formalmente estas normas de divulgación de datos de entrenamiento en agosto, ampliando el periodo de gracia de cumplimiento para los desarrolladores de IA hasta el verano, aunque las empresas son libres de cumplir la ley antes si así lo desean.

Hugging Face, una empresa especializada en modelos de IA de código abierto, ha hecho precisamente eso, rellenando y publicando la plantilla de un modelo que lanzó incluso antes de la fecha límite de la Ley de IA.

«¡Enhorabuena a la Oficina de IA de la Comisión Europea por hacerlo tan sencillo!», escribió el responsable de aprendizaje automático de la empresa, Yacine Jernite, en una entrada de blog. Sugirió que rellenar y publicar la plantilla era factible incluso para las organizaciones más pequeñas, ya que a él solo le llevó dos horas.

Información insuficiente

Para otros desarrolladores de IA, revelar la información utilizada para entrenar sus modelos no parece tan fácil. OpenAI lanzó GPT-5 pocos días después de la fecha límite del 2 de agosto de 2025; Google lanzó Gemini 3 en noviembre; y en diciembre, la europea Mistral siguió con Mistral 3.

En el momento de redactar este artículo, ninguno de estos modelos básicos de IA parece haber publicado la información exigida por la Ley de IA de la UE. Solo han proporcionado información general sobre los datos utilizados.

La ficha del modelo GPT-5 menciona «conjuntos de datos diversos», incluida información procedente de Internet, datos de socios y datos generados por formadores humanos. Google y Mistral también afirman que han utilizado datos diversos para entrenar sus modelos, sin nombrar conjuntos de datos o sitios web específicos.

Euractiv preguntó a las tres empresas dónde se podía encontrar la documentación sobre sus modelos que exige la Ley de IA de la UE. Google nos dijo que actualmente estaba evaluando cómo poner en práctica los requisitos de la ley, y añadió que estaba trabajando de buena fe para cumplirla. OpenAI dijo que seguía colaborando con la Oficina de IA. Mistral no respondió.

«Entrenamiento de la IA en contra de su voluntad»

«Esta falta de transparencia tiene consecuencias reales», declaró a Euractiv Maximilian Gahntz, responsable de políticas de IA de la Fundación Mozilla. «Sin una idea clara de los datos que utilizan los desarrolladores de IA para entrenar sus modelos, los titulares de derechos no saben si sus noticias o sus obras de arte se utilizan para el entrenamiento de la IA en contra de su voluntad».

Zuzanna Warso, directora de investigación de la organización sin ánimo de lucro Open Future, afirmó que los requisitos de transparencia de la ley eran relativamente modestos. Señaló además que asimismo se aplican a los proveedores europeos y que también debían hacerse cumplir en su caso.

Pero es casi seguro que cualquier futura aplicación de la Ley de IA se verá envuelta en la actual disputa transatlántica sobre el Estado de derecho digital de la UE. Hace casi un año, el vicepresidente estadounidense J. D. Vance aprovechó un discurso en una conferencia sobre IA celebrada en París para arremeter contra lo que calificó de regulación «excesiva» de la IA en Europa.

Medida contra la tecnología estadounidense

La primera multa de la UE contra X, de Elon Musk, en virtud de normas separadas para las plataformas, también provocó una gran polémica a finales del año pasado, a pesar de que la sanción en sí era relativamente pequeña y el objetivo apenas tenía importancia económica. Washington considera inaceptable cualquier medida de la UE contra la tecnología estadounidense.

Por otra parte, las normas de transparencia de la Ley de IA podrían afectar al núcleo —posiblemente protegido por derechos de autor— de los negocios de IA valorados en miles de millones que lideran entidades estadounidenses como OpenAI, Google, Meta y Microsoft.

En septiembre de 2025, la Comisión comunicó a Euractiv que todavía estaba analizando si el GPT-5 de OpenAI se consideraba un nuevo modelo en virtud de la Ley de IA, pero afirmó que exigiría su cumplimiento, incluso aplicando multas si fuera necesario.

La Comisión se ha negado a hacer declaraciones a la pregunta de Euractiv  de si había llegado a alguna conclusión sobre el GPT-5, así como si estaba tomando alguna medida con respecto a otros modelos lanzados desde entonces.
///
(Editado por nl aw/Euractiv.com y Luis de Zubiaurre Wagner/Euractiv.es)

The post Las empresas de IA no están siendo tan transparentes como desea la UE appeared first on Euractiv.es.