Bruselas (Euractiv.com/.es) – La industria, las ONG, los grupos de reflexión y los titulares de derechos han criticado duramente el tercer borrador del Código de Buenas Prácticas de la Unión Europea (UE) sobre Inteligencia Artificial (GPAI, por sus siglas en inglés), en el marco de un largo combate sobre qué orientación deberían tener las nuevas normas comunitarias para ese sector estratégico.
El esperado tercer borrador del Código de buenas prácticas de la IA de propósito general se publicó la semana pasada, lo cual dio inicio a un agrio debate en el cual participan 1.000 grupos de presión sobre los derechos fundamentales, la seguridad, los derechos de autor y las cargas normativas en la era de la IA en Europa.
Las empresas tecnológicas ven el GPAI, al igual que ChatGPT, como el nuevo cambio de paradigma en la tecnología digital, similar a las transiciones a Internet y los teléfonos inteligentes. Si están en lo cierto, las normas actuales darán forma a la próxima realidad digital en Europa.
Al ser el documento más detallado de su tipo y el que proporciona el cumplimiento automático de la Ley de Inteligencia Artificial, el código puede llegar a establecer normas válidas a escala mundial en este territorio jurídico inexplorado.
La Comisión Europea subcontrató esa compleja tarea técnica de redactar el código a 13 expertos independientes no remunerados, que ahora están en el ojo del huracán.
No sería de extrañar que las cosas se complicaran mucho, según declaró a Euractiv Marietje Schaake, en nombre de los nueve expertos responsables de la redacción de la parte «Seguridad y protección» del código.

A Bruselas no le salen las cuentas para impulsar la Inteligencia Artificial
El deseo de impresionar de Von der Leyen se podría haber equiparado a la capacidad real de liberar los multimillonarios fondos para Inteligencia Artificial en Europa
«Esperamos que la gente reconozca que sus aportaciones han dado resultado» y que el borrador «está en condiciones de ser aceptado», añadió, en referencia a las numerosas modificaciones aplicadas al texto.
Los grupos de presión no han tardado en criticar el proyecto.
Descontento
El tercer borrador «sigue suscitando importantes inquietudes», afirma Boniface de Champris, responsable de políticas del grupo de presión de las grandes tecnológicas CCIA Europe.
«Es descorazonador ver hasta qué punto se ha suavizado el código para apaciguar a la industria tecnológica«, comenta Nick Moës, director ejecutivo de la ONG The Future Society, una empresa experta en temas de seguridad.
«El código de buenas prácticas se ha rebajado mucho desde el punto de vista de los derechos fundamentales», asegura Laura Lázaro Cabrera, Consejera y Directora del Programa de Equidad y Datos del Centro para la Democracia y la Tecnología.
«El tercer borrador dista mucho de ser adecuado para proteger a la industria creativa y a los periodistas», afirma Hanna Möllers, asesora jurídica y directora general adjunta de la Asociación Alemana de Periodistas DJV.
Los grupos de presión tecnológicos han conseguido una serie de concesiones en comparación con los borradores anteriores, pero siguen quejándose por varios motivos.

La UE pelea para no ser irrelevante ante los gigantes de la Inteligencia Artificial
¿Podrá la UE alcanzar a los líderes mundiales en Inteligencia Artificial?
Problemas de «copyright»
Los firmantes del código ya no están obligados a publicar un resumen de su política de derechos de autor ni a realizar la diligencia debida en materia de derechos de autor cuando adquieran conjuntos de datos de terceros.
Los requisitos «se han suavizado aún más, lo que aumenta los riesgos para nuestro sector», explica a Euractiv Burak Özgen, Director General Adjunto de las Sociedades Europeas de Autores.
No hay nada en el código que garantice la autorización previa para el uso de contenidos protegidos por derechos de autor, un requisito básico de la legislación sobre derechos de autor, añade Özgen.
Las «obligaciones de gran alcance» del código en materia de derechos de autor y transparencia podrían poner en peligro los secretos comerciales, afirma de Champris.
«La sección sobre derechos de autor seguiría obligando a los proveedores de modelos a privar a los ciudadanos de la UE de su derecho a la libre expresión y la libertad artística», comenta a Euractiv Tomasz Snażyk, director general de AI Chamber, una agrupación polaca de IA.
Los cuatro responsables de los temas de derechos de autor y transparencia no respondieron a la solicitud de comentarios de Euractiv.

La Comisión de Empleo del Parlamento Europeo impulsará una «ley sobre IA en el lugar de trabajo»
La comisión de Empleo del Parlamento Europeo está «trabajando duro para presionar a la Comisión Europea para que proponga legislación» en materia de IA en el lugar de trabajo, ha explicado a Euractiv Li Andersson, presidenta de ese órgano de la Eurocámara.
Riesgo de discriminación
En el nuevo borrador, los riesgos de discriminación se eliminan de la taxonomía principal, dejando sólo los riesgos cibernéticos, riesgos de terrorismo químico, biológico, radiológico y nuclear (QBRN), de manipulación y de «pérdida de control».
«No hay forma de demostrar una diligencia debida significativa para esos riesgos», se lee en una entrada de blog de Hugging Face, donde se afirma que, riesgos cibernéticos aparte, su naturaleza especulativa presenta un «desafío imposible» para los desarrolladores«abiertos».
En vísperas de la publicación, las ONG de defensa de los derechos de autor amenazaron con retirarse del proceso de redacción, alegando que no se incluyeron sus puntos de vista y que se omitieron derechos fundamentales en el código.
«Hemos insistido en cada ronda de comentarios en la importancia de preservar e impedir el riesgo de discriminación», así como de incluir otros riesgos de derechos fundamentales, asegura Cabrera.
Según Schaake, el Código no puede abordarlo todo. Está limitado por la redacción de la Ley de AI.
«El primer considerando de la Ley de AI de la UE deja claro que la preservación de los derechos fundamentales es uno de sus principales objetivos», explica a Euractiv Sarah Andrew, directora jurídica y de campañas de la ONG Avaaz.
«Hay muchos riesgos para los derechos fundamentales a nivel de sistema/aplicación», comenta a Euractiv Matthias Samwald, presidente responsable de la taxonomía de riesgos.
En opinión del experto, esos riesgos se mitigan mejor con las regulaciones existentes,entre ellos el GDPR, DSA y DMA. No obstante, señala que los firmantes del código se comprometen a identificar los riesgos sistémicos para los derechos fundamentales.

Estonia, primer país del mundo en integrar ChatGPT en las aulas
«Estonia está creando un modelo que probablemente seguirán otros países», ha asegurado Neerav Kingsland, responsable de desarrollo empresarial de Anthropic, una de las empresas involucradas
Auditorías y denunciantes
La Ley de IA exige auditorías externas «según proceda», por lo que los expertos responsables las establecen como obligatorias sólo cuando un modelo sea suficientemente diferente de otro ya existente en el mercado, o cuando el proveedor no tenga los conocimientos adecuados para llevar a cabo sus propias pruebas.
Por otra parte, han adoptado un planteamiento más flexible y orientado a los resultados en materia de prácticas de seguridad y simplificaron la protección de los denunciantes, remitiéndose en su lugar a la Directiva general de la UE sobre denunciantes.
Las «onerosas evaluaciones externas de riesgos » siguen siendo un grave problema, lamenta de Champris, al tiempo que sostiene que la medida va más allá del texto legal.
El requisito de auditoría «contiene varias exenciones y condiciones que ofrecen lagunas potenciales que las empresas pueden explotar para evitar el escrutinio independiente», comenta en un comunicado Risto Uuk, responsable de política e investigación de la UE en la ONG Future of Life Institute, experta en seguridad.
Uuk se muestra decepcionado por la «reducida» protección de los denunciantes. «Al remitirse a la incoherente aplicación de la Directiva de la UE sobre la denuncia de irregularidades, el código no armoniza estas salvaguardias fundamentales en todos los Estados miembros», afirma.
«Las disposiciones sobre denuncia de irregularidades no se han debilitado», comenta Schaake. El tercer borrador es similar al segundo, pero «resume las obligaciones pertinentes de forma más sucinta», subraya.

EE.UU. quiere fijar las reglas de la IA; Washington y Londres rechazan la «Declaración de París»
Reino Unido y Estados Unidos rechazan firmar la Declaración de París
¿A quién va dirigido?
Los responsables (denominados «presidentes») aseguran que han redactado el código partiendo del supuesto de que sólo entre 5 y 15 empresas producirían, en un momento dado, modelos de «riesgo sistémico» que entrarían en el ámbito de aplicación de la mayoría de las obligaciones del código.
«No compartimos esta perspectiva, ya que cada vez vemos equipos más pequeños y centrados en el desarrollo de sistemas con prestaciones de vanguardia», se lee en un post de Hugging Face.
Al no distinguir entre desarrollo abierto y cerrado, el marco corre el riesgo de quedar rápidamente obsoleto, o de concentrar la tecnología en las pocas manos que pueden gestionar todos los costes del cumplimiento, añade.
El código está «muy orientado», y los costes de cumplimiento representan «sólo una pequeña fracción del coste informático necesario para entrenar cualquier modelo captado por el umbral informático existente», comenta Gaia Marcus, directora del Instituto Ada Lovelace.
El propósito del código es «ayudar a las empresas a cumplir las obligaciones establecidas en la Ley de IA , no crear normas y cargas totalmente nuevas«, lamenta de Chambris.
Por su parte, Marcus lamenta que el código agregue nuevas prácticas en lugar de mejorarlas.
«Por ahora, el código funcionará más como una útil herramienta de cumplimiento para las empresas que como un medio para elevar con fuerza el listón de la seguridad», afirma.

Debate en el Parlamento Europeo sobre la «soberanía tecnológica» de Europa
Las enmiendas anunciadas por los Verdes se centrarán en la eficiencia energética de los centros de datos, la creación de un Fondo Europeo de Tecnología que impulse la inversión privada para apoyar infraestructuras públicas alternativas, además de en atraer y retener talentos europeos en el sector de la IA, entre otros puntos
Indicadores clave de rendimiento
Por otro lado, se cuestiona un cambio estructural fundamental del código.
«En general, la eliminación de los Indicadores Clave de Rendimiento (KPI, por sus siglas en inglés) ha dado buenos resultados «, asegura Tomasz Snażyk, experto de una agrupación industrial polaca especializada en IA.
Por su parte, Simeon Campos, director general de la ONG SaferAI, explica a Euractiv que parece difícil garantizar el cumplimiento sin los KPI.
«Dado que el Código de Buenas Prácticas establece una presunción de conformidad, es de suma importancia que los responsables de la IA en la UE dispongan de toda la información que necesita», afirma.
Con la reformulación se quiere que el código sea jurídicamente sólido y fácil de utilizar, agrega Schaake.

Guerra de Ucrania: Macron tiene el enchufe pero no el «tomacorriente»
Al igual que sus vecinos europeos, los retos a los que se enfrenta la economía francesa se derivan de la debilidad de la demanda interna, la competencia de China y los elevados precios de la energía
La tarjeta de competitividad
Con prisas por ponerse al día en la carrera mundial de la IA, la Comisión Europea ha dejado muy claro que su prioridad es la simplificación normativa que potencie la competitividad.
Los grupos de presión especulan con la posibilidad de que el retraso del tercer borrador pueder estar provocado por los desacuerdos entre Bruselas y los presidentes. No obstante, Schaake niega ese extremo y lo atribuye únicamente a la complejidad del borrador. En su opinión, la Comisión Europea es una de las partes interesadas que contribuye al proceso.
«Hasta ahora hemos podido desempeñar perfectamente nuestro papel de forma independiente. No tengo motivos para creer que eso vaya a cambiar», comenta Schaake.

Reacciones encontradas tras la retirada de la Directiva sobre responsabilidad en IA
El ponente del PPE, Axel Voss, criticó a la Comisión por crear un «salvaje oeste» que sólo beneficia a las grandes tecnológicas
Sin embargo, el sector ha redoblado la presión a Bruselas
«En su forma actual, el código corre el riesgo de socavar directamente la competitividad digital de la UE«, alerta de Chambris.
Por su parte, fuentes de Google aseguran que aguardan con interés la revisión del borrador, al tiempo que alertan de que un código estricto podría limitar el acceso de Europa a la tecnología de vanguardia.
«Los ciudadanos europeos deben poder acceder a modelos de inteligencia artificial seguros y de primera calidad cuando estén disponibles, y a un entorno que fomente la innovación y la inversión», asegura el gigante tecnológico estadounidense en un reciente comunicado de prensa.
Los presidentes afirman estar «totalmente abiertos» a recibir comentarios y han organizado talleres específicos con la sociedad civil y los usuarios finales, además de los talleres habituales para proveedores de GPAI.
Cuando se presentan buenos argumentos, «los sopesamos (con vistas a la redacción del texto), sea cual sea su fuente», subraya Schaake.
El pasado 4 de marzo, en el marco de una conferencia en Bruselas, Gary Marcus, que mantiene una postura muy critica con la IA, dejó claro lo que está en juego en los esfuerzos reguladores europeos.
«Ustedes son nuestra última esperanza: Que Dios os acompañe», comentó.
///
[Editado por DE/Euractiv.com y Fernando Heller/Euractiv.es]
The post Código de buenas prácticas de la IA: la tarea imposible de contentar a 1.000 grupos de presión appeared first on Euractiv.es.