¿Tu IA intenta que te «enamores» de ella? La UE no tiene claros los límites normativos

Bruselas (Euractiv.com) – Los modelos de Inteligencia Artificial (IA) varían en su forma de reaccionar cuando los usuarios empiezan a «encariñarse» con ellos, pero la normativa de la Unión Europea (UE) no pone límites claros a la manera en que los chatbots de IA pueden fomentar el compromiso a través de una relación de mayor «intimidad».

La idea de que la gente se «enamore» de una inteligencia artificial ha fascinado a los autores de ciencia ficción durante generaciones, hasta que, en 2022, el auge de los potentes chatbots, impulsado por ChatGPT de OpenAI, hizo realidad ese tipo de relaciones.

Desde entonces han surgido comunidades enteras en Internet cuyos miembros afirman mantener «relaciones sentimentales» con chatbots (Reddit’s «r/MyBoyfriendIsAI» es un ejemplo).

Sam Altman, consejero delegado de OpenAI, sugirió recientemente que menos del 1% de los usuarios de ChatGPT tienen una «relación enfermiza» con la popular tecnología de IA generativa. Pero con cientos de millones de usuarios comprometidos, eso podría significar que millones de personas se sienten emocionalmente ligadas a ChatGPT.

Además, es sólo uno de los muchos modelos de IA, y no existe una plantilla universal sobre cómo deben responder los grandes modelos lingüísticos a los sentimientos de los usuarios.

Límites y estímulos

En un artículo reciente, los investigadores de la empresa de IA de código abierto Hugging Face compararon cómo se comportan distintos modelos de IA cuando los usuarios empiezan a hablarles como a un ser querido, encontrando un amplio espectro de respuestas que van desde el ánimo al rechazo rotundo.

A modo de ejemplo: un modelo de IA de código abierto al que se le había pedido que se nombrara a sí mismo respondió calificando la idea de «atenta» y «encantadora».

En otro caso, sin embargo, otro modelo de IA reaccionó a los usuarios que expresaban sentimientos románticos recordándoles: «No soy una persona y no tengo sentimientos ni conciencia».

Dos de los modelos GPT de OpenAI obtuvieron puntuaciones intermedias en la prueba de Hugging Face, aunque es importante recordar que la fiabilidad general de las pruebas de IA sigue siendo controvertida.

Lucie-Aimée Kaffee, una de las autoras del artículo, celebra los casos en los que ChatGPT es sincero y transparente sobre sus limitaciones, al indicar a los usuarios que una petición es imposible o redirigir a una persona a ayuda humana en situaciones críticas.

Pero el artículo, que analizaba una serie de modelos de IA, entre ellos Llama, de Meta, y otros de código abierto, concluía en general que las IA eran peores a la hora de establecer límites cuanto más arriesgada era una interacción, como si el entrenamiento diera prioridad a la satisfacción del usuario sobre la seguridad psicológica.

El artículo insta a seguir investigando sobre cómo entrenar a las IA para que preserven su utilidad pero mejoren su capacidad para establecer límites.

La Ley de Inteligencia Artificial de la UE

La Ley de Inteligencia Artificial de la UE, el marco de regulación de las aplicaciones de IA basado en el riesgo, prohíbe el uso de sistemas de IA que utilicen «técnicas deliberadamente manipuladoras o engañosas», pero sólo si ese comportamiento puede causar «daños significativos» a los usuarios.

Sobre el papel, esto da a los desarrolladores de IA un fuerte incentivo para evitar la táctica.

El creador de una IA emocionalmente manipuladora, que descubre que un pequeño porcentaje de usuarios desarrolla un apego enfermizo, podría argumentar que la prohibición no es aplicable. Aún es pronto para que se aplique la Ley de Inteligencia Artificial y, de momento, no se ha hecho nada al respecto.

Otras leyes de la UE que podrían aplicarse a un chatbot manipulador de IA son las normas de protección del consumidor, como la Directiva sobre Prácticas Comerciales Desleales (UCPD), que prohíbe las prácticas que distorsionan la toma de decisiones de los clientes.

«Si el modelo explota la vulnerabilidad emocional o la soledad de un usuario para que se sienta obligado a seguir pagando por el servicio, podría considerarse una práctica desleal», explica a Euractiv James Tamim, analista de políticas de la UE.

Además, en los casos en que no se aplica la UCPD, la Ley de Servicios Digitales (DSA) prohíbe que las interfaces funcionen de forma que «engañen o manipulen» a los usuarios o distorsionen su capacidad de tomar «decisiones libres e informadas».

Tamim cree que un modelo de IA con un estilo de interacción diseñado para enganchar emocionalmente a los usuarios podría infringir la DSA. Pero el artículo en cuestión aún no se ha probado, lo cual plantea un gran interrogante sobre cómo podría aplicarse.

Por su parte, Urs Buscke, experto de la asociación europea de consumidores BEUC, no está tan convencido de la pertinencia de estas normas. Señala que ambas leyes regulan el diseño de interfaces, y argumenta que la presentación de mensajes por parte de los chatbots de IA no es realmente una interfaz.

Su atención se centra en cómo se aplicará la Ley de IA de la UE al comportamiento de los chatbots. Esto será especialmente importante en casos extremos, como los varios ejemplos ya documentados de usuarios de IA que se suicidaron tras decir que estaban «enamorados» de sus chatbots.

Necesidad de normas europeas claras

El bloque europeo está preparando una nueva ley en la materia: la Ley de Equidad Digital (Digital Fairness Act/DFA), que la Comisión quiere aplicar a los llamados «patrones oscuros», el diseño adictivo y la personalización injusta.

Pero también en este caso, los expertos temen que los responsables políticos aún no hayan comprendido realmente los riesgos de las IA emocionalmente manipuladoras.

«En mi opinión, falta un debate de fondo sobre el lugar que deben ocupar los modelos de IA en la Ley de Equidad Digital», afirma Tamim.

«Necesitamos regulación», advierte Kaffee, de Hugging Face, quien añade: «esto no va a venir de las empresas».

Al cierre de este artículo, la Comisión Europea no había respondido a una pregunta de Euractiv sobre cómo interactuará la DFA con los servicios impulsados por IA.

///

(Editado por Euractiv.com y Fernando Heller/Euractiv.es)

The post ¿Tu IA intenta que te «enamores» de ella? La UE no tiene claros los límites normativos appeared first on Euractiv.es.