16/01/2024

Regular la IA en la UE va para largo

Desde mucho antes del avasallador fenómeno de ChatGPT ya existía la aspiración de embridar una especie conocida como Inteligencia Artificial, ahora apellidada Generativa. Funcionarios y expertos contratados por la Unión Europea estaban sobre la pista desde 2018 y preconizaban una legislación que evitase los problemas que, según intuían, se pondrían de manifiesto antes o después. En Estados Unidos, los reguladores se enfrentan a la tarea de convencer a unos poderes fácticos que no ceden una pizca de terreno. De ahí el escepticismo con que ha sido recibida la orden ejecutiva de Joe Biden. Es un problema que, con perdón, no sufre la UE, donde hay pocos embriones de empresas especializadas.

A la vista está que la llegada de la IA generativa a manos de millones de personas y de miles de empresas, ha pillado con el pie cambiado a los reguladores a uno y otro lado del Atlántico. Y en China, aunque de esto se sabe poco. Cada uno en la medida de sus fuerzas dispares, se ha apresurado a sacara la luz alguna forma de corpus legislativo cuya ambición máxima sería sujetar los usos razonables de la IA y enderezar los cuestionables.

Por eso importa que la Unión Europea avance en la elaboración de un reglamento que abra la perspectiva de una normativa merced a un mandato de negociación nacido de una decisión del Consejo Europeo en diciembre de 2022. El acuerdo al que acaba de llegar in extremis un grupo de trabajo ad hoc cuando faltaban días para el final de la  presidencia española del Consejo Europeo, ha sido presentado como ´provisional`. A este adjetivo y a la tenacidad de Carme Artigas, secretaria de estado española, respaldada por el comisario Thierry Breton (ambos festejando en la foto), han sido esenciales para salvar un  compromiso transaccional todo lo imperfecto que se quiera pero que perite seguir adelante.

¿Por cuánto tiempo? De más está decir que a las líneas generales negociadas – no es todavía un proyecto formal de reglamento –  les espera un largo recorrido en el así llamado trílogo [las tres instituciones de la UE]. El próximo paso será la puesta a discusión entre los 27 estados miembros, que están lejos de pensar lo mismo. No hay que olvidar que en mayo habrá elecciones al Parlamento Europeo y luego habrá que conformar una nueva Comisión.

Por estas razones y porque concierne a un mercado naciente y una tecnología muy capaz de dar sorpresas, es probable que el esperado reglamento dé muchas vueltas antes de ser bendecido. Según Artigas, es “una iniciativa emblemática” que “puede establecer un referente mundial para regular la IA en otras jurisdicciones”. Las dos cosas son ciertas, pero de momento viene lo más complicado, lidiar con las discrepancias en el seno de la jurisdicción disonante que forman los 27 estados miembros.

Algunos estados de peso han mostrado su preocupación por el riesgo de que un reglamento demasiado estricto provoque que la UE pierda atractivo como destino de inversiones en IA. Con matices, esta ha sido la posición de Francia, Alemania e Italia. El presidente francés, Emmanuel Macron salió a decir públicamente que un entorno regulatorio duro ahogaría la innovación en la materia. El contexto de estas reticencias es conocido: se teme que las pocas compañías europeas de IA encuentren dificultades para captar capitales, porque los eventuales inversores preferirían el entorno, más permisivo, que encontrarían en Estados Unidos.

En este contexto, el grupo ha optado por no darse la cabeza contra la pared: se ha centrado en una clasificación de sistemas de alto riesgo, “con el fin de garantizar que no se incluyan en dicha clasificación sistemas de IA que probablemente no acarrearán violaciones graves de los derechos fundamentales [mientras] los sistemas de IA, que sólo tienen un riesgo limitado, estarían sujetos a obligaciones de transparencia muy leves, como por ejemplo la divulgación de que el contenido se hubiera generado mediante IA”.

Esta distinción ha soliviantado a los críticos. Un editorial de la revista científica Nature encuentra “agujeros” en el documento. Dando la vuelta a la frase precedente, cuestiona que “se asume directamente que la mayor parte de la IA sólo tiene riesgos bajos o nulos, lo que implica que las aplicaciones corrientes (como los chatbots online que responden consultas simples o el software que reelabora o sintetiza textos de todo carácter) no requieren regulación expresa”.

Otro aspecto controvertido es el tratamiento que se recomienda acerca de los sistemas fundacionales, definidos como aquellos “capaces de realizar de manera competente una amplia gama de tareas diferenciadas, como la generación de vídeo, texto e imágenes, la conversión en lenguaje natural o la generación de códigos informáticos”. El acuerdo provisional contempla que estos modelos fundacionales deben cumplir obligaciones específicas en materia de transparencia antes de ser introducidos al mercado, pero ahí se queda. Pocas líneas más adelante, compensa esa levedad al advertir que “si son entrenados con gran cantidad de datos y con una complejidad  y capacidades avanzadas, sus  resultados son muy superiores a la media, pero pueden difundir riesgos sistémicos a lo largo de la cadena de valor”

Lo menos que puede decirse es que el debate sobre la pertinencia de regular la IA se acelera por momentos. Incluso el dicotómico Sam Altman ha alertado sobre los peligros que encierra aquello que le ha hecho rico y famoso. Equipos de lobistas, registrados o no como tales, trajinan en nombre de las Big Tech estadounidenses para suavizar las aristas de las ideas por lo bajinis apoyando u objetando cada idea de regulación de la IA que circula. A cambio, proponen como alternativa una autoregulatoria de las empresas, que deberían comprometerse a suscribir un código de conducta.

En Estados Unidos, aunque el debate sigue muy vivo, las presiones han  conseguido congelar las intenciones de la propuesta de AI Act firmada con  solemnidad por el presidente Biden. Y en la UE, las pocas compañías que han destacado en este campo, como la francesa Mistral y la alemana Aleph Alpha, recelan de que las exigencias [sobre todo cuando se trate de modelos fundacionales] les perjudique a la hora de obtener financiación en el mercado de capitales. Dan por seguro que los inversores desconfiados preferirán colocar su dinero en Estados Unidos.

Casi lo de menos es lo que diga o calle el acuerdo provisional, porque todo lo provisional merece ser modificado. Lo que verdaderamente importa es que la UE ha sido rápida en discutirlo y en consensuar un compromiso, que en Bruselas es un valor. La discusión ha sido intensa porque el asunto está lleno de puntos ciegos y de intereses. Es prácticamente seguro que la IA correrá más que los legisladores.

Los componentes éticos que enuncia el acuerdo provisional, tienen mucha lógica, porque los modelos, hoy concentrados en pocas manos, deberían servir de base para el desarrollo de aplicaciones por parte de terceros, lo que significa que cualquier error que contengan podría extenderse fuera de control.

También hay quienes piden más. Grupos defensores de los derechos humanos han alzado la voz en torno a cuestiones éticas relevantes. Es cierto que el acuerdo promete prohibir los sistemas de categorización biométrica con información sensible o los de puntuación social, pero se ha ignorado la reclamación acerca del reconocimiento facial en tiempo real, juegue muy del gusto de las autoridades chinas y, por eso mismo, exportable.

Es imperativo que unos modelos que gobiernan infraestructuras criticas, que están presentes en dispositivos médicos, que  intervienen en el cumplimiento de la ley o se usan en la selección de personal, cumplan con unos requisitos básicos. Es un paso adelante la regla de transparencia que propone el grupo de trabajo para que los  deep fakes queden identificados como tales y que las personas sepan en todo momento si están hablando con un chatbot. En cualquier caso, el acuerdo no sólo es provisional sino que ha eludido cualquier aspecto que pudiera afectar políticas de defensa.

No llueve a gusto de todos, claro, pero no hay que  desestimar el  “efecto Bruselas”. En su tiempo, el RGPD suscitó una oleada de críticas no muy diferentes e incluso se predijo que sería una norma muerta al poco tiempo. Lo único cierto de aquellas quejas es que no contribuyó a impulsar un sector europeo pujante, pero ese nunca fue un propósito de la RGPD. Al final, se puede decir que es lo más parecido a un marco legal internacional en el tratamiento de datos.

Que ocurra lo mismo será algo más complicado con un futuro reglamento europeo. Las grandes compañías buscan tener libertad para transferir datos personales entre países, para lo que deberían garantizar la interoperabilidad según prescribe el reglamento europeo. Con la inteligencia artificial (de cualquier apellido) se presenta una diferencia: una misma empresa puede usar algoritmos distintos en la UE y fuera de sus fronteras.

Las líneas generales trazadas en el acuerdo provisional están llamadas a influir – o eso pretenden – en las legislaciones de países que hasta hace muy poco no se planteaban la IA como materia prioritaria.

Otro cantar será pasar de la influencia normativa a la eficacia de la norma a la hora de su aplicación. Se han definido sanciones que, en el caso más grave, alcanzarían el 7% de la facturación anual de la empresa concernida. Pero probar un incumplimiento no será sencillo en todos los casos: si bien lo es bastante más de lo previsto en la orden el acta de Joe Biden, lastrada por compromisos previos con los que Amazon, Google, Meta o Microsoft, supuestamente para garantizar la seguridad de sus productos y en la práctica como limitadores de de lo que preparaba la Casa Blanca.

En Estados Unidos, cuanto más se va sabiendo de los planes de empresas de naturaleza opacas, más se duda de su disposición a cumplir con la obligación de presentar al gobierno los resultados de tests de sus sistemas e información adicional. Se crearán estándares de seguridad para las herramientas de IA y una guía para etiquetar el contenido generado por ellas. China – y de esto habría que hablar largo y tendido otro día – se ha decantado por establecer medidas provisionales para gestionar contenidos generados por iA que están en línea con regimentación censora.

[informe de Pablo G. Bejerano]


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons