15/11/2023

IA: Biden y Sunak abarcan mucho y aprietan poco

Un envejecido axioma sostenía que, cuando un gobierno no atina a resolver un problema, decide nombrar una comisión que, probablemente, lo esconderá en un cajón… hasta el  siguiente gobierno. En tiempos de problemas globales, se aconseja convocar una cumbre [suena mejor llamarla summit], la primera de un ciclo y ojalá que origen de un interplurinacional permanente. Acaba de ocurrir a propósito de los peligros de la inteligencia artificial. Primero, la Casa Blanca elaboró una orden ejecutiva (sic) de la que nacerá un consejo formado por tres docenas de funcionarios. De inmediato, el primer ministro británico, Rishi Sumak, convocó una cumbre/summit a la que acudieron 28 países.

Bletchey Summit

Todo es  fruto de la agitación suscitada por el auge de la IA generativa, con su éxito instantáneo y las advertencias acerca de una precipitación que ni sus propios creadores recomiendan. Una vez más, se ha puesto en evidencia el distanciamiento entre legisladores y tecnólogos, quedando en medio unas sociedades perplejas ante tanta promesa. Entretanto, el cúmulo de vaguedades, buenos propósitos y augurios catastrofistas adormecen a unos medios encantados de escribir sobre algo que ignoran pero vende. Mientras tanto, la IA progresa con efectos tangibles.

No son pocos los expertos que han avisado: la ambición de la orden presidencial es tan grande como la dificultad de llevarla a buen término, con lo que en la práctica se queda en una lista de buenos propósitos. Y no escasean aquellos que rebajan el valor del documento e incluso los convencidos de que toda regulación gubernamental de la IA acabará por perjudicar la innovación. Etcétera.

Entre los detractores, con buenos altavoces y rudimentario pensamiento, están algunos políticos que atisban en la medida un exceso de control dañino para la competencia. La falta de consenso es abismal entre unos legisladores – aunque la orden no es estrictamente una ley – que quisieran gobernar lo que tal vez sea ingobernable y unos entusiastas para quienes el intento de regular la IA equivale a estrangularla.

El conspicuo autor y editor Tim O´Reilly ha publicado un opúsculo titulado “No se puede regular lo que no se conoce”, en el que sostiene la tesis de que una necesaria regulación de la IA debería comenzar por la obligatoriedad de desvelar los códigos. Implícitamente, O+Reilly, muy crítico de la llamada “economía de la atención”, cuestiona la tendencia a dejar que de esto se ocupen  unos políticos que sólo son capaces de otear el espectro de eventuales catástrofes de seguridad nacional, en lugar de preocuparse por riesgos inmediatos como sus usos malsanos que no son eventuales: vigilancia electrónica, desinformación y excesivo poder en manos de un puñado de compañías omnipotentes.

Si se aplicase la orden en su literalidad, compañías como OpenAI o Google – entre otras – dice O´Reilly, deberían proporcionar a las autoridades federales información sobre cómo, dónde y para qué están desarrollando productos y servicios basados en IA, especialmente en lo que interesa a la ciberseguridad. El objetivo sería evitar que los modelos nacientes puedan ser empleados para influir en eventos reales o virtuales, llegando al extremo de crear nuevas armas biológicas, radiológicas o nucleares. Y los ejemplos podrían multiplicarse.

En particular, la administración Biden aspira a usar esta variante de la IA para descubrir vulnerabilidades de software que faciliten la diseminación de ciberataques. Por consiguiente, se admite que la ciberseguridad ha entrado en una nueva fase, en la que pareciera que lo único capaz de detener un ataque generado por la IA es precisamente una defensa atrincherada gracias a la IA. La orden ejecutiva no concreta gran cosa al respecto, pero Estados Unidos lleva tiempo por ese camino: dentro del Pentágono, la Defense Advanced Research Projects Agency (DARPA) se está desarrollando un proyecto conocido como AI Cyber Challenge.

Materialmente, el departamento de Comercio tendrá que coordinarse con otras tres agencias federales para supervisar y plasmar con más detalle “las mejores prácticas en relación con la seguridad de la IA”. Como es lógico, la orden presidencial pone énfasis en la responsabilidad del sector privado, que es quien a fin de cuentas está llevando la voz cantante en el desarrollo de la IA generativa [GenIA]. El reto de asegurar que ese desarrollo se hace con criterios éticos y equitativos no es sencillo ni inmediato, como han demostrado experiencias anteriores.

La tarea de supervisión recaerá en el departamento de Comercio, con la precisión de que todo contenido o servicio generado por IA lleve una  etiqueta de identificación para que los usuarios tengan conocimiento previo de ello. Será interesante ver qué hará la FTC (Federal Trade Commission), presidida por la implacable Lina Khan para velar que en la industria de la IA se preserve el comportamiento competitivo, que es su función. Naturalmente, la coordinación federal va a requerir una paciente selección de expertos cualificados e independientes, algo que no abunda, a los que habrá que remunerar muy bien.

Claro está que hará falta financiación, pero tendrá que aprobarla un congreso que tiene  propensión a paralizarse entre entre batallas partidistas e intrapartidistas cuya arma suprema es el bloqueo presupuestario.

Al mismo tiempo, no hay que olvidar que el gobierno federal tiene en sus manos, además de la capacidad regulatoria, un enorme poder de compra. Existe el precedente del Federal Risk and Authorization Management Program que regula el uso gubernamental de los servicios en la nube.

Por otra parte, la orden ejecutiva rompe con otro tabú de la legislación estadounidense, mucho más laxa que la europea en lo referido a privacidad. Sin embargo, puesto que la IA se alimenta de la ingesta de volúmenes insólitos de datos, la administración Biden ha prestando atención a este asunto, siempre incómodo para las Big Tech. Las agencias federales deberán establecer pautas sobre cómo recopilan, usan y comparten la información personal obtenida de los corredores de datos. ¿El problema? Esta primera aproximación a la privacidad se limita al gobierno federal, por lo que no se mete en los datos de los ciudadanos, que en su caso debería legislar el congreso. Porque, atención: no existe una única ley federal acerca de la omnipresente cuestión de la privacidad y en cambio hay una cacofonía de leyes estatales que entorpecerán cualquier política unificada.

Para colmo, aunque buena parte del desarrollo de la IA generativa ocurre dentro del movimiento open source, este es el gran ausente de la orden firmada por Biden. Algo que ha lamentado Mark Surman, presidente de la Fundación Mozilla, que reclama más apertura y transparencia. También se echa en falta a las organizaciones de la sociedad civil, que tendrían unas cuantas cosas que decir. Esta fue la principal crítica a la Cumbre Mundial sobre IA y Seguridad, organizada por Sunak.

En horas bajas, el primer ministro trata de ganar espacios de influencia internacional, ya que internamente le persigue el pitorreo. Celebrada en Bletchey Park, el legendario laboratorio donde trabajó Alan Turing durante la segunda guerra mundial, el simbolismo del lugar buscaba demostrar que el Reino Unido aún tiene cosas que decir en la industria tecnológica. Para esto necesitaba una repercusión que de Estados Unidos – Biden envió a Kamala Harris, encantada de encontrar algo que hacer – el G7 y la Unión Europea, además de países como Singapur, Francia, Italia, Japón, Corea del Sur, España y… tachán, China, representada por el doctor Wu Zhaohui [de quien se ha subrayado su condición de científico] cuya presencia bastó para recordar que Biden y Xi Jimping se encontrarán hoy pronto en San Francisco y más vale ir mostrando un espíritu de cooperación sinoamericana, que nadie sabe cuánto durará.

La confrontación entre las dos potencias estaba a la vista, porque la vicepresidenta de Biden estuvo desafiante. “Permitan que sea muy clara: en lo relativo a la IA, Estados Unidos es un líder global; empresas estadounidenses encabezan la innovación en IA y mi país se siente más capaz que ningún otro de construir un consenso sobre estas cuestiones”.

No exageraba. Un estudio reciente recuerda que el 60% de los investigadores sobre IA trabajan en Estados Unidos, pese a que sólo el 20% se han graduado en el país, mientras el 29% han sido fichados en China y un 18% proceden de universidades europeas.

Fue un efímero golpe de efecto para Sunak, que cerró las dos jornadas con una entrevista a Elon Musk, quien acabó adueñándose de los titulares con esta provocación: “llegará un momento en el que ningún empleo será realmente necesario más allá de la satisfacción personal; la IA podrá hacerse cargo de todas las tareas humanas”. El magnate encontró en Bletchey el mejor escenario para presentar en sociedad su última empresa, xAI, para la que ha contratado personal que trabajaba en OpenAI y Google.

Al final, 28 países y la UE firmaron la bautizada como Declaración de Bletchey, en la que se marcan una agenda para abordar “como necesidad urgente, el análisis de los riesgos [apenas enunciados] de la IA y encontrar respuestas responsables”. El compromiso más consistente ha sido el acuerdo para celebrar dentro de seis meses una segunda edición en Corea del Sur, a la que relevará Francia dentro de un año… y así de seguido. Francia, por cierto, tiene especial interés en aparecer como pionera de la IA generativa, gracias a que cuenta con una startup, Mistral, avalada por el gobierno.

En este totum revolutum de buenos propósitos, no se puede obviar el cinismo que lo impregna todo. En representación del sector privado, estuvieron presentes Sam Altman (OpenAI), Dario Amodei (Anthropic), Kevin Scott (Microsoft) y Demis Hassabis (DeepMind/Google). Estas son las compañías que, podría decirse, forman el grupo hegemónico y firman contratos millonaris, pero suscribieron un manifiesto de creación del AI Safety Institute. En el documento, advierten de los peligros colectivos que plantea la IA, con lo que dan la sensación de que su voluntad es sorber y soplar a un tiempo. Apple, Meta y Amazon enviaron empleados de bajo perfil que se abstuvieron de firmar; tal vez fuera esta la fórmula sensata.

[informe de David Bollero]


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons