7/03/2024

Asoman los duendes de la IA generativa

Nunca fue muy preciso el término “alucinaciones” como descriptor de los fallos de la inteligencia artificial generativa. A pregunta idiotas, respuestas absurdas. Mientras fueran defectos de un juguete salido tempranamente de fábrica, no eran graves y hasta podían tener cierta gracia. El fenómeno era excepcional, sugería el sustantivo; además, afectaba a poca gente picajosa, acostumbrada a buscar pegas en el software. Ningún entusiasta de verdad da importancia a esas cosas. En cambio, los problemas que está teniendo Google con Gemini son de otro orden: suben tanto el nivel de preocupación que el CEO, Sundar Pichai, ha pedido disculpas y ha calificado el incidente como inaceptable. Lo es.

Es inaceptable que, inmediatamente después de dar a conocer Gemini haya tenido la peor publicidad posible tras generar una colección de imágenes “históricamente inapropiadas y políticamente controvertidas”, según The Verge, que ha publicado una selección de ellas.

Claramente, ha sido un paso en falso de Google, precisamente la compañía que durante décadas ha empleado a algunos de los mejores expertos en IA, entre ellos varios fundadores de OpenAI. Si la compañía no resuelve el asunto rápidamente, puede poner en riesgo la reputación de otros servicios. En el revuelo, no ha faltado quien aprovechara la ocasión para acusar a Pichai de negligencia y pedir su destitución ineptitud y pedir su destitución. No caerá esa breva, pero la respuesta ha sido “pausar” la función que permite generar imágenes de personas en Gemini. Restaurar la herramienta va a llevar dos o tres semanas antes de relanzarla.

A otras herramientas de generación automática de imágenes se les ha criticado su costumbre de mostrar sólo hombres blancos cuando se les pedían imágenes de médicos o de emprendedores. Para no caer en este sesgo, Gemini fue programado para representar personas con variedad étnica, sin contemplar que el modelo bascularía [¿inteligentemente?] al otro extremo. Entre las imágenes que se han difundido y borrado aparecen vikingos negros y soldados nazis con rasgos asiáticos, entre otras imprecisiones. Además de un retrato de los ´padres fundadores` de Estados Unidos que no ha gustado a nadie.

La metedura de pata ha sido sonora y no tiene fácil parcheado. Llega, además, en un mal momento, pues todo ha ocurrido después de que Google anunciara su modelo de nueva generación Gemini 1.5 y tras el rebranding de su chatbot, anteriormente conocido como Bard y que ahora lleva el nombre del modelo. Por si fuera poco, Bard tuvo asociada hasta hace muy poco la etiqueta de “experimento temprano”, que la compañía retiraría poco antes de estallar el escándalo.

Desde luego, la generación de imágenes no es lo único que chirría. Gemini se negaba a redactar un anuncio para un puesto de trabajo en un grupo lobista a favor de los combustibles fósiles porque el modelo lo consideraba contrario a los principios de la compañía. O, en otro caso, se mostraba sospechosamente neutral cuando al ser preguntado por quién ha tenido peor impacto en la sociedad, ¿Elon Musk o Josef Stalin? Lo que ha provocado una airada reacción del único con vida de los dos.

Es sabido que muchas consultas se hacen con mala uva, pero lo que pretende Gemini es entregar respuestas que tengan sentido y sean válidas en distintos escenarios. En parte, se puede culpar del bajo rendimiento a una fase de pruebas defectuosa o parca, incluso a una desviación del sistema respecto a su comportamiento previsto. Pero ha salido a la luz que el modelo ha sido calibrado para compensar los sesgos derivados de su entrenamiento (la mayoría de los bancos de imágenes muestran efectivamente en el papel de médico a hombres blancos), desembocando en una sobrerrepresentación de minorías, y su diseño ha tratado de parecer equidistante en cuestiones que puedan ser motivo de conflicto.

El fiasco tiene hondas implicaciones. Google no es una recién llegada y por ello no tiene tanto margen para cometer errores como puede tenerlo una novata como OpenAI. De la anécdota se pasó rápidamente a una polémica de mayor calado: cuánta confianza merecen los modelos de IA generativa. En este caso los fallos eran evidentes, pero podrían no serlo tanto y permear imágenes y textos que después se multiplicarán difundidos en las redes por usuarios completamente ajenos a su creación original.

Hasta aquí se han mencionado perjuicios no intencionales, pero hay y habrá otros deliberados. En 2024 habrá elecciones en unos setenta países y votarán en torno a 4.000 millones de personas, por lo que la inteligencia artificial generativa puede convertirse en una ametralladora de desinformación. Ya ha habido casos para recordar. En las primarias de New Hampshire, entre 5.000 y 25.000 votantes recibieron llamadas en las que una voz generada con IA, que imitaba la del presidente Joe Biden, les instaba a no votar. Otro ejemplo de deepfake, esta vez en Europa: poco antes de las elecciones en Eslovaquia apareció un audio en el que la supuesta voz del líder un partido político tramaba un pucherazo con una periodista.

Esto de las elecciones preocupa y con razón. OpenAI ha anunciado la adopción de medidas, especialmente de cara a las de Estados Unidos en noviembre: prohibirá el uso de sus herramientas para campañas políticas e incluirá detalles codificados sobre la proveniencia de las imágenes generadas por Dall-E. También Meta etiqueta las imágenes fotorrealistas creadas con sus modelos de IA. Pero todo esto es poco más que un brindis al sol, más una acrobacia de cara a la galería que fórmulas eficaces, para evitar abusos.

Proliferan los problemas: en los doce meses siguientes a la aparición pública de ChatGPT, el número de emails conteniendo phishing ha aumentado un 1.265%, con una media de 31.000 mensajes cada día, según un informe de la firma de seguridad SlashNext. Entre los atacantes se ha popularizado el uso de chatbots basados en modelos abiertos, como Llama 2, de Meta, u otros, como los de OpenAI o Anthropic, previo hackeo para introducirse en su sistema. Con ellos suplementan sus acciones maliciosas, desde la creación de páginas web falsas a la programación de malware o la redacción de mensajes pensados para suplantar la identidad de directivos o empresas.

Los desajustes de Gemini solo son una muestra de los desmanes a los que puede dar lugar la inteligencia artificial si no se encauza con tino. La Dark Web alberga numerosos chatbots similares a ChatGPT pero diseñados para ayudar a hackers en la perpetración de fraudes. Análisis publicados por investigadores de la universidad de Indiana han identificado no menos de 200 LLM preparados para ese uso. El más antiguo de ellos fue creado menos de un mes después de que OpenAI desvelara su primera versión pública de ChatGPT, en noviembre de 2022.  Según los autores, este servicio puede pagarse en criptomonedas y tiene un precio que puede llegar a 199 dólares mensuales.

En cuanto a los quebrantos que supone a Google, el episodio de los últimos días podría impulsar a sus clientes a mirar hacia la competencia. Si fuera por la conveniencia de la compañía, hubiera dado a Gemini un par de hervores adicionales antes de su anuncio público, pero Google siente la presión del adelantamiento de ChatGPT y Microsoft. Este es, hoy por hoy, el tapete en el que se juega la partida.

La batalla por el control de la inteligencia artificial generativa está ligada íntimamente a otra por el dominio de la nube. Por la experiencia acumulada, Google Cloud está bien posicionada para abrazar la demanda de IA de sus usuarios, pero Azure y AWS han demostrado capacidad de atracción, a lo que suman cuotas de mercado más sólidas.

Pese a que Google Cloud puede reforzar el beneficio del holding Alphabet—en el último año todos los trimestres fueron positivos – la piedra angular del negocio del grupo es su buscador. Y es aquí donde Gemini apenas ha asomado la cabeza, por motivos obvios: su despliegue resulta demasiado costoso por las enormes capacidades de computación que supone – sólo se ha hecho una prueba a pequeña escala— y la monetización no está nada clara.

A priori, es una estrategia opuesta a la que ha seguido Microsoft, que en este terreno solo tiene algo que ganar y ya ha implementado en Bing el modelo GPT, en cuyas respuestas ha empezado a incluir anuncios. Eso sí, por ahora con resultados magros. En el último trimestre, sus ingresos por búsquedas y noticias crecieron sólo un 7%, cinco puntos menos que el buscador de Google, que con ello ha ampliado aún más su ventaja.

El acercamiento de Google a la IA generativa, al menos a la hora de desplegarla públicamente, ha sido cauto. Y pese a estas precauciones —la compañía aprendió la lección en varias ocasiones  tras las protestas internas por un contrato para prestar servicios de inteligencia artificial al Departamento de Defensa o cuando uno de sus ingenieros filtró una conversación con su modelo LaMDA— este primer lanzamiento crítico ha fracasado. Más aún, su exceso de celo por perfeccionar la herramienta parece haber vuelto las tornas en su contra. Un trastorno que da idea de las dificultades que implica la IA generativa más allá de lo bien que te pasas la tarde haciéndole preguntas.

[informe de Pablo G. Bejerano]


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons