publicidad
  6/07/2022

Inteligencia Artificial para delirantes

Un tal Blake Lemoine, ignoto ingeniero de Google, ha sido sancionado por su empleador tras airear públicamente sus ideas personales acerca de los trabajos de la compañía en el campo de la inteligencia artificial. Suspendido de sueldo por violación de la política corporativa de confidencialidad, ha optado por prodigarse en entrevistas en las que afirma que LaMDA, un modelo de lenguaje conversacional en cuyo desarrollo ha tenido un papel indirecto, tiene conciencia o – dependiendo de cómo se traduzca la palabra inglesa sentient – sentimientos. En alguna entrevista ha llegado a emplear la palabra soul (alma). Los especialistas en IA rechazan tales conjeturas.

Blake Lemoine

Escarmentada por otras disidencias recientes, Google ha sido cautelosa en su reacción. Formalmente, la causa de la suspensión de Lemoine es que entregó a un senador documentos de la compañía que, según él, probarían que es víctima de discriminación religiosa por parte de la compañía. El Washington Post se hizo eco de la noticia y ahí empezó un revuelo que tiene entretenidos a los medios.

No es una polémica nueva, desde luego. La IA es materia propensa a ellas y no es la primera vez que se debate si un sistema que intenta emular la inteligencia humana tiene otra cualidad, la capacidad de experimentar sentimientos. Un tema digno de distopías literarias y cinematográficas. Ocurrió en 1996, cuando el MIT presentó Eliza, un primer aviso de lo que vendría cinco décadas después: los chatbots.

Empleado de Google desde hace siete años, Lemoine se ocupaba de depurar los algoritmos de aprendizaje automático de LaMDA, para detectar y corregir sesgos raciales o sexuales. Llevado por sus convicciones religiosas, dice haber encontrado signos de conciencia en el sistema, afirmación que la compañía desautoriza expresamente.

Para Lemoine, LaMDA puede compararse con un niño de siete a ocho años en pleno proceso de aprendizaje, al que otorga la condición de “sintiente”, como base para reclamar que se le pida consentimiento antes de seguir experimentando con él. Con esta finalidad, ha tomado la iniciativa de contratar un abogado para que represente los ´intereses jurídicos` del artificio.

En abril, Lemoine compartió con directivos de Google una transcripción de sus conversaciones con LaMDA, que filtraría a los medios de comunicación. Entre las más destacadas – con reminiscencias de películas como 2001 Odisea del espacio o Yo Robot – LaMDA verbaliza su temor a ser desconectado. ¿Miedo a la muerte? Tras la suspensión de empleo pero con sueldo, reincidió al enviar a los miembros de un foro de Google sobre aprendizaje automático el siguiente mensaje: “veo a LaMDA como un niño dulce que sólo pretende ayudar al mundo a ser un lugar mejor para todos nosotros. Por favor, cuidadlo mientras yo esté ausente”.

La frase podría dar una pista de lo que pasa por la cabeza de Lemoine: el chatbot de LaMDA devendría en una suerte de tamagochi para adultos. Por cierto, el perfil personal de Lemoine no ayuda a prestarle veracidad: de 41 años, se presenta como educado en una familia cristiana fundamentalista de Luisiana, dice haber sido ordenado como “sacerdote místico” antes de alistarse como soldado. Tras la repercusión alcanzada, ha creado un blog en el que defiende su tesis ante las críticas recibidas.

Los expertos consultados coinciden en negar que haya sentimiento en las conversaciones entre Lemoine y LaMDA: este se limita a repetir frases o contextos aprendidos para determinados contextos. Una de las críticas autorizadas es de Thomas Dietterich, pionero de las técnicas de machine learning, pero la lista es larga: incluye al español Ramón López de Mántaras, quien dirige el Instituto de Investigación en Inteligencia Artificial del CSIC y a Emily M. Bender, profesora de lingüística en Stanford.

Ha llamado la atención la opinión de Erik Bryjolfsson, profesor de Stanford y autor del libro The Second Machine Age: en un tuit, califica lo expuesto por Lemoine como el equivalente moderno a la anécdota clásica del perro que al escuchar una voz de un gramófono creyó que era su dueño y estaban dentro del aparato. En el estado actual de la tecnología, es imposible haber desarrollado una inteligencia artificial autoconsciente, dictamina.

La polémica sirve para recordar que en los últimos meses Google despidió a dos ingenieras que habían advertido que algo así podría estar en marcha. En marzo, fue Margaret Mitchell, codirectora de un grupo Ethical AI, quien defendía la necesidad de establecer controles sobre los desarrollos de LaMDA para evitar faltas ilusiones en el público no especializado.

Antes, en diciembre, había sido despedida otra científica, Timmit Gebru, tras negarse a retirar un texto titulado On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? en el que sostiene que “simular una conversación en la que se repiten palabras como un loro electrónico” (sic) falsea los fundamentos de la IA. Gelbru se ha ganado fama como crítica de la burbuja que se está inflando en torno a la IA. La explica como fruto de una exageración estimulada por la prensa, algunos investigadores y, en la trastienda, inversores ansiosos.

Ya lo había advertido hace cinco años el autor de ciencia ficción David Brin al formular su hipótesis de “crisis de empatía robótica”: consideraba probable la aparición de un movimiento que atribuiría conciencia a los sistemas de IA, tras el que vendrían otro que propondría otorgarles derechos equivalentes a los humanos.

De esta vorágine, llevan tiempo advirtiendo respetados especialistas. En las páginas de The Economist, el científico cognitivo Douglas Hofstadter exponía su punto de vista: por avanzadas que puedan estar las redes neuronales artificiales, habría que descartar la posibilidad de que esas arquitecturas adquieran rasgos que alguien pueda asimilar a la conciencia humana. Hofstadter no se privaba de cuestionar el hábito de “antropoformizar” las máquinas: hablar de inteligencia o de aprendizaje conduce irremediablemente a pensar en seres humanos.

Yann LeCun, científico jefe de Meta en IA ha abierto otro frente con un artículo publicado en la revista del MIT, Technology Review. Profesor de la Universidad de Nueva York y premio Princesa de Asturias de este año, se ha desmarcado de las ideas de Lemoine al delimitar su campo de investigación: entrenar redes neuronales hasta que tengan una comprensión básica de cómo funciona el mundo y gracias a ella ayudarles a predecir lo que va a suceder a continuación en una circunstancia cotidiana. Ni más ni menos que aquello que los seres humanos hacen por sentido común.

En la actualidad, para tratar de conferir sentido común a una red neuronal es preciso mostrarle miles de ejemplos, antes de que pueda empezar a detectar patrones. Los sistemas actuales, ante la caída de un bolígrafo – ejemplifica – harán toda suerte de ecuaciones para predecir en qué posición exacta caerá. LeCun huye de este enfoque: todo lo que hace el cerebro humano es predecir que el bolígrafo caerá al suelo, sin importarle en qué posición.

Al margen de las polémicas sobre LaMDA y su pretendida conciencia, no hay duda de que esta iniciativa de Google en IA avanza a buen ritmo.  Sundar Pichai, CEO de la matriz Alphabet, lo presentó por primera vez en la conferencia de desarrolladores de 2021 y si algo se ha demostrado desde entonces es su enorme potencial. Su propósito inicial era mejorar la experiencia del cliente dotando de más versatilidad a los chatbots. Otro caso de uso posible sería la mejora de la navegación en las búsquedas.

A diferencia de otros sistemas de IA, LaMDA [Language Model for Dialogue Applications] fue desarrollado para lo que indica su nombre: generar diálogo y por tanto conversación, pudiendo adquirir diferentes perfiles. Para ello ha sido entrenado exhaustivamente, teniendo que ingerir más 1,5 billones de palabras y 1.120 millones de ejemplos ´conversacionales`, así como 13.400 millones de expresiones estándar. A tan extraordinaria cantidad de datos se suman 2.970 millones de documentos, entre los que se encuentran entradas de Wikipedia y una recopilación de preguntas y respuestas relacionadas con la codificación de software. Esto último con el propósito de que el sistema tenga capacidad de generar código por sí mismo.

No acaban ahí las fuentes de LaMDA: el equipo de desarrollo – del que Lemoine no formaba parte – ha ideado un sistema capaz de llamar a fuentes externas, de manera que sea posible consultarlas dinámicamente y actualizar el modelo sobre la marcha.

Por consiguiente, se trata de un trabajo ingente, sometido a correcciones por las personas que han participado en miles de chats con el sistema, además de 9.000 conversaciones cibernéticas con trabajadores de Google para aprobar o desaprobaban los modelos de frases que construía LaMDA.

Cuanda LaMDA, alimentado con tanta información, encabeza su respuesta con la exclamación WOW! no es porque el sistema sea capaz de asombrarse, sino porque imita reacciones con las que ha sido entrenado por sus tutores humanos. Se basa en un lenguaje de programación llamado Transformer, que emplea 137.000 millones de parámetros para cuya ejecución y entrenamiento se han necesitado casi dos meses y 1.024 procesadores TPU de Google.

El modelo de lenguaje de LaMDA viene a unirse a otros que ya existían, como BERT. MUM o el más conocido de todos: GPT-3, de OpenAI, con los que las máquinas tratan de interactuar con personas contextualizando situaciones. Sin embargo, hay diferencias sustanciales entre ellos. Así, por ejemplo, mientras que BERT es básico y está entrenado para entender lo que significan frases sencillas, GPT-3 se centra en generar texto escrito y puede emular estilos literarios de autores con los que se le ha familiarizado. LaMDA, como se ha dicho, está especializado en generar diálogo hasta el punto de que puede llegar a mentir de manera creíble cuando asegura sentirse feliz o triste, pero sólo está imitando patrones.

El ideal para Google de sistemas como LaMDA es llegar un día a construir un modelo de IA que pueda comprender textos en diferentes idiomas, identificar imágenes y generar conversaciones e historia. Esto tendría como ventaja añadida la adquisición de conceptos en los que no se le habrá entrenado antes. Bajo el nombre de Pathway AI Architecture, Google está trabajando para superar el modelo en el que se entrena a un sistema para una tarea concreta. Dicho de otro modo, que sea multifuncional y combine habilidades cognitivas para aprender nuevas tareas.

El verdadero peligro de dar pábulo a delirios como el de Lemoine reside en que desvía a los investigadores de los problemas reales a los que tienen que enfrentarse los usuarios de la IA. El marco regulatorio que empieza a abrirse paso en asuntos como la seguridad o en procesos de contratación, tendrá que combatir los sesgos inaceptables. Tanto en Europa como en Estados Unidos, estas cuestiones son objeto de debate. La Ley de Servicios Digitales de la Unión Europea, próxima a entrar en vigor, obliga a las plataformas a etiquetar como artificial cualquier imagen, audio o video al estilo de un deepfake. La propia Timmit Gebru, ahora al frente de una organización sin fines lucrativos – Distributed AI Research – apuntaba tras ser despedida de Google la oportunidad de centrarse en el bienestar humano en lugar de perderse en discusiones estériles.

[informe de David Bollero]


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons