24/06/2024

Juan Miguel Lavista Ferres

Chief Data Scientist y VP corporativo de Microsoft Research

De entrada hay que decir que el nombre del laboratorio, AI for Good [Inteligencia Artificial para hacer el bien] es toda una declaración. Existe desde hace cinco años, por lo que nada sugiere que la iniciativa tomada por Microsoft haya sido inducida por la súbita notoriedad de la inteligencia artificial generativa, novedad desvelada a finales de 2022 y que está en el mercado con varios proponentes y diferentes enfoques. “El mundo conoce casos de éxito de la IA desde mucho antes de que en los medios empezaran a ocuparse de ChatGPT, el año pasado”, dice sin aparentar ironía Juan Miguel Lavista Ferres, su director y coautor del libro que lleva el mismo titulo y resume decenas de casos.

Juan Miguel Lavista Ferres

Científico de datos formado en la Johns Hopkins University, Lavista lleva más de doce años en Microsoft y actualmente se desempeña como Chief Data Scientist de Microsoft Research, con rango de vicepresidente corporativo. La conversación repasa por encima algunas de las experiencias que el libro AI for Good [Willey & Sons, no hay traducción española] recoge con detalle, desde la detección y cribado de retinopatía en niños prematuros de tres países latinoamericanos, hasta el comportamiento poblacional de las jirafas en Tanzania. O bien facilita vincular el análisis de los sonidos producidos por las ballenas beluga con el uso de ondas acústicas como arma ilegal en la guerra civil de Siria.

La aparición del libro en Estados Unidos coincide en el tiempo con una fase en la que la entusiasta acogida inicial de la IA generativa está mostrando fisuras en torno a críticas éticas. ¿Puedo ser suspicaz acerca de la coincidencia?  

Francamente, no veo por qué. El laboratorio funciona desde hace cinco años, por lo que nadie puede siquiera pensar que es una iniciativa movida por el auge de la inteligencia artificial generativa en 2023. La inteligencia artificial acumula unos 70 años de experiencia teórica y, en el plano de los productos derivados de ella, tiene una historia de 30 años. Hay muchas cosas buenas para la humanidad que son frutos de la IA y de su uso cotidiano. El mundo ha conocido casos de éxito de la IA desde mucho antes de que en los medios empezaran a ocuparse de ChatGPT el año pasado.

Touché [risas] He leído el libro y me ha parecido un excelente compendio de la actividad del laboratorio. No obstante, le pediré un resumen […]

La actividad fundamental del laboratorio consiste en trabajar con organizaciones de distintas partes del mundo sobre problemas globales como el cambio climático, la salud, la accesibilidad y otros muchos de impacto social. Tenemos comprobado que esas organizaciones no tienen la capacidad de contratar o de retener talento sobre IA que se necesita para intervenir en parcelas de esos problemas cuya dimensión está acreditada. Seamos claros, esos problemas no se pueden resolver mágicamente con inteligencia artificial, pero la IA puede iluminar algunas de esas parcelas, sí.

El ejemplo más comentado es la retinopatía en niños prematuros en América Latina […]

Está muy bien contado en el libro y creo que da una idea acabada de cómo entendemos nuestra visión filantrópica. Identificamos expertos en determinadas materias y con ellos formamos grupos de trabajo. Algunos casos tocan más la sensibilidad, como el que menciona, eso explica su repercusión. La retinopatía en niños prematuros es una enfermedad con incidencia creciente en países donde no había noticia de su existencia anterior. Y la razón de que no las hubiera es fácil de entender: lo habitual era que esos niños no sobrevivieran tras el parto. Hoy sobreviven, gracias a las mejoras en las políticas de salud, pero no están preparados para el desarrollo de una retina normal. Por otro lado, sabemos que en todo el mundo hay unos 200.000 oftalmólogos, de los que sólo unos 10.000 son pediátricos: esta escasez de profesionales imposibilita detectar la mayoría de los casos, porque los especialistas están desigualmente distribuidos: si no hay una cirugía que llegue a tiempo, las probabilidades de que ese niño quede ciego de por vida son muy altas. Lo que hemos aprendido es que la inteligencia artificial nos permite determinar a tiempo – y el tiempo hace la diferencia – si tiene o no una retinopatía: en ello estamos trabajando con doctores de México, Argentina y Colombia y, francamente, no dan abasto.

¿Con IA tradicional, entiendo?

Sí, esto se hace con IA tradicional y no tiene nada que ver con la IA generativa. Lo que no impide que la IA generativa tenga más eficacia en la intercepción de este problema o de otros sobre los que pretendemos actuar, porque hoy el conocimiento humano está en la web y por lo tanto accesible para su análisis científico.

¿Qué ha cambiado con la IA generativa?

Varias cosas. Primera,  puedes utilizar el conocimiento acumulado que está en Internet y gracias a esto podemos trasladarlo al algoritmo, cosa que antes no podíamos hacer porque trabajar con textos resultaba imposible. Muchos de los problemas que antes no podíamos solucionar, ahora sí podemos, esto es lo que ha cambiado.

Llama la atención la amplitud de miras de los casos expuestos en el libro. Los objetivos humanitarios están descritos con lenguaje que por momentos suena a business cases. ¿Existe riesgo de sesgo?

No sólo existe sino que es uno de los principales obstáculos. En el primer capítulo del libro escribo sobre eso porque es uno de los mayores problemas con los que nos encontramos. En todas las esferas, incluida la científica, se plantean problemas con los datos. Si los datos tienen problemas, también los tendrán los algoritmos. Esto es un componente de la responsabilidad que supone usar la inteligencia artificial tanto en la ciencia como en la empresa y por supuesto no excluyo una actividad filantrópica como la nuestra. Se trata de entender cómo funcionan los datos, cómo fueron recolectados, de apreciar algo que podamos considerar sesgado.

[…]  pueden ser de distinto tipo, como se está viendo.   

Uno de los casos que se incorporan al libro es la utilización de los algoritmos para detectar melanoma en organismos humanos. Es muy relevante: mucha gente no se hace controles de melanoma, es decir de cáncer de piel, que si es detectado a tiempo no es mortal. Pero como la gran mayoría de estos algoritmos – ahí tiene un punto flaco – los relativos al melanoma fueron entrenados en individuos caucásicos, por lo que no funcionan en otras poblaciones. No quiere decir que no sea útil, sino que a la hora de utilizarlo hay que tener en cuenta el sesgo del algoritmo y, por lo tanto, tenemos que entrenarlos con datos que sean representativos y, fuera posible o no, tener presente ese rasgo al evaluar los resultados.

Los datos que utiliza el laboratorio con esa finalidad, ¿son aportados por Microsoft o por los socios de cada proyecto?

En la gran mayoría de los casos que pasan por el laboratorio, se trata de open data facilitados por nuestros partners o colaboradores […]

Antes comentaba la variedad como un rasgo positivo, pero ¿no puede provocar dispersión?

Al contrario, la variedad es algo muy instructivo en la actividad del laboratorio y desde luego lo es en la selección que hicimos para publicar los casos en el libro. Demuestra que muchos de los problemas son muy diferentes: detectar  si una casa ha sido destruida por un huracán o identificar si una persona puede tener un quiste pancreático, no tendrían nada en común en principio pero, para la inteligencia artificial a nivel de algoritmos, son prácticamente el mismo problema. Esta es la capacidad que tenemos en nuestro laboratorio, siempre y cuando contemos a nuestro lado con un experto que entienda los datos: sólo así podemos resolver una gama tan amplia de cuestiones como la que nos planteamos.

El volumen de los datos es una variable, otra es su calidad, pero en este laborarío, si la escala es manejable será representativa […]

Estos algoritmos están entrenados para trabajar con bases de datos satelitales. Es algo así: un humano, mirando en nuestra base de datos foto a foto tardaría 400 años en reunir los datos que la IA obtiene en un día. Nosotros, con nuestro  algoritmo, podemos entender cómo vive la gente en determinado entorno geográfico. Y entenderlo en horas, gracias a que hay unos 200 satélites que están haciendo fotos del planeta todos los días. Esta es hoy la única solución para resolver determinado orden de problemas.

Se veía venir que los datos geoespaciales se convertirían en una nueva disciplina explotable más allá de su origen […]

Totalmente de acuerdo. Creo que apenas estamos rascando la superficie de lo que podríamos hacer gracias a las fotografías satelitales. A mí, es un área que me apasiona. Claro que no todos los problemas pueden resolverse con fotos satelitales, pero si tenemos acceso a los datos subyacentes podemos escalarlos a nivel global. Por esto mismo, trabajamos mucho en el área de mapas después de un desastre natural, como acaba de ocurrir con las inundaciones en el sur de Brasil. Para las autoridades o para entidades como la Cruz Roja, es importante tener cuánto antes un mapa de dónde está la gente afectada para acudir a ayudarla. Hoy en día lo podemos hacer combinando fotografías satelitales y algoritmos.

¿Cómo manejar la distinción clásica entre verdadero y falso? ¿Todavía es válida, visto lo que está pasando con los deepfakes?

No mezclemos los temas. Si tenemos una base de datos, parte de nuestro trabajo consiste en que un grupo de expertos nos digan qué están viendo ellos, porque en estos proyectos es fundamental etiquetar bien el dato, identificar e interpretar aquello que los datos expresan. Si doy una tomografía a diez médicos, no todos van a estar de acuerdo pese a usar la misma herramienta. Los algoritmos van a aprender de todos esos médicos e incluso van a aprender del que haya interpretado algo mal. Porque uno de los rasgos buenos de los algoritmos es que son capaces de lidiar con la incertidumbre en cierta medida. Un algoritmo no responde ´verdadero` o ´falso`, sino que entregará un resultado probabilístico. Luego será el experto, en este caso un médico, quien con la base en el algoritmo, el dato y otros conocimientos podrá dar una respuesta final.  El mismo razonamiento vale cuando aplicamos la IA a las casas destruidas por un tornado o a los hábitos poblacionales de las jirafas. Los resultados siempre serán probabilísticos, lo que significa que queda un elemento de incertidumbre. No es perfecto y está bien que no sea perfecto.

Volvamos a la calidad de los datos. La gran mayoría de los disponibles son antiguos o inútiles, ¿cómo se discrimina entre los que sirven y los que no sirven?

Estamos utilizando un algoritmo entrenado con estos datos, que luego se tendrá que aplicar a casos reales, testearlo y medir qué está aportando en esos casos reales. Testear y medir el algoritmo y hacerlo en casos reales durante el tiempo escogido, no solamente hoy.

Ante las dificultades sobrevenidas con los datos reales que no se ceden o no están disponibles etc, ¿qué papel juegan los datos sintéticos en el trabajo del laboratorio?

Son un arma fundamental a la hora de hacer que los algoritmos tengan más datos y puedan generalizarlos. Los datos sintéticos no son magia, pero van a mejorar la forma en que los algoritmos aprenden y generalizan lo aprendido. Además, una base de datos sintéticos ayuda a disminuir los riesgos de invasión de la privacidad.

¿Por ejemplo?

Imagine que disponemos de tomografías computadas de cierto número de pacientes, pero no queremos violar la privacidad de nadie cuando generamos datos sintéticos a partir de esas tomografías y los distribuimos para el aprendizaje de otros algoritmos. En realidad, esos datos van a contener la mayor parte de los conocimientos, pero sin riesgo alguno para la privacidad. Lo que no podremos es aplicar esos datos específicos a algo diferente porque no está en ellos.

A propósito de la escala. La primera oleada de la IA generativa, tras el acuerdo entre Microsoft y OpenAI, tendía a privilegiar el volumen en la capacidad de aprendizaje […] ahora están apareciendo modelos de menor tamaño y, por consiguiente, más accesibles. ¿Cuál es la escala idónea para el laboratorio AI for Good?

Es necesario entender que todos los problemas que estamos solucionando son diferentes, como se ve con claridad en la estructura de nuestro libro. Hay problemas mundiales que los algoritmos pueden aprender con sólo 200 casos […]. Hay algoritmos generativos a nivel de texto que necesitan un volumen de escala distinto por la complejidad del lenguaje natural de las personas, que es un problema computacional muy complejo porque requiere una cantidad gigantesca de datos […]

¿Acaso los pequeños no pueden ser complejos?

Desde luego que sí, dependiendo del nivel específico del problema que intentamos solucionar. Si uno quiere algoritmos generales, GPT está diseñado para resolver problemas específicos o no específicos, por lo que la gama de problemas que podemos solucionar con un algoritmo de tipo GPT es muy variada. Lo que no significa, desde luego, que sea lo que necesitamos para todos los problemas que abordemos.

[…] como en cualquier análisis muestral, un componente x  puede ser representativo de una población suficiente

Exactamente. Hay problemas que se solucionan con relativamente pocos datos y hay otros que necesitan cantidades enormes. No es tan importante la cantidad de datos – una simplificación que se ve a menudo en los medios – sino que importa más su calidad, pero yo diría que lo más importante es la correspondencia con el problema del que nos estamos ocupando en cada momento.

¿Cuál es el mensaje a la industria?

Muy simple. El mensaje que queremos lanzar es que esta tecnología tiene un impacto potencial gigantesco. La idea del libro es precisamente esa: mostrar la variedad de asuntos que se pueden abordar y que hay ahora mismo hay científicos trabajando en esos asuntos y que pueden estar planteándose el mismo problema que yo o uno muy parecido. En la práctica, en los medios se está escribiendo mucho sobre inteligencia artificial, lo que es muy positivo para el conocimiento de esta disciplina, pero hay un enorme desconocimiento del alcance que puede tener y de los problemas que es susceptible de solucionar. Por eso hemos escogido difundir ejemplos concretos, muchos de ellos muy diferentes a otros en los que cada autor estaba trabajando.

Debería haberlo preguntado antes, pero ¿cuál es la actitud por parte de las instituciones y los gobiernos? Habrá todo tipo de situaciones

Sin duda, en muchos de los proyectos que gestionamos la contraparte corresponde a gobiernos y otras autoridades que ven su potencial. Naturalmente, su atención la vemos con buenos ojos porque nuestro trabajo es global pero es normal que ellos tengan un interés primordial en que sean reconocidos dentro de sus fronteras.


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons