10/11/2016

Inteligencia Artificial 2030: canto de sirenas

A contracorriente de las predicciones fantasiosas y apocalípticas, vertidas a menudo por la literatura y el cine, sobre la Inteligencia Artificial, un enjundioso estudio encomendado por la universidad de Stanford no ha encontrado motivos para temer que esta suma de tecnologías pueda llegar un día a convertirse en amenaza para la humanidad. Ninguna máquina realmente autónoma, en el pleno sentido del adjetivo, se ha desarrollado, ni es probable que aparezca en un futuro próximo, es la tesis central del documento. En cambio, afirman los autores, un número creciente de aplicaciones de la I.A. tendrá un impacto profundo – y positivo – sobre la economía y la sociedad en los próximos quince años.

Este informe, titulado Artificial Intelligence and Life in 2030 es el primero del ambicioso proyecto One Hundred Year Study on Artificial Intelligence, que se propone examinar sistemáticamente los efectos de la I.A. en áreas tan diversas como el transporte, la sanidad, la educación, el mundo laboral, la utilidad del tiempo de ocio o la seguridad pública. La inspiración que declara el preámbulo del estudio aspira a incentivar el debate en torno a grandes cuestiones como la seguridad, la equidad y la deshumanización, que afectan o pueden afectar al trabajo y las rentas de los ciudadanos. Sin descartar otros aspectos más filosóficos, relativos a la propia naturaleza humana, que se dejan para futuras entregas del proyecto. En ese debate los autores toman partido.

El horizonte no es 2020, demasiado cercano, sino 2030. Y el planteamiento de base, una disyuntiva. Si la sociedad acoge con temor o suspicacia las múltiples manifestaciones de la I.A. es muy probable que se den pasos en falso, que harían más difíciles los esfuerzos necesarios para garantizar su fiabilidad y seguridad. Por el contrario, si se enfrenta al fenómeno con una mentalidad abierta – idea recurrente, como se verá – reconocerá que su puesta en práctica impulsará mejoras en los distintos ámbitos de la vida.

Dicho de otra manera, el estudio es un alegato en favor de la I.A. [esto es Stanford, epicentro del Silicon Valley]. Pero a la vez advierte de que el diseño de sus aplicaciones, así como las decisiones políticas que se tomen, ejercerán una poderosa influencia a corto y largo plazo sobre la naturaleza y el enfoque de sus desarrollos. Esto equivale a convertir a investigadores, desarrolladores, científicos sociales y autoridades políticas en garantes a la hora de equilibrar los imperativos de innovación con los mecanismos que prevengan sus usos nocivos.

En Estados Unidos hay al menos 16 agencias gubernamentales que regulan sectores de la economía en los que la I.A. está en alguna medida presente. ¿Quién es el responsable cuando un coche sin conductor se estrella, o cuando un dispositivo médico ´inteligente` comete un error? ¿Cómo puede prevenirse que las aplicaciones de la I.A. no tendrán como efecto una discriminación social o la comisión de un delito?

El estudio de Stanford no cae en el vacío ni son un capricho académico. Es notorio que los gigantes de la tecnología [Alphabet, Amazon, Facebook, IBM o Microsoft, entre otros] así como figuras de la ciencia y los negocios, creen que ha llegado el momento de discutir sin tapujos sobre Inteligencia Artificial, de evaluar las ventajas que puede aportar y los riesgos éticos a los que expone la sociedad al liberar esa fuerza. Como asegura Ross Altman, profesor de bioingeniería y uno de los 17 expertos que firman el informe, «este proceso de maduración serán una maratón, no una carrera de velocidad, y el presente estudio es sólo un pistoletazo de partida».

Entonces, ¿cuáles son los grandes temas de conversación que quitan el sueño a los expertos en I.A? En sus 58 páginas, el documento analiza ocho esferas de actividad humana en las cuales la I.A. está empezando a tomar formas omnipresentes, dominantes y profundas. Vale la pena detenerse en ellas. Las cinco primeras examinan áreas como el transporte [donde se avecina el coche autónomo] o la robótica [una presencia creciente en los centros de trabajo]. Entre otros aspectos, se atiende al impacto social directo, con énfasis en el empleo y los cambios en las relaciones laborales y en el bolsillo de los ciudadanos. Pero a los autores se les ve el sesgo.

Optimización logística, detección de fraudes, máquinas inteligentes, estudio de las enfermedades […]; cómo el procesamiento del lenguaje natural permite a los sistemas ´comprender` no sólo definiciones literales sino también la semántica – y la semiótica, que ya es decir – que subyace en un discurso, cómo los ordenadores pueden, gracias a la computer vision, ´entender` una escena o una imagen […] Los autores no paran de dar buenas noticias que relativizan cualquier advertencia sobre los riesgos que pudieran acompañar la extensión del campo de la I.A.

Claro que, ¿cómo no reconocer el impacto sobre el trabajo? No es nada nuevo – lo recuerda el estudio – que las empresas de automoción necesitan menos y menos personal para ensamblar y pintar sus vehículos, pero no hay motivo para preocuparse, porque los excedentes de mano de obra podrán asumir nuevos roles y moverse «desde el mero trabajo físico al desempeño de tareas cognitivas», una característica del trabajo estratégico en un mundo globalizado y digital. Así de estupendos se ponen los autores cuando prestan oídos a la objeción más corriente acerca de la I.A.

Como ejemplo, citan el transporte, un sector que emplea a millones de individuos. Imbuídos del espíritu imperante en las adyacencias del campus de Stanford, los 17 autores del estudio se preguntan qué sucederá cuando los coches y camiones autónomos, prometidos por Tesla y otras compañías, se conviertan en una realidad. Podrían responder que, obviamente, una parte de esos individuos serán innecesarios. Pero su respuesta tiene que ser tranquilizadora: esos trabajadores, un número considerable, tendrán estímulos para realizar tareas más intelectuales. Más lejos aún: si se toma el problema con ´mentalidad abierta`, no hay mejor consecuencia que una reducción del número de accidentes. Con lo que, en una extraña pirueta, el uso de ingenios artificiales ´inteligentes` pasa a ser visto casi como un imperativo ético.

No quedan ahí las ventajas, porque este escenario será propicio para el disfrute del tiempo libre. Hoy en día, las personas venden su tiempo a cambio de ingresos. La I.A. será una oportunidad de capacitarlas para que lleguen a encontrar el verdadero significado del ocio, como la vida en familia o la involucración en tareas comunitarias. Lo que viene a recordar que la I.A. traerá una sociedad mejor. «Si tenemos éxito en esta transición, un día miraremos atrás y pensaremos en la barbarie que supuso vender el tiempo de asueto para ser, simplemente, capaces de sobrevivir». Lo que no dicen los sabios de Stanford es cómo se financiará el ocio.

Quizá no haga falta siquiera pensarlo. De ello se ocuparán las máquinas. El año pasado, un robot ganó, por primera vez, el Turing Challenge [prueba que mide la habilidad de una máquina para exhibir una conducta similar e indistinguible del comportamiento humano]. El logro – porque sin duda es un logro – sería el comienzo de una nueva era de interacción con las máquinas y entre máquinas. Los humanos son entes con limitaciones de atención y amabilidad hacia sus congéneres, mientras que los robots pueden canalizar recursos ilimitados en el ejercicio de esas cualidades.

Queda otro paso. Conforme los neurocientíficos trabajan en desentrañar los secretos del cerebro, aprenden el funcionamiento de los mecanismos básicos de recompensa y castigo, que los humanos comparten con otras especies animales más simples. De alguna forma, la I.A. está desarrollando ingenios que reaccionan ante esa dicotomía. Como sistemas, todavía son bastante superficiales, pero irán ganando en complejidad. ¿Podría deducirse que un sistema de I.A. ´sufre` cuando sus funciones de recompensa tienen una entrada negativa? Si se evaluara a las máquinas como entes capaces de percibir, sentir y actuar, ¿habría que considerar su estatus legal? ¿Deberían ser tratadas como seres dotados de inteligencia comparable y entender el sufrimiento de esas esas máquinas «sensibles» que se llaman a sí mismas humanas? Llegados a este punto, la I.A. podría ser merecedora de un sueldo o quizás una pensión.

El estudio de Stanford es, queda dicho, sólo el primero de una secuencia. Con una visión temporal constreñida por el final del mandato presidencial de Barack Obama, la Casa Blanca acaba de publicar un documento, Preparing for the Future of Artificial Intelligence que tiene la virtud de no dejarse llevar por los vientos californianos de la «singularidad». Pasa revista al estado actual de la disciplina I.A así como a sus aplicaciones existentes y potenciales, y cumple su papel de hacer recomendaciones de políticas públicas.

Por supuesto, el tono es muy distinto. «El efecto económico central de la I.A. a corto plazo – dice el paper presidencial – será la automatización de tareas que nunca se habían automatizado. Probablemente, incrementará la productividad y creará riqueza, pero puede afectar a determinado tipo de empleos, reduciendo la demanda de aquellas habilidades que pueden ser sustituídas por máquinas y aumentando la de otras que sean complementarias de la I.A». El análisis, avalado por el Consejo de Asesores Económicos de la Casa Blanca «sugiere que el efecto negativo de la automatización será más importante en los empleos de bajo salario, lo que crearía el riesgo de una brecha salarial entre los trabajadores en función de su diferente nivel de educación, con la consiguiente rémora de desigualdad». La lectura atenta y comparada de ambos estudios resulta un ejercicio intelectual muy recomendable.

[informe de Lola Sánchez]


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons