Marc Benioff, fundador y CEO de Salesforce, no se anda con medias tintas a la hora de criticar a sus competidores. Como parte de su conversión a la inteligencia artificial generativa, ha repetido una y otra vez que los modelos de OpenAI no ofrecen suficiente precisión. El dardo tenía otro destinatario, Microsoft, que desde hace año y medio va pregonando las virtudes de su Copilot, montado con tecnología de Open AI. No ha sido un descuido verbal de Benioff, ni es excepcional en la industria TI, que empieza a ver que hay diferencias entre estos agentes y los copilotos, más conocidos pero – según Benioff – “con demasiados agujeros” No cabe esperar una respuesta proporcional de Satya Nadella.
El mensaje que deja Benioff no podría ser más calculado: los clientes están a la vez entusiasmados y algo frustrados con la IA generativa, una dicotomía que Salesforce aspira a remediar con Agentforce, su generador de agentes de IA personalizados. Un discurso al servicio del marketing de su último producto a la vez que atiza a su gran adversario (y antaño aliado circunstancial). Poco a poco, la noción de chatbot envejece y la corriente que en inglés han bautizado como agentic se presenta como sucesora antes de buscar un palabro mejor. Mientras tanto, la cotización de Salesforce vuelve a sus buenos tiempos y esto es parte del objetivo.
Los agentes de IA construidos con Agentforce tienen conocimiento acumulado de la empresa a la que sirven, pueden planificar y llevar a cabo acciones en nombre del usuario. En 2023, Benioff invitó a Sam Altman a lucir su celebridad en el Dreamforce de San Francisco. Pero cuando este año presentó Agentforce en el mismo escenario, su tono cambió: pasó a presumir de que superará a la oferta de OpenAI en la nube de Azure en precio, tiempo, valor y precisión. De paso, no dejó pasar la oportunidad de comparar Copilot de Microsoft con Clippy, aquel terrible asistente virtual de Office en la transición entre dos siglos.
El ruido (no mucho, en verdad) provocado por las críticas a Microsoft enmascara el auténtico foco de interés. Porque el CEO de Salesforce puso el acento en la capacidad de Agentforce para construir agentes personalizados en base a la información del cliente, sus metadatos, los flujos de trabajo y procesos de negocio, bajo el amparo de un modelo de seguridad probado, el de la plataforma de la compañía.
Microsoft ha reaccionado pero sin ponerse en evidencia, al remodelar su Copilot Studio. La herramienta, que prometía crear “copilotos personalizados” para diferentes tareas, en su nueva versión permitirá construir agentes autónomos que podrán completar tareas por sí solos o proporcionar información. La diferencia entre las dos versiones es su grado de autonomía.
El término “copilot” nunca ha sido exclusivo de Microsoft, aunque fuera la más rápida en desenvainar. Lo han enarbolado compañías como HPE (Hewlett Packard Enterprise), la especialista en videovigilancia Spot AI, el proveedor de servicios de inteligencia artificial Symphony AI o la propia Salesforce con su Einstein Copilot. Y cabe pensar que no serán los últimos: sin ir más lejos, Cisco, ha anunciado su agente Webex AI, para automatizar conversaciones sencillas en un contact center. Por su parte, Anthropic ha dejado ver un software capaz de manejar un ordenador como lo haría un usuario: teclear, hacer clic y navegar por Internet.
En este escenario, son muchas las compañías que se han lanzado a incentivar la creación de agentes de IA a partir de una combinación de las capacidades de la IA generativa con bases de datos y software propios. ServiceNow, SAP y Workday son algunas de las impulsoras de esta onda de IA digerible en píldoras. Tal es la expansión que Nadella ha llegado a decir que los modelos de IA se están convirtiendo en una commodity.
El discurso que se irradia desde Salesforce pone el dedo en la llaga. Sumados todos los lanzamientos en el campo de la IA generativa de los últimos dos años y la enorme inversión realizada, ¿cuál ha sido el incremento de productividad obtenido? La pregunta, incómoda para cualquier predicador, sobrevuela desde hace meses, pero la sobreactuación entierra cualquier respuesta. Las deslumbrantes previsiones de los estudios de consultores son justamente eso, previsiones. Y nadie – tampoco este blog – tendría manera de contradecir esa alquimia estadística.
Inexactitudes y alucinaciones no ayudan, desde luego. Que la tecnología subyacente funcione unas veces bien y otras no tan bien, así como la necesidad de constatar cuándo opera correctamente, lastran ese aumento de productividad teorizado. Sin embargo, con los agentes de IA, la perspectiva podría cambiar, según la tesis – debidamente barnizada – del buen orador que es Marc Benioff. En Salesforce no se arredran: “estamos ante la tercera ola de la IA”. Entiéndase bien: la primera ola habría sido la IA predictiva, que ha dejado raíces en muchas empresas y la segunda, pues la versión inicial de la IA generativa, demasiado joven.
Puede que los mensajes suenen atropellados. Pero Clara Shih, CEO de la estructura Salesforce AI, los explica de manera sencilla con un ejemplo. A los chatbots de la IA generativa tipo ChatGPT – genéricos, no específicos – se les puede pedir que redacten un mail correcto, pero de los agentes de AI cabe esperar que un cliente les pueda preguntar cómo cumplir con los objetivos de este año. A partir de ahí, una inteligencia humana revisará los planes y, una vez aprobados, el agente se ocupará de las acciones oportunas. La clave para que alcancen una razonable autonomía es el acceso a los datos del cliente y a sus aplicaciones. No hay milagros ni superinteligencias.
Clara Shih no delimita cuáles serán los límites de estos agentes de IA, pero parece estar claro que dentro de sus competencias entrará el análisis de la información y llevar a cabo automáticamente algunas tareas en base a su función y a sus permisos. Además, podrán adaptarse en tiempo real a una situación cambiante del negocio.
La llegada al mercado de estos agentes de IA supone un cambio en la tendencia actual. Hasta ahora, la atención estaba puesta en los LLM y no pasó mucho tiempo antes de que surgieran unos SLM (modelos lingüísticos pequeños) con el sano propósito de ganar eficiencia. Pero esta presunta tercera ola traería – por seguir el juego a las siglas anglosajonas – los SAM (small action models). Se trata de tener a mano una colección de modelos, individuamente acotados pero a la vez enriquecidos con una capa de conocimiento específico, de manera que sirvan para un conjunto de tareas. Así se sacrifica el anhelo de contar con una IA polifacética – para disgusto de algunos, la ciencia ficción tendrá que esperar – pero se gana en precisión y productividad.
Esta tesis de Salesforce no difiere realmente de Microsoft y de cada día más actores: todas se apoyan en una predicción de Gartner, cuyos analistas han calculado que, en 2028, al menos un 15% de las decisiones sobre el día a día en entornos corporativos se tomarán automáticamente, mientras que 2024 la cifra empieza y acaba en cero.
Con Agentforce, la compañía de Benioff integra en su plataforma la creación y la operación de estos agentes de IA. Queda por ver cuál será su acogida; ciertamente, tras ser presentada en Dreamforce 2024, los clientes construyeron más de 10.000 de estos programas para usos específicos en sus empresas. Se puede hacer en tres minutos: el cliente describe el caso de uso que necesita a través de una aplicación de Slack [no es ocioso legitimar una compra demasiado cara ] que interactúa con un LLM y a partir de ella se genera un prototipo funcional.
Salesforce divulgará con insistencia su nueva propuesta con una gira por veinte ciudades: hoy mismo, 12 de noviembre, el tour hará escala en Madrid el llamado Agentforce Tour. Afloran mensajes positivos por parte de la compañía. Se afirma que estos agentes servirán para que algunas empresas puedan recortar su contratación de personal y bueno,… habrá que hacerse a la idea de que es algo positivo.
El COO de Salesforce, Brian Millham, ha sido tan gráfico como pudo con el ejemplo de un gran centro de llamadas, con una plantilla de 5.000 personas, que en cinco años aspira a bajar la plantilla un 30%. Todo merece alguna reserva: los agentes de AI no tienen sentimientos y, por mucho que hayan sido taraceados con información y procesos específicos, pueden equivocarse. Además, no sirven para todo.