publicidad
  30/10/2023

Amazon + Anthropic: digerir sin devorar

A primera vista, se presenta como la confluencia entre una empresa joven y puntera, por un lado, y una Big Tech casi omnipotente. Confluencia en lugar de ingesta de la primera por la segunda, como indicaba el canon hasta hace pocos meses. La startup se beneficia así de una cuantiosa inyección de capital, que necesita para desarrollar sus modelos de lenguaje y para tener acceso a capacidad de cómputo sobre un caudal de datos que normalmente no estaría a su alcance. A cambio de dinero, el gigante se asocia a un flujo de innovación con su apadrinamiento, formalmente sin pretender el control. No es una compra comparable a otras que saltan a menudo a a los titulares con cifras de vértigo.

Dario y Daniela Amodei

Dario y Daniela Amodei

Sí, se trata de la transacción por la que que Amazon ha acudido en ayuda de la startup Anthropic, rival directo de OpenAI que, en enero, anunciara el respaldo de Microsoft, en su caso por valor de 10.000 millones de dólares. La inversión de Amazon en Anthopic puede llegar a 4.000 millones, lo que no impide que Google se apunte al festín con otros 2.000 millones y el mismo esquema. Los tres colosos de la nube andan ansiosos por integrar la tecnología de inteligencia artificial generativa, prácticamente desconocidas hasta mediados de 2022.
Como resultado del acuerdo, Anthropic, una de las más prometedoras de este nuevo paisaje, utilizará los centros de datos de Amazon Web Services y también sus chips especializados en IA. A cambio, la empresa que dirige Andy Jassy se asegura una participación (minoritaria) y un cliente (suculento). Sigue la pauta de la primera aproximación entre Microsoft y OpenAI, en 2019, con la diferencia de que Anthropic se reserva el derecho a la promiscuidad. En consecuencia, así como OpenAi prepara una venta privada de acciones que la valoraría en 86.000 millones de dólares, Anthropics valdría ya mismo entre 20.000 y 30.000 millones. Serían tres veces lo que la primera valía en marzo y cinco veces más que la segunda a la misma fecha. Tal como está diseñado el plan, ningún regulador tendrá algo que objetar. Por ahora.
Nadie ha dicho públicamente cuánto cuesta realmente desarrollar un LLM (Large Language Model), pero que se esté hablando de estas magnitudes es indicativo. Valga como referencia una declaración de Jassy a CNBC: entrenar un sistema con estos modelos supone miles de millones de dólares y mucho tiempo de trabajo.

Lo dijo Jassy oportunamente, cuando Amazon presentaba Bedrock, un servicio cloud que ofrece a desarrolladores una selección de modelos de IA generativa propios y de terceros. Entre estos se encuentran los de Anthropic, pero también los desarrollados por las más pequeñas AI21 Labs y Stability AI o, próximamente, Llama 2, de Meta. El objetivo es que las empresas puedan usar estas herramientas para crear sistemas adaptados a sus necesidades, se trate de las reservas de hoteles, la gestión de inventarios o el procesamiento de reclamaciones [ejemplos mencionados por el CEO de Amazon].

La relación con Anthropic tendrá preferencia dentro de la oferta de Amazon, rasgo que apunta otra vez sobre el hecho de que ninguna Big Tech parezca interesada en comprar una startup de IA: en este modus operandi subyace una reserva que frena compromisos más ambiciosos. Sin que se tenga claro aún qué consecuencias e impacto social tendrá la IA generativa ni mucho menos el alcance que pudieran tener los proyectos de regulación que se esbozan. Es lógico que las Big Tech no quieran embarrarse, al menos de momento.
Su cautela está justificada. La administración Biden ha reconocido que este campo ignoto excede su capacidad regulatoria actual, por lo que sugiere a las empresas involucradas que se sometan a auditorías externas, etiqueten los contenidos creados con IA e inviertan recursos adicionales en seguridad. En Europa, la Comisión Europea ya ha sentado definiciones previas a la redacción de un proyecto de normativa, que muy probablemente irá para largo. Incluso podría haber dificultades con los órganos de vigilancia de la competencia, que se han volcado a estudiar la novedad. Un informe publicado en Reino Unido mostraba hace semanas su preocupación por los acuerdos negociados entre proveedores de servicios cloud y desarrolladores de modelos de IA, suspicacia que comparte la FTC (Federal Trade Commission) de Estados Unidos.

Se da la circunstancia de que Anthropic expone una faceta más humanista que la de otros cultores de la inteligencia artificial. Sus fundadores han advertido en público que la IA puede causar daños enormes a la sociedad si no se desarrolla con muchas precauciones. Una de las ocasiones para lanzar el aviso ha sido una sesión del comité judicial del Senado estadounidense, en la que un portavoz de la compañía puso énfasis en la necesidad de reducir los peligros de sesgo de la IA a corto plazo, así como los posibles daños para la humanidad en un horizonte más lejano.

Son palabras avaladas por una actitud. Los hermanos Dario y Daniela Amodei abandonaron OpenAI por divergencias con Sam Altman acerca del rumbo que debería tomar la compañía tras recibir la primera inversion de Microsoft, hace cuatro años. Dario Amodei era responsable de investigación en OpenAI mientras su hermana Daniela dirigía los equipos de seguridad y cumplimiento.
Tras fundar su propia compañía con ayuda de los primeros inversores, los hermanos decidieron prevenir problemas como la desinformación y los discursos tóxicos así como cualquier empleo delictivo de la IA. Por esta razón, han elaborador una serie de principios a los que debe atenerse su software Claude. No sin una dosis de pompa: los llamaron Constitucional AI  y son un compendio de reglas bastante previsibles. Otras iniciativas, como DeepMind han creados sus propias normas con el mismo objetivo: que los modelos se entrenen respetando esos principios sin necesidad de intervención humana correctiva.

Amodei ha declarado a la prensa estadounidense que Anthropic no va a contribuir a una carrera temeraria por construir sistemas de IA más y más potentes que pudieran ser contraproducentes para la sociedad. Su objetivo – ha dicho – es cuidar al máximo el impacto de sus productos, pero no puede menos que intentar construir modelos más grandes para cumplir con su misión. “De un modo u otro, la escalada de nuestros modelos es parte del plan. No hacerlo no sería una solución”, añadió en una evidente alusión al manifiesto de quienes proponen una moratoria en el desarrollo de la IA generativa.

Entre los esfuerzos con los que Anthropic procura mejorar su modelo, estudia en profundidad cómo funcionan las rede neuronales, que son la madre de todas las batallas en materia de IA. Su base matemática se conoce, pero los investigadores no saben aún qué operaciones hacen los modelos cuando se comportan de determinada manera. Es difícil averiguarlo, debido a que no son reglas programadas sino algoritmos que han sido entrenados con información filtrada.

Este vacío de conocimiento es el origen de lo que se ha descrito como alucinaciones, que generan respuestas no sólo falsas sino a veces disparatadas. Buscando este escollo, la empresa de los hermanos Amodei ha identificado unidades más pequeñas dentro de las `neuronas´ artificiales. Sus propiedades corresponden a patrones que activan las neuronas y, según Anthropic, tienen un comportamiento más interpretable que las propias neuronas, con lo que podrían servid para entender mejor la red en su conjunto. El objetivo es manipular estas unidades para lograr que el comportamiento de los modelos sea más predecible y, por tanto, puedan evitarse los fallos.

Con este planteamiento comedido de la inteligencia artificial, una plantilla de sólo 160 empleados [en OpenAI trabajan, supuestamente, algo más de un millar], la tecnología de Anthropic debería vertebrar la oferta de IA generativa de Amazon. Esta necesita absolutamente asombrar en un terreno en el que parecía quedarse a la zaga con respecto a sus competidores. A partir de los recursos comprometidos, los ingenieros de Anthropic podrán integrar los modelos en, por ejemplo, el chatbot Alexa. Pero todo indica que la batalla verdadera deberá librarse en la la nube.

A través de AWS, más concretamente de Bedrock, las empresas podrán usar los modelos de Anthropic, además de acceder en primicia a las futuras funcionalidades de personalización que incorporen. La explosión que vive ChatGPT ha llevado a que la IA generativa se cuele en la oferta de servicios en la nube y destaque como un diferencial. Hasta Nvidia, cuyos chips para IA gozan de gran predicamento, ha entrado a competir con una plataforma cloud que ofrece un ecosistena – hardware más herramientas de software – para facilitar la generación de modelos.

Por su parte, el CEO de Amazon Web Services, Adam Selipsky, abordó en un encuentro reciente la cuestión del precio, dejando caer que el desarrollo de modelos sólo será eficiente en costes dentro de la nube de Amazon. Esta frase vale como recordatorio de algo que pocos novicios entusiastas se han parado a pensar: la monetización de la IA generativa no está resuelta. Por esto mismo, sólo aquellos con sobrada solvencia pueden hacer apuestas firmes.

Otros actores pudientes que deberían tener interés en entrar en liza son Meta y Apple, ambos con enfoques orientados al mercado de consumo, en el que sería aún más difícil monetizarlos. Para no quedarse fuera de la carrera y aprovechar sus reconocidos recursos de investigación en IA, Meta se ha dado prisa en anunciar un nuevo chatbot que en su momento estará asociado a WhatsApp e Instagram, con el que los usuarios podrán interactuar. La base será su modelo Llama 2.

Apple no ha llegado aún a esa meta volante. Se habla sin dar detalles sobre lo que elabora el equipo que encabeza el respetado John Giannandrea. Estaría cocinando en secreto un posible modelo apodado Ajax, dicen los rumores. Desde luego, a Apple no le faltan recursos – aparte de haber comprado una veintena de startups de IA desde 2017 – pero la cuestión es cómo encajar el o los modelos en su propia oferta. A falta de resolver estas incógnitas – y otras en espera – queda claro que toda la industria quisiera sentarse a una mesa en la que no caben todos.


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons