6/08/2018

La carrera del nanómetro pasa factura a Intel

En su medio siglo de existencia, Intel ha engrosado su negocio gracias a que sus microprocesadores estrechaban con regularidad la distancia entre transistores de miles a decenas de nanómetros. La tecnología lo permitía y la demanda lo justificaba. Pero hace quince trimestres que Intel se ha quedado en 14 nanómetros y parece que así será durante otros cinco. Es una contravención al postulado que se conoce como ´ley` de Moore, pero no impide que la compañía siga aumentando su facturación y sus beneficios. Aun así, ha llegado un punto en el que los inversores están inquietos al ver que ya no lidera la tecnología de fabricación de chips: sus rivales Samsung y TSMC, ya van por los 7 nanómetros.

Bob Swan

Es paradójico, porque Intel nunca había sido tan criticada como ahora, pese a que enhebra un trimestre tras otro de crecimiento. En los resultados del segundo trimestre (abril/junio), la facturación ha llegado a 17.000 millones de dólares, un aumento del 15% sobre igual período del año anterior. Su división Data-Centric [un agregado de varias líneas de negocio] creció el 26% mientras que la otra, PC-Centric crecía a un satisfactorio 6%, aunque la demanda final no despega realmente. Para este año fiscal, Intel ha vuelto a elevar su objetivo de ingresos hasta la cifra récord de 69.500 millones de dólares, un 11% de incremento, con un margan operativo del 32%. ¿Qué bicho ha picado a los inversores?

Ocurre que los resultados no cuentan toda la historia. Para empezar, tuvo que ser Bob Swan, CFO que a la sazón actuaba como CEO interino, quien los expusiera a los analistas. El lector recordará que en junio, el jefe ejecutivo Brian Krzanich fue forzado a dimitir por haber «confraternizado» con una subordinada, algo al parecer prohibido por las reglas corporativas. Desde entonces, la compañía busca nuevo CEO y los rumores sitúan como primera candidata a Diane Bryant, exvicepresidenta, quien tras fugarse a Google vuelve a estar disponible.

No cabe dudar de que Krzanich ha dejado Intel en una situación financiera muy sólida pero con serios retos tecnológicos por delante. En una de sus últimas apariciones, reconoció que «la migración [a la nueva tecnología de fabricación] está tardando más tiempo que lo previsto». Es igualmente cierto que durante su mandato – iniciado en 2013 – el CEO dimisionario ha hecho importantes inversiones para diversificar la cartera de productos: chips a medida, módems, tarjetas gráficas, nuevas memorias, tecnología para coches autónomos, etc, pero no pudo resolver el más acuciante de los problemas, la incapacidad de Intel para mantener la frenética cadencia que se autoimpuso al pregonar a los cuatro vientos una supuesta ´ley` formulada por su cofundador.

En circunstancias normales, el crecimiento sostenido de los ingresos y los beneficios trimestrales debería ser aplaudido y la cotización seguir al alza. De hecho, así ha sido hasta hace un par de meses: en agosto de 2017, las acciones de Intel cotizaban a unos 35 dólares, una carrera que las llevó al máximo de 56 dólares a principios de junio. Han remontado y vuelto a caer, pero las dudas de los inversores tienen menos que ver con la inesperada salida de Krzanich que con la incertidumbre acerca de la capacidad de la compañía para aguantar el ritmo de carrera.

Entiéndase bien: no es que Intel haya disminuido sus inversiones en I+D, todo lo contrario, siguen creciendo como las que más, con la particularidad de que seguir avanzando en sus procesos de producción se le hace cuesta arriba. No sólo a Intel sino a toda la industria: el retorno esperado de esas inversiones tiende a descender. Y puede que la integración industrial de cabo a rabo – Intel desarrolla y fabrica sus productos por sí misma – esté dejando de ser una ventaja frente a competidores más flexibles.

La actual tecnología de fabricación de Intel, con reglas de 14 nm data del último trimestre de 2014 y el propio Bob Swan ha sugerido que no se dispondrá de procesadores para PC de 10 nm en cantidades comerciales hasta la segunda mitad de 2019. Para empeorar las cosas, los primeros Xeon para servidores de 10 nm, que debían haber aparecido a finales de 2016, no estarán en venta hasta 2020. Cuatro años es mucho retraso para un calendario que la compañía tenía a gala cumplir a rajatabla, el famoso tic-tac.

El problema que implica es doble, o triple si se considera la pérdida de credibilidad. Por un lado, AMD, eterno rival y competidor en los procesadores x86, prometió en el pasado Computex que empezará a vender procesadores Epyc de 10 nm en la segunda mitad de 2019 y que sus principales clientes ya tienen muestras comerciales, lo que significaría adelantarse un año a los futuros Xeon. Como si fuera poco contraste, TSMC, la compañía taiwanesa que fabrica bajo contrato los diseños de AMD dice tener muy avanzado el proceso de fabricación a gran escala de la siguiente generación de 7 nm.

El segundo problema de fabricar chips de mayor tamaño [14 nm frente a 10 nm] es que son más caros de producir y, consecuentemente, el margen de beneficio que ofrecen es menor. Tradicionalmente, al fabricar un procesador más pequeño se abarata su coste gracias a consumir menos material, a la vez que aumentan sus prestaciones y baja su consumo de energía [los electrones hacen un recorrido más corto]. Aunque esta segunda consideración va perdiendo vigencia, a los veteranos de Intel ha de saberles a cuerno quemado la sola idea de que AMD les lleve años de ventaja tecnológica.

El año pasado, Intel organizó una jornada en la que intentó demostrar que los nanómetros han dejado de ser el indicador prioritario para evaluar la potencia y el rendimiento de un microprocesador. Mark Bohr, con rango de fellow y uno de los científicos más respetados en esta industria, llegó a proponer una nueva unidad de medida de prestaciones de un chip, relegando el nanómetro a un papel secundario. La credibilidad del ponente bastó entonces para contrarrestar los goles de Samsung y TSMC, pero ya metidos en 2018 el argumento de Bohr no se sostiene. En un plano más mediático, Intel ha dejado de ser el primero en el ranking de la industria, cediendo el liderazgo a Samsung aunque por escaso margen. Y esto también influye en los inversores.

Por eso, en la presentación del mes pasado, Swan afirmó que el principal problema de Intel es, y será durante el segundo semestre, ser capaz de abastecer la demanda. ¿Por qué? El mercado de PC está mejorando y, por otro lado, los grandes suministradores de servicios cloud siguen confiando en los procesadores de Intel.

Hay que admitir que esta crónica no está siendo muy veraniega. Pero si a estas alturas de la lectura alguien piensa que resulta compleja, en realidad se queda corto. Hay múltiples factores en juego y la distancia entre los transistores en un chip (medida en nanómetros) es sólo uno de tantos. Para empezar, una cosa es la arquitectura del procesador y otra la tecnología de su fabricación. En el caso de AMD, ha tenido la audacia de cambiar su arquitectura de proceso – Zen – haciéndola común a todo su catálogo; al mismo tiempo, confía en que TSMC los fabricará con la última tecnología disponible (ahora de 10 nm y en un año de 7 nm) a escala comercial.

En Intel, que no puede descargar el reto en un contratista, resulta más complicado hallar la raíz de un problema: podría estar en el diseño de la arquitectura o en el proceso de fabricación. O también ocurrir que el manoseado nanómetro no tenga la culpa y que todo se deba a que en alguna parte se ha cometido un error que produce una ratio inaceptable de chips defectuosos que hace comercialmente inviable dar un salto adelante.

[informe de Lluís Alonso]


Contacto Suscríbete RSS


Sobre el autor. Copyright © 2024 El dominio norbertogallego.com es propiedad y está administrado por Diandro SL. B85905537. Creative Commons