Microsoft (MSFT) apunta a sus rivales en la montón Amazon (AMZN) y Google (GOOG, GOOGL) con el estreno de su chip de IA personalizado de próxima procreación.
Llamado Maia 200, el chip funcionará en los propios centros de datos de Microsoft ayer de que la compañía finalmente lo ponga a disposición de su saco de clientes más amplia.
Al igual que los TPU de Google y los procesadores Trainium de Amazon, el segundo chip de IA de Microsoft está destinado a darle al fabricante de Windows más flexibilidad a la hora de potenciar sus servicios de IA. Al utilizar sus propios chips desarrollados internamente, la compañía se asegura de no tener que subordinarse solamente de procesadores desarrollados por Nvidia (NVDA) o AMD (AMD).
Google y Amazon han estado usando sus propios chips personalizados durante primaveras, mientras que Microsoft ha tardado más en adoptar el silicio de IA interno.
Según Microsoft, el Maia 200 se construirá utilizando el proceso de 3 nanómetros de TSMC y está diseñado para ejecutar cargas de trabajo de IA a gran escalera, al tiempo que “ofrece un rendimiento efectivo por dólar”.
El Maia 200 se integrará en grandes bastidores de servidores con bandejas que albergarán cuatro chips cada una. Microsoft igualmente está promocionando la celeridad con la que puede implementar los nuevos chips en los centros de datos, diciendo que los chips se instalan y ejecutan modelos de IA a los pocos días de demorar las piezas.
Poner en funcionamiento los servidores de IA rápidamente es un aspecto importante del negocio más amplio de los centros de datos. Siquiera se alcahuetería sólo de permanecer bajos los costes de construcción. Cuanto más tiempo pase sin utilizarse un chip, menos metálico podrá producir para la empresa mediante la ejecución de aplicaciones de inteligencia industrial.
El Maia 200 se suma a la creciente competencia que enfrenta Nvidia tanto por parte de AMD como de sus propios clientes. Maia 100 de Microsoft ya impulsa los modelos de inteligencia industrial de la compañía y OpenAI (OPAI.PVT), mientras que Google y Amazon impulsan sus respectivos modelos y los modelos de Anthropic (ANTH.PVT).
Y en noviembre, The Information informó que Meta estaba hablando con Google sobre el uso de las TPU del hércules de las búsquedas en sus propios centros de datos para impulsar sus servicios de inteligencia industrial. Eso hizo que las acciones de Nvidia cayeran en ese momento, ya que Wall Street generó temores de que la compañía estuviera en peligro de perder billete de mercado.
El precio de las acciones de Nvidia ha subido menos del 1% desde principios de año.
A pesar de las incursiones en el carril de Nvidia, es poco probable que Google, Amazon y Microsoft representen una amenaza seria para el líder de la IA. Los expertos dicen que si admisiblemente los chips de inteligencia industrial de la compañía de montón pueden funcionar admisiblemente para sus propios servicios, no es probable que eso se traduzca tan fácilmente en clientes externos más pequeños.
Los chips de Nvidia igualmente son muy codiciados porque están diseñados para ser multipropósito, lo que permite a las empresas usarlos para una retahíla de aplicaciones y servicios.
En cuanto al rendimiento, la Maia 200 no desbancará a Nvidia, pero Microsoft afirma que supera tanto al extremo TPU de Google como al chip Trainium más nuevo de Amazon en varias categorías. El Maia 200 igualmente incluye más memoria de gran orondo de lado que las ofertas de Google o Amazon, lo cual es secreto para ejecutar aplicaciones de inteligencia industrial de adhesión potencia.