Análisis
Chips
Tecnología

¿Por qué OpenAI, Microsoft y otros quieren fabricar sus propios chips?

A pesar del crecimiento de la demanda de tecnología de inteligencia artificial generativa, la escasez de chips no es la principal razón para desarrollar silicio a medida, afirman los expertos.

chips, ordenadores

A medida que crece la demanda de IA generativa, proveedores de servicios en la nube como Microsoft, Google y AWS, junto con grandes proveedores de modelos de lenguaje (LLM) como OpenAI, se han planteado desarrollar sus propios chips personalizados para cargas de trabajo de IA.

Las especulaciones de que algunas de estas empresas -en particular OpenAI y Microsoft- han estado haciendo esfuerzos para desarrollar sus propios chips personalizados para manejar las cargas de trabajo de IA generativa debido a la escasez de chips han dominado los titulares durante las últimas semanas.

Mientras se rumorea que OpenAI está intentando adquirir una empresa para impulsar sus planes de diseño de chips, Microsoft está trabajando con AMD para producir un chip personalizado, cuyo nombre en clave es Athena.

Google y AWS ya han desarrollado sus propios chips para cargas de trabajo de IA: en forma de unidades de procesamiento tensorial (TPU), por parte de Google, y los chips Trainium e Inferentia de AWS.

Pero, ¿qué factores impulsan a estas empresas a fabricar sus propios chips? La respuesta, según analistas y expertos, está en el coste de procesar consultas de IA generativa y en la eficiencia de los chips disponibles en la actualidad, principalmente las unidades de procesamiento gráfico (GPU). Las GPU A100 y H100 de Nvidia dominan actualmente el mercado de chips de IA.

"Las GPU probablemente no sean el procesador más eficiente para las cargas de trabajo de IA generativa y el silicio personalizado podría ayudar a su causa", afirma Nina Turner, directora de Investigación de IDC. Según Dan Hutcheson, vicepresidente de TechInsights, las GPU son dispositivos de propósito general que resultan ser hipereficientes en la inversión de matrices, la matemática esencial de la IA. "Su funcionamiento es muy caro. Creo que estas empresas están buscando una arquitectura de procesadores de silicio optimizada para sus cargas de trabajo, lo que resolvería el problema de los costes", afirma el ejecutivo.

El uso de silicio personalizado, según Turner, puede permitir a empresas como Microsoft y OpenAI reducir el consumo de energía y mejorar la interconexión informática o el acceso a la memoria, reduciendo así el coste de las consultas. OpenAI gasta aproximadamente 694.444 dólares al día o 36 céntimos por consulta para hacer funcionar ChatGPT, según un informe de la empresa de investigación SemiAnalysis.

"Las cargas de trabajo de IA no requieren exclusivamente GPU", afirma Turner, quien añade que, aunque las GPU son excelentes para el procesamiento paralelo, existen otras arquitecturas y aceleradores más adecuados para este tipo de operaciones basadas en IA.

Otras ventajas del silicio personalizado son el control del acceso a los chips y el diseño de elementos específicos para los LLM con el fin de mejorar la velocidad de consulta, según Turner.

 

Desarrollar chips a medida no es fácil

Algunos analistas también comparan el paso de diseñar silicio a medida con la estrategia de Apple de producir chips para sus dispositivos. Según Glenn O'Donnell, director de Investigación de Forrester, al igual que Apple pasó de los procesadores de propósito general al silicio personalizado para mejorar el rendimiento de sus dispositivos, los proveedores de servicios de IA generativa también buscan especializar la arquitectura de sus chips.

"A pesar de que las GPU de Nvidia son tan tremendamente populares ahora mismo, también son dispositivos de propósito general. Si realmente quieres hacer que las cosas exploten, necesitas un chip optimizado para esa función concreta, como el procesamiento de imágenes o la IA generativa especializada", explicó O'Donnell, quien añadió que los chips personalizados podrían ser la respuesta para estas situaciones.

Sin embargo, los expertos afirman que el desarrollo de chips a medida puede no ser un asunto fácil para cualquier empresa.

"Varios retos, como la elevada inversión, el largo ciclo de vida del diseño y el desarrollo, los complejos problemas de la cadena de suministro, la escasez de talento, el volumen suficiente para justificar el gasto y la falta de comprensión de todo el proceso, son impedimentos para desarrollar chips a medida", afirmó Gaurav Gupta, vicepresidente y analista de Gartner.

Según O'Donnell, cualquier empresa que inicie el proceso desde cero puede tardar entre dos años y dos años y medio, y añade que la escasez de talento en el diseño de chips es uno de los principales factores de los retrasos.

La perspectiva de O'Donnell está respaldada por ejemplos de grandes empresas tecnológicas que adquieren startups para desarrollar sus propios chips personalizados o se asocian con empresas que tienen experiencia en este ámbito. AWS adquirió la startup israelí Annapurna Labs en 2015 para desarrollar chips personalizados para sus ofertas. Google, por su parte, se asocia con Broadcom para fabricar sus chips de IA.

 

La escasez de chips podría no ser el principal problema para OpenAI o Microsoft

Aunque se dice que OpenAI está intentando adquirir una startup para fabricar un chip personalizado que soporte sus cargas de trabajo de IA, los expertos creen que el plan podría no estar relacionado con la escasez de chips, sino más bien con el soporte de cargas de trabajo de inferencia para LLM, ya que Microsoft sigue añadiendo funciones de IA a las aplicaciones y contratando clientes para sus servicios de IA generativa.

Según Alexander Harrowell, analista principal de Omdia, "lo obvio es que tienen algún requisito que nadie está cumpliendo, y creo que podría ser una parte de inferencia que sea más barata de comprar y más barata de ejecutar que una gran GPU, o incluso las mejores CPU Sapphire Rapids, sin tener que estar en deuda con AWS o Google". Añadió que basaba su opinión en los comentarios del CEO Sam Altman de que es improbable que GPT-4 escale más, y que más bien necesitaría mejorar. El escalado de un LLM requiere más potencia de cálculo que la inferencia de un modelo. La inferencia es el proceso de utilizar un LLM entrenado para generar predicciones o resultados más precisos.

Además, los analistas afirman que la adquisición de un gran diseñador de chips podría no ser una decisión acertada para OpenAI, ya que costaría aproximadamente unos 100 millones de dólares diseñar los chips y tenerlos listos para la producción.

"Aunque OpenAI puede intentar recaudar fondos en el mercado, el acuerdo con Microsoft a principios de este año ha supuesto básicamente la venta de una opción sobre la mitad de la empresa por 10.000 millones de dólares, de los cuales una parte no especificada corresponde a créditos Azure no monetarios.

En su lugar, el fabricante de ChatGPT puede buscar la adquisición de startups que cuenten con aceleradores de IA, dijo Turner, añadiendo que tal movimiento sería más aconsejable desde el punto de vista económico.

Según Harrowell, para dar soporte a las cargas de trabajo de inferencia, los posibles objetivos de adquisición podrían ser empresas de Silicon Valley como Groq, Esperanto Technologies, Tenstorrent y Neureality. Además, añadió que SambaNova también podría ser un posible objetivo de adquisición si OpenAI está dispuesta a descartar las GPU de Nvidia y pasar de un enfoque basado exclusivamente en la nube a un enfoque in situ.



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital