Microsoft gastó cientos de millones de dólares en una supercomputadora ChatGPT

Microsoft dice que conectó decenas de miles de chips Nvidia A100 y reelaboró racks de servidores para construir el hardware detrás de ChatGPT y su propio bot Bing.

Microsoft gastó cientos de millones de dólares en la construcción de una supercomputadoramasiva para ayudar a impulsar el chatbot ChatGPT de OpenAI, según un informe de Bloomberg. En un par de publicaciones de blog publicadas el lunes, Microsoft explica cómo creó la poderosa infraestructura de inteligencia artificial de Azure utilizada por OpenAI y cómo sus sistemas se están volviendo aún más robustos.

Para construir la supercomputadora que impulsa los proyectos de OpenAI, Microsoft dice que conectó miles de unidades de procesamiento de gráficos (GPU) de Nvidia en su plataforma de computación en la nube Azure. A su vez, esto permitió a OpenAI entrenar modelos cada vez más potentes y "desbloqueó las capacidades de IA" de herramientas como ChatGPT y Bing.

Microsoft gastó millones de dólares en su propio Chat GPT 

Scott Guthrie, vicepresidente de inteligencia artificial y nube de Microsoft, dijo que la compañía gastó varios cientos de millones de dólares en el proyecto, según un comunicado entregado a Bloomberg. Y si bien eso puede parecer una gota en el océano para Microsoft, que recientemente extendió su inversión multianual y multimillonaria en OpenAI, ciertamente demuestra que está dispuesto a invertir aún más dinero en el espacio de la IA.

Microsoft ya está trabajando para hacer que las capacidades de IA de Azure sean aún más potentes con el lanzamiento de sus nuevas máquinas virtuales que utilizan las GPU Nvidia H100 y A100 Tensor Core, así como la red Quantum-2 InfiniBand, un proyecto que ambas compañías adelantaron el año pasado. Según Microsoft, esto debería permitir que OpenAI y otras empresas que confían en Azure entrenen modelos de IA más grandes y complejos.

“Vimos que necesitaríamos construir clústeres de propósitos especiales enfocados en permitir grandes cargas de trabajo de capacitación y OpenAI fue uno de los primeros puntos de prueba de eso”, dice Eric Boyd, vicepresidente corporativo de Azure AI de Microsoft, en un comunicado. “Trabajamos de cerca con ellos para saber cuáles son las cosas clave que estaban buscando mientras construían sus entornos de capacitación y cuáles eran las cosas clave que necesitaban”.

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS