Dirección 

175 Greenwich St, New York, NY 10007

Cómo Nvidia construyó un foso competitivo en torno a los chips de IA

Cómo Nvidia construyó un foso competitivo en torno a los chips de IA – MundoDaily

Naveen Rao, un neurocientífico convertido en empresario tecnológico, una vez trató de competir con Nvidia, el fabricante líder mundial de chips de inteligencia artificial personalizados.

En una startup que el gigante de los semiconductores Intel compró más tarde, Rao trabajó en chips destinados a reemplazar las unidades de procesamiento de gráficos de Nvidia, que son componentes diseñados para tareas de inteligencia artificial como el aprendizaje automático. Pero mientras Intel avanzaba lentamente, Nvidia actualizó rápidamente sus productos con nuevas funciones de inteligencia artificial que iban en contra de lo que estaba desarrollando, dijo Rao.

Después de dejar Intel y liderar una empresa emergente de software, MosaicML, Rao tomó los chips de Nvidia y los evaluó frente a sus rivales. Descubrió que Nvidia se diferenciaba más allá de los chips al crear una gran comunidad de programadores de IA que inventaban constantemente usando la tecnología de la empresa.

“Todo el mundo se basa en Nvidia primero”, dijo Rao. “Si lanzas una nueva pieza de hardware, estás compitiendo para ponerte al día”.

Durante más de 10 años, Nvidia ha construido una ventaja casi inexpugnable en la producción de chips que pueden realizar tareas complejas de inteligencia artificial, como imágenes, reconocimiento facial y de voz, y generar texto para chatbots como ChatGPT. El antiguo advenedizo de la industria logró este dominio al reconocer la tendencia de la IA desde el principio, adaptando sus chips para estas tareas y luego desarrollando piezas clave de software que ayudan al desarrollo de la IA.

Desde entonces, Jensen Huang, cofundador y director ejecutivo de Nvidia, ha seguido subiendo el listón. Para mantener su posición de liderazgo, su empresa también proporcionó a los clientes acceso a computadoras especializadas, servicios informáticos y otras herramientas de su comercio emergente. Esto convirtió a Nvidia, para todos los efectos, en una ventanilla única para el desarrollo de IA.

Si bien Google, Amazon, Meta, IBM y otros también han producido chips de IA, Nvidia ahora representa más del 70% de las ventas de chips de IA y ocupa una posición aún mayor en el entrenamiento de modelos de IA generativos, según el motor de búsqueda.

En mayo, el estatus de la compañía como el ganador más visible de la revolución de la IA quedó claro cuando proyectó un aumento del 64 % en los ingresos trimestrales, mucho más de lo que esperaba Wall Street. El miércoles, se espera que Nvidia, que superó el billón de dólares en capitalización de mercado para convertirse en el fabricante de chips más valioso del mundo, confirme esos resultados récord y proporcione más señales sobre la creciente demanda de IA.

«Los clientes esperarán 18 meses para comprar un sistema Nvidia, en lugar de comprar un chip listo para usar de una startup u otro competidor», dijo Daniel Newman, analista de Futurum Group. «Es increíble.»

Huang, de 60 años, conocido por su característica chaqueta de cuero negra, habló sobre la IA durante años antes de convertirse en uno de los rostros más conocidos del movimiento. Ha dicho públicamente que la informática está experimentando su mayor cambio desde que IBM definió cómo funcionan la mayoría de los sistemas y el software hace 60 años. Ahora, dijo, las GPU y otros chips de propósito especial están reemplazando a los microprocesadores estándar, y los chatbots de IA están reemplazando la codificación de software complejo.

“Lo que entendemos es que se trata de una reinvención de cómo se hace la informática”, dijo Huang en una entrevista. “Y construimos todo desde cero, desde el procesador hasta el final”.

Huang ayudó a fundar Nvidia en 1993 para fabricar chips que renderizaran videojuegos. Mientras que los microprocesadores estándar sobresalen en la realización de cálculos complejos de forma secuencial, las GPU de la empresa realizan muchas tareas sencillas al mismo tiempo.

En 2006, el Sr. Huang fue más allá. Anunció una tecnología de software llamada CUDA que ayudó a programar las GPU para nuevas tareas, convirtiéndolas de chips de un solo uso en chips de uso más general que podrían realizar otros trabajos en campos como la física y las simulaciones químicas.

Un gran avance se produjo en 2012, cuando los investigadores utilizaron GPU para lograr una precisión similar a la humana en tareas como reconocer un gato en una imagen, un precursor de desarrollos recientes como la generación de imágenes a partir de indicaciones de texto.

Nvidia respondió transformando «cada aspecto de nuestra empresa para avanzar en este nuevo campo», dijo Jensen recientemente en un discurso de graduación en la Universidad Nacional de Taiwán.

El esfuerzo, que la compañía estimó costó más de $30 mil millones durante una década, convirtió a Nvidia en más que un proveedor de componentes. Además de colaborar con científicos líderes y nuevas empresas, la empresa ha creado un equipo que participa directamente en actividades de IA, como la creación y el entrenamiento de modelos de lenguaje.

La alerta temprana sobre lo que necesitan los profesionales de IA ha llevado a Nvidia a desarrollar muchas capas de software clave más allá de CUDA. Esto incluía cientos de códigos preconstruidos, llamados bibliotecas, que ahorran trabajo a los programadores.

En hardware, Nvidia se ha ganado la reputación de ofrecer constantemente chips más rápidos cada dos años. En 2017, comenzó a ajustar las GPU para manejar cálculos de IA específicos.

Ese mismo año, Nvidia, que normalmente vendía chips o placas de circuito para los sistemas de otras empresas, también comenzó a vender computadoras completas para realizar tareas de IA de manera más eficiente. Algunos de sus sistemas ahora tienen el tamaño de supercomputadoras, que ella construye y opera utilizando tecnología de red patentada y miles de GPU. Este hardware puede tardar semanas en entrenar los últimos modelos de IA.

“Este tipo de computación no te permite simplemente construir un chip y hacer que los clientes lo usen”, dijo Huang en la entrevista. “Necesita construir todo el centro de datos”.

En septiembre pasado, Nvidia anunció la producción de nuevos chips llamados H100, que han sido mejorados para manejar las llamadas operaciones de transformador. Estos cálculos terminaron siendo la base para servicios como ChatGPT, que generó lo que Huang llama el «momento iPhone» de la IA generativa.

Para ampliar aún más su influencia, Nvidia también se asoció recientemente con las principales empresas tecnológicas e invirtió en nuevas empresas de inteligencia artificial de alta gama que utilizan sus chips. Uno fue Inflection AI, que en junio anunció $ 1.3 mil millones en fondos de Nvidia y otros. El dinero se utilizó para ayudar a financiar la compra de 22.000 chips H100.

Mustafa Suleyman, director ejecutivo de Inflection, dijo que no había obligación de usar los productos de Nvidia, pero que los competidores no ofrecían una alternativa viable. «Ninguno de ellos se acerca», dijo.

Nvidia también ha canalizado dinero y los escasos H100 recientemente hacia servicios en la nube nuevos como CoreWeave, que permiten a las empresas arrendar tiempo en las computadoras en lugar de comprar las suyas propias. CoreWeave, que operará el hardware de Inflection y poseerá más de 45,000 chips Nvidia, recaudó $2,300 millones en deuda este mes para ayudar a comprar más.

Dada la demanda de sus chips, Nvidia debe decidir quién obtendrá cuántos de ellos. Ese poder hace que algunos ejecutivos de tecnología se sientan incómodos.

“Es muy importante que el hardware no se convierta en un cuello de botella para la IA o en un guardián de la IA”, dijo Clément Delangue, director ejecutivo de Hugging Face, un repositorio en línea de modelos de lenguaje que colabora con Nvidia y sus competidores.

Algunos rivales dijeron que era difícil competir con una empresa que vende computadoras, software, servicios en la nube y modelos de inteligencia artificial entrenados, así como procesadores.

“A diferencia de cualquier otra empresa de chips, están dispuestos a competir abiertamente con sus clientes”, dijo Andrew Feldman, director ejecutivo de Cerebras, una empresa emergente que desarrolla chips de IA.

Pero pocos clientes se quejan, al menos públicamente. Incluso Google, que comenzó a crear chips de IA de la competencia hace más de una década, confía en las GPU de Nvidia para parte de su trabajo.

La demanda de chips propios de Google es «enorme», dijo Amin Vahdat, vicepresidente y gerente general de infraestructura informática de Google. Pero, agregó, «trabajamos muy de cerca con Nvidia».

Nvidia no discute las políticas de asignación de precios o chips, pero los ejecutivos y analistas de la industria han dicho que cada H100 cuesta entre $ 15,000 y más de $ 40,000, según el empaque y otros factores, aproximadamente dos o tres veces más que el chip predecesor A100.

El precio «es un lugar donde Nvidia ha dejado mucho espacio para que otras personas compitan», dijo David Brown, vicepresidente de la unidad de nube de Amazon, argumentando que sus propios chips de IA son una ganga en comparación con los chips de Nvidia que también usan.

El Sr. Huang dijo que el mejor rendimiento de sus chips ahorró dinero a los clientes. “Si puede reducir el tiempo de capacitación a la mitad en un centro de datos de $ 5 mil millones, los ahorros serán mayores que el costo de todos los chips”, dijo. “Somos la solución de menor costo en el mundo”.

También comenzó a promocionar un nuevo producto, Grace Hopper, que combina GPU con microprocesadores de cosecha propia, desafiando chips que, según sus rivales, usan mucha menos energía para ejecutar servicios de IA.

Aún así, más competencia parece inevitable. Uno de los participantes más prometedores en la carrera es una GPU vendida por Advanced Micro Devices, dijo Rao, cuya puesta en marcha fue comprada recientemente por la empresa de datos e inteligencia artificial DataBricks.

«No importa cómo alguien quiera decir que todo está hecho, no todo está hecho», dijo Lisa Su, directora ejecutiva de AMD.

MundoDaily – #Cómo #Nvidia #construyó #foso #competitivo #torno #los #chips

Publish: 2023-08-21 14:11:38

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *