En 1999, cuando NVIDIA lanzó NVIDIA GeForce 256 como la primera GPU del mundo, Jensen Huang, su fundador y director ejecutivo, nunca previó lo que dos oleadas transformadoras de IA, desde el aprendizaje profundo hasta la IA generativa (genAI), podrían aportar a los logros fundamentales que se estaban logrando. hoy en día. El 18 de marzo de 2024, cuando la Conferencia de tecnología GPU (GTC) de NVIDIA para desarrolladores de hardware y software de IA volvió a la vida real, en persona, después de cinco años, NVIDIA probablemente nunca esperó ver un entusiasmo aún mayor por parte del ecosistema de desarrolladores, investigadores y estrategas de negocios. Los analistas de la industria, incluyéndome a mí, tuvimos que esperar aproximadamente una hora para ingresar al Centro SAP, e incluso siendo invitados a la conferencia magistral con asientos reservados, no pudimos llegar al área porque estaba demasiado llena y nuestra Los asientos ya no estaban disponibles.
Pero después de ver el discurso de apertura en GTC 2024, estoy muy seguro de una cosa: este evento, junto con los extraordinarios esfuerzos realizados por todos los pioneros tecnológicos de las empresas, los proveedores y el mundo académico en todo el mundo, está revelando un nuevo capítulo en la era de la IA. lo que representa el comienzo de un salto significativo en la revolución de la IA. Con los principales anuncios en este evento que abarcan la infraestructura de hardware de IA, una plataforma nativa de IA de próxima generación y la habilitación de software de IA en escenarios de aplicaciones representativos, NVIDIA allana el camino hacia una base empresarial nativa de IA.
Infraestructura de IA: aprovechando su impresionante liderazgo
NVIDIA anunció algunos avances en la infraestructura de IA. Algunos productos nuevos representativos incluyen:
- Serie de GPU Blackwell. La muy esperada GPU Blackwell es la sucesora de las ya muy codiciadas GPU H100 y H200 de NVIDIA, convirtiéndose en el chip más potente del mundo para cargas de trabajo de IA. NVIDIA también anunció la combinación de dos GPU Blackwell con la CPU Grace de NVIDIA para crear su Superchip GB200. Se dice que esta configuración ofrece un aumento de rendimiento de hasta 30 veces en comparación con la GPU H100 para cargas de trabajo de inferencia de modelos de lenguaje grande (LLM) con una eficiencia energética hasta 25 veces mayor.
- Sistema DGX GB200. Cada sistema DGX GB200 cuenta con 36 Superchips NVIDIA GB200, que incluyen 36 CPU NVIDIA Grace y 72 GPU NVIDIA Blackwell, conectados como una supercomputadora a través de NVIDIA NVLink de quinta generación. Los Superchips GB200 ofrecen un aumento de rendimiento de hasta 30 veces en comparación con la GPU NVIDIA H100 Tensor Core para cargas de trabajo de inferencia LLM.
- SuperPOD DGX. El DGX SuperPOD con tecnología Grace Blackwell cuenta con ocho o más sistemas DGX GB200 y puede escalar a decenas de miles de Superchips GB200 conectados a través de NVIDIA Quantum InfiniBand. Para obtener un enorme espacio de memoria compartida para impulsar los modelos de IA de próxima generación, los clientes pueden implementar una configuración que conecta las 576 GPU Blackwell en ocho sistemas DGX GB200 conectados a través de NVLink.
Lo que significa: Por un lado, estos nuevos productos representan un importante avance en la potencia informática de la IA y la eficiencia energética. Una vez implementados en producción, no solo aumentarán significativamente el rendimiento tanto para la capacitación como para la inferencia, permitiendo a los investigadores y desarrolladores abordar problemas que antes eran imposibles, sino que también abordarán las preocupaciones de los clientes sobre el consumo de energía. Por otro lado, también significa que para los clientes existentes de H100 y H200, las ventajas comerciales de sus inversiones se convertirán en una limitación en comparación con su serie B. También significa que los proveedores de tecnología que querían ganar dinero revendiendo potencia informática de IA tendrán que descubrir cómo garantizar el retorno de la inversión.
Empresa AI Software y aplicaciones: La próxima frontera
NVIDIA ya construyó un reino de software integrado en torno a CUDA y está desarrollando estratégicamente las capacidades de su cartera de IA empresarial, adoptando un enfoque nativo de la nube aprovechando Kubernetes, contenedores y microservicios con una arquitectura distribuida. Este año, con sus últimos logros en software y aplicaciones de IA, lo llamo “nativo de genAI”: creado de forma nativa para escenarios de desarrollo de genAI a través de capacitación e inferencia y optimizado de forma nativa para hardware de genAI. Algunos representativos son los siguientes:
- NVIDIA NIM para acelerar la inferencia de modelos de IA a través de contenedores prediseñados. NVIDIA NIM es un conjunto de microservicios nativos de la nube optimizados diseñados para simplificar la implementación de modelos genAI en cualquier lugar. Puede considerarse como una plataforma de inferencia integrada en seis capas: contenedores prediseñados y gráficos Helm, API estándar de la industria, código específico de dominio, motores de inferencia optimizados (por ejemplo, Triton Inference Server™ y TensorRT™-LLM) y soporte para aplicaciones personalizadas. modelos, todos basados en el tiempo de ejecución de NVIDIA AI Enterprise. Esta abstracción proporcionará un camino simplificado para desarrollar aplicaciones empresariales impulsadas por IA e implementar modelos de IA en producción.
- Ofertas para avanzar en el desarrollo del transporte y la atención sanitaria. Para el transporte, NVIDIA anunció que BYD, Hyper y XPENG han adoptado la computadora centralizada para automóviles NVIDIA DRIVE Thor™ para impulsar flotas comerciales y de consumo de próxima generación. Y para la atención médica, NVIDIA anunció más de dos docenas de nuevos microservicios para imágenes avanzadas, lenguaje natural y reconocimiento de voz, y generación, predicción y simulación de biología digital.
- Ofertas para facilitar la innovación en humanoides, 6G y cuántica. Para los humanoides, NVIDIA anunció el Proyecto GR00T, un modelo básico de propósito general para robots humanoides, para impulsar aún más el desarrollo de la robótica y la IA incorporada. Para las empresas de telecomunicaciones, presentó una plataforma de investigación en la nube 6G para avanzar en la IA para la red de acceso por radio (RAN), que consta de NVIDIA Aerial Omniverse Digital Twin para 6G, NVIDIA Aerial CUDA-Accelerated RAN y NVIDIA Sionna Neural Radio Framework. Y para la computación cuántica, lanzó una plataforma de simulación cuántica con un autosolver cuántico generativo impulsado por un LLM para encontrar la energía del estado fundamental de una molécula más rápidamente y un QC Ware Promethium para abordar problemas complejos de química cuántica, como la simulación molecular.
- Asociaciones ampliadas con los principales hiperescaladores, excepto Alibaba Cloud. Además del soporte de instancias informáticas para los últimos conjuntos de chips en los principales hiperescaladores, NVIDIA también está ampliando asociaciones en varios dominios para acelerar la transformación digital. Por ejemplo, para AWS, Amazon SageMaker proporcionará integración con NVIDIA NIM para optimizar aún más el rendimiento de los precios de los modelos básicos que se ejecutan en GPU, con una mayor colaboración en el sector sanitario. Y NVIDIA NIM también llegará a Azure AI, Google Cloud y Oracle Cloud para implementaciones de AI, con más iniciativas sobre atención médica, diseño industrial y soberanía con AWS, Google y Oracle respectivamente.
Lo que significa: NVIDIA se ha convertido en un proveedor de software competitivo en el espacio empresarial, especialmente en áreas relevantes para genAI. Su ventaja en la infraestructura de hardware de IA tiene un gran potencial para influir en la arquitectura de las aplicaciones y el panorama competitivo. Sin embargo, los responsables de la toma de decisiones empresariales también deben darse cuenta de que su principal fortaleza sigue estando en el hardware, ya que carece de experiencia y capacidades de solución empresarial en entornos empresariales complejos de software empresarial. Y su disponibilidad de software de inteligencia artificial (y también de hardware subyacente) varía según las regiones geográficas, lo que limita sus capacidades regionales para atender a clientes locales.
Mirando hacia el futuro
Jensen y todos los demás ejecutivos de NVIDIA se han esforzado por convencer a sus clientes en los últimos años de que NVIDIA ya no es una empresa de GPU. Yo diría que esta misión está cumplida a partir de hoy. En otras palabras, la GPU ya no es lo que pensamos, pero dos cosas siempre son iguales: estar obsesionado con las necesidades del cliente y centrarse en la TI que impulsa el alto rendimiento empresarial. Los responsables de la toma de decisiones empresariales deberían estar atentos a la hoja de ruta de los productos de NVIDIA y adoptar un enfoque pragmático para convertir una visión audaz en un rendimiento superior.
Por supuesto, esto es solo una fracción de los anuncios en NVIDIA GTC 2024. Para obtener más perspectiva nuestra (Charlie Dai, Alvin Nguyen y Glenn O’Donnell) o cualquier otro analista de Forrester, reserve una sesión de consulta o orientación en query@forrester. .com.
Fuente Original Featured Blogs – Forrester