En el GTC de 2025, Jen-Hsun Huang soltó una primicia: Nvidia invertirá 1.000 millones de dólares en Nokia. Sí, la misma Nokia que hace 20 años era famosa en todo el país con sus teléfonos móviles Symbian.
Jen-Hsun Huang dijo en su discurso que las redes de telecomunicaciones están en una transición significativa de una arquitectura tradicional a sistemas nativos de IA, y la inversión de NVIDIA acelerará este proceso. Así, NVIDIA, mediante una inversión, ha creado junto con Nokia una plataforma de IA orientada a la red 6G, incorporando IA en las redes RAN tradicionales.
La forma específica de inversión es que Nvidia suscriba aproximadamente 166 millones de nuevas acciones de Nokia a un precio de 6.01 dólares por acción, lo que dará a Nvidia una participación de aproximadamente el 2.9% en Nokia.
Justo en el momento en que se anunció la colaboración, las acciones de Nokia subieron un 21%, el mayor aumento desde 2013.
01 ¿Qué es AI-RAN?
RAN es la red de acceso inalámbrico, mientras que AI-RAN es una nueva arquitectura de red que integra la capacidad de computación de IA directamente en las estaciones base inalámbricas. Los sistemas RAN tradicionales se encargan principalmente de la transmisión de datos entre las estaciones base y los dispositivos móviles, mientras que AI-RAN agrega funciones de computación en el borde y procesamiento inteligente sobre esta base.
Permitir que las estaciones base apliquen algoritmos de IA para optimizar la utilización del espectro y la eficiencia energética, mejorando el rendimiento general de la red, al mismo tiempo que se utilizan los activos RAN ociosos para alojar servicios de IA en la periferia, creando nuevas fuentes de ingresos para los operadores.
Los operadores pueden ejecutar aplicaciones de IA directamente en el sitio de la estación base, sin necesidad de enviar todos los datos de vuelta al centro de datos, lo que reduce considerablemente la carga en la red.
Jen-Hsun Huang dio un ejemplo: casi el 50% de los usuarios de ChatGPT acceden a través de dispositivos móviles. No solo eso, la cantidad de descargas mensuales de ChatGPT en móviles supera los 40 millones. En una era de crecimiento explosivo de aplicaciones de IA, los sistemas RAN tradicionales no pueden hacer frente a la IA generativa y a las redes móviles dominadas por agentes inteligentes.
AI-RAN proporciona capacidades de inferencia de IA distribuidas en el borde, lo que permite que las próximas aplicaciones de IA, como los agentes inteligentes y los chatbots, respondan más rápido. Al mismo tiempo, AI-RAN también se está preparando para aplicaciones integradas de sensores y comunicación en la era 6G.
Jen-Hsun Huang citó las predicciones de la empresa de análisis Omdia, que estima que el mercado de RAN superará los 200 mil millones de dólares para 2030, siendo la parte de AI-RAN el segmento de más rápido crecimiento.
El presidente y CEO de Nokia, Justin Hotard, declaró en un comunicado conjunto que esta asociación llevará los centros de datos de IA a los bolsillos de todos, logrando un rediseño fundamental desde el 5G hasta el 6G.
Él mencionó especialmente que Nokia está colaborando con tres empresas de diferentes tipos: NVIDIA, Dell y T-Mobile. T-Mobile, como uno de los primeros socios, comenzará las pruebas de campo de la tecnología AI-RAN a partir de 2026, centrándose en validar la mejora del rendimiento y la eficiencia. Justin dijo que esta prueba proporcionará datos valiosos para la innovación en 6G, ayudando a los operadores a construir redes inteligentes que se adapten a las necesidades de IA.
Basado en AI-RAN, el nuevo producto de Nvidia se llama Aerial RAN Computer Pro (ARC-Pro), que es una plataforma de computación acelerada preparada para 6G. Su configuración de hardware central incluye dos tipos de GPU de Nvidia: Grace CPU y Blackwell GPU.
Esta plataforma funciona a través de NVIDIA CUDA, y el software RAN se puede incrustar directamente en la pila tecnológica de CUDA. Por lo tanto, no solo puede manejar las funciones tradicionales de la red de acceso inalámbrico, sino que también puede ejecutar simultáneamente aplicaciones de IA de vanguardia. Este también es el método central de NVIDIA para implementar las letras AI en AI-RAN.
Dado el largo historial de CUDA, la mayor ventaja de esta plataforma es en realidad su programabilidad. No solo eso, Jen-Hsun Huang también anunció que el marco de software Aerial se abrirá, y se espera que se publique en GitHub bajo la licencia Apache 2.0 a partir de diciembre de 2025.
La principal diferencia entre ARC-Pro y su producto anterior ARC radica en la ubicación de despliegue y el escenario de aplicación. El ARC anterior se utilizaba principalmente para la implementación de RAN en la nube centralizada, mientras que el ARC-Pro se puede desplegar directamente en el sitio de la estación base, lo que permite que la capacidad de computación en el borde se materialice realmente.
Ronnie Vashita, responsable del negocio de telecomunicaciones de Nvidia, dijo que en el pasado se necesitaban dos conjuntos de hardware diferentes para RAN y AI, pero ARC-Pro puede asignar dinámicamente recursos de computación según las necesidades de la red, priorizando las funciones de acceso inalámbrico y también ejecutando tareas de inferencia de AI durante los períodos de inactividad.
ARC-Pro también integra la plataforma de IA Aerial de NVIDIA, que es un conjunto de software completo que incluye software RAN acelerado por CUDA, herramientas de gemelos digitales Aerial Omniverse y un nuevo Aerial Framework. Aerial Framework puede convertir código Python en código CUDA de alto rendimiento que se ejecuta en la plataforma ARC-Pro. Además, la plataforma también admite modelos de redes neuronales impulsados por IA para una estimación avanzada de canales.
Jen-Hsun Huang dijo que las telecomunicaciones son el sistema nervioso digital de la economía y la seguridad. La colaboración con Nokia y el ecosistema de telecomunicaciones encenderá esta revolución, ayudando a los operadores a construir redes inteligentes y adaptativas, definiendo la próxima generación de conectividad global.
02 Mirando hacia el 2025, Nvidia realmente ha invertido mucho dinero.
El 22 de septiembre, NVIDIA y OpenAI alcanzaron un acuerdo de colaboración. NVIDIA planea invertir gradualmente 100 mil millones de dólares en OpenAI, lo que acelerará la construcción de su infraestructura.
Jen-Hsun Huang dijo que, en realidad, OpenAI buscó la inversión de NVIDIA hace mucho tiempo, pero en ese momento la empresa tenía recursos limitados. Bromeó diciendo que en ese momento eran demasiado pobres y que en realidad deberían haberles dado todo su dinero.
Jen-Hsun Huang cree que el crecimiento de la inferencia de IA no es de 100 veces o 1000 veces, sino de 1 mil millones de veces. Además, esta colaboración no se limita al hardware, sino que también incluye la optimización del software, asegurando que OpenAI pueda utilizar de manera eficiente los sistemas de NVIDIA.
Esto podría ser porque, al enterarse de la colaboración entre OpenAI y AMD, temía que OpenAI abandonara CUDA. Una vez que el mayor modelo de IA a nivel mundial no utilice CUDA, sería comprensible que otros fabricantes de modelos grandes siguieran el ejemplo de OpenAI.
Jen-Hsun Huang predijo en el programa de podcast BG2 que OpenAI podría convertirse en la próxima empresa con un valor de mercado de un billón de dólares, y que su tasa de crecimiento establecerá un récord en la industria. Refutó la teoría de la burbuja de la IA, señalando que el gasto de capital global en infraestructura de IA alcanzará los 5 billones de dólares anualmente.
También es gracias a esta inversión que OpenAI anunció el 29 de octubre la finalización de la reestructuración de capital de la empresa. La compañía se dividió en dos partes, una parte es una fundación sin fines de lucro y la otra es una empresa con fines de lucro.
Una fundación de naturaleza no lucrativa controlará legalmente la parte lucrativa y deberá tener en cuenta el interés público. Sin embargo, aún puede tener libertad para financiar o adquirir empresas. La fundación poseerá el 26% de las acciones de esta empresa lucrativa y mantendrá un warrant de suscripción. Si la empresa continúa creciendo, la fundación también podrá obtener acciones adicionales.
Además de OpenAI, NVIDIA también invirtió en xAI de Musk en 2025. La escala de la ronda de financiación actual de esta empresa se ha elevado a 20,000 millones de dólares. De estos, aproximadamente 7,500 millones de dólares se recaudaron a través de acciones, y hasta 12,500 millones de dólares a través de la recaudación de deuda mediante entidades de propósito especial (SPV).
La forma en que opera esta entidad de propósito especial es que utilizará los fondos recaudados para adquirir procesadores de alto rendimiento de Nvidia, y luego alquilará estos procesadores para su uso por xAI.
Estos procesadores se utilizarán en el proyecto Colossus 2 de xAI. La primera generación de Colossus es el centro de datos de supercomputación de xAI ubicado en Memphis, Tennessee. El proyecto de la primera generación de Colossus ya ha desplegado 100,000 GPU H100 de NVIDIA, lo que lo convierte en uno de los clústeres de entrenamiento de IA más grandes del mundo. Ahora, xAI está construyendo el Colossus 2, que planea expandir la cantidad de GPU a cientos de miles o incluso más.
El 18 de septiembre, NVIDIA también anunció que invertirá 5 mil millones de dólares en Intel y establecerá una profunda relación de cooperación estratégica. NVIDIA suscribirá acciones ordinarias recién emitidas de Intel a un precio de 23.28 dólares por acción, con una inversión total que alcanzará los 5 mil millones de dólares. Tras la finalización de la operación, NVIDIA poseerá aproximadamente el 4% de las acciones de Intel, convirtiéndose en un importante inversor estratégico.
03 Por supuesto, en esta GTC, Jen-Hsun Huang también dijo mucho.
Por ejemplo, Nvidia ha lanzado varias familias de modelos de IA de código abierto, incluidos Nemotron para IA digital, Cosmos para IA física, Isaac GR00T para robótica y Clara para IA biomédica.
Al mismo tiempo, Jen-Hsun Huang lanzó la plataforma de desarrollo de conducción autónoma DRIVE AGX Hyperion 10. Esta es una plataforma orientada a la conducción autónoma de nivel 4, que integra chips de cálculo de NVIDIA y un conjunto completo de sensores, incluidos LiDAR, cámaras y radares.
NVIDIA también ha lanzado el programa de certificación Halos, que es el primer sistema de la industria para evaluar y certificar la seguridad física de la IA, específicamente para vehículos autónomos y tecnologías robóticas.
El núcleo del programa de certificación Halos es el sistema Halos AI, que es el primer laboratorio en la industria reconocido por el Comité de Certificación ANSI. Y ANSI es la Asociación Nacional de Estándares de EE. UU., cuya certificación tiene una alta autoridad y credibilidad.
La tarea de este sistema es verificar si los sistemas de conducción automática cumplen con los estándares a través de la IA física de Nvidia. Empresas como AUMOVIO, Bosch, Nuro y Wayve son los primeros miembros del laboratorio de pruebas del sistema Halos AI.
Para impulsar la conducción autónoma de nivel 4, Nvidia ha lanzado un conjunto de datos de conducción autónoma multimodal recopilado de 25 países, que contiene 1700 horas de datos de cámaras, radares y LiDAR.
Jen-Hsun Huang dijo que el valor de este conjunto de datos radica en su diversidad y escala, abarcando diferentes condiciones de carretera, normas de tráfico y culturas de conducción, lo que proporciona una base para entrenar sistemas de conducción autónoma más generales.
Sin embargo, el plano de Jen-Hsun Huang va mucho más allá de esto.
Anunció una serie de colaboraciones con laboratorios del gobierno de EE. UU. y empresas líderes en GTC, con el objetivo de construir la infraestructura de IA de EE. UU. Jen-Hsun Huang dijo que estamos en el amanecer de la revolución industrial de IA, que definirá el futuro de cada industria y país.
El aspecto más destacado de esta colaboración es la asociación con el Departamento de Energía de EE. UU. NVIDIA está ayudando al departamento a construir dos centros de supercomputación, uno en el Laboratorio Nacional Argonne y el otro en el Laboratorio Nacional de Los Álamos.
El laboratorio Argonne obtendrá una supercomputadora llamada Solstice, que está equipada con 100,000 GPUs Blackwell de NVIDIA. ¿Qué significa tener 100,000 GPUs? Será la supercomputadora de IA más grande en la historia del Departamento de Energía. Además, hay otro sistema llamado Equinox, que estará equipado con 10,000 GPUs Blackwell, y se espera que entre en funcionamiento en 2026. Estos dos sistemas juntos podrán proporcionar 2200 exaflops de rendimiento de cálculo de IA.
El director de los Laboratorios Argonne, Paul Kearns, dijo que estos sistemas redefinirán el rendimiento, la escalabilidad y el potencial científico. ¿Para qué quieren usar esta capacidad de cálculo? Desde la ciencia de materiales hasta la modelización climática, desde la computación cuántica hasta la simulación de armas nucleares, se necesita este nivel de capacidad de cálculo.
Además de los laboratorios gubernamentales, Nvidia también ha construido un centro de investigación de fábricas de IA en Virginia. Lo especial de este centro es que no es solo un centro de datos, sino un campo de experimentación. Nvidia planea probar aquí algo llamado Omniverse DSX, que es un plano para construir fábricas de IA de nivel de gigavatios.
Un centro de datos ordinario puede necesitar solo decenas de megavatios de energía, mientras que un gigavatio equivale a la producción de energía de una planta nuclear de tamaño mediano.
La idea central de este plano de Omniverse DSX es convertir la fábrica de IA en un sistema auto-aprendizaje. Los agentes de IA monitorearán continuamente la electricidad, la refrigeración y la carga de trabajo, ajustando automáticamente los parámetros para mejorar la eficiencia. Por ejemplo, cuando la carga de la red eléctrica es alta, el sistema puede reducir automáticamente el consumo de energía o cambiar a la alimentación de baterías de almacenamiento.
Esta gestión inteligente es crucial para instalaciones de gigavatios, ya que los costos de electricidad y refrigeración pueden ser astronómicos.
Esta visión es muy ambiciosa, Jen-Hsun Huang dijo que necesitaría tres años para lograrla. Las pruebas de AI-RAN no comenzarán hasta 2026, los vehículos autónomos basados en DRIVE AGX Hyperion 10 no estarán en la carretera hasta 2027, y el superordenador del Departamento de Energía también se pondrá en funcionamiento en 2027.
NVIDIA tiene en sus manos la carta ganadora de CUDA, dominando el estándar de hecho en computación AI. Desde el entrenamiento hasta la inferencia, desde centros de datos hasta dispositivos de borde, desde conducción autónoma hasta biomedicina, las GPU de NVIDIA están en todas partes. Las inversiones y colaboraciones anunciadas en esta GTC refuerzan aún más esta posición.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Dar 10 mil millones a Nokia, Jen-Hsun Huang quiere ganar 200 mil millones.
En el GTC de 2025, Jen-Hsun Huang soltó una primicia: Nvidia invertirá 1.000 millones de dólares en Nokia. Sí, la misma Nokia que hace 20 años era famosa en todo el país con sus teléfonos móviles Symbian.
Jen-Hsun Huang dijo en su discurso que las redes de telecomunicaciones están en una transición significativa de una arquitectura tradicional a sistemas nativos de IA, y la inversión de NVIDIA acelerará este proceso. Así, NVIDIA, mediante una inversión, ha creado junto con Nokia una plataforma de IA orientada a la red 6G, incorporando IA en las redes RAN tradicionales.
La forma específica de inversión es que Nvidia suscriba aproximadamente 166 millones de nuevas acciones de Nokia a un precio de 6.01 dólares por acción, lo que dará a Nvidia una participación de aproximadamente el 2.9% en Nokia.
Justo en el momento en que se anunció la colaboración, las acciones de Nokia subieron un 21%, el mayor aumento desde 2013.
01 ¿Qué es AI-RAN?
RAN es la red de acceso inalámbrico, mientras que AI-RAN es una nueva arquitectura de red que integra la capacidad de computación de IA directamente en las estaciones base inalámbricas. Los sistemas RAN tradicionales se encargan principalmente de la transmisión de datos entre las estaciones base y los dispositivos móviles, mientras que AI-RAN agrega funciones de computación en el borde y procesamiento inteligente sobre esta base.
Permitir que las estaciones base apliquen algoritmos de IA para optimizar la utilización del espectro y la eficiencia energética, mejorando el rendimiento general de la red, al mismo tiempo que se utilizan los activos RAN ociosos para alojar servicios de IA en la periferia, creando nuevas fuentes de ingresos para los operadores.
Los operadores pueden ejecutar aplicaciones de IA directamente en el sitio de la estación base, sin necesidad de enviar todos los datos de vuelta al centro de datos, lo que reduce considerablemente la carga en la red.
Jen-Hsun Huang dio un ejemplo: casi el 50% de los usuarios de ChatGPT acceden a través de dispositivos móviles. No solo eso, la cantidad de descargas mensuales de ChatGPT en móviles supera los 40 millones. En una era de crecimiento explosivo de aplicaciones de IA, los sistemas RAN tradicionales no pueden hacer frente a la IA generativa y a las redes móviles dominadas por agentes inteligentes.
AI-RAN proporciona capacidades de inferencia de IA distribuidas en el borde, lo que permite que las próximas aplicaciones de IA, como los agentes inteligentes y los chatbots, respondan más rápido. Al mismo tiempo, AI-RAN también se está preparando para aplicaciones integradas de sensores y comunicación en la era 6G.
Jen-Hsun Huang citó las predicciones de la empresa de análisis Omdia, que estima que el mercado de RAN superará los 200 mil millones de dólares para 2030, siendo la parte de AI-RAN el segmento de más rápido crecimiento.
El presidente y CEO de Nokia, Justin Hotard, declaró en un comunicado conjunto que esta asociación llevará los centros de datos de IA a los bolsillos de todos, logrando un rediseño fundamental desde el 5G hasta el 6G.
Él mencionó especialmente que Nokia está colaborando con tres empresas de diferentes tipos: NVIDIA, Dell y T-Mobile. T-Mobile, como uno de los primeros socios, comenzará las pruebas de campo de la tecnología AI-RAN a partir de 2026, centrándose en validar la mejora del rendimiento y la eficiencia. Justin dijo que esta prueba proporcionará datos valiosos para la innovación en 6G, ayudando a los operadores a construir redes inteligentes que se adapten a las necesidades de IA.
Basado en AI-RAN, el nuevo producto de Nvidia se llama Aerial RAN Computer Pro (ARC-Pro), que es una plataforma de computación acelerada preparada para 6G. Su configuración de hardware central incluye dos tipos de GPU de Nvidia: Grace CPU y Blackwell GPU.
Esta plataforma funciona a través de NVIDIA CUDA, y el software RAN se puede incrustar directamente en la pila tecnológica de CUDA. Por lo tanto, no solo puede manejar las funciones tradicionales de la red de acceso inalámbrico, sino que también puede ejecutar simultáneamente aplicaciones de IA de vanguardia. Este también es el método central de NVIDIA para implementar las letras AI en AI-RAN.
Dado el largo historial de CUDA, la mayor ventaja de esta plataforma es en realidad su programabilidad. No solo eso, Jen-Hsun Huang también anunció que el marco de software Aerial se abrirá, y se espera que se publique en GitHub bajo la licencia Apache 2.0 a partir de diciembre de 2025.
La principal diferencia entre ARC-Pro y su producto anterior ARC radica en la ubicación de despliegue y el escenario de aplicación. El ARC anterior se utilizaba principalmente para la implementación de RAN en la nube centralizada, mientras que el ARC-Pro se puede desplegar directamente en el sitio de la estación base, lo que permite que la capacidad de computación en el borde se materialice realmente.
Ronnie Vashita, responsable del negocio de telecomunicaciones de Nvidia, dijo que en el pasado se necesitaban dos conjuntos de hardware diferentes para RAN y AI, pero ARC-Pro puede asignar dinámicamente recursos de computación según las necesidades de la red, priorizando las funciones de acceso inalámbrico y también ejecutando tareas de inferencia de AI durante los períodos de inactividad.
ARC-Pro también integra la plataforma de IA Aerial de NVIDIA, que es un conjunto de software completo que incluye software RAN acelerado por CUDA, herramientas de gemelos digitales Aerial Omniverse y un nuevo Aerial Framework. Aerial Framework puede convertir código Python en código CUDA de alto rendimiento que se ejecuta en la plataforma ARC-Pro. Además, la plataforma también admite modelos de redes neuronales impulsados por IA para una estimación avanzada de canales.
Jen-Hsun Huang dijo que las telecomunicaciones son el sistema nervioso digital de la economía y la seguridad. La colaboración con Nokia y el ecosistema de telecomunicaciones encenderá esta revolución, ayudando a los operadores a construir redes inteligentes y adaptativas, definiendo la próxima generación de conectividad global.
02 Mirando hacia el 2025, Nvidia realmente ha invertido mucho dinero.
El 22 de septiembre, NVIDIA y OpenAI alcanzaron un acuerdo de colaboración. NVIDIA planea invertir gradualmente 100 mil millones de dólares en OpenAI, lo que acelerará la construcción de su infraestructura.
Jen-Hsun Huang dijo que, en realidad, OpenAI buscó la inversión de NVIDIA hace mucho tiempo, pero en ese momento la empresa tenía recursos limitados. Bromeó diciendo que en ese momento eran demasiado pobres y que en realidad deberían haberles dado todo su dinero.
Jen-Hsun Huang cree que el crecimiento de la inferencia de IA no es de 100 veces o 1000 veces, sino de 1 mil millones de veces. Además, esta colaboración no se limita al hardware, sino que también incluye la optimización del software, asegurando que OpenAI pueda utilizar de manera eficiente los sistemas de NVIDIA.
Esto podría ser porque, al enterarse de la colaboración entre OpenAI y AMD, temía que OpenAI abandonara CUDA. Una vez que el mayor modelo de IA a nivel mundial no utilice CUDA, sería comprensible que otros fabricantes de modelos grandes siguieran el ejemplo de OpenAI.
Jen-Hsun Huang predijo en el programa de podcast BG2 que OpenAI podría convertirse en la próxima empresa con un valor de mercado de un billón de dólares, y que su tasa de crecimiento establecerá un récord en la industria. Refutó la teoría de la burbuja de la IA, señalando que el gasto de capital global en infraestructura de IA alcanzará los 5 billones de dólares anualmente.
También es gracias a esta inversión que OpenAI anunció el 29 de octubre la finalización de la reestructuración de capital de la empresa. La compañía se dividió en dos partes, una parte es una fundación sin fines de lucro y la otra es una empresa con fines de lucro.
Una fundación de naturaleza no lucrativa controlará legalmente la parte lucrativa y deberá tener en cuenta el interés público. Sin embargo, aún puede tener libertad para financiar o adquirir empresas. La fundación poseerá el 26% de las acciones de esta empresa lucrativa y mantendrá un warrant de suscripción. Si la empresa continúa creciendo, la fundación también podrá obtener acciones adicionales.
Además de OpenAI, NVIDIA también invirtió en xAI de Musk en 2025. La escala de la ronda de financiación actual de esta empresa se ha elevado a 20,000 millones de dólares. De estos, aproximadamente 7,500 millones de dólares se recaudaron a través de acciones, y hasta 12,500 millones de dólares a través de la recaudación de deuda mediante entidades de propósito especial (SPV).
La forma en que opera esta entidad de propósito especial es que utilizará los fondos recaudados para adquirir procesadores de alto rendimiento de Nvidia, y luego alquilará estos procesadores para su uso por xAI.
Estos procesadores se utilizarán en el proyecto Colossus 2 de xAI. La primera generación de Colossus es el centro de datos de supercomputación de xAI ubicado en Memphis, Tennessee. El proyecto de la primera generación de Colossus ya ha desplegado 100,000 GPU H100 de NVIDIA, lo que lo convierte en uno de los clústeres de entrenamiento de IA más grandes del mundo. Ahora, xAI está construyendo el Colossus 2, que planea expandir la cantidad de GPU a cientos de miles o incluso más.
El 18 de septiembre, NVIDIA también anunció que invertirá 5 mil millones de dólares en Intel y establecerá una profunda relación de cooperación estratégica. NVIDIA suscribirá acciones ordinarias recién emitidas de Intel a un precio de 23.28 dólares por acción, con una inversión total que alcanzará los 5 mil millones de dólares. Tras la finalización de la operación, NVIDIA poseerá aproximadamente el 4% de las acciones de Intel, convirtiéndose en un importante inversor estratégico.
03 Por supuesto, en esta GTC, Jen-Hsun Huang también dijo mucho.
Por ejemplo, Nvidia ha lanzado varias familias de modelos de IA de código abierto, incluidos Nemotron para IA digital, Cosmos para IA física, Isaac GR00T para robótica y Clara para IA biomédica.
Al mismo tiempo, Jen-Hsun Huang lanzó la plataforma de desarrollo de conducción autónoma DRIVE AGX Hyperion 10. Esta es una plataforma orientada a la conducción autónoma de nivel 4, que integra chips de cálculo de NVIDIA y un conjunto completo de sensores, incluidos LiDAR, cámaras y radares.
NVIDIA también ha lanzado el programa de certificación Halos, que es el primer sistema de la industria para evaluar y certificar la seguridad física de la IA, específicamente para vehículos autónomos y tecnologías robóticas.
El núcleo del programa de certificación Halos es el sistema Halos AI, que es el primer laboratorio en la industria reconocido por el Comité de Certificación ANSI. Y ANSI es la Asociación Nacional de Estándares de EE. UU., cuya certificación tiene una alta autoridad y credibilidad.
La tarea de este sistema es verificar si los sistemas de conducción automática cumplen con los estándares a través de la IA física de Nvidia. Empresas como AUMOVIO, Bosch, Nuro y Wayve son los primeros miembros del laboratorio de pruebas del sistema Halos AI.
Para impulsar la conducción autónoma de nivel 4, Nvidia ha lanzado un conjunto de datos de conducción autónoma multimodal recopilado de 25 países, que contiene 1700 horas de datos de cámaras, radares y LiDAR.
Jen-Hsun Huang dijo que el valor de este conjunto de datos radica en su diversidad y escala, abarcando diferentes condiciones de carretera, normas de tráfico y culturas de conducción, lo que proporciona una base para entrenar sistemas de conducción autónoma más generales.
Sin embargo, el plano de Jen-Hsun Huang va mucho más allá de esto.
Anunció una serie de colaboraciones con laboratorios del gobierno de EE. UU. y empresas líderes en GTC, con el objetivo de construir la infraestructura de IA de EE. UU. Jen-Hsun Huang dijo que estamos en el amanecer de la revolución industrial de IA, que definirá el futuro de cada industria y país.
El aspecto más destacado de esta colaboración es la asociación con el Departamento de Energía de EE. UU. NVIDIA está ayudando al departamento a construir dos centros de supercomputación, uno en el Laboratorio Nacional Argonne y el otro en el Laboratorio Nacional de Los Álamos.
El laboratorio Argonne obtendrá una supercomputadora llamada Solstice, que está equipada con 100,000 GPUs Blackwell de NVIDIA. ¿Qué significa tener 100,000 GPUs? Será la supercomputadora de IA más grande en la historia del Departamento de Energía. Además, hay otro sistema llamado Equinox, que estará equipado con 10,000 GPUs Blackwell, y se espera que entre en funcionamiento en 2026. Estos dos sistemas juntos podrán proporcionar 2200 exaflops de rendimiento de cálculo de IA.
El director de los Laboratorios Argonne, Paul Kearns, dijo que estos sistemas redefinirán el rendimiento, la escalabilidad y el potencial científico. ¿Para qué quieren usar esta capacidad de cálculo? Desde la ciencia de materiales hasta la modelización climática, desde la computación cuántica hasta la simulación de armas nucleares, se necesita este nivel de capacidad de cálculo.
Además de los laboratorios gubernamentales, Nvidia también ha construido un centro de investigación de fábricas de IA en Virginia. Lo especial de este centro es que no es solo un centro de datos, sino un campo de experimentación. Nvidia planea probar aquí algo llamado Omniverse DSX, que es un plano para construir fábricas de IA de nivel de gigavatios.
Un centro de datos ordinario puede necesitar solo decenas de megavatios de energía, mientras que un gigavatio equivale a la producción de energía de una planta nuclear de tamaño mediano.
La idea central de este plano de Omniverse DSX es convertir la fábrica de IA en un sistema auto-aprendizaje. Los agentes de IA monitorearán continuamente la electricidad, la refrigeración y la carga de trabajo, ajustando automáticamente los parámetros para mejorar la eficiencia. Por ejemplo, cuando la carga de la red eléctrica es alta, el sistema puede reducir automáticamente el consumo de energía o cambiar a la alimentación de baterías de almacenamiento.
Esta gestión inteligente es crucial para instalaciones de gigavatios, ya que los costos de electricidad y refrigeración pueden ser astronómicos.
Esta visión es muy ambiciosa, Jen-Hsun Huang dijo que necesitaría tres años para lograrla. Las pruebas de AI-RAN no comenzarán hasta 2026, los vehículos autónomos basados en DRIVE AGX Hyperion 10 no estarán en la carretera hasta 2027, y el superordenador del Departamento de Energía también se pondrá en funcionamiento en 2027.
NVIDIA tiene en sus manos la carta ganadora de CUDA, dominando el estándar de hecho en computación AI. Desde el entrenamiento hasta la inferencia, desde centros de datos hasta dispositivos de borde, desde conducción autónoma hasta biomedicina, las GPU de NVIDIA están en todas partes. Las inversiones y colaboraciones anunciadas en esta GTC refuerzan aún más esta posición.