Dar 10 mil milhões à Nokia, Jen-Hsun Huang quer ganhar 200 mil milhões

Na GTC de 2025, Jen-Hsun Huang revelou uma grande notícia: a Nvidia irá investir 1 bilhão de dólares na Nokia. Sim, é a mesma Nokia, a empresa de telefones móveis Symbian que fez sucesso em todo o país há 20 anos.

Jen-Hsun Huang disse em sua palestra que as redes de telecomunicações estão passando por uma grande transformação de uma arquitetura tradicional para sistemas nativos de IA, e o investimento da NVIDIA acelerará esse processo. Assim, a NVIDIA, através de investimentos, criou em parceria com a Nokia uma plataforma de IA voltada para redes 6G, integrando IA nas redes RAN tradicionais.

A forma específica de investimento é que a Nvidia subscreveu cerca de 166 milhões de novas ações da Nokia a um preço de 6,01 dólares por ação, o que fará com que a Nvidia detenha cerca de 2,9% do capital da Nokia.

No momento em que foi anunciada a colaboração, as ações da Nokia subiram 21%, o maior aumento desde 2013.

01 O que é AI-RAN?

RAN é a rede de acesso sem fio, enquanto AI-RAN é uma nova arquitetura de rede que incorpora a capacidade de computação em IA diretamente nas estações-base sem fio. Os sistemas RAN tradicionais são responsáveis principalmente pela transmissão de dados entre as estações-base e os dispositivos móveis, enquanto o AI-RAN adiciona funções de computação de borda e processamento inteligente a essa base.

Permitir que as estações base apliquem algoritmos de IA para otimizar a utilização do espectro e a eficiência energética, melhorando o desempenho geral da rede, enquanto utilizam ativos RAN ociosos para hospedar serviços de IA na borda, criando novas fontes de receita para os operadores.

Os operadores podem executar aplicações de IA diretamente no local da estação base, sem ter que enviar todos os dados de volta para o centro de dados para processamento, reduzindo significativamente a carga na rede.

Jen-Hsun Huang deu um exemplo: quase 50% dos utilizadores do ChatGPT acedem através de dispositivos móveis. Além disso, o número mensal de downloads móveis do ChatGPT ultrapassou os 40 milhões. Na era da explosão das aplicações de IA, os sistemas RAN tradicionais não conseguem enfrentar a IA generativa e as redes móveis dominadas por agentes inteligentes.

O AI-RAN, ao fornecer capacidades de inferência de IA distribuídas na borda, permite que as próximas aplicações de IA, como agentes inteligentes e chatbots, respondam mais rapidamente. Ao mesmo tempo, o AI-RAN também se prepara para aplicações integradas de sensores e comunicação na era do 6G.

Jen-Hsun Huang citou a previsão da empresa de análise Omdia, que prevê que o mercado de RAN ultrapassará 200 bilhões de dólares até 2030, com a parte de AI-RAN se tornando o segmento de crescimento mais rápido.

O presidente e CEO da Nokia, Justin Hotard, afirmou em um comunicado conjunto que esta parceria colocará centros de dados de IA no bolso de todos, realizando uma reestruturação fundamental da transição do 5G para o 6G.

Ele mencionou especialmente que a Nokia está colaborando com três empresas de diferentes tipos: Nvidia, Dell e T-Mobile. A T-Mobile, como um dos primeiros parceiros, começará testes em campo da tecnologia AI-RAN a partir de 2026, com foco na validação do desempenho e aumento da eficiência. Justin disse que esses testes fornecerão dados valiosos para inovações em 6G, ajudando os operadores a construir redes inteligentes que atendam às necessidades de IA.

Baseado em AI-RAN, o novo produto da NVIDIA chama-se Aerial RAN Computer Pro (ARC-Pro), que é uma plataforma de computação acelerada preparada para 6G. Sua configuração de hardware central inclui duas GPUs da NVIDIA: Grace CPU e Blackwell GPU.

Esta plataforma é executada através da NVIDIA CUDA, e o software RAN pode ser diretamente incorporado na pilha tecnológica CUDA. Assim, não só consegue lidar com as funcionalidades tradicionais de redes de acesso sem fios, como também pode executar aplicações de IA populares simultaneamente. Esta é também a principal forma da NVIDIA implementar as duas letras “AI” em AI-RAN.

Dada a longa história do CUDA, a maior vantagem desta plataforma é, na verdade, a sua programabilidade. Não só isso, como Jen-Hsun Huang também anunciou que o framework de software Aerial será open-source, com lançamento previsto para dezembro de 2025 no GitHub sob a licença Apache 2.0.

A principal diferença entre o ARC-Pro e seu antecessor ARC está na localização de implantação e nos cenários de aplicação. O ARC anterior era principalmente utilizado para a implementação de RAN em nuvem centralizada, enquanto o ARC-Pro pode ser implantado diretamente no local da estação base, o que permite que a capacidade de computação de borda seja realmente implementada.

O responsável pelos negócios de telecomunicações da NVIDIA, Ronnie Vashita, afirmou que no passado, RAN e IA exigiam dois conjuntos diferentes de hardware para serem implementados, mas o ARC-Pro pode alocar dinamicamente recursos computacionais de acordo com as necessidades da rede, priorizando tanto as funções de acesso sem fio quanto executando tarefas de inferência de IA durante os períodos ociosos.

O ARC-Pro também integra a plataforma NVIDIA AI Aerial, que é um conjunto completo de software, incluindo software RAN acelerado por CUDA, ferramentas de gêmeos digitais Aerial Omniverse e um novo Aerial Framework. O Aerial Framework pode converter código Python em código CUDA de alto desempenho, que é executado na plataforma ARC-Pro. Além disso, a plataforma também suporta modelos de redes neurais impulsionados por IA para estimativa avançada de canais.

Jen-Hsun Huang disse que as telecomunicações são o sistema nervoso digital da economia e da segurança. A colaboração com a Nokia e o ecossistema de telecomunicações irá acender esta revolução, ajudando os operadores a construir redes inteligentes e adaptativas, definindo a próxima geração de conectividade global.

02 Olhando para 2025, a NVIDIA realmente investiu bastante dinheiro.

No dia 22 de setembro, a Nvidia e a OpenAI firmaram uma parceria, com a Nvidia planejando investir gradualmente 100 bilhões de dólares na OpenAI, o que acelerará a construção de sua infraestrutura.

Jen-Hsun Huang disse que, na verdade, a OpenAI procurou o investimento da NVIDIA há muito tempo, mas na época a empresa tinha recursos limitados. Ele disse humorosamente que na época estavam tão pobres que deveriam ter dado todo o dinheiro a eles.

Jen-Hsun Huang acredita que o crescimento da inferência de IA não é de 100 vezes ou 1000 vezes, mas sim de 1 bilhão de vezes. E essa colaboração não se limita ao hardware, mas também inclui a otimização de software, garantindo que a OpenAI possa utilizar de forma eficiente os sistemas da Nvidia.

Isso pode ser porque, ao saber da colaboração entre a OpenAI e a AMD, ele ficou preocupado que a OpenAI abandonasse o CUDA. Uma vez que o maior modelo de IA do mundo não utiliza CUDA, não é surpreendente que outros fabricantes de modelos grandes sigam o exemplo da OpenAI.

Jen-Hsun Huang previu no podcast BG2 que a OpenAI provavelmente se tornará a próxima empresa com um valor de mercado de um trilhão de dólares, com uma taxa de crescimento que estabelecerá um recorde na indústria. Ele refutou a teoria da bolha de IA, apontando que os gastos de capital globais em infraestrutura de IA chegarão a 5 trilhões de dólares anualmente.

Foi também devido a este investimento que a OpenAI anunciou, a 29 de outubro, a conclusão da reestruturação do capital da empresa. A empresa foi dividida em duas partes, uma parte é uma fundação sem fins lucrativos, e a outra parte é uma empresa com fins lucrativos.

Uma fundação sem fins lucrativos controlará legalmente a parte lucrativa e deverá considerar o interesse público. No entanto, ainda poderá arrecadar fundos ou adquirir empresas livremente. A fundação terá 26% das ações dessa empresa lucrativa e detém um warrant. Se a empresa continuar a crescer, a fundação poderá obter ações adicionais.

Além da OpenAI, a Nvidia investiu na xAI de Musk em 2025. O montante da atual rodada de financiamento aumentou para 20 mil milhões de dólares. Desses, cerca de 7,5 mil milhões de dólares foram levantados através de equity, e até 12,5 mil milhões de dólares através da dívida de entidades de propósito específico (SPV).

A forma de operação desta entidade de propósito especial é que ela usará os fundos arrecadados para adquirir os processadores de alto desempenho da Nvidia e, em seguida, alugará esses processadores para uso da xAI.

Esses processadores serão usados no projeto Colossus 2 da xAI. A primeira geração do Colossus é o centro de dados de supercomputação da xAI localizado em Memphis, Tennessee. O projeto da primeira geração do Colossus já implementou 100.000 GPUs Nvidia H100, tornando-se um dos maiores clusters de treinamento de IA do mundo. Agora, o Colossus 2 que a xAI está construindo planeja expandir o número de GPUs para centenas de milhares ou até mais.

No dia 18 de setembro, a Nvidia também anunciou que irá investir 5 mil milhões de dólares na Intel e estabelecer uma profunda relação de cooperação estratégica. A Nvidia subscreverá ações ordinárias recém-emissão da Intel a um preço de 23,28 dólares por ação, com um investimento total de 5 mil milhões de dólares. Após a conclusão da transação, a Nvidia deterá cerca de 4% das ações da Intel, tornando-se um importante investidor estratégico.

03 Claro, durante esta GTC, Jen-Hsun Huang disse muitas coisas.

Por exemplo, a NVIDIA lançou várias famílias de modelos de IA de código aberto, incluindo o Nemotron para IA digital, o Cosmos para IA física, o Isaac GR00T para robôs e o Clara para IA biomédica.

Ao mesmo tempo, Jen-Hsun Huang lançou a plataforma de desenvolvimento de condução autónoma DRIVE AGX Hyperion 10. Esta é uma plataforma para condução autónoma de nível 4, que integra os chips de computação da NVIDIA e um conjunto completo de sensores, incluindo LiDAR, câmaras e radares.

A NVIDIA também lançou o programa de certificação Halos, que é o primeiro sistema da indústria para avaliar e certificar a segurança física da IA, especificamente voltado para veículos autônomos e tecnologias de robótica.

O núcleo do programa de certificação Halos é o sistema Halos AI, que é o primeiro laboratório da indústria a ser reconhecido pelo Comitê de Certificação ANSI. O ANSI é a Associação Nacional de Padrões dos EUA, e sua certificação possui uma alta autoridade e credibilidade.

A tarefa deste sistema é verificar se os sistemas de condução autónoma estão em conformidade com os padrões através da IA física da Nvidia. Empresas como AUMOVIO, Bosch, Nuro e Wayve são os primeiros membros do laboratório de testes do sistema Halos AI.

Para promover a condução autónoma de nível 4, a Nvidia lançou um conjunto de dados multimodal de condução autónoma proveniente de 25 países, contendo 1700 horas de dados de câmaras, radares e LiDAR.

Jen-Hsun Huang disse que o valor deste conjunto de dados reside na sua diversidade e escala, abrangendo diferentes condições de estrada, regras de trânsito e culturas de condução, fornecendo uma base para treinar sistemas de condução autónoma mais gerais.

No entanto, o plano de Jen-Hsun Huang vai muito além disso.

Ele anunciou uma série de colaborações com laboratórios do governo dos EUA e empresas líderes na GTC, com o objetivo de construir a infraestrutura de IA dos EUA. Jen-Hsun Huang disse que estamos na aurora da revolução industrial da IA, que definirá o futuro de cada setor e país.

O ponto central desta colaboração é a parceria com o Departamento de Energia dos EUA. A Nvidia está a ajudar o departamento a construir dois centros de supercomputação, um no Laboratório Nacional Argonne e o outro no Laboratório Nacional de Los Alamos.

O laboratório Argonne vai receber um supercomputador chamado Solstice, que está equipado com 100.000 GPUs Blackwell da Nvidia. O que significa ter 100.000 GPUs? Este será o maior supercomputador de IA já construído pelo Departamento de Energia. Há também um sistema chamado Equinox, que é equipado com 10.000 GPUs Blackwell, previsto para entrar em operação em 2026. Juntos, estes dois sistemas poderão fornecer 2200 exaflops de desempenho computacional em IA.

O diretor do Argonne National Laboratory, Paul Koen, afirmou que esses sistemas vão redefinir desempenho, escalabilidade e potencial científico. Para que eles vão usar essa capacidade de computação? Desde a ciência dos materiais até a modelagem climática, passando pela computação quântica e simulações de armas nucleares, todos esses campos necessitam desse nível de capacidade computacional.

Além dos laboratórios governamentais, a NVIDIA também construiu um centro de pesquisa de fábrica de IA na Virgínia. O que torna este centro especial é que não é apenas um centro de dados, mas um campo de experimentação. A NVIDIA está aqui para testar algo chamado Omniverse DSX, que é um plano para construir fábricas de IA de gigawatt.

Um centro de dados comum pode precisar de apenas dezenas de megawatts de eletricidade, enquanto gigawatts equivalem à produção de energia de uma central nuclear de tamanho médio.

A ideia central deste plano Omniverse DSX é transformar a fábrica de IA num sistema de autoaprendizagem. Os agentes de IA monitorizam continuamente a eletricidade, o arrefecimento e a carga de trabalho, ajustando automaticamente os parâmetros para aumentar a eficiência. Por exemplo, quando a carga da rede elétrica é alta, o sistema pode reduzir automaticamente o consumo de energia ou alternar para a alimentação de baterias de armazenamento.

Esta gestão inteligente é crucial para instalações de nível de gigawatt, pois os custos de eletricidade e refrigeração podem ser astronômicos.

Esta visão é grandiosa, Jen-Hsun Huang disse que precisa de três anos para realizá-la. Os testes do AI-RAN só poderão começar em 2026, e os carros autónomos baseados no DRIVE AGX Hyperion 10 só estarão nas estradas em 2027, assim como o supercomputador do Departamento de Energia, que também começará a ser utilizado em 2027.

A NVIDIA detém a arma secreta CUDA, controlando o padrão de fato para computação em IA. Desde o treinamento até a inferência, desde centros de dados até dispositivos de borda, desde condução autónoma até biomedicina, as GPUs da NVIDIA estão em todo o lado. Os investimentos e parcerias anunciados nesta edição do GTC consolidam ainda mais essa posição.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)