Nvidia ha presentato il Nemotron 3 Super 120B, un modello di linguaggio aperto con un incremento di velocità per gli agenti IA di cinque volte.

Nvidia ha presentato il Nemotron 3 Super 120B, un modello di linguaggio aperto con un incremento di velocità per gli agenti IA di cinque volte.

7 hardware

Nuovo modello di Nvidia – Nemotron 3 Super

Nvidia ha annunciato il lancio del Nemotron 3 Super, un modello AI aperto di tipo Mixture‑of‑Experts (MoE).

* 120 miliardi di parametri totali, di cui 12 miliardi attivi.
* Destinato all’IA agente – sistemi in cui più “agenti” interagiscono tra loro e con il mondo esterno.

Architettura
Il modello utilizza un approccio ibrido Mamba‑Transformer (combinazione di strati Mamba ed elementi Transformer).

Nel Nemotron 3 Super è stata introdotta per la prima volta la paradigmatica LatentMoE, gli strati Multi‑Token Prediction e l’apprendimento preliminare tramite il protocollo NVFP4. Secondo Nvidia, questo stack aumenta la precisione e accelera l’inferenza.

Prestazioni
* Latenza – fino a 5× più veloce rispetto alla versione precedente Nemotron Super.
* Precisione – fino a 2× superiore.
* Supporto di una finestra contestuale di 1 milione di token consente agli agenti di memorizzare lo stato completo del flusso di lavoro, riducendo il rischio di deviare dall’obiettivo.

Applicazioni pratiche
Il Nemotron 3 Super è ideale per compiti complessi all’interno di sistemi multi‑agente:

CompitoEsempio d’uso
Generazione e debug del codice senza suddivisione in documentiScrittura automatica e verifica di grandi programmi
Analisi finanziariaIntegrazione di migliaia di pagine di report nella memoria del modello

Formazione
Il modello è stato addestrato su dati sintetici creati con modelli logici di pensiero. Nvidia rivela la metodologia completa:

* oltre 10 trilioni di token prima e dopo l’addestramento;
* 15 ambienti per il reinforcement learning;
* ricette di valutazione.

I ricercatori possono utilizzare la piattaforma Nvidia NeMo per ulteriori tuning o per creare le proprie versioni del modello.

Dettagli tecnici
* Supporto NVFP4 sull'architettura Nvidia Blackwell.
* Riduzione dei requisiti di memoria e accelerazione dell’output quattro volte rispetto a FP8 su Nvidia Hopper senza perdita di precisione.

Disponibilità
Il modello è già disponibile:

* Su build.nvidia.com, Hugging Face, OpenRouter e Perplexity.
* Partner cloud: Google Cloud Vertex AI, Oracle Cloud Infrastructure, CoreWeave, Together AI, Baseten, Cloudflare, DeepInfra, Fireworks AI, Modal.
* Come microservizio Nvidia NIM, che consente di distribuire il modello localmente o nel cloud.

Il Nemotron 3 Super apre nuove possibilità per l’IA agente, combinando alta precisione, scalabilità e flessibilità di configurazione.

Commenti (0)

Condividi la tua opinione — per favore, sii cortese e resta in tema.

Non ci sono ancora commenti. Lascia un commento e condividi la tua opinione!

Per lasciare un commento, accedi.

Accedi per commentare