Nvidia ha presentato il Nemotron 3 Super 120B, un modello di linguaggio aperto con un incremento di velocità per gli agenti IA di cinque volte.
Nuovo modello di Nvidia – Nemotron 3 Super
Nvidia ha annunciato il lancio del Nemotron 3 Super, un modello AI aperto di tipo Mixture‑of‑Experts (MoE).
* 120 miliardi di parametri totali, di cui 12 miliardi attivi.
* Destinato all’IA agente – sistemi in cui più “agenti” interagiscono tra loro e con il mondo esterno.
Architettura
Il modello utilizza un approccio ibrido Mamba‑Transformer (combinazione di strati Mamba ed elementi Transformer).
Nel Nemotron 3 Super è stata introdotta per la prima volta la paradigmatica LatentMoE, gli strati Multi‑Token Prediction e l’apprendimento preliminare tramite il protocollo NVFP4. Secondo Nvidia, questo stack aumenta la precisione e accelera l’inferenza.
Prestazioni
* Latenza – fino a 5× più veloce rispetto alla versione precedente Nemotron Super.
* Precisione – fino a 2× superiore.
* Supporto di una finestra contestuale di 1 milione di token consente agli agenti di memorizzare lo stato completo del flusso di lavoro, riducendo il rischio di deviare dall’obiettivo.
Applicazioni pratiche
Il Nemotron 3 Super è ideale per compiti complessi all’interno di sistemi multi‑agente:
| Compito | Esempio d’uso |
|---|---|
| Generazione e debug del codice senza suddivisione in documenti | Scrittura automatica e verifica di grandi programmi |
| Analisi finanziaria | Integrazione di migliaia di pagine di report nella memoria del modello |
Formazione
Il modello è stato addestrato su dati sintetici creati con modelli logici di pensiero. Nvidia rivela la metodologia completa:
* oltre 10 trilioni di token prima e dopo l’addestramento;
* 15 ambienti per il reinforcement learning;
* ricette di valutazione.
I ricercatori possono utilizzare la piattaforma Nvidia NeMo per ulteriori tuning o per creare le proprie versioni del modello.
Dettagli tecnici
* Supporto NVFP4 sull'architettura Nvidia Blackwell.
* Riduzione dei requisiti di memoria e accelerazione dell’output quattro volte rispetto a FP8 su Nvidia Hopper senza perdita di precisione.
Disponibilità
Il modello è già disponibile:
* Su build.nvidia.com, Hugging Face, OpenRouter e Perplexity.
* Partner cloud: Google Cloud Vertex AI, Oracle Cloud Infrastructure, CoreWeave, Together AI, Baseten, Cloudflare, DeepInfra, Fireworks AI, Modal.
* Come microservizio Nvidia NIM, che consente di distribuire il modello localmente o nel cloud.
Il Nemotron 3 Super apre nuove possibilità per l’IA agente, combinando alta precisione, scalabilità e flessibilità di configurazione.
Commenti (0)
Condividi la tua opinione — per favore, sii cortese e resta in tema.
Accedi per commentare