Nvidia si prepara alla battaglia per l’inferenza, creando un chip basato sulle tecnologie Groq per OpenAI e agenti AI.

Nvidia si prepara alla battaglia per l’inferenza, creando un chip basato sulle tecnologie Groq per OpenAI e agenti AI.

5 hardware

Nuovo chip Nvidia – passo verso applicazioni IA più veloci

Nvidia prevede di presentare a marzo un nuovo processore progettato appositamente per accelerare l’inferenza (calcoli su modelli già addestrati) e rivolto a clienti come OpenAI. È una svolta strategica per l’azienda, che fino ad ora si è concentrata soprattutto sull’addestramento di sistemi IA.

Cosa arriverà
- La nuova piattaforma sarà mostrata alla conferenza per sviluppatori GTC (Graphics Technology Conference).
- Il nucleo della piattaforma includerà un chip dello startup Groq – una delle soluzioni più veloci per l’inferenza.
- La piattaforma dovrà competere con gli acceleratori proprietari di Google e Amazon, già riusciti a ottenere risultati significativi.

Perché è importante
Con la crescente popolarità del “web‑coding” (generazione di codice IA dal testo), la domanda di infrastrutture rapide ed efficienti in termini energetici aumenta.
Per OpenAI il nuovo processore diventa un fattore chiave:
- In gennaio l’azienda ha stipulato un accordo con Cerebras per un chip orientato all’inferenza, che secondo loro è più veloce dei concorrenti.
- Poco prima, OpenAI ha annunciato un grande accordo con Nvidia, in cui hanno ottenuto “capacità dedicate per l’inferenza” e investito 30 miliardi di dollari dal produttore “verde”.

Ambiente competitivo
| Azienda | Prodotto | Orientamento |
|--------|----------|--------------|
| Nvidia | GPU della famiglia Hopper, Blackwell, Rubin | Addestramento e inferenza |
| Google | TPU | Inferenza |
| Amazon | Trainium | Inferenza |
| Cerebras | Chip specializzato | Inferenza |
| Groq | Chip con “blocchi di elaborazione linguistica” | Inferenza |

Nvidia detiene oltre il 90 % del mercato GPU, ma i suoi chip sono spesso considerati costosi e energeticamente intensivi per compiti di inferenza. Ciò attira l’attenzione delle aziende che cercano alternative.

Applicazioni chiave
- Generazione di codice: servizi come Claude Code (Anthropic) e Codex (OpenAI) utilizzano le infrastrutture cloud di Amazon e Google, ma Codex prevede di passare alla nuova piattaforma Nvidia.
- Targeting pubblicitario: Meta collabora con Nvidia per l’inferenza dei sistemi IA, dove i processori centrali si dimostrano più efficienti.

Conclusione
Nvidia non solo amplia la propria gamma di prodotti, ma entra in diretta competizione con i giganti del settore. Il nuovo chip, integrato con lo startup Groq, potrebbe diventare il fattore decisivo per le aziende che cercano una gestione IA più veloce ed economica.

Commenti (0)

Condividi la tua opinione — per favore, sii cortese e resta in tema.

Non ci sono ancora commenti. Lascia un commento e condividi la tua opinione!

Per lasciare un commento, accedi.

Accedi per commentare