Amazon prevede di distribuire modelli AI su enormi chip Cerebras.
Amazon e Cerebras uniscono le forze per accelerare i grandi modelli linguistici
Amazon Web Services (AWS) ha annunciato che a metà 2026 inizierà a utilizzare i chip della startup Cerebras Systems Inc. insieme ai propri processori Trainium. Secondo informazioni interne, ciò consentirà di creare «condizioni ottimali» per l'esecuzione e la manutenzione dei grandi modelli linguistici (LLM). I dettagli finanziari dell'accordo non sono ancora stati divulgati.
Cosa accadrà esattamente
* I chip Trainium 3 di AWS elaboreranno le richieste degli utenti – «comprenderanno» il loro significato.
* Successivamente i chip Cerebras Wafer‑Scale Engine (WSE) si occuperanno della generazione delle risposte.
In questo modo, due acceleratori specializzati lavorano in coppia e forniscono calcoli di inferenza per gli LLM.
> “L’interazione tra componenti diversi di solito rallenta il processo,” osserva Nafea Bshara, vicepresidente di AWS. – “Ma puntiamo a ottenere un vantaggio usando chip che elaborano l’inferenza più rapidamente.”
Il vantaggio è particolarmente evidente dove la velocità di risposta è cruciale: ad esempio, nella scrittura passo-passo di codice o nella generazione di testo in tempo reale.
Perché è importante
* Amazon è uno dei maggiori provider cloud e un attivo utente di GPU prodotte da Nvidia. Attualmente l’azienda sta sviluppando i propri chip AI per aumentare l’efficienza dei data center e offrire ai clienti servizi unici.
* Per Cerebras, la collaborazione con AWS rappresenta il primo grande contratto con un gigante dei data center, aumentando la riconoscibilità del marchio sul mercato potenziale. È anche importante in vista della loro prevista IPO.
Conclusioni
AWS e Cerebras stanno creando insieme una nuova infrastruttura per i grandi modelli linguistici: i chip Trainium 3 elaborano le richieste, mentre i WSE generano le risposte. Sebbene un servizio esclusivamente su Trainium possa essere più economico, la soluzione combinata promette un'accelerazione significativa dove «il tempo è denaro». Ciò rafforza la posizione di Amazon come grande cliente Nvidia e allo stesso tempo promuove i propri chip AI verso una maggiore efficienza.
Commenti (0)
Condividi la tua opinione — per favore, sii cortese e resta in tema.
Accedi per commentare