Google intende finanziare i provider cloud che utilizzano i suoi acceleratori.
Google cerca di portare i propri acceleratori AI al livello successivo
OpenAI sta promuovendo attivamente il suo modello di collaborazione a “anello”, che sembra non essere passato inosservato da Google. In risposta, l’azienda ha deciso di utilizzare le risorse finanziarie per attirare nuovi clienti all’acquisto dei propri acceleratori di intelligenza artificiale (IA). I concorrenti sono scettici riguardo a questa iniziativa e la carenza di componenti complica l’attuazione del piano.
Cosa è stato rivelato
Il *The Wall Street Journal* riferisce le intenzioni di Google di stimolare la domanda per i chip prodotti internamente. I principali provider cloud utilizzano principalmente acceleratori Nvidia, quindi la promozione dei processori neurali TPU (Tensor Processing Unit) di Google incontra difficoltà. Per cambiare la situazione, l’azienda decide di collaborare con nuovi attori del mercato cloud – i “neocloud” provider – e incentivare gli acquisti dei loro acceleratori tramite partecipazione finanziaria.
- Investimenti in Fluidstack
Secondo una fonte, Google sta negoziando un investimento di 100 mila dollari nel capitale della startup Fluidstack. L’accordo, del valore complessivo di 7,5 milioni di dollari, prevede che Fluidstack utilizzi l’infrastruttura GPU e TPU di Google.
- Supporto a ex progetti di mining
È inoltre stato comunicato che Google intende finanziare diversi progetti precedentemente dedicati al crypto‑mining, ora reindirizzati alla creazione di data center (DC).
- Indipendenza strutturale del dipartimento TPU
All’interno dell’azienda si discute l'idea di concedere al reparto che sviluppa i TPU maggiore autonomia. Ciò permetterebbe di attrarre capitale esterno per la produzione dei chip. Tuttavia, non ci sono ancora dichiarazioni ufficiali in merito.
Stato attuale dei TPU
Da 2018 Google offre ai clienti cloud l'accesso a capacità computazionali basate su TPU. Tuttavia, gran parte dell’infrastruttura di Google dipende ancora dagli acceleratori Nvidia. Secondo alcune fonti, l’azienda sta già vendendo i propri TPU a clienti esterni che costruiscono le proprie capacità computazionali.
Il responsabile dello sviluppo dei TPU – Amin Vahdat – è stato recentemente promosso a Chief Technology Officer per l’infrastruttura IA e ora risponde direttamente al CEO Sundar Pichai.
Limitazioni alla crescita
Il problema chiave per l’espansione del business TPU rimane la carenza di capacità produttive in TSMC, che dà priorità agli ordini di Nvidia concorrente. Inoltre, la scarsità di memoria RAM rallenta la crescita dell’infrastruttura basata su TPU.
Nonostante ciò, le grandi aziende mostrano interesse per gli acceleratori Google. Tra i potenziali clienti ci sono Meta Platforms e Anthropic. Tuttavia Amazon (AWS) vede in Google solo un concorrente e non si affrettano a passare ai TPU, poiché stanno sviluppando i propri processori Graviton. Lo stesso vale per Microsoft con il servizio cloud Azure.
In sintesi, Google sta intraprendendo una serie di passi finanziari e organizzativi per portare i propri acceleratori IA a un livello più alto di competitività nel segmento cloud in rapida crescita.
Commenti (0)
Condividi la tua opinione — per favore, sii cortese e resta in tema.
Accedi per commentare