Ora Ollama supporta l'accelerazione hardware sui chip Apple M5, se è installata la memoria RAM da 32 GB

Ora Ollama supporta l'accelerazione hardware sui chip Apple M5, se è installata la memoria RAM da 32 GB

25 software

Ollama — l’applicazione per l’esecuzione locale di modelli IA è ora più veloce sui chip M5 dei Mac

Come sembra
Nuova versione: Ollama 0.19
Sistemi operativi supportati: Windows, macOS, Linux
Accelerazione hardware: solo per i chip Apple M5 (M5 Pro, M5 Max)
Requisiti di memoria: minimo 32 GB di RAM unificata

Cosa è cambiato
Ollama consente agli utenti di caricare e avviare modelli di intelligenza artificiale direttamente sul proprio computer. A differenza dei servizi cloud come ChatGPT, qui non è necessaria una connessione costante a Internet.

A partire dalla versione 0.19 gli sviluppatori hanno aggiunto il supporto per Apple MLX – il framework di machine learning – e per la memoria unificata (Unified Memory Architecture). Ciò permette di accelerare l’esecuzione del modello sui nuovi chip Apple M5, riducendo i tempi fino al primo token e aumentando la velocità complessiva della generazione.

Come funziona
* Acceleratori neurali: Ollama utilizza i blocchi neurali specializzati all’interno dei chip M5, rendendo più rapida l’uscita dei token.
* Modelli: funzionano più rapidamente sia gli agenti IA personali (ad es. OpenClaw) che sistemi più grandi – OpenCode, Anthropic Claude Code, OpenAI Codex e altri.

Limitazioni
1. L’accelerazione è disponibile solo sui chip Apple M5 (M5 Pro/Max).
2. Il computer deve avere almeno 32 GB di memoria unificata; altrimenti l’accelerazione non funzionerà.

Pertanto, se hai un Mac con chip M5 e una quantità sufficiente di RAM, potrai aumentare notevolmente le prestazioni dell’applicazione IA locale Ollama.

Commenti (0)

Condividi la tua opinione — per favore, sii cortese e resta in tema.

Non ci sono ancora commenti. Lascia un commento e condividi la tua opinione!

Per lasciare un commento, accedi.

Accedi per commentare