Ollama suportă acum accelerarea hardware pe cipurile Apple M5, dacă este instalată memoria RAM de 32 GB

Ollama suportă acum accelerarea hardware pe cipurile Apple M5, dacă este instalată memoria RAM de 32 GB

19 software

Ollama — aplicație pentru rularea locală a modelelor AI acum mai rapidă pe cipurile Mac M5

Cum arată asta
Versiunea nouă: Ollama 0.19
Sisteme de operare suportate: Windows, macOS, Linux
Accelerație hardware: doar pentru cipuri Apple M5 (M5 Pro, M5 Max)
Cerinte de memorie: minim 32 GB RAM unificat

Ce s-a schimbat
Ollama permite utilizatorilor să încarce și să ruleze modele de inteligență artificială direct pe calculatorul lor. Spre deosebire de serviciile cloud precum ChatGPT, nu este necesară o conexiune constantă la internet.

Începând cu versiunea 0.19, dezvoltatorii au adăugat suport pentru Apple MLX – un framework de învățare automată, precum și pentru memoria unificată (Unified Memory Architecture). Aceasta accelerează funcționarea modelelor pe noile cipuri Apple M5, reducând timpul până la primul token și crescând viteza totală de generare.

Cum funcționează
* Accelerații neuronale: Ollama utilizează blocurile specializate de rețele neuronale din interiorul cipurilor M5, făcând emiterea tokenilor mai rapidă.
* Modele: Funcționează mai repede atât agenți AI personali (de exemplu, OpenClaw), cât și sisteme mai mari – OpenCode, Anthropic Claude Code, OpenAI Codex și altele.

Limitări
1. Accelerația este disponibilă doar pe cipuri Apple M5 (M5 Pro/Max).
2. Calculatorul trebuie să aibă cel puțin 32 GB de memorie unificată; altfel accelerația nu va funcționa.

Prin urmare, dacă ai un Mac cu cip M5 și suficient RAM, poți îmbunătăți semnificativ performanța aplicației locale AI Ollama.

Comentarii (0)

Împărtășește-ți opinia — te rugăm să fii politicos și să rămâi la subiect.

Încă nu există comentarii. Lasă un comentariu și împărtășește-ți opinia!

Pentru a lăsa un comentariu, autentifică-te.

Autentifică-te pentru a comenta