Ollama îmbunătățește performanța modelelor locale pe Mac-uri cu suport MLX
Ollama, un sistem de rulare pentru modelele de limbaj, a anunțat recent integrarea cu cadrul open source MLX de la Apple, ceea ce aduce îmbunătățiri semnificative în utilizarea memoriei unificate pe Mac-urile cu cipuri Apple Silicon. Potrivit arstechnica.com, această nouă funcționalitate permite o utilizare mai eficientă a memoriei pentru anumite modele, sporind performanța generală.