Voltar para o blog
Notícias de IA

Ollama MLX acelera execução de modelos locais em Macs com Apple Silicon

31 de março de 2026
21:13
PerformanceIAMacApple SiliconOllamaMLXModelos locaisQwenMemória unificada
Ollama MLX acelera execução de modelos locais em Macs com Apple Silicon

O que é o suporte MLX da Ollama?

A Ollama lançou uma atualização que traz suporte ao formato MLX para Macs com Apple Silicon, como os chips M1, M2 e posteriores. Essa novidade permite que modelos de inteligência artificial locais rodem de forma mais rápida e eficiente, aproveitando melhor a memória unificada dos dispositivos da Apple.

Quem pode se beneficiar dessa melhoria?

Usuários de Macs equipados com Apple Silicon que trabalham com modelos de linguagem natural e outras aplicações de IA locais são os principais beneficiados. Isso inclui desenvolvedores, pesquisadores e entusiastas que preferem executar modelos diretamente em seus computadores, sem depender da nuvem.

Disponibilidade e acesso ao MLX na Ollama

O suporte ao MLX já está disponível na versão mais recente do software Ollama. Para utilizá-lo, basta atualizar o aplicativo e carregar modelos compatíveis com o novo formato. A Ollama mantém uma biblioteca de modelos, incluindo o Qwen, que já aproveitam essa otimização.

Impacto prático para usuários de Macs

Com o MLX, a performance dos modelos locais melhora significativamente devido ao uso otimizado da memória unificada dos chips Apple Silicon. Isso se traduz em respostas mais rápidas e maior eficiência energética, fundamentais para quem roda aplicações de IA diretamente no Mac. Além disso, a execução local aumenta a privacidade, evitando o envio de dados para servidores externos.

Mais detalhes técnicos sobre o MLX

O formato MLX foi desenvolvido para facilitar o carregamento e execução de modelos de machine learning, especialmente no ambiente Apple. Ele permite melhor gerenciamento da memória e aproveitamento das arquiteturas específicas dos chips da Apple, como a Neural Engine, acelerando operações pesadas de IA.

Como começar a usar o Ollama com MLX

  1. Atualize o aplicativo Ollama para a versão mais recente disponível no site oficial.
  2. Baixe ou converta seus modelos para o formato MLX, verificando a compatibilidade.
  3. Carregue o modelo no Ollama e execute normalmente, observando ganhos de desempenho.

Links úteis