MacBook 部署大模型:Ollama 与 llama.cpp 离线方案 | 极客日志