作为一名 Apple 开发,开发者们曾经在 Cursor、VSCode、Trae 等多个智能 IDE 中寻求效率提升。现在,Xcode 也可以借助 AI 之力。通过配置,macOS 系统即可让 Xcode 原生支持 AI Coding Intelligence。
1. 系统要求
首先,macOS 需要 26.0(Tahoe)Developer beta 版,具体是 beta 第几版不甚明了,反正我用的是 beta 6 版本。
Xcode 本身则需要 26.0 beta6 或以上版本,beta5 版本未做验证,情况不明。
至于 Mac 硬件的配置自然是越强越好,毕竟内存太小放不下大模型。
2. 启用步骤
运行 Xcode,从全局菜单打开设置页面,进入 Intelligence 选项卡:
点击添加大模型提供者(Add a Model Provider)按钮,即可选择心仪的大模型:
因为'国行'macOS 系统本身默认不会嵌入 Apple 官方本地的大模型,所以我们只有两种选择:远端大模型(比如 OpenAI 的 GPT)或者本地自己的大模型。
3. 搭建本地大模型环境
用本地大模型的好处是完全免费,而且如果你电脑性能强劲(内存 + 芯片)的话,token 生成速度也是杠杠的。
要想在 macOS 中搭建本地 AI 大模型调用环境有很多种方式。这里,我们使用的是 Ollama。
安装 Ollama 之后,打开设置窗口,我们可以登录账号并且选择大模型的本地存放路径:
如上图所示,我们还可以调整大模型上下文的长度以满足实际需求。
接下来,打开 Ollama,可以看到熟悉的聊天窗口环境:
我们此时可以在多种大模型中任性选择,在第一次使用(调用)之前 Ollama 会自动为我们下载大模型的对应文件:


