概述
组合 Visual Studio Code + Continue + Ollama 基本就是本地版 Cursor / Copilot,可以做到:
- AI 自动写代码
- 自动改代码
- 解释代码
- 自动生成文件
- Agent 自动执行命令
安装 Ollama
- 安装 Ollama
# macOS: brew install ollama
# Linux: curl -fsSL https://ollama.com/install.sh | sh
# Windows: irm https://ollama.com/install.ps1 | iex
- 拉取模型
ollama pull llama3.3
ollama pull qwen2.5:32b
- 启动 Ollama 服务
ollama serve
- 运行模型测试
ollama run llama2
ollama run gemma:2b
在 Ollama 里安装可用的模型,Ollama 官方提供多个参数规模:
| 模型 | 大小 | 下载体积 |
|---|---|---|
| 0.5B | 超轻量 | ~398MB |
| 1.5B | 轻量 | ~1GB |
| 3B | 中等 | ~2GB |
| 7B | 推荐 | ~4.7GB |
| 14B | 强 | ~9GB |
| 32B | 最强 | ~20GB |
示例输出:
C:\Users\audit>ollama run qwen2.5-coder:3b
pulling manifest
...
success >>> 介绍一下 我是一个大型语言模型,由阿里云开发和提供。我的名字是 Qwen。
安装 Continue
- 在 VS Code 中安装 Continue 插件。
- 开启索引功能。
- 创建配置文件
config.json。
其他操作
还可安装运行在命令行的版本:
npm i -g @continuedev/cli && cn "Explore this repo and provide a concise summary of it's contents"
配置示例
登录之后可修改 C:\Users\*.codex\config.toml:
model = "qwen2.5:3b"
=
=
=
=
=


