Continue插件实现本地部署一个“cursor”或“github copilot”

Continue插件实现本地部署一个“cursor”或“github copilot”

本地部署 AI 代码助手,制作一个 Cursor/GitHub Copilot 的替代版本

一 需求分析

  • 本地部署的定义与优势(数据隐私、离线使用、定制化)。
  • Cursor 与 GitHub Copilot 的功能(代码补全、对话交互、模型差异)。
  • 本地部署的AI 代码助手适用场景:企业内网开发、敏感数据环境。

二 环境准备与工具选择

  • 硬件要求:GPU 要对应上你所部署的模型大小
  • 模型选择:qwen2.5-14b-instruct (这里选择千问的大模型)

三 部署开源模型

这里不详细介绍具体的大模型部署的具体过程,部署完成之后,你应该得到对应的模型的以下信息

model: "qwen2.5-14b-instruct" apiBase: "http://你的ip地址(自己的本机就写localhost):对应的端口号 例如8000/v1"

四 集成到开发环境

Cursor 开源替代方案:配置 VS Code 插件(Continue)连接本地模型

4.1 Continue 插件简介

Continue 是 VS Code 的一款 AI 编程辅助插件,专注于通过自然语言交互提升开发效率。它基于大语言模型(如 GPT-4、Claude 等),支持代码生成、解释、调试和重构等功能,同时注重隐私保护,允许本地运行或连接私有模型。

  • 代码自动补全与生成:根据注释或上下文实时生成代码片段,支持多种编程语言,减少重复性编码工作。
  • 对话式编程:通过聊天界面与 AI 交互,例如询问“如何优化这段代码?”或“解释这个函数的作用”,插件会提供即时反馈。
  • 代码重构与调试:识别代码中的潜在问题,提供优化建议,或直接生成修复方案。例如自动重构冗余逻辑或修复语法错误。
  • 多模型支持:允许用户配置不同的 AI 模型后端(如 OpenAI、Anthropic 或本地部署的模型),适应不同需求。

4.2 隐私与安全

  • 本地运行选项:支持离线模型(如 CodeLlama),避免敏感代码上传云端。
  • 自定义服务器:企业用户可连接内部部署的模型服务器,确保数据可控。

4.3 安装与配置

①安装插件

在 VS Code 扩展市场搜索“Continue”并安装。

由于我已经安装过了,所以显示的是Disable。

②配置本地模型

Continue安装完成后,VS Code 的边栏上会多一个图标。

选择Ollama 然后点击Connect就可以了,会自动弹出config.yaml,然后将其内容补充完整。

1 基本信息

name: Local Config version: 1.0.0 schema: v1
  • name: 配置名称,标识为 "Local Assistant"(本地助手)。
  • version: 配置文件版本(1.0.0)。
  • schema: 使用的配置架构版本(v1)。

2 模型配置

 models: - name: qwen2.5-14b-instruct provider: "openai" model: "qwen2.5-14b-instruct" apiBase: "http://ip:port/v1" apiKey: "" completion_options: temperature: 0.5 top_p: 0.9 roles: - chat - autocomplete - edit - apply
  • 模型定义:使用 Qwen2.5-Coder-7B-Instruct(一个针对代码任务的7B参数模型)。
    • provider: 设置为 "openai",表示兼容OpenAI API格式(这里根据你的实际情况修改)。
    • apiBase: 模型API的终端地址(http://ip:port/v1),指向一个本地或远程服务。
    • apiKey: 你的模型API密钥。
  • 生成参数:
    • temperature: 0.5(平衡生成结果的创造性和确定性)。
    • top_p: 0.9(核采样,限制生成时仅考虑概率最高的90% token)。
  • 支持的功能 (roles):
    • chat: 对话交互。
    • autocomplete: 代码自动补全。
    • edit: 代码编辑。
    • apply: 可能指应用代码更改。

3 上下文集成

 context: - provider: code - provider: docs - provider: diff - provider: terminal - provider: problems - provider: folder - provider: codebase

配置工具可访问的上下文来源(增强模型对当前任务的理解):

  • code: 当前编辑的代码文件。
  • docs: 项目文档或注释。
  • diff: 代码变更差异(如Git diff)。
  • terminal: 终端输出或命令历史。
  • problems: 错误或警告(如IDE提示)。
  • folder: 当前目录文件结构。
  • codebase: 整个代码库的元信息(如符号定义)。

总得来说,此配置文件定义了一个本地代码助手,通过HTTP API连接到一个 Qwen2.5-Coder 模型,支持代码补全、编辑、聊天等功能,并集成了开发环境的多维度上下文(代码、终端、文档等)。

Ctrl + S 保存后就会显示对应的模型,到这里本地部署的模型链接VS code 就完成了。

五 测试

Read more

【详细精选】前端面试题(2026精选附详细解答)包含10w数据展示优化、前端核心

【详细精选】前端面试题(2026精选附详细答案)包含10w数据展示优化、前端核心 * 前端面试题详细解答 * 1. ES6新特性详解(重要10个) * 核心特性 * 其他重要特性 * 2. 什么是跨域 * 同源策略 * 跨域解决方案 * 1.CORS(跨域资源共享) * 2.JSONP * 3. 代理服务器 * 4. WebSocket * 5. Nginx反向代理 * 3. 监听数组变化 * Vue2的实现原理 * Vue3的实现原理 * 4. v-if vs v-show * 原理对比 * 差异对比表 * 源码分析 * 5. 网页加载优化 * 性能指标(Core Web Vitals) * 优化策略 * 1. 代码优化 * 2. 资源优化 * 3. 缓存策略

CogVideoX-2b小白入门:无需代码的WebUI视频创作指南

CogVideoX-2b小白入门:无需代码的WebUI视频创作指南 你是不是也想过——不用写一行代码,不装复杂环境,不折腾显卡驱动,就能把脑子里一闪而过的画面,变成一段流畅自然的短视频?比如:“一只橘猫戴着墨镜骑着迷你摩托穿过霓虹雨夜街道,镜头缓缓拉远”,几秒钟后,这段画面真的动了起来。 现在,这个想法可以轻松实现。ZEEKLOG 专用版的 🎬 CogVideoX-2b 镜像,就是为你准备的“零门槛视频导演工具”。它不是演示、不是概念,而是一个开箱即用、点开网页就能开始创作的本地化视频生成系统。 这篇文章专为完全没接触过AI视频、甚至没碰过命令行的小白设计。你不需要知道什么是CUDA、什么是Diffusers、更不用编译DeepSpeed——所有技术细节已被封装进一个干净的Web界面里。接下来,我会带你从注册AutoDL账号开始,到第一次生成出属于你的5秒短视频,全程无跳步、无术语轰炸、无隐藏坑。 1. 为什么说这是真正的小白友好方案? 在聊怎么用之前,先说清楚:为什么这个镜像能让你“跳过90%的痛苦”? 很多教程一上来就让你配环境、改配置、查报错,本质上是在教你怎么修

表单默认值设置指南:前端新人别再手写value了!

表单默认值设置指南:前端新人别再手写value了!

表单默认值设置指南:前端新人别再手写value了! * 表单默认值设置指南:前端新人别再手写value了! * 引言:一个value引发的血案 * 浏览器原生表单:老祖宗的智慧别丢 * defaultValue才是亲儿子 * 原生select的selectedIndex陷阱 * React里的默认值:受控非受控,生死两重天 * 非受控组件:ref一把梭,defaultValue保平安 * 受控组件:state为王,初始化时机定生死 * 异步数据填充:useEffect的依赖数组地狱 * 那个神奇的key属性:重置表单的核武器 * 自定义Hook:把初始化逻辑抽出来 * Vue里的默认值:v-model的甜蜜陷阱 * v-model到底接管了什么 * 异步加载后的闪烁问题 * watch和computed在默认值上的骚操作 * 动态表单:后端说啥你渲染啥,默认值咋整? * Schema驱动的表单渲染 * 数组字段的动态增删与默认值

1Panel面板下Open WebUI镜像加速实战:从ghcr.io到国内镜像站的无缝切换

1. 为什么需要镜像加速 在国内使用Docker拉取GitHub Container Registry(ghcr.io)的镜像时,经常会遇到下载速度极慢甚至完全无法连接的问题。这主要是因为ghcr.io的服务器位于海外,国内访问存在网络延迟和带宽限制。以Open WebUI为例,一个3GB左右的镜像可能需要数小时才能下载完成,严重影响开发效率。 我曾经在部署Open WebUI时就遇到过这个问题。当时尝试从ghcr.io直接拉取镜像,速度只有几十KB/s,而且经常中断。后来发现国内高校和云服务商提供了ghcr.io的镜像服务,切换到南京大学镜像源后,下载速度立刻提升到10MB/s以上,整个镜像几分钟就完成了下载。 2. 国内镜像站的选择 目前国内可用的ghcr.io镜像站主要有以下几种: 1. 南京大学镜像站(ghcr.nju.edu.cn):这是最稳定的选择之一,更新频率高,支持匿名拉取 2. 华为云镜像仓库(swr.cn-north-4.myhuaweicloud.com):提供企业级镜像服务,需要登录后使用