开发效率翻倍!JetBrains IDE 必备 AI 插件 Continue 安装配置指南

开发效率翻倍!JetBrains IDE 必备 AI 插件 Continue 安装配置指南

作为程序员,谁不想在写代码时少敲几行键盘、多省点时间?今天给大家推荐一款 JetBrains 系列 IDE(PyCharm、IntelliJ IDEA 等)的宝藏插件 ——Continue,它能靠 AI 帮你补代码、改逻辑、写文档,看完这篇就能上手用!

一、先搞懂:Continue 到底能帮你做什么?

Continue 是专门为 JetBrains IDE 设计的 AI 辅助插件,核心是通过调用本地或云端的 AI 模型,帮开发者解决写代码时的各种 “麻烦事”,具体能实现这 5 个实用功能:

  • 代码快补 & 续写:比如你写了函数名,按下快捷键,AI 会根据文件上下文自动补全函数体,重复代码不用再手敲;
  • IDE 内直接问 AI:遇到代码报错、不知道怎么优化?不用切到浏览器问 ChatGPT,在 IDE 里直接跟 AI 对话,比如 “这段代码有什么性能问题”,马上能拿到解答;
  • 一键生成文档注释:不管是函数注释还是 README,只要选中代码,AI 能自动生成中文 / 英文文档,规范又省心;
  • 代码重构建议:遇到冗长、不规范的代码,插件会给出重构方案,让代码可读性和维护性直接提升;
  • 多模型自由切换:支持本地大模型、OpenAI、Ask Sage 等多种后端,想省成本用本地模型,想追求效果用云端 API,灵活调整。

二、手把手教你装 Continue(以 macOS PyCharm 为例)

其他 JetBrains 产品(IntelliJ IDEA、WebStorm、CLion 等)操作几乎一样,跟着步骤来就行:

  1. 点击安装,等待完成
    找到 Continue 插件后,点击右侧的「Install」按钮,等待几秒钟( depends on 网速)。

打开 Continue 窗口,重启 IDE
安装完成后,在 PyCharm 右侧的工具栏里,会出现一个 Continue 的图标,点击它就能调出插件窗口;最后重启 PyCharm,让插件生效。

打开 Continue 窗口

搜索 “Continue” 插件
在右上角的搜索框里输入 “Continue”,注意别输错,很快就能找到目标插件。

搜索 Continue

找到 Plugins 插件模块
在左侧菜单栏里,找到并点击「Plugins」,进入插件管理页面。

Plugins 菜单

打开 PyCharm 设置窗口
点击顶部菜单栏「PyCharm」→「Settings」,或者直接用快捷键 Cmd+,(Windows 是 Ctrl+,)。

打开设置

三、关键步骤:配置自定义模型(以 Ask Sage 为例)

装完插件后,需要配置 AI 模型才能用,这里以 Ask Sage 为例,教你怎么一步步配置:

重新连接,测试对话
回到 Continue 窗口,再次点击「Connect」,这次就能成功连接了。可以试着输入一个简单的问题(比如 “怎么用 Python 读取 Excel 文件”),测试 AI 是否能正常回复。

再次测试

找到并修改 Config.yaml 文件
报错后,先找到插件自动生成的 Config.yaml 文件(一般在用户目录下,或者插件会提示文件路径),用文本编辑器打开,然后根据你用的模型文档(比如 Ask Sage 的官方接口文档),替换 model(模型名)、base_url(接口 base 地址)、api_key(你的密钥)这几个关键字段,改完后保存文件。

填写基础信息,尝试连接
按照提示填写模型名称、Endpoint(接口地址)、API Key(需要提前在 Ask Sage 平台获取),填完后点击「Connect」。
⚠️ 注意:第一次连接可能会报错,不用慌,接下来要手动改配置文件。

点击 Connect

选择服务提供商
在弹出的选项里,找到并点击「Ask Sage」(如果想用其他模型,比如 OpenAI,选对应的选项即可)。

Ask Sage 提供者

进入模型配置页面
打开右侧的 Continue 窗口,点击窗口里的「Add Custom Model」(添加自定义模型)。

添加自定义模型
选择提供商

四、3 个实用技巧,快速用起来

配置完后,这几个用法能让你马上感受到效率提升:

  • 代码续写:在函数里敲完开头,按下默认快捷键 Ctrl+Shift+Space(Windows/macOS 通用),AI 会自动续写剩下的逻辑;
  • 智能问答:选中一段有问题的代码,右键点击「Ask Continue」,然后输入你的疑问(比如 “这段代码为什么会报错”),AI 会分析并给出解决方案;
  • 生成文档:把光标放在函数签名上,用插件的「Generate Doc」功能,一键生成标准化的函数注释,不用再手动写参数说明、返回值了。

最后

Continue 本质上是给你的 IDE 加了个 “AI 助手”,不用切换窗口就能解决代码问题,不管是新手练手还是老程序员提效,都很实用。按照上面的步骤装完、配置好,下次写代码就能明显感觉到 “省时间”~

Read more

展望 AIGC 前景:通义万相 2.1 与蓝耘智算平台共筑 AI 生产力高地

展望 AIGC 前景:通义万相 2.1 与蓝耘智算平台共筑 AI 生产力高地

引言 在 AI 视频生成领域不断创新突破的当下,通义万相 2.1这款开源的视频生成 AI 模型一经发布便引发了广泛关注。其表现十分亮眼,发布当日便强势登顶VBench排行榜,将Sora、Runway等行业内的知名强大对手甩在身后,彰显出不容小觑的强劲实力与巨大潜力。 通义万相 2.1模型具备诸多令人赞叹的特性。它所生成的视频分辨率达到了1080P,并且在视频时长方面没有任何限制。更为厉害的是,它能够精准地模拟自然动作,甚至还可以对物理规律进行高度还原,这些卓越的能力无疑为 AIGC 领域带来了前所未有的变革,堪称具有里程碑意义的重大突破。 借助蓝耘智算平台,用户可以便捷地对通义万相 2.1 模型进行部署,进而打造出属于自己的个性化 AI 视频生成工具。今天,我会带领大家深入了解通义万相 2.1的各项强大功能,同时也会详细分享怎样通过蓝耘智算平台快速上手,开启 AI 视频生成的奇妙之旅。 蓝耘智算平台:开启高性能计算新时代 1. 平台概览 蓝耘智算平台作为专为满足高性能计算需求精心打造的云计算平台,以强大计算力和灵活服务能力脱颖而出。其依托先进的基础设施,配备大规模GPU算力

Whisper语音识别模型剪枝:参数量化与加速推理

Whisper语音识别模型剪枝:参数量化与加速推理 1. 引言 1.1 项目背景与挑战 在构建基于 OpenAI Whisper Large v3 的多语言语音识别 Web 服务过程中,尽管其具备强大的跨语言转录能力(支持99种语言),但其庞大的模型规模(1.5B 参数)带来了显著的部署挑战。尤其是在边缘设备或资源受限环境中,原始模型存在显存占用高、推理延迟大、服务响应慢等问题。 以当前部署环境为例(NVIDIA RTX 4090 D + 23GB 显存),虽然能够运行 large-v3 模型,但在并发请求增加时仍可能出现 GPU 内存溢出(OOM)风险。此外,对于希望在消费级显卡(如RTX 3060/3070)上部署的服务而言,原生模型几乎不可行。 因此,如何在不显著牺牲识别准确率的前提下,

华为昇腾910B(Ascend 910B)+ LLaMA-Factory 对 Qwen3.5-32B 模型进行 LoRA 微调 的全流程操作指南

华为昇腾910B(Ascend 910B)+ LLaMA-Factory 对 Qwen3.5-32B 模型进行 LoRA 微调 的全流程操作指南

华为昇腾910B(Ascend 910B)上 LLaMA-Factory 对 Qwen3.5-32B 模型进行 LoRA 微调 的保姆级全流程操作指南 华为昇腾910B(Ascend 910B)上使用 LLaMA-Factory 对 Qwen3.5-32B 模型进行 LoRA 微调 的保姆级全流程操作指南,包含环境配置、依赖安装、数据准备、训练启动、验证与推理等完整步骤。本教程基于 Ubuntu 20.04 + CANN 8.0 + MindSpore/PyTorch NPU + LLaMA-Factory v0.9.3+ 环境,适用于 8卡昇腾910B服务器。 ✅ 前提条件 项目 要求 硬件