阿里出了个 AI JetBrains 编程插件 Qoder,使用了一周,值得上车

阿里出了个 AI JetBrains 编程插件 Qoder,使用了一周,值得上车

上周在群里看到有人说阿里出了个叫 Qoder 的 AI 编程工具,说是直接支持 JetBrains 全系 IDE,不用再装 Cursor 切来切去了。我平时写后端用的就是 IntelliJ IDEA,当时就去下了一个试试。用了一周,把能测的功能基本过了一遍,这篇文章把我的真实情况写出来,顺便把安装怎么做也说清楚。

在这里插入图片描述

Qoder 是什么,和通义灵码有什么关系

先把这个问题说清楚,因为很多人第一反应是:阿里不是已经有通义灵码了吗,又出一个?

这两个确实都是阿里做的,但不是一回事。通义灵码是早期的阿里 AI 编程工具,定位是代码补全和问答助手,功能相对基础;Qoder 是 2025 年 8 月 22 日对外正式发布的新产品,定位是"Agentic 编码平台",面向海外开发者,走的是另一条路线。

官方的说法是,Qoder 不只做代码补全,它是一个能理解整个项目、自主执行多步骤开发任务的 AI 智能体平台。用中文来说,就是你给它一个需求,它可以自己分析代码库、找到相关文件、写代码、运行测试、修 bug,而不是只给你生成一段代码让你自己去复制粘贴。

官方将 Qoder JetBrains 插件定位为业内唯一支持记忆感知的 JetBrains 插件,在与开发者持续对话中,大模型会自动形成针对个人编码习惯、项目特点、常见问题的记忆,这些记忆在后续交互中被自动召回。

这次 JetBrains 插件版本包含 Agent Mode、Inline Chat 和智能代码建议功能,旨在为使用 Java、Rust、Go 等语言的开发者提升 AI 辅助编码体验。平台深度接入 Claude、GPT、Gemini 等最新大模型,并通过自动路由为不同任务匹配最优模型,无需用户手动切换。

从 BAT 的角度来说,字节有 Trae,腾讯有 CodeBuddy,阿里这次正式推出 Qoder,国内三家大厂算是都在 AI 编程工具这块凑齐了。


在这里插入图片描述

和其他工具比,差在哪、赢在哪

很多人用 Cursor 用顺手了,或者已经在用 GitHub Copilot,换 Qoder 有没有意义,这个值得单独说一下。

对比项Qoder JetBrains 插件GitHub CopilotCursor(独立 IDE)通义灵码
所属阿里巴巴微软/GitHubAnysphere阿里巴巴
JetBrains 支持原生插件有插件需要切换到 Cursor IDE有插件
Agent 模式有限有(核心功能)
记忆功能有(官方强调)
上下文规模支持 10 万文件级别有限较大但有上限有限
背后模型Claude、GPT、Gemini 等自动路由主要 GPT-4o支持多模型通义千问系列
价格新用户 2 美元/月起10 美元/月起20 美元/月(Pro)个人免费
国内网络无需翻墙(官方说明)需要良好网络需要良好网络无需翻墙

价格这块要特别说一下。Qoder 面向全球开发者推出首购优惠:由原价 10 美元/月直降至 2 美元/月(折合人民币约 14.2 元),新用户首购价格长期有效,按 10 美金每月续费。所以新用户第一个月 14 块钱,后续续费就是正常的 10 美元/月,也就 70 多块钱,比 Cursor Pro 便宜不少。

知乎有用户说 Cursor 最近偶尔会卡住不执行指令,Qoder 在同等任务下更稳定。重度使用两个晚上后评价:整体效果与 Cursor 不相上下,但比 Cursor 更稳定。Agent 的能力很强,可以自动调用网页读取工具,自动 fetch API 文档内容,这方面能力实测强过 Cursor。

不过也有人反馈过不好的体验。有用户初期体验时遇到报错反复、AI 纠错能力跟不上的情况,花了二十多分钟才把一个坑踩完。与 Cursor 基本十分钟出雏形相比,感觉折腾时间更长。这种情况多出现在项目刚上手、上下文还没建立起来的阶段,用了一段时间之后记忆功能积累了,会好一些。

对于 JetBrains 用户来说,最大的优势是不用换 IDE。用 Cursor 就得在 Cursor 里写代码,配置、快捷键、插件全得重新适应一遍;Qoder 装完是一个 IDEA 插件,你还在原来的 IDEA 里工作,只是多了一个 AI 侧边栏。


需要什么样的电脑才能跑

Qoder JetBrains 插件本身不在本地跑大模型,AI 推理全在云端完成,所以对本机硬件要求不高,主要看 IDE 本身的需求。

使用 Qoder 插件的环境要求:

项目要求
IDEIntelliJ IDEA 2023.1 及以上 / PyCharm / WebStorm / GoLand / CLion 等 JetBrains 全系
JDK由 IDE 自带,无需单独配置
操作系统Windows 10/11、macOS 10.14 以上、Linux(x64)
内存建议 8GB 以上(运行 IDEA 本身就需要 4-6GB,插件再加一些)
磁盘100MB 插件安装空间
网络需要能连接 qoder.com,官方表示无需翻墙可正常访问

JetBrains IDE 本身对内存的需求不低,特别是打开大型项目时,建议 16GB 内存的机器用起来更顺畅。8GB 的机器能用,但开着 IDEA 同时跑其他程序会有点吃力。

Qoder 还有一个独立 IDE 版本(类似 Cursor 那样的独立客户端)和 CLI 命令行版本,如果你不是 JetBrains 用户也可以选对应形态,本文主要说插件版。


安装教程,完整步骤

安装分两部分:先在 JetBrains IDE 里装好插件,再注册账号登录。

第一步:直接下载

包含idea+插件

https://pan.quark.cn/s/95610c19a811

第三步:注册账号

IDE 重启后,左侧或右侧会出现 Qoder 的侧边栏图标(一个 Q 形状的图标)。点它打开面板。

面板里会让你登录或注册,点"Sign Up"(注册)。

浏览器会自动打开 qoder.com 的注册页面。支持三种方式注册:

  • 邮箱注册
  • Google 账号一键登录
  • GitHub 账号一键登录

国内用 GitHub 或者直接用邮箱注册最方便。填好信息,验证邮箱,账号就建好了。

回到 IDE 里,点"Log In",用刚注册好的账号登录。登录后 Qoder 面板里会显示你的账号名和剩余 Credits,说明装好了。

新用户注册后会有一定量的免费 Credits 用于体验,试用期使用完 2000 个 Credits 后还可以继续使用,但切换到了基础模型。把基础功能都试一遍是够的,想用高级模型需要订阅 Pro。

第四步:界面介绍,几个主要功能在哪里

装好登录后,Qoder 面板在 IDEA 的右侧,分几个区域:

Chat 区域(对话窗口): 可以直接用自然语言提问,比如"帮我解释这段代码的逻辑"、“这个方法有什么潜在 bug”,Qoder 会结合当前打开的文件给出回答。

Agent Mode(智能体模式): 点面板里的"Agent"按钮,切换到智能体模式。这是 Qoder 主推的核心功能。你描述一个需求,比如"给这个 UserService 类加一个分页查询方法,对应的 Mapper 和 SQL 也一起写好",Qoder 会自动分析项目结构,找到相关文件,逐步生成代码,完成后给你展示所有改动,你确认后应用。

Inline Chat(行内对话): 在代码编辑区选中一段代码,按快捷键(默认 Ctrl+Shift+ICmd+Shift+I),在代码旁边直接弹出一个小输入框,输入指令,比如"帮我重构这个方法,减少嵌套层级",Qoder 直接在当前位置给出修改建议,不用切换到侧边栏。

代码补全: 写代码时 Qoder 会在光标处给出 AI 补全建议,按 Tab 采纳,按 Esc 忽略,和 Copilot 的体感差不多。Qoder 的行内代码补全在付费或试用期内可以无限量使用。

第五步:用 Quest 模式处理复杂需求

这是 Qoder 里一个比较有特色的功能,叫 Quest 模式,其他工具基本没有类似的东西。

知乎有人解释得比较清楚:Quest 模式的核心概念是"Spec First",就是先写需求文档再编程。现有的 AI 编程工具写代码快,但需求不明确的话,生成的代码可能方向都不对,反复修改浪费 token。Quest 模式的第一步是先和 Qoder 合作写 Spec,把需求理清楚,再开始生成代码,减少方向跑偏的情况。

Quest 模式适合要做一个比较完整功能模块的时候用,比如要写一个登录注册流程,或者要搭一个 API 服务。操作方法是在 Qoder 面板里点"Quest",然后用自然语言描述你要做的事,Qoder 会先提几个澄清性的问题,帮你把需求整理成一份 Spec 文档,确认之后再开始执行开发任务。

第六步:订阅 Pro 版(可选)

免费 Credits 用完后如果想继续用高级模型,需要订阅 Pro。

进官网 qoder.com,登录账号,点右上角"Upgrade"或者进入 Settings 里的"Billing",选择订阅计划。

新用户首购是 2 美元/月(约 14 块),这个价格在你的账号里是持久有效的,不是限时优惠。续费按 10 美金每月,退款后不能再次享受首购优惠。

支付支持信用卡,国内的 VISA 和 Mastercard 双币卡都可以支付,PayPal 也支持。

订阅完成后,回到 IDEA,Qoder 面板里会刷新套餐状态,Pro 的额度就可以用了。

模型选择方面,Qoder 提供四类高性能模型池:基础轻量(Lite)、经济高效(Efficient)、极致性能(Performance)与智能路由(Auto),不同任务由最适合的模型无缝切换执行。日常开发用 Auto 模式就好,系统会根据任务类型自动选模型,不需要自己去判断用哪个。


用下来觉得哪些地方还差点意思

说几个真实用到的问题,免得装完发现不对预期。

Agent 执行速度比想象的慢。它分析项目、查找文件、生成代码是一步步来的,遇到复杂任务要等十几秒到几十秒不等,不是你发完指令马上出结果。这个和 Cursor 差不多,不是 Qoder 特有的问题,但第一次用的人容易觉得卡了。

插件生态还薄弱。有用户评测反馈,Qoder Agent 注解逻辑理解和长期记忆能力是强项,但生成速度慢,插件生态薄弱是已知短板。就是说配套的工具链、第三方集成这块还不如 Cursor 成熟。

Spec First 需要习惯。Quest 模式的"先写需求再写代码"对习惯直接上手写代码的人来说要适应一下,有时候你就是想直接改几行,用 Quest 反而多了步骤。这时候切回普通 Chat 或者 Inline Chat 更直接。

试用期结束模型降级。免费 Credits 用完后会切到基础模型,基础模型的代码生成质量比 Claude 或者 GPT-4o 差不少,想保持正常体验还是得订阅。


适合装来用的场景

用了一周下来,觉得这个插件对以下几类人比较有价值:

已经在用 JetBrains 系 IDE、不想换到 Cursor 或其他独立 AI IDE 的开发者,这是最直接的适合场景。插件装完在原来的 IDE 里工作,不用迁移配置,不用重新适应快捷键。

Java、Go、Rust 后端方向的开发者,这几个语言的支持是 Qoder JetBrains 插件的主打场景,代码生成和上下文理解在这些语言上测试更充分。

有大型项目需求的团队,采用"双引擎"架构,结合云端代码图谱和 IDE 本地索引,支持 10 万文件级别大规模项目的深度理解,开发者无需手动添加上下文。对于代码量大的项目,这个上下文理解能力比手动 @ 文件要省事。

现在的下载地址是 qoder.com/download,或者在 JetBrains 插件市场里搜 Qoder 直接装。注册完有免费额度,先试用一下看合不合用,再决定要不要订阅。

Read more

从零构建FPGA上的Cortex-M0 SoC:解密AHB总线与软核协同设计

从零构建FPGA上的Cortex-M0 SoC:解密AHB总线与软核协同设计 在嵌入式系统开发领域,FPGA与ARM Cortex-M0处理器的结合为开发者提供了前所未有的灵活性和定制化可能。这种组合不仅能够满足特定应用场景的性能需求,还能大幅降低系统功耗和成本。本文将带您深入探索如何在FPGA平台上从零构建一个完整的Cortex-M0 SoC系统,重点解析AHB总线协议的关键实现细节,并分享软硬件协同设计的实战经验。 1. Cortex-M0软核基础与FPGA集成 ARM Cortex-M0作为ARM家族中最精简的32位处理器内核,以其出色的能效比和精简指令集架构(Thumb ISA子集)著称。在FPGA环境中,我们可以通过软核形式将其部署到可编程逻辑器件中,构建完整的片上系统。 1.1 Cortex-M0软核获取与特性 从ARM官网获取的Cortex-M0 DesignStart版本提供了完整的RTL代码(通常以加密网表形式提供),包含以下核心组件: * 三级流水线处理器核心 * 嵌套向量中断控制器(NVIC) * AHB-Lite总线接口 * JTAG调试接

ESP32 小智 AI 机器人入门教程从原理到实现(自己云端部署)

此博客为一篇针对初学者的详细教程,涵盖小智 AI 机器人的原理、硬件准备、软件环境搭建、代码实现、云端部署以及优化扩展。文章结合了现有的网络资源,取长补短,确保内容易于理解和操作。 简介: 本教程将指导初学者使用 ESP32 微控制器开发一个简单的语音对话机器人“小智”。我们将介绍所需的基础原理、硬件准备、软件环境搭建,以及如何编写代码实现语音唤醒和与云端大模型的对接。通过本教程,即使没有深厚的 AI 或嵌入式经验,也可以一步步制作出一个能听懂唤醒词并与人对话的简易 AI 机器人。本教程提供详细的操作步骤、代码示例和图示,帮助您轻松上手。 1. 基础原理 ESP32 架构及其在 AI 领域的应用: ESP32 是一款集成 Wi-Fi 和蓝牙的双核微控制器,具有较高的主频和丰富的外设接口,适合物联网和嵌入式 AI 应用。特别是新版的 ESP32-S3 芯片,不仅运行频率高达 240MHz,还内置了向量加速指令(

2025最新如何在本地部署 Stable Diffusion3.5超详细完整教程

2025最新如何在本地部署 Stable Diffusion3.5超详细完整教程

在本地部署 Stable Diffusion 3.5:让 AI 绘图更便捷 前言 随着人工智能的快速发展,图像生成技术日益成熟,Stable Diffusion 3.5 作为一款强大的 AI 绘图工具,广泛应用于设计师、创作者等人群的视觉内容生成。它能够通过文本提示生成高质量图像,且具备较高的可控性和细腻的生成效果。 然而,默认情况下,Stable Diffusion 3.5 仅能在局域网内运行,远程操作或者出门时调整参数、查看进度会受到限制。在本文中,我们将通过本地部署的方式,帮助您克服这一限制,实现更加灵活的使用。 提示:不同型号的 Stable Diffusion 对硬件要求有所不同。以 Large Turbo 版本为例,推荐配备至少 8GB 显存以保证流畅运行。 文章目录在本地部署 Stable Diffusion

手把手教你配置飞书 OpenClaw 机器人,打造企业级 AI 智能助手

手把手教你配置飞书 OpenClaw 机器人,打造企业级 AI 智能助手

目标:在飞书(Feishu/Lark)中添加 OpenClaw 机器人,实现 7×24 小时 AI 智能对话与自动化办公。 OpenClaw GitHub | feishu-openclaw 桥接项目 想让你的机器人具备语音交互能力?试试 Seeed Studio 的 ReSpeaker 系列吧! 我会后续出reSpeaker XVF3800与Openclaw联动实现语音输入的教程,完全开放源码。 reSpeaker XVF3800 是一款基于 XMOS XVF3800 芯片的专业级 4 麦克风圆形阵列麦克风,即使在嘈杂的环境中也能清晰地拾取目标语音。它具备双模式、360° 远场语音拾取(最远 5 米)、自动回声消除 (AEC)、自动增益控制 (AGC)、声源定位 (DoA)、去混响、波束成形和噪声抑制等功能。