Cursor、Windsurf、Kiro、Zed、VS Code(含 Copilot) 等 AI 编程工具的 定价对比

以 USD/月为单位,2025 最新市场信息:(Windsurf)


1) Cursor(基于 VS Code 的 AI IDE)

计划价格主要特征
免费 Hobby$0基础 completions / 请求额度有限,试用高级功能两周 (Bito)
Pro$20/月无限 completions、约 500 高速 AI 请求 (Windsurf)
Teams$40/用户/月团队协作、管理功能 (Windsurf)
Ultra$200/月大量 AI 请求额度 (Bito)
Enterprise自定义企业级安全与支持 (Bito)

特点:AI 多行补全、上下文理解强、Pro 价格偏高但功能全面。(Bito)


2) Windsurf(AI IDE / 代码助理)

计划价格主要特征
Free$0每月入门额度 + 基础功能 (Windsurf)
Pro$15/月500 额度、高级模型访问 (Windsurf)
Teams$30/用户/月多用户、企业功能 (Windsurf)
Enterprise$60/用户/月更高额度与安全控制 (Windsurf)

特点:通常比 Cursor 便宜≈25%,基础额定额度与高级模型支持强。(Windsurf)


3) Kiro(Amazon 出品的 AI IDE/Agent)

计划价格说明
Free$0基础额度(约 50 credits) (Kiro)
Pro$20/月中等额度(约 1,000 credits) (Kiro)
Pro+$40/月更高额度(约 3,000 credits) (Kiro)
Power$200/月最大额度 (Kiro)

特点:按 credits/请求计费,适合需要较多 AI 任务的用户(AWS 生态优势)。(Kiro)


4) Zed(高性能 AI 编辑器 + AI 功能)

计划价格说明
Personal$0 永久编辑器免费,含基础编辑预测额度 (Zed)
Pro$10/月包含 $5 令牌额度,用于 AI(超用按 token 计费) (Zed)
Enterprise自定义组织级功能、安全控制 (Zed)

特点:编辑器免费、AI 功能 token-计费(可自带外部 API key 降低成本)。(Zed)


5) VS Code + GitHub Copilot(传统主流 IDE + AI 插件)

产品价格说明
VS Code免费主编辑器免费开源
Copilot$10/月(常见市场价)AI 补全/聊天/自动化(需要单独订阅)

特点:VS Code 本身免费,但高级 AI 功能需 Copilot 订阅;长期最广泛使用。(Tennisatw的博客 - Blog of Tennisatw)


简要对比总结

工具起步价定价策略适用场景
Cursor$0 → $20固定计划 + 高额 AI 请求需要强 AI 代码辅助与深度上下文能力
Windsurf$0 → $15较便宜 + 稳定额度预算敏感但需要 AI 帮助的开发者
Kiro$0 → $20+Credits 驱动计费AWS 化企业/大规模任务
Zed$0 → $10 + token编辑器免费、AI token 计费想节省成本或使用自己 API key
VS Code + Copilot$0 → ~$10标准插件订阅广泛开发者生态 + AI 基础补全

核心差异

  • 价格定位:Windsurf 通常比 Cursor 更便宜;Zed 的基础编辑器免费,AI 使用按 token 计费更灵活。(Windsurf)
  • 计费策略:Cursor/Windsurf 采用套餐额度;Kiro 按 credits 层级;Zed 采用 token 使用计费。(Kiro)
  • 用途区别:Kiro 偏向企业与复杂任务场景;Zed 强调编辑器性能与可扩展性;Cursor/Windsurf 偏重 AI IDE 协同辅助。(Medium)

Read more

小显存福音:LLaMA Factory+QLoRA微调70B模型实测

小显存福音:LLaMA Factory+QLoRA微调70B模型实测 对于许多研究者来说,想要在消费级显卡上实验大参数模型一直是个难题。常规方法往往连模型加载都做不到,更别提进行微调了。本文将介绍如何使用LLaMA Factory框架结合QLoRA技术,在有限显存条件下实现对70B大模型的微调。这类任务通常需要GPU环境,目前ZEEKLOG算力平台提供了包含该镜像的预置环境,可快速部署验证。 为什么需要LLaMA Factory+QLoRA 大模型微调一直是AI研究的热点,但面临两个主要挑战: * 显存需求大:70B参数的模型在FP16精度下就需要140GB显存,远超消费级显卡容量 * 技术门槛高:需要手动实现量化、梯度检查点等优化技术 LLaMA Factory框架通过以下方式解决了这些问题: * 内置QLoRA技术:通过低秩适配器大幅减少可训练参数 * 自动优化:集成量化、梯度检查点等显存优化技术 * 开箱即用:预置多种微调方法和数据集 环境准备与镜像部署 在开始前,我们需要准备一个支持CUDA的GPU环境。以下是具体步骤: 1. 选择包含LLaM

Java在AI时代的崛起:从传统机器学习到AIGC的全栈解决方案

Java在AI时代的崛起:从传统机器学习到AIGC的全栈解决方案

个人名片 🎓作者简介:java领域优质创作者 🌐个人主页:码农阿豪 📞工作室:新空间代码工作室(提供各种软件服务) 💌个人邮箱:[[email protected]] 📱个人微信:15279484656 🌐个人导航网站:www.forff.top 💡座右铭:总有人要赢。为什么不能是我呢? * 专栏导航: 码农阿豪系列专栏导航 面试专栏:收集了java相关高频面试题,面试实战总结🍻🎉🖥️ Spring5系列专栏:整理了Spring5重要知识点与实战演练,有案例可直接使用🚀🔧💻 Redis专栏:Redis从零到一学习分享,经验总结,案例实战💐📝💡 全栈系列专栏:海纳百川有容乃大,可能你想要的东西里面都有🤸🌱🚀 目录 * Java在AI时代的崛起:从传统机器学习到AIGC的全栈解决方案 * 一、Java AI生态概览:多样化的技术选择 * 1.1 深度学习框架:接轨主流AI技术 * Deep Java Library

LLaMA Factory全解析:让大模型“改装”像组装电脑一样简单

引言:当每个人都能定制自己的专属AI 朋友们,想象一下这样的场景:你拿到了一台性能强大的通用电脑(好比ChatGPT、LLaMA这样的通用大模型),但它运行的是标准操作系统,装的是通用软件。现在,你需要它变成一台专业的视频剪辑工作站,或者一台金融数据分析服务器——该怎么办? 传统方法是“重装系统”(全量微调):耗时耗力,需要专业团队,而且可能把原来好用的功能搞坏。 现代方法是“加装专业配件”(参数高效微调):不改变核心系统,只增加特定的硬件模块或软件插件。 今天我要介绍的LLaMA Factory,就是大模型领域的“专业改装工具箱”。它让微调百亿参数的大模型,变得像给电脑加内存、装显卡一样简单可控。无论你是只有一张消费级显卡的个人开发者,还是需要定制企业级AI的团队,这个工具都可能改变你的工作方式。 技术原理:理解LLaMA Factory的“增效不增负”哲学 核心理念:为什么我们不需要“重装整个系统”? 要理解LLaMA Factory的价值,首先要明白大模型微调的一个关键发现:当大模型适应新任务时,只需要调整很小一部分参数就够了。 一个生动的类比: 假设你是一位精

QtCreator配置AI辅助编程插件github copilot保姆级教程

QtCreator配置AI辅助编程插件github copilot保姆级教程

文章目录 * 概要 * 配置流程 概要 Free版‌免费使用,每月限额 2000 次代码补全 + 50 次聊天交互‌集成于 VS Code,支持跨文件编辑、终端协助及自定义指令‌ ‌ Pro版‌‌个人用户‌:10 美元/月 或 100 美元/年‌ ‌特殊群体‌:学生/教师/热门开源维护者可免费使用 Pro 版‌ ‌ Business版‌19 美元/月/用户,按月计费‌面向组织或企业中的团队订阅‌ ‌ Enterprise版‌39 美元/月/用户,按月计费‌企业可按需为不同组织分配 Business 或 Enterprise 订阅‌ 官方地址