Cursor、Windsurf、Kiro、Zed、VS Code(含 Copilot) 等 AI 编程工具的 定价对比

以 USD/月为单位,2025 最新市场信息:(Windsurf)


1) Cursor(基于 VS Code 的 AI IDE)

计划价格主要特征
免费 Hobby$0基础 completions / 请求额度有限,试用高级功能两周 (Bito)
Pro$20/月无限 completions、约 500 高速 AI 请求 (Windsurf)
Teams$40/用户/月团队协作、管理功能 (Windsurf)
Ultra$200/月大量 AI 请求额度 (Bito)
Enterprise自定义企业级安全与支持 (Bito)

特点:AI 多行补全、上下文理解强、Pro 价格偏高但功能全面。(Bito)


2) Windsurf(AI IDE / 代码助理)

计划价格主要特征
Free$0每月入门额度 + 基础功能 (Windsurf)
Pro$15/月500 额度、高级模型访问 (Windsurf)
Teams$30/用户/月多用户、企业功能 (Windsurf)
Enterprise$60/用户/月更高额度与安全控制 (Windsurf)

特点:通常比 Cursor 便宜≈25%,基础额定额度与高级模型支持强。(Windsurf)


3) Kiro(Amazon 出品的 AI IDE/Agent)

计划价格说明
Free$0基础额度(约 50 credits) (Kiro)
Pro$20/月中等额度(约 1,000 credits) (Kiro)
Pro+$40/月更高额度(约 3,000 credits) (Kiro)
Power$200/月最大额度 (Kiro)

特点:按 credits/请求计费,适合需要较多 AI 任务的用户(AWS 生态优势)。(Kiro)


4) Zed(高性能 AI 编辑器 + AI 功能)

计划价格说明
Personal$0 永久编辑器免费,含基础编辑预测额度 (Zed)
Pro$10/月包含 $5 令牌额度,用于 AI(超用按 token 计费) (Zed)
Enterprise自定义组织级功能、安全控制 (Zed)

特点:编辑器免费、AI 功能 token-计费(可自带外部 API key 降低成本)。(Zed)


5) VS Code + GitHub Copilot(传统主流 IDE + AI 插件)

产品价格说明
VS Code免费主编辑器免费开源
Copilot$10/月(常见市场价)AI 补全/聊天/自动化(需要单独订阅)

特点:VS Code 本身免费,但高级 AI 功能需 Copilot 订阅;长期最广泛使用。(Tennisatw的博客 - Blog of Tennisatw)


简要对比总结

工具起步价定价策略适用场景
Cursor$0 → $20固定计划 + 高额 AI 请求需要强 AI 代码辅助与深度上下文能力
Windsurf$0 → $15较便宜 + 稳定额度预算敏感但需要 AI 帮助的开发者
Kiro$0 → $20+Credits 驱动计费AWS 化企业/大规模任务
Zed$0 → $10 + token编辑器免费、AI token 计费想节省成本或使用自己 API key
VS Code + Copilot$0 → ~$10标准插件订阅广泛开发者生态 + AI 基础补全

核心差异

  • 价格定位:Windsurf 通常比 Cursor 更便宜;Zed 的基础编辑器免费,AI 使用按 token 计费更灵活。(Windsurf)
  • 计费策略:Cursor/Windsurf 采用套餐额度;Kiro 按 credits 层级;Zed 采用 token 使用计费。(Kiro)
  • 用途区别:Kiro 偏向企业与复杂任务场景;Zed 强调编辑器性能与可扩展性;Cursor/Windsurf 偏重 AI IDE 协同辅助。(Medium)

Read more

【大模型知识】Chroma + Ollama + Llama 3.1 搭建本地知识库

【大模型知识】Chroma + Ollama + Llama 3.1 搭建本地知识库

搭建本地知识库 * ✅ 一、整体架构设计(RAG + 向量检索 + 本地 LLM) * 🧰 二、推荐技术栈(2026 年最佳实践) * 🛠️ 三、具体搭建步骤(以 Chroma + Ollama + Llama 3.1 为例) * 步骤 1:安装基础环境 * 步骤 2:安装 Python 依赖 * 步骤 3:准备知识文档 * 步骤 4:构建向量知识库(Python 脚本) * 步骤 5:启动问答服务(RAG 推理) * 🔒 四、安全与性能优化建议 * 1. **隐私保护** * 2. **性能调优** * 3. **中文增强** * 🧪 五、

llama.cpp Docker部署:容器化推理服务搭建

llama.cpp Docker部署:容器化推理服务搭建 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 概述 llama.cpp是Facebook LLaMA模型的C/C++移植版本,提供了高效的本地推理能力。通过Docker容器化部署,可以快速搭建稳定、可移植的AI推理服务环境。本文将详细介绍如何使用Docker部署llama.cpp推理服务,涵盖基础部署、GPU加速、生产环境配置等场景。 环境准备 系统要求 * Docker Engine 20.10+ * NVIDIA Container Toolkit(如需GPU支持)

Whisper-large-v3语音识别模型实战:内网穿透技术应用

Whisper-large-v3语音识别模型实战:内网穿透技术应用 1. 为什么需要让语音识别服务“走出去” 你有没有遇到过这样的情况:在公司内网部署了一个效果出色的Whisper-large-v3语音识别服务,但销售同事在客户现场演示时却连不上;或者团队成员在家办公,想用刚搭建好的会议转录系统,却发现访问不了本地服务器。这些问题背后,其实都指向同一个技术需求——如何让内网的服务被外部网络安全、稳定地访问。 Whisper-large-v3作为当前多语言语音识别的标杆模型,支持99种语言,识别准确率高,特别适合会议记录、视频字幕生成、客服语音分析等场景。但它通常部署在本地服务器或私有云环境中,天然处于网络隔离状态。这时候,“内网穿透”就不是什么高深莫测的技术黑话,而是一个实实在在的工程刚需:它解决的是“好东西怎么让需要的人用上”的问题。 我们不谈复杂的网络原理,只说实际效果——通过合理的内网穿透方案,你可以让部署在办公室台式机上的Whisper服务,被千里之外的合作伙伴通过浏览器直接调用;也可以让部署在实验室GPU服务器上的语音转写API,成为移动App后台稳定的语音处理引擎

[AI工具箱] Vheer:免费、免登录,一键解锁AI绘画、视频生成和智能编辑

[AI工具箱] Vheer:免费、免登录,一键解锁AI绘画、视频生成和智能编辑

项目简介 今天偶然发现了个堪称“赛博活佛”的AI网站,名叫Vheer。它的作风相当大方,里面绝大部分功能都直接免费敞开用,就问你服不服。 文生图、图生视频、智能修图这些主流AI功能一个不落。点开就能用。而且非常的大气,比如抠图,别的网站按张收费,它直接让你一口气传20张照片自动处理,完全免费,甚至你去花时间不需要注册。 它几乎移除了所有上手障碍。网站首页清晰地排列着各种功能,没有晦涩的术语。你想把文字变成图片,或者让静态照片动起来,点开对应的按钮,输入你的想法,结果很快就能呈现在你面前。整个过程简单得就像在用一款普通的手机APP。 食用指南 访问地址 传送地址 官网的免费会员上面写的几个非常吸引人的地方,第一没有任何水印,第二生成图片视频这些是没有任何数量上的限制,只有高级别的模型和高速通道不能使用(但是实测下来,生成的速度也是相当不错)。 网站也提供了一些订阅模式,可以使用更高级的模型,但是这些高级模型需要消耗算力点。根据自己的需要看是否订阅。 由于功能实在太多了,强烈建议亲手测试一下 操作与体验——文生图 官网光一个文生图的功能就折腾出来了40多个功能,除了