AI IDE横评-独立IDE篇
前言
目前的AI IDE五花八门,有基于开源VSCode深度改造的Cursor、Trae,也有终端CLI工具Claude Code,Gemini等等。可能很多人挑的眼花缭乱,但是又不太清楚这些IDE的区别和优势之处在哪里,现就从本人对以下多款产品的使用体验,来谈一谈对各家IDE产品的主观评价。
[!NOTE]
注: 以我个人的浅见来看,AI IDE 是一个极度依赖“使用者”的工具——每个人的工作流、提示词设计、模型偏好与辅助工具组合都截然不同,因此使用体验的差异可能天差地别。这不仅与个人编码习惯息息相关,也深受所选模型能力的影响。
因此,本文中的所有评价均为主观体验,并非客观标准。若您有不同看法?那一定是您对 ✅—— 毕竟,AI IDE 没有“标准答案”,只有“最适合你的那一个”。💡
对比维度
我会针对以下几个维度,分享我自己对这些产品的使用体验和评价
- IDE本体(外观,交互设计)
- AI能力(模型覆盖、补全能力、工具调用、Agent能力)
- 定价和策略
也会适当的补充一部分产品的特色和缺点
🧾 总览对比表
模型对比
| 名称 | 主力模型 | 优点 | 缺点 | 适用场景 |
|---|---|---|---|---|
| Claude | Claude4.5,Claude4.0 | 最顶级的编程大模型,没有之一 | 贵贵贵,挥金如土 | 不差钱,追求代码质量和省事 |
| GPT | GPT-5 High,GPT-5 Codex | 规划能力非常强 | 贵且慢,非常慢 | Debug场景和规划项目场景,不太赶时间 |
| Gemini | Gemini 2.5Pro | 1M上下文,相对来说性价比高 | 目前降智严重,工具调用能力极差 | 需要大上下文的场景 |
| Grok | Grok4,Grok-Code-Fast | 快,高算力堆出来的怪物 | 没看出来代码质量有多高,高分低能 | 图快 |
| Qwen | Qwen3-Coder | 开源,免费 | 每一家的这个模型都不太一样,官方略贵,免费的容易429 | 实在没得用了 |
| DeepSeek | DeepSeek-3.2-exp | 性价比高 | 吐字真的慢,老毛病了 | 追求性价比和质量的平衡 |
| GLM | GLM4.6,GLM4.5 | 上下文对齐Claude,非常适配Claude Code,性能不错 | 依旧是降智,非官方API大多质量略差,官方的慢还降智 | Claude Code国产替代绝配 |
| Kimi | Kimi-K2-0905 | 代码质量不错 | 慢慢慢,贵,三方API少 | 罕见,又查无此人了 |
IDE对比
| 名称 | 主力模型 | 特长 | 一句话优点 | 一句话避雷 | 适用场景 | 推荐指数 |
|---|---|---|---|---|---|---|
| Cursor | Claude | 全能型 | 功能最全,有生态 | 贵、偶尔发疯 | 不差钱,那就是顶级体验 | ⭐⭐⭐⭐⭐ |
| Kiro | Claude | 项目驱动 | SPEC模式强的很 | 小项目没必要,工具调用感染 | 有一定的项目规划要求 | ⭐⭐⭐ |
| Windsurf | GPT | 平替型 | 找不到优点了😅 | 查无此人了已经 | 别用了哥,让他安详入土吧 | ⭐ |
| Zed | BYOK自选 | 性能型 | Rust引擎顺滑 | 工具兼容差 | Geek控,源神爱好者,Rust信徒 | ⭐⭐ |
| VSCode+Copilot | GPT/Claude | 稳定保守 | 老字号,性价比高 | Agent能力一般,补全慢且差 | 不喜欢随便换IDE,够用 | ⭐⭐⭐⭐ |
| Trae | Claude | 补全能力 | 性价比强无敌,好看 | Agent也是查无此人,资源占用高 | 性价比,便宜大碗,对外观有要求 | ⭐⭐⭐⭐⭐ |
| CodeBuddy | GPT | 设计稿转写 | 能联动Figema | 幽默IDE,干啥啥不行 | 有Figema设计稿转前端代码的需求 | ⭐ |
| Qoder | 未知 | 智能体编排 | 理论上智能体很能打 | 但是现阶段完全看不到强在哪 | 不要创造需求,真的不好用 | ⭐ |
汇总
| 工具名称 | 类型 | LLM API支持 | 定价 |
|---|---|---|---|
| CodeBuddy(国际版) | 独立IDE | 不支持 | $10/月 |
| Cursor | 独立IDE | 有限支持 | BYOK / $20/月 |
| Kiro | 独立IDE | 有限支持(仅Anthropic) | $20/月起 |
| Qoder | 独立IDE | 有限支持(内置多模型) | $10/月 |
| Trae(国际版) | 独立IDE | 支持 | BYOK / $10/月 |
| Windsurf | 独立IDE | 支持 | BYOK / $15/月 |
| Zed | 独立IDE | 支持 | BYOK / $10/月 |
| Augment | IDE扩展 | 不支持 | $20/月起 |
| Cline | IDE扩展 | 支持 | BYOK |
| Gemini Code Assist | IDE扩展 | 有限支持(仅Google) | BYOK / $19/月 |
| GitHub Copilot | IDE扩展 | 支持 | BYOK / $10/月 |
| Kilo Code | IDE扩展 | 支持 | BYOK / $29/月 |
| Roo Code | IDE扩展 | 支持 | BYOK |
| Claude Code | IDE拓展/CLI | 有限支持(CCR绕过) | BYOK / $20/月 |
| Codex | IDE扩展/CLI | 有限支持(仅OpenAI) | $20/月起 |
| Gemini CLI | CLI | 有限支持(仅Google) | 免费 |
| Qwen Code | CLI | 有限支持(仅OpenAI格式) | 免费 |
[!tip]
**BYOK解释:**BYOK(Bring Your Own Key)表示需要用户自行提供API密钥的工具,通常无直接费用但需要为第三方服务(如OpenAI API)付费。
整合式 AI IDE & 扩充插件
功能说明
工具调用
- 原生 (🟢)
- 提示 (🟡) : 采用 XML + Markdown 的系统提示,让不支持工具调用的模型输出工具指令
自动补全
代码库索引
分析项目的代码库,透过向量化索引和语义理解提供相关的上下文信息辅助模型理解,提高生成的性能。
- 进阶 (🟢) : 自动处理,保存于本地或云端
- 基础 (🟡) : 需要额外配置
- 不支持 (🔴)
后台代理
可以在后台或远程环境中编辑和运行代码,不影响当前的聊天任务。
- 完整支持 (🟢) : 采用 git 管理代码,可在远程环境中执行任务
- 部分支持 (🟡) : 仅支持本地后台执行,存在互相干涉代码的风险
- 不支持 (🔴)
子代理
(不判断同步或异步)
隔离不同任务的上下文空间,避免上下文增长导致性能衰退,或任务混杂造成的上下文污染。
提示增强
让 LLM 生成一个较好的提示,再执行任务。
自订来源
设定模型提供来源,无论是官方或本地网关都可以支持。
- 完整支持 (🟢)
- 部分支持 (🟡)
- 不支持 (🔴)
自订模式
建立一个任务导向的角色模式,例如程式开发、前端或除错。
- 完整支持 (🟢)
- 部分支持 (🟡)
- 不支持 (🔴)
自订规则
建立规则让 LLM 遵循,依照使用者想要的逻辑来辅助开发,提高编码效率和代码质量。有些可分开设定为全局或项目专属,而像是 Roocode 可再进一步细分为规则与工作流,增加弹性。
全局记忆
系统会自动记住你在对话中反覆提到的资讯,或者使用者也能手动修改。
提交信息
由 LLM 自动生成 Git 提交信息。
外部整合
与外部公司提供的独立软件整合。例如 Cursor 与 Github 和 Slack 合作,支持后台代理与 Bug Bot,并能透过 Slack 交付任务。
系统通知
任务结束之后,软件可以调用 Windows 系统通知来提醒使用者。
MCP
让 LLM 可以调用内部、外部服务的通用标准化接口。极大多数软件均支持该特性,然而 Zed 用 Rust 重构 IDE,导致仅有部分修改后的 MCP 服务相容。
- 完整支持 (🟢) : 可以使用
- 部分支持 (🟡) : 无法直接使用,可以透过内建 MCP 市场安装
- 不支持 (🔴) : 无法使用
斜线指令
在输入框或其他指定位置输入 “/” 来调用预设的快捷指令,减少重复操作。
Bug Bot
Cursor 独有特性。 Bugbot 会分析 PR 的差异,给出解释和修复建议。它可于每次 PR 更新时自动运行,或在触发时手动运行。
远端开发
透过 SSH 连线到远端伺服器上开发,系统通常为 Linux。目前公测中的 CodeBuddy 似乎无法正常在远端环境上开发,待修复。
浏览器支持
可直接于 VSCode 中与网站交互,支持测试 Web 应用程序、自动化浏览器等相关任务。由于各个软件实现的方式不一,支持仅代表功能存在。
多人协作
Zed 独有特性,可以透过共享专案来一起编辑同个项目,并且内建简易的语音聊天和萤幕分享。
功能差异
- 🟢支持
- 🟡部分支持
- 🔴不支持
| 工具名称 | 自动补全 | 代码库索引 | 背景代理 | 子代理 | 自订来源 | 自订模式 | 自订规则 | 记忆 | 提交讯息 | 提示增强 | 系统通知 | MCP | 斜线指令 | 外部整合 | Bug Bot | 远端开发 | GUI 支持 | 多人协作 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| CodeBuddy(国际版) | 🟢 | 🟢 | 🔴 | 🔴 | 🔴 | 🔴 | 🟢 | 🔴 | 🟢 | 🟢 | 🔴 | 🟢 | 🟢 | 🟢 | 🔴 | 🟢 | 🟢 | 🔴 |
| Cursor | 🟢 | 🟢 | 🟢 | 🟢 | 🟢 | 🔴 | 🟡 | 🟡 | 🟢 | 🟢 | 🟢 | 🟢 | 🟢 | 🟢 | 🟢 | 🟢 | 🟢 | 🔴 |
| Kiro | 🟢 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🟢 | 🔴 | 🔴 | 🔴 | 🟢 | 🟢 | 🔴 | 🔴 | 🟢 | 🔴 |
| Qoder | 🟢 | 🟢 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🟢 | 🟢 | 🔴 | 🔴 | 🟢 | 🔴 |
| Trae | 🟢 | 🟢 | 🟢 | 🔴 | 🔴 | 🔴 | 🟡 | 🟢 | 🟢 | 🔴 | 🟢 | 🔴 | 🔴 | 🟢 | 🔴 | 🔴 | 🟢 | 🔴 |
| Windsurf | 🟢 | 🟢 | 🟢 | 🟡 | 🔴 | 🔴 | 🔴 | 🔴 | 🟢 | 🟢 | 🟢 | 🔴 | 🟢 | 🟢 | 🟢 | 🔴 | 🟢 | 🔴 |
| Zed | 🟢 | 🟢 | 🔴 | 🔴 | 🔴 | 🔴 | 🟢 | 🟢 | 🟢 | 🔴 | 🟢 | 🔴 | 🟡 | 🔴 | 🔴 | 🔴 | 🟢 | 🔴 |
| Augment | 🟢 | 🟢 | 🟢 | 🟢 | 🟢 | 🔴 | 🔴 | 🔴 | 🟢 | 🟢 | 🔴 | 🟢 | 🟢 | 🟢 | 🔴 | 🟢 | 🔴 | 🟢 |
| Cline | 🟡 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🟢 | 🔴 | 🟢 | 🔴 | 🟢 | 🔴 | 🟢 | 🟢 | 🟢 | 🔴 | 🟢 | 🟢 |
| Gemini Code Assist | 🟢 | 🟢 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🟢 | 🟢 | 🟢 | 🔴 | 🟢 | 🔴 |
| GitHub Copilot | 🟢 | 🟢 | 🔴 | 🟢 | 🔴 | 🔴 | 🟢 | 🟢 | 🟢 | 🔴 | 🟢 | 🔴 | 🔴 | 🟢 | 🔴 | 🔴 | 🟢 | 🔴 |
| Kilo Code | 🟡 | 🟢 | 🟡 | 🔴 | 🔴 | 🟢 | 🟢 | 🟢 | 🟢 | 🟢 | 🟢 | 🟢 | 🟢 | 🔴 | 🔴 | 🔴 | 🟢 | 🟢 |
| Roo Code | 🟡 | 🔴 | 🟡 | 🔴 | 🔴 | 🟢 | 🟢 | 🟢 | 🟢 | 🔴 | 🟢 | 🟢 | 🟢 | 🔴 | 🔴 | 🔴 | 🟢 | 🟢 |
CLI 工具
功能说明
自订规则
可以自定义规则,让 LLM 依照使用者想要的逻辑来辅助开发,提高编码效率和代码质量
自订模式
可以自定义角色、规则、调用工具和 MCP,让模型可以直接依照这个模式进行编码
自订来源
可以自定义模型提供商,无论是官方或本地自建服务
- 完整支持 (🟢) : 支持 OpenAI, OpenAI 相容和 Anthropic API
- 部分支持 (🟡) : 不支持 OpenAI 或 Anthropic API
- 不支持 (🔴)
子代理
隔离不同任务的上下文空间,避免上下文增长导致性能衰退,或任务混杂造成的上下文污染
检查点
保存 AI 尚未开始修改的原始代码,可回退至该检查点取消修改
代码库索引
分析项目代码库,透过向量化索引和语义理解提供相关的上下文信息,辅助模型理解并提高生成的性能。
Hooks
Claude Code 独有特性。Hooks 为使用者自定义的 Shell 指令脚本,可以在 Claude Code 生命周期中各个阶段执行
GitHub Actions
参照官方说明 GitHub Actions · GitHub
MCP
让 LLM 可以调用内部、外部服务的通用标准化接口,目前全数支持
对话历史
可以存取先前使用者与 AI 对话的记录
- 完整支持 (🟢) : 自动保存
- 部分支持 (🟡) : 手动保存
- 不支持 (🔴)
图像输入
自订命令
可以自定义斜线指令
智能指令
由 AI 辅助补完指令
记忆
系统会自动记住使用者在对话中反覆提到的资讯
Shell 模式
可以在软件中执行 shell 指令,不必退出
系统通知
语音编码
可以通过系统麦克风转换为文字输入
沙盒模式
隔离模型执行 Shell 指令的范围,限制执行权限。由于各软件沙盒实现的方式有些差异,因此不比较实际效果
外部集成
集成外部其他公司提供的独立软件服务,不包含 MCP
URL 抓取
自动抓取目标 URL 页面的资讯
功能差异
| 名称 | 自订规则 | 自订模式 | 自订来源 | 子代理 | 检查点 | 代码库索引 | Hooks | GitHub Actions | MCP | 对话历史 | 图像输入 | 自订命令 | 智能指令 | 记忆 | Shell 模式 | 系统通知 | 语音编码 | 沙盒模式 | 外部集成 | URL 抓取 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Claude Code | 🟢 | 🟢 | 🟡 | 🟢 | 🔴 | 🔴 | 🟢 | 🟢 | 🟢 | 🟢 | 🟢 | 🟢 | 🔴 | 🟢 | 🟢 | 🟢 | 🔴 | 🟢 | 🔴 | 🔴 |
| Codex CLI | 🟢 | 🟢 | 🟡 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🟢 | 🟢 | 🔴 | 🔴 | 🔴 | 🔴 | 🟢 | 🟢 | 🔴 | 🟢 | 🔴 | 🔴 |
| Gemini Cli | 🟢 | 🟢 | 🟡 | 🔴 | 🔴 | 🔴 | 🔴 | 🟢 | 🟢 | 🟡 | 🟢 | 🟢 | 🔴 | 🟢 | 🔴 | 🔴 | 🔴 | 🟢 | 🔴 | 🟢 |
| Qwen Code | 🟢 | 🟢 | 🟡 | 🔴 | 🔴 | 🔴 | 🔴 | 🔴 | 🟢 | 🟢 | 🟢 | 🟢 | 🔴 | 🟢 | 🔴 | 🔴 | 🔴 | 🟢 | 🔴 | 🔴 |
Cursor
AI IDE中绕不过的一座大山,曾经是其中最高的山,但有没有能力成为最长的河有待商榷,讲AI IDE就一定有他,榜上皆有名。
IDE本体
**外观:**Cursor的IDE本体是目前魔改VSC中最好的,首先外观上的魔改几乎没有,原汁原味的VSC体验,只对自己的设置界面和AI Chat界面有一些非原生样式,其余部分均继承自VSC本体,切换过来没有任何负担和不适应。
AI交互体验:
提供多种AI入口,CRTL+I的行内编辑器,右键菜单选择代码或文件插入上下文,侧边栏的AI对话页面,操作均符合直觉。
历史对话,模型选择都是很简单直接的,只能说多个版本迭代后,基本就是目前的最优解。
AI生成代码可以实时体现在编辑器中,使用红绿Diff高亮,并且在侧边栏也会给予块来指引修改部分,并且生成后的代码可以撤销,而且是可以每一部分单独撤销,体验感巨好,代码改多了只需要回退一部分即可。
检查点设计的应该是我目前用过的IDE里最好的,回退很精准,基本没有什么偏差,这一点友商做的都不如他。
AI能力
这一部分才是AI IDE的核心能力,毕竟前面那些说白了还是体验上的差距,如果AI能力不行的话完全没有用下去的必要,现有的AI IDE基本都是力大砖飞,靠着AI能力留住用户,界面,设计,体验啥的优先级都可以靠后,能干活才行
模型覆盖:最全面的模型覆盖(没有之一),管你是OpenAI,Anthropic,还是Google,我全都要,拥有目前最多的模型数量,海外的,国产的都有,还可以用BYOK进行拓展,这一点上遥遥领先(自己脑补余大嘴语音包)。主力模型基本是Claude系列,毕竟钱都花了,用Gemini和GPT总觉得不值当,肯定用最贵最好的。
Tab补全能力:依旧是遥遥领先于同行,目前所有的独立IDE/拓展中最顶级的Tab补全能力,从出道至今一直稳居首位,比他补全快的没他精准,比他精准的没他快,虽然说有用小模型灌水的嫌疑,但是能写代码的就是好模型,在Tab补全这一块永远的Goat。
**Agent代码编写:**一流为什么叫一流,就是样样不差,Cursor自己的Prompt编写本身是顶级水准,加上和Claude深度合作的工具调用设计,可以说Claude+Cursor的Agent模式比其他模型强了不止一个等级,尤其点名“哈基米(Gemini)”,工具调用出错次数位居榜首,何尝不是一种遥遥领先🤪。
工具调用:
**原生工具:**刚才就提到了,Cursor的原生工具(Edit,Find,Bash,Git)是目前绝对的T0水平,配合上深度合作的Claude更是如虎添翼,而其他模型的原生工具调用会稍差一点,但也是个T1水准。
哈基米因为情况较为特殊,工具调用连Google自己的Gemini Assist都经常报错,所以处于T1-无下限的微妙区间,毕竟谁喜欢看到一片红的工具调用呢╮(╯▽╰)╭。
**MCP工具:**我一直认为MCP工具的调用和原生工具是一个路子,原生工具用的好MCP也不会差,事实也是,Cursor的MCP工具调用也很稳定,稳如老狗。所以后面的工具调用就写在一起了,不区分了
[!note]
其实写到这里我差点感觉没必要往下写了,因为上述内容看完之后大家应该已经认为Cursor是宇宙第一AI IDE了(雾😅)。
但我们的文章主打一个先扬后抑,所以后面开始基本只剩缺点了,开始避雷了。
价格
没得吐槽,国际定价方案的创始人,后续的各家定价方案多多少少都有参考,虽然创始人本人已经不用这个方案了(忘本!!)
- Free方案:
- 2周试用建议不看,现在越来越难薅试用了,基本用个两天Pro就被收回了。
- Agent请求次数不仅少得可怜,而且限制模型,想白嫖Claude?🚪都没有。
- Tab补全数量尚可,是唯一的安慰了,没卸这玩意全靠这个。
- **Pro/Pro+方案:**现在最模糊的方案,改动了3次,目前根据Cursor官方博客和群友自己试,基本计费如下
- Pro有20刀的额度,有两种选择,选择Auto模式,根据问题自动路由到对应的模型(纯黑箱),费用会低不少,$6/1M Tokens的样子。指定模型的话,就要根据模型的定价来根据Token计费,到了$20的额度理论是不能用了,但实际上根据群友实测,最高能到$100-120左右,然后就会提示用量到90%。Pro+基本就是3倍,大差不差,这套定价方案比之前固定500次快速请求可差太多了,最开始还能改回去,后来直接强制统一了,社区怨声载道的一大核心就是这个用量模糊的问题。
Ultra没用过,乡下人用不起$200的套餐,略过。
官方对于目前各定价方案的限额统计大致如下
来自官方的私密马赛(鞠躬)
缺点
刚才说了,这玩意现在口碑越来越差,肯定不只是一个定价的问题,其实就是Cursor喜欢和大家耍点小聪明,之前做的活动太多了,光我薅过的就有无限试用、教育优惠、PPLX合作会员还有最著名的注册机自动注册。
所以为了开源节流,Cursor官方也是整了不少活。
- **上下文阉割:**Cursor的上下文绝对是狠狠阉割过的,我们来看官方给的上下文数据
可以看到Claude给了原生的200k上下文,但实际使用中这个上下文非常容易到达,然后就会压缩上下文,如果用过Claude Code就会感觉Cursor的上下文不值钱,水分很大。
而且像是GPT-5原生应该是400k的上下文,Gemini是256k,都做了一定的阉割。
- 降智: Cursor的降智也是出了名的,总会有那么一个时间段,模型开始听不懂人话,代码也不改,需求也不听,把提示词发过去之后,装模作样运行半天一行代码都不写,开始和你聊天了,这种就是很明显的降智,基本表现为不写代码、突然开启聊天模式、很不积极的工具调用、空输出或者装傻,社区对此怨声载道,但是C大人也没有理过。
- 锁国区: 锁国区其实是个经典操作了,但是Cursor他锁的更死,IP被透传过去都会导致对话失败,被标记为代理的IP也非常容易触发VPN警告,解决方法一个是关闭HTTP/2,另一个是全局TUN模式防止被检测代理,总归用的不是那么优雅。
总结
毋庸置疑,目前最成熟,用户数最多的AI IDE,在这一块绝对是老大哥的地位,经过一年多的快速发展,目前功能基本很健全,AI IDE有的功能他基本都有,也是友商借鉴的模板,能做到Cursor的8成水平就绝对是市场上一流的IDE了。
即使整了很多花活依旧是很多人的首选IDE,白月光的杀伤力!!
Kiro
异军突起,第一次见到这套SPEC能力还是很惊艳的,整个IDE的改造全部围绕这套模式,可以说是相当高的定制化IDE,如果使用Vibe模式其实和别家没任何区别,没一点特色。
IDE本体
**外观:**这个没什么好说的,Kiro也是类VSC产物,只是做了一点UI改动,但是整体协调度挺奇怪,有一种改了但是风格没统一的野性美感,上手难度依旧无,平滑过度。
**AI交互设计:**这一块Kiro是有巧思的,它的一部分AI交互设计和AI能力深度结合,也就是我们说的SPEC,里面有很多和AI工作流联动的地方,而常规的AI三件套(行内,对话,右键)都有,没什么出彩的。
**任务驱动设计:**能看到为了这套SPEC模式做了不少小功能点,添加了好几个小细节来配合任务驱动,整体融合得不错,使用体验很好,用多了再去用别家反而会略不习惯。
AI能力
**模型覆盖:**这一点就是Kiro的弱势项目了,Kiro出于工具调用和指令遵循性的考虑,只提供了Claude这一个模型,而且一般也只有n和n-1代的模型,主打一个精而不多。
**Tab补全能力:**Kiro的Tab补全能力就很一般了,不管是注释生成函数块、实时提供建议还是现有函数修改都是很一般的水平,比如不能识别go文件中的层级,经常会在一个包的文件中使用package main,整体补全写法倾向于单文件,上下文感知缺失比较严重。
**Agent代码编写:**独一档的SPEC模式,在开始新项目之前会要求选择Vibe模式和SPEC模式,其中Vibe模式没什么好说的,就是给需求吐代码。而SPEC模式则比较有意思,如图是SPEC模式和Vibe模式的区别
适用于:
- 深入思考程序的功能特性
- 需要一定的前期规划的项目
- 以结构化的形式构建功能
当提交最初的需求后,会将整个流程拆分为3个大节点
- Requirements
- Design
- Task List
首先创建需求文档,沟通好具体需要的东西,需要输出的产物,包含的模块等等,方便接下来的设计
上一步完成需求文档之后,根据需求文档会进行程序的设计,这里面包含需求文档中的技术栈选型,架构设计,如果是GUI程序或者Web程序,还会进行组件和UI的设计、接口的设计,总之就是一个非常全面的设计文档,在这个过程中还可以继续沟通一些想要改进的地方
当设计文档也确认之后,模型会将设计文档中的设计拆分成一个个具体的、可实现的最小单元任务,并且针对一个大的单元还会有单元测试,保证模块在下一个模块开始开发之前可以正常运行。
点击图上的Start Task就可以开始任务,这就是前面提到的Kiro在IDE上做的一些和AI能力深度结合的小功能,只需要轻轻点击就可以将任务传递至模型开始执行,并且还会贴心标准任务对应的需求,可以说在项目开发上Kiro基本已经做到了相当全面。
在沟通的过程中不会有以前那种双方都对要做什么有点模糊的感觉,而是会在这套驱动的一步步引导下将模糊的需求变成可以执行的文档以及任务点,就像是有一个产品经理去做需求的确认,设计以及任务下发一样,减少模型不必要的内耗,更专心的执行代码编写任务。
仅从参与感来说,这个IDE是我使用过的IDE中之最,你能感觉真正的参与进了项目的设计和实现,而不是一句话需求丢给AI写出来一堆不知道能不能跑通的代码,那种深度参与设计的感觉会带来很强的驱动力,并且后续的任务实现也相对Vibe。
这种模式在稍微复杂一些的项目开发中体验是极为良好的,后续每次和他聊需求改动的时候,IDE级的Hook模块都会及时识别需求和任务的变动,然后修改对应的内容,防止出现因为需求的变化导致整体项目越写越混乱的情况。
这个IDE的规划能力目前还是独一档的,AI能力深度结合项目规划很有大厂的感觉。
**工具调用:**这个没什么好说的,实测下来SPEC相关的工具调用能力都是顶级,应该是对Claude特调过的,但是MCP工具和Bash,Edit这种原生工具的调用并不是那么理想,会经常报错改错文件,找不到修改内容,Bash工具也经常卡死,某个命令要么就一直在执行得不到结果,要么就完整的命令输入Bash之后变成好几部分,无法执行,但这是Beta版本的体验了,后来要钱了,我没充,新版本不知道修的咋样了。。。
价格
积分计费制度,也是现在AI产品用的比较多的一种方案,把使用的Token和费用之间的关系给模糊化了,非常迷惑人的一种手段,我个人非常讨厌这种不明确的计费制度。
Free方案:扣的🍐🎼,50积分,以目前最新的版本来看,指定模型1.3倍积分,Auto正常倍率,但是实际消耗的积分还有一个任务规模的因素,实际消耗会更多。
我尝试了使用SPEC设计一个Web百词斩,单SPEC设计部分花了1.5左右的积分。一个HTTPX的Demo,使用CL4.5,代码200行,用Claude分词器大概是输出2k token,花费1积分,自行参考。
其余方案没充过,但估计差不多,计费这块没有差很多
缺点
**Vibe能力差:**正如上面说述,Kiro是一个偏科生,把加点全点在SPEC驱动的项目能力上了,相对的Vibe Coding能力较差,写一些脚本的时候没比网页直接操作强多少,并且修复Bug的能力也是很幽默,找Bug经常连位置都找不对,还一顿瞎改,能看出来Vibe模式下的提示词也没怎么设计。
**报错较多:**工具调用这一部分,Kiro是我见过唯一一个使用Claude模型还能报那么多工具调用错误的,可以说SPEC模式带来的优势基本被糟糕的工具调用毁了大半。
本来美滋滋的写好了任务,然后点击开始享受Vibe Coding,然后你就会看到一整页的工具调用报错,Read读错代码,Edit找不到要修改的部分,要么就改错内容格式,Bash命令执行也是错误百出,让人觉得这应该是个半成品来的。
总结
极度偏科生,项目能力有那么一点点出色,但是略松弛的工具调用能力让整体体验拉了坨大的,对于脚本小子而言没什么优势,写起来太重了,目前来看还是玩具水平。
Windsurf
有一说一windsurf其实没什么好东西,基本就是Cursor同时期有啥他有啥,而且因为发展较慢加上Cursor开启了大试用时代,人人都是Pro,相比之下Windsurf抠抠搜搜给那点大伙反而看不上,慢慢的有点没落了,今年被Anthropic断供Claude之后模型这一块也跟不上了,已经逐渐变成下等马了。
这个略过吧,基本就是对齐早期1.0以前的Cursor,在现在来看有点落后了,天天鼓捣自己那个代码模型也没整的咋样,如果有的选这个绝对没啥人用。
Zed
很有意思的一个编辑器,我这里能讲的不多,因为这玩意最开始是基于MacOS开发的,Windows版本到现在还算是Beta版本,稳定性,AI能力都很一般
名气很大,因为是使用源神(Rust)开发的IDE,号称要取代VSC,但是仔细想想,上一个号称要取代VSC的Fleet,即使有Jetbrains背书,但现在好几年过去了,依旧是一坨,项目砍没砍都不太清楚了。
仅目前来看,流畅度确实不错,没有Electron那么大的包袱,Rust实现的UI界面占用也确实比TS/JS低很多,启动也是扁平快,有VSC最早的几个版本那个味了,但是目前来看插件生态很差,UI全中文都没还没做到,
IDE本体
因为脱离了VSC这个大框架,这个Zed确实有很多值得说道的地方,很多地方给我的感觉其实挺惊艳的,有一种没有被污染的,纯真的美感。
**外观:**很简洁的外观,有点类似IDEA的新UI,在界面上尽可能做减法,把按钮啥的都藏起来了,整体观感给人一种Windows的Notepad的感觉,非常的舒适,而且界面UI响应特别快,因为脱离了前端那套链子,用的是Rust加上自研的一套GPU驱动的UI框架,在Win上直接使用WGPU加速DirectX渲染,UI性能这一块基本没什么对手,确实很丝滑。而且不知道字体渲染是怎么做的,感觉不像Window的常见渲染,低分屏也能感觉到字体很锐利(补一张图)
虽然说实话,丝滑不能当饭吃,但不得不说这个体验是真的好,打开也不写代码,就扒拉扒拉也挺舒服,当然如果Bug能少点就好了。
**AI交互体验:**Zed在这一部分依旧保持了自己的简洁,交互设计的很克制,比如编辑区域选中代码没有发往聊天界面的功能,但还是保留了Chat界面和行内对话的,并且得益于Zed的高性能渲染,在Chat界面长对话的阅读体验要比一众基于Electron的IDE好上不少,不管是阅读的顺滑度的还是加载速度都是遥遥领先于同行,这就是源神带给我们的自信😎。
AI能力
作为一个脱离了VSC的那套架构的新生代IDE,Zed这个原生AI的能力确实有点小惊喜,VSC系列的IDE因为本身架子已经固定了,所以各家在大模型的工具调用这一块,虽然是IDE原生自带的工具,但其实还是相当于写了一个外部工具,然后模型通过XML提示词或者是自身的Tool Call功能来调用,本质上还是通过外部工具干涉IDE,和以前的插件的行为类似。Zed宣称是把工具原生化了,然后暴露出接口给大模型,从调用效率和延迟来看是有一点不一样的。
**模型覆盖:**Zed本体是开源免费的,AI服务由Zed的云服务提供,但Zed也原生提供了其他提供商的接口,绝大多数都只需要直接填API Key即可调用,因此模型覆盖也全看接入的供应商,并且除了内置的供应商外,还可以添加自定义的OpenAI Compatible服务商,只要符合OpenAI的标准格式就可以使用,我这里接入了iFlow的API做测试,调用glm-4.6模型没有任何问题,可以视作全模型覆盖。
**Tab补全能力:**Zed的Tab补全有点幽默,不知道是初创时期没做好还是啥,居然不能接API,只能使用Github Copilot进行代码补全,要么就用SuperMaven,总体还是为了补全的稳定性,不允许引入第三方API服务。SuperMaven我无法接入,但就接入Copilot的感受来看,相当不错,比VSC自己的Copilot补全体验要好不少,速度快,上下文精准,而且不知道为什么,总感觉Zed的Copilot补全比VSC自己都快,何尝不是一种NTR。
补充一下,还有官方自己的API服务,用的是官方自研的Zeta模型,说是能够兼具性能和效率,实际体验下来速度确实很快,但效果属实幽默,原模原样的补全是常事,函数级的补全更是无语,写好了注释结果补全就是把注释复制了好几遍😅,幽默,但表现正常的时候还可以,正常水平吧。并且Copilot的补全经常崩溃,明明配置了Token但是补全无法启动,而Chat中可以正常调用Copilot,也是很幽默了。所以这里仅讨论都正常的情况下,这个Zeta模型的Tab补全我还是比较认可的,高可用性,速度很快,基本刚写完就有提示了,代码质量也还行,而且一次性可以补很大一段,但是Copilot就很奇怪了,有时候只补全一行代码,有时候补全半个函数,倾向性一直在变,不清楚是补全提示词的问题还是啥。
**Agent代码编写:**这一块是Zed给我惊喜比较多的地方
- **全模型覆盖,功能无阉割:**首先自然是刚才提到的基本实现了全模型覆盖,只要你能接入API,就能实现全量功能的使用,这可比Cursor强多了,Cursor接入API是限制Agent模式的,只能用Ask模式,但有一说一只能用Ask模式和直接用网页端区别真不大,这一点上确实能感觉到Zed的开源的优势。
- 原生级别的工具调用:正如上面所说,Zed的AI是原生的,而不是类似VSC系先做了个编辑器,通过插件的形式深化AI能力,Zed将常用的诸如
Edit,Read等工具都做了原生级别,LLM不需要和编辑器进程进行工具调用通信,而是直接操作工具进行代码片段的增删改查。Zed在自己的AI介绍中提到过当你选择了上下文的时候,Zed编辑器直接通过内存中的AST树进行代码片段的获取而非调用编辑器进程API,进一步降低了大模型调用的延迟,使用下来的体验是,这些原生工具的调用效率确实高于Cursor之类的,延迟也很低,大文件的读取和代码片段的定位都是遥遥领先,但目前并没有感受出来相比传统的VSC魔改的IDE有什么本质区别,可能和目前不够完善有关系。 - **长对话体验:**不知道是Zed做了什么优化,我总觉得单次对话中,Zed发起的请求会更积极的调用Read,Edit之类的工具,并且总次数也较高,单次会话的长度也很高,体感上完成差不多的任务,比其他IDE的对话次数是要少的,因为他一次对话就能写很多内容,并且得益于这个渲染引擎,阅读滑动的体验都是一流。
**工具调用:**但是真到了MCP之类的外部工具调用这一块,又成了Zed的弱项了,因为基于Rust,导致MCP工具启动失败,要么就是调用不了,超时,暂不清楚问题在哪,毕竟Beta版本,李姐万岁。
好吧找到问题了,原来是目前作为拓展安装的MCP是调用原生nodejs的,但我的nodejs没有在系统环境变量中,导致这个问题,手动配置MCP服务使用bunx即可。
价格
这个价格很难评,官方AI服务的价格如下
- **Free方案:**2000次免费补全,但是实测补全速度挺快,脑子不太好,不如Copilot。无限制的外部API调用,这个好评,不限制功能,相当于免费给了框架。
- **$10方案:**单看内容,远不如别家,考虑到$10才买了$5的token,其实等于是花钱买了个无限Tab补全,Copilot个人版$10可比这丰富多了,难评。
缺点
其实在上面的讲述中,Zed目前的缺点已经很明确了
- **稳定性缺失:**至今在Windows上仍旧是个Beta版本,使用过程中小Bug不少,渲染上面也是问题频出,听说Zed工作室规模很小,单单Github上目前就有2.9k的issues,感觉以这个速度来看,正式版本可能要猴年马月了,到时候别家发展可能也好很多了。
- **简单到有点简陋:**目前95%以上的设置项都需要通过手动编辑json文件来设置,然后相关说明也没有,描述也不给,效果全靠试或者去官网看文档,有点过于Geek了,AI功能目前来看也是比较少,其实就是基本的补全+Agent模式,其余的花样目前来看是没有的,按照官方的思路不清楚以后会不会有。
- **MCP适配差:**适配很差,大多数主流MCP做了适配的就还好一点,但是没做适配的就看运气了,并且不知道是不是提示词设计的问题,使用Zed能明显感觉模型调用MCP工具积极性挺低的,经常在提示词中明确指出使用XXX工具,还是会不使用或者莫名其妙先输出一些东西再去调用工具。
- **插件生态毛坯房:**插件生态基本默认没有,目前好像才40+的插件,和VSC系4w+的插件没得比,连个可视化Git(Git Len)都么有,目前还是玩具水平。
- 语言服务器:虽然官方宣称语言适配很全面,但使用过程中不尽如人意,Python环境的支持很一般,lsp还老报错,后来倒是又好了,反正稳定性就那样,目前没有太高期望,主打一个未来可期。
- **Agent还不够丰富:**虽然说这个Agent目前使用体验不错,但还是在各方面都有所欠缺,比如检查点没有友商的好用,没有Todo工具,优化提示词也没有,友商现在都整了后台代理、Bugbot这种体验很不错的东西,而Zed这方面差很多,只有一个Chat和Agent,虽说可以自己写Profile,但是不如人家开箱即用。
- **定价幽默:**目前来看这个定价没有一丝丝的竞争力,和他一个价位的有Trae,CodeBuddy(限时半价),Qoder(限时半价),Copilot,这几个都是$10俱乐部的,提供的积分或者是次数至少都够200次左右的中等对话。但是Zed的套餐只是一个$5的额度和无限补全,个人认为没什么性价比,不过考虑到Zed的原生AI能力对BYOK完全开放,可能官方也没怎么准备好好经营这套官方API服务吧。
总结
异军突起的AI IDE,以效率和速度著称,目前来看不够完善,尤其是Win上Bug还不少,但是感觉潜力十足,等什么时候完善了社区生态和插件生态,或许能做条鲶鱼。目前玩玩还行,真用这玩意写项目费点劲,毕竟出个问题上网都查不到,IDE界的信创了属于是。
VSCode(with Copilot)
VSCode属于是老熟人,严格意义上来讲,VSC+Copilot才是我第一次接触AI辅助开发,那时候应该还没有AI IDE这个概念,当时的Copilot基于GPT-3变体的Codex模型,第一次把函数级代码补全,整行补全的能力引入VSC,这给我带来了极大的震撼,以前那里吃过这种细糠,用的都是Tabnine这种一个变量一个变量的补全,从来没想过代码还能这么写,省得CV了都,并且我使用VSC+Copilot的时间其实还要长于Cursor(因为能薅学生包,四舍五入就是不要钱),所以这部分的主观评价只会更多。
IDE本体
其实我感觉这个环节没什么好聊的,VSCode基本是家喻户晓的编辑器了,原汁原味的VSC体验,也是目前这一大票AI IDE的老祖宗了,给巨硬毛都薅秃了,基于他的开源版本魔改,抢占他的市场,还要用你的本家插件,给巨硬那会儿急的把三方魔改IDE里的RemoteDev插件和C++插件包都给屏蔽了,不让白嫖劳动成果
**外观:**这个是真没什么好说的,原味体验,你记忆中他是什么样,现在还是什么样,没有一丝丝区别,有了上面的讨论之后,感觉这个环节都可以跳过了,如果这个都没见过的话建议下一个看看,反正不要钱。
**AI交互体验:**某个版本之前,VSCode的AI体验全部来自于Copilot插件两兄弟,一个提供补全能力和AI基础能力,另一个提供Chat对话能力,包括Agent模式。突然有天他开窍了,看着Cursor,Trae一个个魔改IDE都开始叫自己AI原生IDE,终于急了,把Copilot开源了,然后合并进了VSCode的底层能力,也是一个AI原生IDE了,但这并没有带来什么体验上的差别,无非就是内置了。
整体的使用体验基本上是对标Cursor的(疑似爸爸像儿子了),Agent模式,行内AI,Tab补全这些功能都有,也有自动获取上下文,选择代码片段这些已经是基础的东西
但是VSCode缺失了一个挺有用的功能,就是终端输出结果选择之后可以直接添加到上下文,这个功能在Cursor里我觉得很好用,省的一直复制粘贴,但是VSCode中没有,算是一个遗憾吧。
AI能力
作为很早开始布局AI插件的VSCode,它的AI能力反而并不是很顶级,至少在我看来很多时候简直是简陋,有一种不对味的感觉
**模型覆盖:**巨硬家怎么可能缺钱,也是主流模型全覆盖,常规水平,O家,A家以及G家都有,但是没有Cursor那么全面,基本都是1-2款主推模型,例如Claude就只有n-2代,claude3.5这种老模型就不会上了,GPT倒是还挺多,5,4.1,4o都有,还有o3-mini,但说实话Copilot调教能力一般般,O家模型表现普遍差。
**Tab补全能力:**有一说一,这是一个很幽默的地方,正如刚才所说,作为VSCode自己整的Copilot的自动补全,不管是速度还是代码可用性都低于Zed调用的Copilot,这事就邪门,明显能感觉到在VSCode中的Copilot补全速度慢很多,右下角的小圈要转半天,而且补全的逻辑也是更倾向于短代码补全,比如如下的一个函数
//编写一个API,返回随机笑话
async function fetchRandomJoke() { //第一次补全
try {
const response = await fetch("https://official-joke-api.appspot.com/random_joke");
if (!response.ok) {
throw new Error(`HTTP ${response.status}: ${response.statusText}`);
} //第二次补全
const joke = await response.json();
return joke; //第三次补全
} catch (error) {
console.error("获取随机笑话失败:", error);
throw error;
} //第四次补全
} //严格意义来讲这个花括号都用了一次单独的补全。。。
很短的一个函数,他分了四部分补全,先补全第一行的定义,然后一段一段拼出来整个函数,只能说和Cursor,Trae之类的补全体验差距不是一般的大,速度体验都很一般,属于堪堪可用的级别,主要是这两年确实让Cursor和Trae把阈值拔高了,不太能接受这种很一般的体验了。而且老丢三落四的,最开始补全完函数之后居然漏了个花括号,还是手动到那个位置才弹出来的补全提示,跨行补全这块被甩了几十条街。还有整体上下文感知很差,例如我在上面添加了这个函数之后,下面应该要有一个用来暴漏接口的函数,但是他是读不到的,必须手动把光标挪到下面的API函数部分,他才能感知上下文发现少了点东西,然后又是一段一段补出来,只能说挺糟糕的。
**Agent能力:**如果说刚才的那个是堪堪可用,那这个只能说非常凑合,能感觉到Copilot对于Agent部分基本没什么调教,就是一手力大砖飞,实力有多强取决于模型有多牛逼,Agent提供的能力完全感知不到,和Claude Code这种Agent设计非常好的选手比起来简直是一个天上,一个地下,这让我想起来同样是巨硬的Azure,他提供的大模型API服务就是我用过最糟糕的,同样的GPT-4o他的就感觉比别人的蠢,甚至连有些中转都比不上,更别说官网逆向的那种,那是比都没得比,一直怀疑巨硬的API服务有问题。
然后是花样上,也啥都没有,就一个Agent模式,一个Chat模式,别的啥花样都没有,给人感觉就是简陋,要知道连RooCode这些拓展都上了Plan模式或者Architect这些规划模式,巨硬在这一块跟的非常晚,非常落后,可以说纯Agent能力基本没什么竞争力,如果不是学生包能薅我估计我也不太会去用。至于什么后台代理更是想都不要想,没有的事。
给人感觉巨硬现在只搭了一个挺大的架子,把AI能力的架子搭好了,但本质上还是个简装房,能住是能住,但是就是很不舒服,啥都得添置,没有开箱即用的感觉。就一场考试,他就是奔着60分及格去的,不能对他有太多的要求。
**工具调用:**这个就是Copilot的强势所在了,不管怎么说毕竟是亲生的,很多API想给就给,工具也是非常的多,Github的工具也是最先适配的。
能看出来巨硬现在就是搭了一个很不错的底子,然后可以根据这个底子去进行一个装修来达到自己想要的那个感觉,IDE界的特斯拉了属于是。
MCP工具也是很不错的,基本用下来,除了Cursor+Claude以外,就属VSCode+Copilot在Agent模式下报错是最少的,工具调用这一块调教的相当好。
价格
价格没什么好说的,算是最实惠的那一档了,性价比很高,$10就有无限补全和高级模型访问,但是但是,这个计费机制也是多次修改的,最开始是有一个内置的限制,没有明说具体限制这些模型多少次,但是体感在4-500就会被限制,后来官方声明修改高级模型访问限制,学生包的Pro限制300,正常付费Pro好像是500+,但是这个后来也很快废弃了,转用了一套倍率+次数的方案,各个方案的基础计数如下
然后针对所谓的高级模型(例如Claude Sonnet系列),又增加了一个高级请求倍率,如下图
但这个很抽象,之前官方给的表里其实有很多模型的倍率是>1的,表明官方其实有意限制高级模型的调用次数,想让这个数字小于限制,但后来又脑子一拍😅,把高级模型改成1x了,而是降低了一些小模型和基础模型的倍率,来实现小模型的次数增长,很抽象,现在基本可以视作Pro套餐是300次的Claude Sonnet模型,希望他不会哪一天又偷摸改一版。但不得不说,Copilot确实是目前少有的明确写明了调用次数的,相对而言,其他家多多少少都采用了模型倍率+Token的计费模式,实际使用起来模糊的很,巨硬还是多少有点面子的,起码给了个挺清晰的数字。
缺点
讲完了上述内容,就不得不聊一聊缺点了,VSCode+Copilot的缺点其实基本集中在Copilot上,毕竟VSCode这么多年了也没啥太大的问题了,AI能力也基本都是这个插件的能力,所以缺点主要在AI上。
- **补全能力一般:**正如上述所说,Copilot的补全能力实在不能算多好,甚至部分环境下堪称又慢又卡,体验不是很好。胜在免费2k次。
- **毛胚体验:**Agent能力太少,太过于基础,基本就是去年的Cursor的水平,和现在的Cursor,Trae比起来花样实在太少,只能应付简单的代码编辑场景,Debug能力都很一般。并且可能是提示词啥的调教一般,基本全靠模型力大砖飞,体感上完全感受不到Cursor的那种效果。
总结
其实没什么好说的,稳扎稳打,有着不错的AI能力基础,但是地基虽然打得好,楼等于是一点没盖,目前来看只能是第二梯队的东西,胜在性价比颇高,学生包还能薅,如果免费的话还是很划算的。
Trae
为了测评这玩意愣是开了个Pro,不然就那个等待时间,啥也不用干了就等排队就行了,一小时整不了几次对话
作为国内大厂出品的AI IDE,我一开始对他有很严重的偏见和刻板印象,毕竟国内大厂连把一个原神塞进外卖APP这种事都能做出来,什么玩意到他们手里多半也落不了好,事实证明我的刻板印象是对的,偏见也是对的,都是对的,Trae的体验只能说是一般到了一个新境界(Beta版本以及1.x版本),我用的时候特意去下了国际版,因为国内版只能用豆包和DeepSeek模型,表现只有更差。事实证明再好的模型也救不回来💩一样的设计,Copilot和他一比都是眉清目秀。且听我细细道来
IDE本体
只能说冲国人懂冲国人,IDE这一块反而是我感觉Trae做的最好的地方
**外观:**这是我用过的第一个对VSCode的原生样式进行大刀阔斧的改动的IDE,并且最开始不提供第三方主题来着,只能用官方主题的亮色暗色,但是给我的感觉就是好好好,这种设计师建议多来。VSCode原本的风格更接近微软的Fluent设计,能看出来很多地方和Visual Studio是有相似之处的,只是没那么锐利,相对较为扁平。而Trae就非常符合国人审美,将所有的还有那么一点锐利的地方全削平了,整体风格就是更加的扁平化,感觉更像Jetbrain的新UI的那套审美,初见我甚至幻视Fleet(大抵是似了吧),非常像那套UI,给我的观感就是好好好,长在了心巴上,也说不上来什么设计吧啦吧啦的,不懂那些,反正就是俩字–“顺眼”,并且身边的同学也都一致认为这个UI的魔改非常成功,比VSCode好看的不知道哪里去了。
补一个对比图

外观这块没什么了,给到夯
**AI交互体验:**只能说国产软件在简单易用这一块是有东西的,很多地方给了简单,清晰,明了的文字提示,把用户当傻子来教,效果也是显而易见的好,一看就知道

光是给他默认的三种模式都做了文字说明以及展示可以调用的工具,贴心这一块,易用性这一块,并且MCP,模型等等的设置界面也是非常简单,而且Trae的MCP添加应该是市面上最简单的了,直接给做了个MCP市场,和插件市场一样点击下载安装就行,全程都不怎么需要碰JSON文件
常规的AI交互三件套(右键菜单,行内,Chat)也都有,这点没有什么特殊的,各家做的都差不多,纯粹的AI体验基本就到这了
AI能力
关于这个我实在是懒得吐槽,只能说有时候力大砖飞都不好使,完全不能理解他们是怎么做出来这个抽象东西的,最开始我用这玩意的时候甚至以为这个是来搞笑的,填补了AI IDE市场没有小丑的空白,这个前期的难用程度简直惊为天人,即使到现在了也算不上很好用。
**模型覆盖:**依旧是主流模型全覆盖,以及几个国内模型,切记不要用国内版,模型太少了,把Agent上的弱势提现的淋漓尽致。需要注意的是,这个IDE目前要观望一下,因为Anthropic反华加上美国的禁令,后续Trae很有可能得不到新的Claude模型,面临和Windsurf一样的窘境,毕竟Trae的Agent能力不来就不足,把最强模型被断供只会越来越拉。目前Trae只有Claude4.0及以下的模型,4.5到现在还没有上,很可能就是这个原因导致的,所以现阶段先尽量不考虑这个,免得到时候钱白花(🤡)。
**Tab补全能力:**这个是有点惊喜的,之前Trae的补全能力很一般,连函数级补全和行内补全都是吊车尾水平,在2.0更新之后,或许是开发团队痛定思痛悔悟了,明显感觉补全能力提升了很多,速度和准确度都高了不少,并且跨行补全的能力也逐渐提了上来(我们的Trae还在蒸蒸日上),目前来看这个补全能力已经强于Copilot了,但还是不如Cursor。新的CUE补全引擎能看出来明显是用了点心思的,如果能把Agent也提一提就更好了,说不定可以缓解模型断供带来的影响。
**Agent代码编写:**ICU大乱斗的水平,很难想象这个怎么能这么难用,Trae的Agent(Builder)模式调教简直懒得令人发指,不知道是怎么写的提示词,模型经常出现改着改着忘了自己在干嘛的情况,或者一个改动连着出现十几次,一开始我以为是免费的模型砍了上下文,导致记忆力不行,但是这次充了Pro之后我发现他就是这样的,烂就是烂,没有一点改善。新出的SOLO模式看起来是类似Kiro的SPEC+Task,自行规划,自行拆解任务然后执行,但是我没有邀请码,充了Pro也用不了(有一说一这个也要饥饿营销的么,学雷子是吧)
反正以目前的情况来看,如果想要使用Trae体验良好,提示词工程是必不可少的,Trae相比Cursor需要稍微花一些心思在提示词的设计上,不然的话写代码的效果可能是没有那么好的,而当提示词的质量上来之后,能感觉到Trae的模型质量还是可以的,只是被这个Agent模式拖了后腿而已。
可能有小伙伴对这个“差”没有概念,贴几张图大家欣赏一下
是的,这是把Diff都给插进来了
还有这个,这是一个js文件哦,也不知道他想写什么
这位更是重量级,HTML代码里面还掺了点markdown
更恐怖的是什么呢,以上错误仅仅出自两次对话,是的,你没有听错,2次对话就已经写出来这么重量级的东西了,只能说不敢想。
价格
有一说一,免费方案能给到5k个自动补全也是独一档了,至少我没有发现比他更大气的,并且Trae的国内版本GLM-4.6和Qwen3-Coder这种旗舰模型是免费的,排队也没有很离谱,尚可接受的程度。所以我认为性价比这一块是被Trae拿捏了。
再来看Pro套餐,说实话自从Cursor转为Token计费之后,Trae的性价比就已经是独一档了,虽然他弱智了点,但架不住人家量大管饱,账号首次开通Pro会员仅需$3,后续也只要$10,还支持支付宝,汇率是1:7的样子,不管是支付的方式还是价格都堪称顶级,只要一杯霸王茶姬的钱,就能有600次的旗舰模型,哈基米也没有这么便宜啊!!
有一说一这里还有一个很有趣的技巧,Trae的国内版本和国外版是分开的,想用的话都得下两个,很占空间,但是如果在国际版的IDE内登录的时候,将认证链接中的trae.ai换成trae.cn,就能使用国内的账号登录,并且登录完之后完全和国内版一样,调用的模型也是国内版本的,貌离神合了属于是。
缺点
- **资源占用高的莫名其妙:**Trae和其他的魔改VSC小伙伴不同,我也不知道是不是实现目前的这个页面真的要这么多的资源,反正Trae的CPU,内存占用都属实是一种魔改VSC之最,随随便便2-3G内存占用加上20-30的CPU占用率,你说他在电脑里面挖坑我都信,开个2-3个Trae进程电脑都能崩溃,并且高额占用带来的并不是流程体验,相反有点卡卡的,很多操作都会响应慢或者干脆冻屏,不清楚这些资源到底是被谁吃了。
- 内存泄漏:字节系软件的祖宗之法,豆书记、飞书、抖音,个个都是内存泄露大户,没有一款安卓手机能够在长时间的刷抖音之后保持流畅的体验,3A大作这一块。
- **Agent弱势:**便宜是便宜,但是一码归一码,这个Agent水平确实太次了点,不要求你追上Claude Code,起码得把国内友商Qoder追平了吧,好歹比人家早出那么久呢,多丢人啊。
- **模型出的慢:**不清楚到底是不是被制裁导致的,如果是Claude4.5是因为出来没多久,还没上的话也有情可原,但是GPT-5可是8月就出了,一直到9月中下旬才宣布适配,友商第一时间就上的Claude4.5也是拖到现在了还没上,甚至Claude4上面还有个Beta标签,恍惚了,今夕是何年?
总结
你可以说他差,但是模型真没亏待大伙,这个价格实在让人没什么抨击的动力,一杯霸王茶姬💰就能爽用6伯次,多注册几个号一直都是一杯霸王茶姬钱,啧啧,性价比之作。
CodeBuddy
藤子出品的一款AI IDE,参与了他的内测,那时候这个软件还是绿绿的,免费提供500次高级请求,因此大部分的Agent能力都基于内测版本,如今的版本好像也就是大改了主题样式,并未对Agent能力做出太大的改变,因此关于此软件的Agent能力仅供参考
IDE本体
**外观:**这个IDE没什么好说的,算是类似Cursor的魔改风格,并没有像Trae那样对原生界面进行大刀阔斧的改动,但我印象里内测时候改动其实挺大的,正式版本反而改回去了(雾)。外观没什么别的特色,你说他基于Cursor改的我都信。
**AI交互体验:**交互体验这块,CodeBuddy也只有三板斧,其他并没有什么很有特色的地方,所以我感觉藤子这个IDE多少沾点幽默,不管是Agent还是交互都没什么创新,感觉像是搞KPI创新的。
**核心特色:**这东西还是有一点核心特色的,搞了一套自己的外部连接,可以直接上传Figema文件然后转成前端代码,还有一套专用于后端开发的,可以连接外部数据库Supabase(穷鬼乐),感觉很像是内部用的工具顺带发出来,没什么宣发并且做的也是莫名其妙的,整了些看起来很小众的需求。
AI能力
先说结论,惨不忍睹,好久没见过这么fw的AI IDE了,我好像回到了23年,那一年的大模型还很单纯,写代码还没现在这么快,这么好
**模型覆盖:**幽默中的幽默,本来我记得内测期间和Trae是一样的,三大厂都有,但是公测之后Claude全系居然都没了???感觉和字节一样可能被针对了,然后GPT模型的适配和体验都是一坨,3次请求失败2次,剩下一次写的还有问题,这种连API服务都不稳定的东西他们是怎么敢拿出来卖钱的???一眼丁真,鉴定为纯纯的杀软。
**Tab补全能力:**我第一次怀念23年的那个夏天,那会儿的Copilot大概就是这个水平,幽默的不像样,给人感觉补全是没有上下文感知的,代码是乱写的,补全是要人催的,很久没有这种拿鞭子抽着大模型走的感觉了,用惯了友商的产品,基本都是超跑拉着我跑,我审代码的速度赶不上人家写的速度和补全的速度,但这个IDE给我上了一课,一下子有种马拉火车的感觉,根本感觉不到他在写代码,一边写代码一边出补全这种事情只存在于你写的巨慢的时候,故意等一等能等出来,稍微写快一点哪有补全啊。而且函数级补全更是幽默,让他去写一些新函数还行,但是当你修改了一些东西之后,函数内部也有一些变量需要修改的时候,幽默的地方就来了,一动不动啊,我以为我光标卡那了呢,一个字都不吐,我错了,但我不改。更别说跨行补全了,他应该没有这种东西。
**Agent代码编写:**不多说了,上图
3次请求2次报错,还都是等了2-3分钟才报错,这个东西的完成度简直是。。。怎么说呢,说不定马斯克带大伙上了火星这玩意还没法正常用呢,不管是稳定性还是可用性,都让人发自内心的怀疑这到底是不是一个商业产品。
代码编写能力就更是幽默了,内测的时候我使劲蹬了一段时间,当时对他的评价是“力大砖飞”,全靠模型出力,Agent就提供了点工具,还老报错,哪怕是Claude模型都没法降低那个grep和edit工具的报错率,10次调用错8次,还有两次找不对代码。况且这还是有Claude的时期,不管怎么说Claude确实劲大,能拖着这个fwIDE走,现在Claude模型没了,原形毕露啊,太夸张了。只能说不愧是藤子。用完之后我的表情大概就是这样的
**工具调用:**幽默,没什么好说的。
价格
免费套餐给了无限的Tab补全,但说实话,就这种级别的Tab纯纯是添乱的,不用还挺省心的,用了真是一肚子火气。至于$10那个也没什么必要,Trae不仅比他便宜还比他好用,还有Claude模型,完成度比这玩意高多了。
缺点
一身的缺点,感觉都懒得写了
- 幽默的模型适配
- 离谱的Agent能力
- 不知道有什么用的Tab
- 连不上的服务器
总结
无需多言,AI风味的IDE
Qoder
先说态度,我对这种模型完全隐藏的黑箱IDE都不太喜欢,本身也不是什么官方服务,还要隐藏模型,谁知道调用过程会不会注水,我从来不吝用最坏的情况去打量这些厂商。这玩意本身是阿里的不知道哪个团队开发的,话说阿里是真的能套娃,光是已知的出自阿里的就有Qwen-Code,IFlow CLI,Qoder,通义灵码
IDE本体
**外观:**又是一个Cursor换色款,没什么好评价的
**AI交互体验:**简陋至极,除了三大件啥也没有,没什么能称得上特色的东西,记忆,规则,MCP这些基础的东西现在也基本每个IDE都有了
AI能力
**模型覆盖:**我很讨厌这种模型设计,官网宣称支持御三家,但是和Augement一样,提供的时候没有提供模型选择功能,而是按照Qoder官方自己设计的编排智能体自动选择对应的模型,可以理解为黑箱,会根据问题自动进行路由选择,我个人非常抵制这种东西,钱花了完全没有看到花在哪了,模型会不会被注水也完全不知道,可能从头到尾给你好用的都是Gemini模型也没人知道,差评!!
**Tab补全能力:**这个IDE完全不在乎补全能力,以至于我都不知道有没有这玩意,要不是设置里能找到补全的相关选项,我还以为没有呢,完全看不到补全能力在出力,感觉什么都没有,等半天也没有一行代码。
**Agent代码编写:**我一直很怀疑整个IDE都围着这一个项目服务是否是一件好事,模型不可选择,只有一个智能体的选项,然而经过我在一个Rust的Demo中的实测,并没有感觉出这个智能体有什么过人之处,代码写了3次请求才写完,中间工具报错也不少,然后最后代码甚至连编译都过不去,要知道一共连400行代码都没写够,Debug又用了好几次,反正最后也没解决,然后换了Claude Code+GLM-4.5,2轮就解决了编译过不去的问题,并且功能也能正常实现,所以我对这个智能体表示极大的疑惑?只能说几次体验之后表情如下⬇️
莫不是在耍老子这个东西!!
价格
就这个Pro的价格据说是实在卖不出去了才打折的,但是打完折也没人买,毕竟这个智能体+积分计费,可以说是把不透明发挥到了极致,这谁敢买,万一花起来发现还没有金圆券耐用就搞笑了。
免费套餐就给了个补全能力,聊胜于无吧,Trae的免费补全又多又强,这种幽默东西还是算了吧。
缺点
这个懒得写了,全是缺点,或者说没有能写的,目光所及看不到优点,全是问题
总结
感觉是养蛊养出来的东西,毕竟光是阿里系现在就有4个IDE,只能说是神人IDE了

























