一年200次更新,字节TRAE如何拿下全球600万开发者,字节 tz

性能、全能、智能的全方位突破。

作者|Cynthia

编辑|郑玄

2025 年末的 AI 编程圈,分别来自中美 AI IDE 第一玩家的两条最新消息,为本就热闹的市场再添一把新柴。

12 月 26 日,字节跳动旗下 AI 编码工具 TRAE 发布了首份年度报告,并在其中披露:发布不到一年,TRAE 共计为全球用户生成近 1000 亿行代码,处理了 5 亿条开发查询。其全球累计用户数量已经突破 600 万,覆盖近 200 个国家和地区,月活攀升至 160 万。

这是什么概念呢?开源项目分析机构 OpenDigger 做过一个统计,全球 GitHub 活跃开发者总量为 7700 万。基于这个数据,换算一下的话,全球每 13 个开发者中,就有 1 个正在使用 TRAE

更关键的是增长势能与用户粘性,近半年 TRAE Token 消耗量暴涨 700%,6000 名核心用户全年使用天数超 200 天,国际版付费用户更是实现自然周全勤。

几乎在同一时间,同赛道的另一匹黑马 Cursor 传来融资捷报:11 月 14 日,Cursor 母公司 Anysphere 完成 23 亿美元融资,估值飙升至 293 亿美金,这一数字超过了国内大模型六小虎的估值总和

然而,就在一年前,行业对 AI IDE 的评价还充满鄙夷:魔改 VS Code+套壳大模型、只能哄骗没开发经验的小白、生产环境没法用……类似的嘲讽在技术社区随处可见。

短短一年,口碑两级逆转背后,行业到底发生了什么?

通过复盘 TRAE 2025 年累计超 200 次的迭代细节,我们发现,这场质变的答案,就藏在性能、全能、智能,这三个行业关键词中。

01

性能:AI Coding 落地生产的基石

2025 年,当整个大模型产业的主题,从前一年的百模大战快进到 AI IDE 井喷,市场的关注重点,也从是否具备某种能力的选择题,升级成为了用户体验如何的应用题。

性能正是 AI IDE 逆袭的核心逻辑之一。

TRAE 年度报告中的数据给出了佐证:6 月至今,TRAE 的补全延迟降低 60%+,客户端首 Token 耗时降幅达 86%;9 月以来,TRAE 首次构建耗时减少 70%+,非首次构建耗时减少 80%;稳定性层面,TRAE 的 MacOS 崩溃闪退率降至 0.43%,Windows 系统降至 0.71%,补全成功率和会话成功率均提升至 99%+,面板进入成功率更是高达 99.93%。

当然,这些工程层面的优化,往往不是各种榜单测评中的重点,但对开发者的实际体验却至关重要:

这意味着他们可以不再因等待补全中断思路,也无需因工具闪退重复劳动;也同时意味着,AI 编程工具的可用性与稳定性,已经跨过了从 demo 到生产环境的关键一步

字节内部的实战正是最好的证明:据了解,字节内部 92% 的工程师在都使用 TRAE 加速开发进度;其中,抖音生活服务在 DevOps 全链路中接入 TRAE 后,AI 的代码贡献总量占比达 43%,约等于提升近一倍的人效比。

但性能的提升只是落地生产的第一步,如何打造完整的开发体验,才是今年下半年以来行业的关键赛点。

02

全能:全流程开发的全链路打通

性能达标后,今年下半年起,AI 编程工具的竞争就从代码补全、检索等单点任务,升级至全流程覆盖的完整解决方案。

这场竞赛中,Cursor 和 TRAE 的迭代路径极具代表性。

2025 年 10 月,Cursor 正式发布 2.0 版本,宣布支持多模型并行执行、内置浏览器代码测试及语音转码功能,目标直指全流程开发。

而 TRAE 的布局更早:7 月从 1.0 阶段(插件+IDE)升级到 2.0 阶段(SOLO Beta),集成编辑器、终端、浏览器等多工具视图,打通从需求构思到代码落地的完整链路;11 月再推 3.0 阶段 SOLO 正式版,主打「The Responsive Coding Agent」,完成从工具集成到智能协同的升级。

体现在产品设计上,截止如今,TRAE 的 IDE 模式,其核心支撑体系包含智能体、MCP(模型上下文协议)、上下文管理、Cue 四大模块,SOLO 模式在此基础上又进一步强化了对话流、工具面板和上下文管理能力。

其中,值得一提的是,SOLO 模式中的 SOLO Builder 可直接处理 PRD、技术架构文档,并集成了 Figma、Supabase、Stripe、Vercel 等主流工具。而这也意味着,AI 编程软件有了覆盖完整开发的全流程,在连续、多轮、更复杂的项目中承担了更多实质性工作的能力。

支撑这种全能性的,则是行业在上下文管理和工具调用能力上的突破,这也是企业级用户选择专业 AI IDE 而非原始大模型的核心原因。

先看超长上下文管理能力。企业级项目对历史代码的调用、复用程度极高,部分大型项目复用率甚至超过 80%,但海量代码的处理的是大模型的天然短板。

以 Google Chrome 浏览器为例,其代码量达数百万行,按每行代码 5-10 个 Token 计算,完整加载需上千万 Token,远超当前大模型 20 万 Token 左右的普遍上下文窗口。

专业的 AI IDE 则能够针对这一问题,通过引入向量数据库构建 RAG,或者对历史内容进行修剪、分类、优化、压缩等操作,进行上下文管理,从而保证海量代码搜得到的同时,也不会产生过长的上下文,撑爆大模型。

比如 TRAE SOLO 的解决方案就是同时引入以上两种模式,既支持一次检索 10 万个代码文件,通过索引构建实现全仓库的上下文覆盖,让庞大项目的开发不再受限于模型上下文窗口的局限;同时也推出了智能压缩机制,当上下文超过窗口限制时,可以自动压缩,也允许用户手动触发压缩,释放上下文资源,提升模型输出效果。

除此之外,考虑到实践中的上下文类型的多样化,TRAE 还支持 10 余种上下文类型的添加,包括 #file(文件)、#folder(文件夹)、#doc(文档)、#code(代码)、#figma(设计稿)、#image(图片)等。

如果说更强的上下文检索与更强的大模型,让模型可以深入大型、企业级项目的开发;那么工具使用能力的进化则带来了更好的四肢,支撑起 AI c 编程软件在企业级项目中的全流程覆盖。

TRAE 目前支持的 MCP,涵盖浏览器自动化(Chrome DevTools、Playwright)、AI 辅助推理(Sequential Thinking)、系统工具(文件管理、命令执行)、专业工具(IDA Pro 反汇编、Supabase 数据库操作)等多个品类,总数量达 1.1 万个。

借助以上海量工具的接入,企业真正实现了项目不同开发环节在同一流水线上的高效、无损对接:比如,集成 Figma 实现了设计稿直接转代码,解决了前端开发中设计与开发的衔接痛点;集成 Supabase 打通了数据库操作链路,无需切换工具即可完成数据层开发;Stripe 的集成则让支付功能开发无需重复对接第三方接口;Vercel 的接入则实现了代码编写与部署的即时联动。

体现在实际项目中,就是过去开发一个带支付功能的 H5,企业要在设计工具、编辑器、数据库工具、部署平台间反复切换,现在用 TRAE SOLO 模式,一个界面就能完成所有操作。

但问题是,专业项目中,AI 产出的代码,我们真的能相信它吗?

03

智能:如何实现 AI 自主能力与可控的平衡

一组有趣的对比是:进入今年十月以来,AI 编程赛道掀起了一股 Agent 热:从开源代码平台 GitHub,到大模型玩家 OpenAI,再到主流 AI IDE 产品 Cursor 、TRAE 全数下场,试图让 AI 能够自主理解开发目标、承接上下文并自主调度工具,独立推进开发各阶段任务。

TRAE SOLO 正式版,无疑是其中增长最为迅速的一个:数据显示其国际版 SOLO 模式从 Beta 到正式版,用户累计渗透率达 44%,问答规模暴涨 1300%。中国版 SOLO 上线后,每 10 位 TRAE 开发者中就有 3 位采用 SOLO,问答规模增长 7300%,用户交互深度提升 74%。

但供给侧的狂热,与需求侧的警惕形成对比:近期多家大厂陆续出台 AI 编码限制政策,泄密之外,AI 生成项目 BUG 过多成为核心顾虑。在实际生产中,AI 花两分钟生成的代码,常常需要程序员用 20 分钟 review,然后再花两小时改 Bug。

对比背后,是 AI 编程的致命两难:要如何在提升 AI 自主性的同时,保证代码的可控性和可追溯性?

TRAE 的解法是将「结对编程」理念融入 AI 工具设计。

这一诞生于 XP 敏捷开发的概念,核心是两个角色协同:驾驶员负责敲代码、关注细节,导航员负责把握方向、发现问题。

TRAE SOLO 将这种模式升级:当用户使用 SOLO Coder 智能体时,可以勾选「Plan」模式,AI 收到任务后不会直接写代码,而是先输出详细的开发计划,开发者可以与 AI 反复沟通方案,明确开发阶段、任务拆分和技术选型,直到达成共识再推进开发。

此外,在大型项目中,牵一发而动全身,如果 AI 生成的代码不规范、黑盒过多,短期看似高效,实则将项目风险后置,形成技术债务雪球越滚越大,且难以修复。

因此,Reddit 上一度流行一个段子:本来代码写出来只有作者和上帝能看懂,用了 AI coding 之后,就只剩上帝能看懂了。

针对大型项目这种对标准化的更高需求,TRAE 推出了自定义智能体功能。开发者可以根据项目的开发规范、流程要求,创建专属智能体,让 AI 生成的代码天然符合团队的编码习惯和质量标准。

数据显示,TRAE 中国版 57% 的用户会使用多于一种智能体,国际版 84% 的用户会使用多于一种智能体。TRAE 累计成功创建/编辑的自定义智能体达 36.5 万个。

04

结尾

过去一年多,关于 AI 编程,行业一直有一个疑问:当大模型的能力已经足够强大,甚至能直接通过对话生成代码时,我们为何还需要专门的 AI IDE 软件?

前 a16z 合伙人 Benedict Evans 在近期做客老东家播客时,给出了答案:当你与空白的原始聊天机器人对话时,你的提问不仅要说明想要什么,还要包含实现这件事的所有细节。

换而言之,好的产品是能力与经验的封装,最终交付给用户的是解决方案,大模型只是被封装的内容之一。而用户打磨实现细节、交付完整解决方案。

从这个角度来说,TRAE 本质上是字节的先进代码开发经验,以及大模型能力的深度封装。

而位列国产 AI IDE 第一的 TRAE,其本质,正是一个「伪装」成 AI IDE 形态的字节能力全家桶 RAR。

*头图来源:TRAE

本文为极客公园原创文章,转载请联系极客君微信 geekparkGO


nginx