Skip to content

AI编程2025总结:国产模型能力追平,国产编程工具还在情感陪伴

前几天,我看到一篇国产 AI Coding 工具的案例文章,花了不少篇幅在讲一个”智能体的附加价值”——当你写代码写到崩溃时,它可以安慰你、鼓励你,让你感觉好受一点。

作为开源 AI 编程工具 AutoDev 的作者,读到这里,我心里冒出了一个不太礼貌的问题:如果模型和工具真的足够强,为什么还需要靠安慰来弥补使用体验?

当问题迟迟解决不了、工程迟迟跑不起来时,程序员真正需要的,究竟是一句”你已经很努力了”,还是一个能把事情做完的系统?

趋势 1:国产编程模型的”能力追平”

Section titled “趋势 1:国产编程模型的”能力追平””

到了 2025 年,一个出乎不少人意料的变化正在发生:终于有国产模型开始沿着 Claude 的路线,主动强化主力文本模型的编程能力与 Agentic 行为,而不是只追求通用对话表现。这意味着,模型的目标不再是”能写代码”,而是能处理真实编程场景中的复杂任务。

到年底,我被付费体验了国产编程模型 Minimax M2.1,以及新出的 GLM 4.7。暂且不讨论它们在纯 Coding 能力上是否已经追平 Sonnet 4.5,但至少在 Agentic 能力层面,已经给出了相当扎实的表现:任务规划清晰、工具调用合理,能够完成连续、多步骤的工程操作。

需要注意的是,虽然我们看到在榜单上各种模型的分数相当的高,但是受限于基础模型在语料上的不足,并非所有的场景,都能达到很好的效果。

趋势 2:开放的工具集成,与开放的模型调用

Section titled “趋势 2:开放的工具集成,与开放的模型调用”

与上一年相比,一个明显的变化是:不少模型厂商已经逐步放弃自研 AI Coding 工具。随之而来的,是一种更开放的产品策略——不再试图从零开始”重做一遍 IDE”,而是选择主动兼容、接入成熟的现有工具体系。

这种转向带来了一个更现实的结果:对终端开发者而言,使用的已不再是一个功能有限、体验割裂的”厂商自带工具”,而是最成熟的编程工具 + 可替换的模型能力。

简单来说,你可以:在 Cursor、Claude Code 等各种国外领先的 AI 编程工具中,使用国内的模型。在满足数据不出境等合规要求的前提下,开发者终于可以把模型当作能力模块,而不是被迫接受一整套并不成熟的工具链。

趋势 3:Spec 的复兴与上下文工程的反复试验

Section titled “趋势 3:Spec 的复兴与上下文工程的反复试验”

在 2025 年,我们看到 AI Coding 的发展已经不再停留在”生成代码”层面,而是更强调上下文感知与规范驱动。简单来说,模型不只是写代码,而是要”理解你要做什么,怎么做,以及做完后验证结果”。

几个显著的趋势:

  • 模型上下文协议(MCP)的崛起到 Skill 的崛起:数据孤岛问题长期困扰着开发者:模型在本地写的代码,往往无法接触生产环境的真实数据。MCP 和 Skill 能让 AI 能够安全访问日志、数据库和文档,把模型的推理与工程上下文连接起来。

  • Agents.md 与 Spec-driven development 的实践:SDD 和 Agents.md 等工具,让开发者用明确的”规范(Spec)“来驱动模型生成、测试和执行。AI 不再仅靠提示生成代码,而是在规范约束下反复试验:先计划、再生成、再验证,最后回到规范进行迭代。

从 Claude Code 的最初只是文件操作就能获取上下文,到 CC 年底开始支持使用 LSP(语言服务协议)来获取上下文,都是另外一方面的体现。

趋势 4:AI 编程工具门槛正在下降,端到端落地变得更容易

Section titled “趋势 4:AI 编程工具门槛正在下降,端到端落地变得更容易”

如果把时间拉回到 2024 年底到 2025 年初,AI 编程工具的主要参与者,仍然集中在内部平台与基础设施团队:他们通过 API 扩展、MCP 等机制,将组织内部能力接入现有的 AI 编程工具,解决的是”如何让 AI 读懂内部系统”的问题。

而到了 2025 年中后期,一个更有意思的变化开始出现——端到端能力的实现门槛,正在明显下降。

  • Atlassian 推出的 Rovo Dev CLI 工具与 Jira、Bitbucket 等 SDLC 工具非常好地集成
  • GitHub Copilot 与 GitHub.com 有了更好的集成,它开始无处不在了
  • Augment Review 在 Code Review 场景的进化:对整体代码变更进行结构化总结,具备生命周期连续性
  • 12 月,Cursor 收购了代码检视公司 Graphite,本质上也是在补齐”AI 编程不止写代码,而是贯穿交付流程”的关键一环

这些变化共同指向一个结论:AI 编程工具的竞争,正在从”单点能力”转向”端到端闭环”,而真正的门槛,正在快速向下移动。

趋势 5:自验证时代——AI 编程从”会写”走向”能落地”

Section titled “趋势 5:自验证时代——AI 编程从”会写”走向”能落地””

到 2025 年,一个更值得关注的变化是:AI 编程工具开始对自己生成的结果负责了。这不仅仅是”能写代码”,而是”写的代码能跑得对、能用得上”。

过去,Lint、编译、构建、运行这些手段只是基础检查,更多是工具链的附属,而不是智能体决策的一部分。今年,我们看到验证能力正在发生质变:验证不再只是判断代码能不能跑,而是判断任务是否真正完成、逻辑是否符合预期。

这一趋势在 Testing Agent 里表现得最明显。像 Playwright 的原生 Agent 或 ScenGen 等工具,开始引入类似 OODA(观察–判断–决策–行动)的循环,模拟人类测试员的思路。

Playwright 的 Healer Agent 可以在 UI 变化或断言失败时,自动回放失败步骤、生成修复补丁;动态记忆机制让智能体在未来任务中避免重复踩坑。换句话说,AI 不再只是”写完就算”,而是能够自查、自修、持续改进。

趋势 6:全栈的回归与 AI 替换重复劳动力

Section titled “趋势 6:全栈的回归与 AI 替换重复劳动力”

不过,并非所有变化都是令人激动的。AI 降低了各个技术栈的门槛——后端工程师可以轻松写漂亮的前端,前端工程师也能搞定复杂的容器部署。

表面上,这听起来很酷,但背后隐藏的趋势是:AI 正在逐渐替代那些重复性、可模板化的工作。因为某些大公司,真的在结合 AI 做类似的裁员动作。

在这种情况下,“全栈”不再意味着更高的技术自由度,而更多的是岗位边界的模糊化——很多原本依赖专业技能的任务,现在可以通过 AI 快速完成。对于开发者而言,这意味着两件事:

  • 重复劳动被替代:简单 CRUD、常规脚本、模板化前端组件,AI 能自动生成,降低了人工成本。
  • 核心能力的门槛提升:真正有价值的工作,不再是单纯写代码,而是设计复杂系统、规划工程落地、协调上下游流程。

到 2025 年,国产 AI 编程生态正在形成三大趋势:

  • 模型能力稳步追平,Agentic 行为落地
  • 工具和模型开放集成,形成插件化生态
  • 从”生成代码”向”理解任务、验证结果、端到端落地”升级

与此同时,AI 正在替代重复性劳动、提高全栈能力,但也提高了核心工程能力的门槛。开发者未来需要关注系统设计、流程规划、不可替代的工程能力。

在 2026 年,我们不需要一个会说’加油’的聊天框,我们需要一个敢于在凌晨两点发现系统漏洞并默默提交修复 PR 的’数字合伙人’。