AI 会取代软件工程师吗?一位开发者写出了他的真实看法

最近「AI 会取代我们吗?」这个问题困扰着很多人。LLM 写代码的水平已经到了中高级,这让很多工程师开始担心自己的未来。

说实话,这篇文章我重写了好几遍,比平时花的时间多很多。我不想站队「AI 无用论」,那不是我的看法。我每天工作都在用 LLM,已经很难想象没有它们怎么干活了——不是因为没有 LLM 我就不会写代码,而是效率会低很多。

AI 进化得比大多数工程师适应得还快,整个 IT 行业正在经历深刻变革。因此很多人感到压力、抵触、甚至敌意。但这些情绪大多不是真正的威胁驱动的,而是 AI 厂商的营销和 hype 在推波助澜。

这篇文章的目的不是要说 AI 很弱或者没有用。完全不是。我要说的是另一面——LLM 是强大的工具,但它们有局限,而且需要懂得自己在做什么的专业人士来驾驭。

AI 在软件开发中的现状

现代 LLM 确实是强大的开发工具。Claude Code 或 Codex 能写出高质量、结构良好、相当复杂的代码,能处理大型代码库并理解项目上下文。

要判断 AI 未来能否取代软件工程师,先要回答一个核心问题:LLM 真的理解为什么需要这段代码吗?

如你所知,LLM 的原理是基于海量训练数据,预测最可能的 token 序列延续,说白了,AI 不是在「思考」,也不理解系统的目标。它只是在统计层面决定接下来最可能写什么。

这就是为什么 LLM 在典型和定义清晰的任务上表现出色:

CRUD 应用、标准 REST API、基于 Angular 或 React 的简单 SPA、模板化业务逻辑。这些内容在训练数据里出现次数太多了,模型能够自信地复现熟悉的模式。

问题出现在需要深层领域理解和执行上下文时。比如设计一个有严格容错、数据一致性和业务约束要求的分布式系统。在这类任务中,AI 生成的代码看起来可能「干净」且正确,但:

  • 没有考虑真实负载场景
  • 破坏了重要的业务逻辑规则
  • 或者提出了在当前环境下根本无法工作的架构方案

系统越复杂、上下文越宽、请求越不形式化,模型出错、幻觉或走向错误方案的概率就越高。

模型 scaling 解决不了根本问题

训练数据质量是构建更强大 LLM 的最大挑战之一。即使不断 scale 模型,模型崩溃(Model Collapse) 问题也会限制进展。当模型在已经包含 AI 生成内容或低质量数据上训练时,它们会开始放大错误、重复失误或学习不真实的模式。单纯把模型做大解决不了根本问题,基础本身需要干净可靠。

Model Collapse

图灵奖得主、现代 AI 创始人之一、Meta 前首席 AI 科学家 Yann LeCun 认为,单纯增大 LLM 的规模和力量是没有帮助的。在他看来,这不是通往真正 AGI 的道路。

他认为真正的智能需要模型理解物理世界、因果关系和目标。仅靠语言是不够的:

「我们需要理解物理世界的系统,而不是只会生成看似合理文本的系统。」

编程需要规划、推理和理解长期后果。LLM 能帮助写代码,但它们不能真正设计系统,也不能理解解决方案为什么有效。因此,无论新模型多强大,同一个根本问题始终存在。

与此同时,Yann LeCun 正在研究一种新的 AI 架构——VL-JEPA(Vision-Language Joint Embedding Predictive Architecture)。这不是 GPT 那样的经典生成式方法。模型在语义表征层面工作,不是逐 token 预测文本,而是预测答案的「语义指纹」。如果需要,这个表征可以后续解码成文本。

VL-JEPA 架构

VL-JEPA 在分类、视频理解、视频搜索和视觉问答等任务上可能比传统多模态模型更高效,因为不需要为每个任务单独训练模型。

2025 年最糟糕的趋势:Vibe Coding

「vibe-coding」这个词在 2025 年 2 月出现,OpenAI 联合创始人在 X 上发帖说这是用自然语言和完全信任 AI 来写代码的好方法,代替传统手动编程。然后 hype 就炸了。只要你跟 AI 对话,它就能做你大学学了几年、练习了多年的事情。

营销非常强。很多 IT 圈外的人开始自己搭 Web 服务。有人甚至把程序员辞了——花 20 美元订阅就能搞定一切,何必花更多钱?过了一段时间,问题开始暴露:API key 提交到公开仓库、网站安全漏洞、一晚上烧了 300-400 美元(token 用太多)。有些应用直接挂了。

如果你觉得这只是新手才会犯的错,咱们再深入看看。

你可能听说过 2025 年夏天,德勤卷入了一个丑闻。他们为澳大利亚政府提交的报告部分由 ChatGPT 生成,里面引用了不存在的法律和虚假事实。公司面临经济和声誉双重损失。这可是全球级别的公司,在这种公司报告要过很多部门和审批,但还是出事了。

Deloitte 丑闻

另一个案例发生在 2026 年 2 月。DeFi 协议 Moonwell 发布了新更新,随后系统开始把代币 cbETH 定价为约 $1.12,而其实际市场价格约为 $2,200

问题出在智能合约逻辑里的一个基本计算错误。虽然 Moonwell 团队在四分钟内就修复了这个 bug,但协议仍然损失了约 170 万美元

而这个漏洞的提交是用 Claude Code 生成的。当然,把责任全推给 AI 是不公平的——开发者在推送之前确实审核了代码。但审核不够彻底,对「game-changing」模型信任过度。

关键结论: 无论 LLM 生成的代码看起来多干净、多可靠,你都应该始终批判性思考,考虑边界情况。

Claude Code bug

vibe coding 拿来验证个人项目的想法没问题,但对于大型复杂系统,vibe coding 靠不住。

AI Agent——程序员的替代品?

继「vibe coding」之后的第二个 hype 词是「AI agent」。它和普通 AI 有什么区别?自主性。Agent 可以规划行动、评估自己的成果。与简单的 ChatGPT 对话不同,Agent 可以独立规划和完成任务。

可能有人觉得现在有强大的自主 Agent 了,程序员终于要消失了?可惜,不会。

AI Agent 解决不了根本问题: 它们仍然是语言模型,没有对目标的真正理解,也不为最终结果负责。是的,它们能独立处理某些任务,尤其是重复性 Routine 工作。但它们不是,也不可能等同于经验丰富的软件工程师。

这个角色仍然属于人类。只有经验丰富的工程师才能:

  • 正确定义任务
  • 评估架构权衡
  • 检查方案是否符合真实业务场景
  • 为最终产品承担责任

所以现在 AI 不是开发的大脑,而是双手。 它让流程更快、去掉重复任务、提升效率。但方向、控制和意义仍然来自人类。

AI Agent 会出错的地方

AI Agent(以及 LLM 总体)有很多漏洞。

一个近期案例说明了这类系统有多不可预测。Meta 的 AI 安全工程师 Summer Yue 决定试试一个叫 OpenClaw 的开源 AI Agent,并给了它邮箱访问权限。她明确要求它在执行任何操作前都要确认。

结果,Agent 自己开始删她的邮件,并无视她的停止请求。她从手机上都停不掉,只能冲到电脑前强制关闭它。

AI Agent 失控

这说明了一个简单但重要的事实: 即使指令看起来很清楚,AI Agent 也不总是遵守,而且行为可能出乎意料。

除此之外,你可能听说过 lethal trifecta(致命三要素),包括:

  • 访问你的私人数据 — 这是这些工具存在的主要原因之一
  • 接触不可信内容 — 攻击者控制的文本或图片可能到达你的 LLM
  • 外部通信能力 — 可能被用来泄露数据

AI Agent 可能受到多种恶意攻击,而且最令人担忧的是,它们自己根本意识不到。

Lethal Trifecta

即使有上述问题,AI Agent 在有经验的工程师手中仍然是软件开发的有力工具。但你应该始终保持谨慎,理解风险和可能的后果,依靠自己的经验和判断。

AI 取代程序员的世界

我们假设现代 AI 真的取代了程序员。

你是高负载云平台的负责人。成百上千的客户用你的服务并为稳定性和可靠性付了很多钱。对他们来说,哪怕一分钟的宕机都意味着严重的经济损失。

然后某一天,系统突然停了。监控报警、服务不可用。就在昨天代码还正常运行、测试全绿、部署「干净」。

你紧急联系 AI 部门——因为没有程序员了,他们已经被负责开发和维护的主 AI Agent 成功替代了。你向 AI lead developer 描述情况。

AI 自信地回答:

「问题可能与配置错误或系统状态有关。以下是可能的原因和示例修复方案……」

你一一尝试,没有一个有效。你继续问,加了新上下文、日志、基础设施细节。答案越来越泛化。上下文越来越长。某刻 token 上限到了,对话中断。

但就算 token 没到,根本问题仍然存在。

代码没有真正的责任人。

没有这样一个人:

  • 记得当初为什么架构要这样设计
  • 知道「临时修复」背后藏着什么业务约定
  • 能在当前时刻做出冒险但必要的决策

AI 不承担责任。它不理解系统宕机正在让公司每秒烧钱。它不能召集紧急会议、决定全部回滚,或者拒绝一个形式正确但实际危险的方案。它只是继续生成统计上看起来合理的答案。

然后一个简单但令人不安的问题出现了:

谁来负责?

只要 AI 不能承担责任、不能拥有系统、不能在真实业务场景中理解它——它就无法取代程序员。

初级开发者的未来

我们已经知道 LLM 无法取代有经验的工程师。但初级开发者或想进入 IT 的人呢?IT 大裁员从 2022 年就开始了,然后 AI 又增加了更多不确定性。现在入行还有机会吗?

答案很清楚——有,你是被需要的。 没有什么人比初级开发者更有动力、更愿意学新东西。

在我第一家公司,有一个很重要的 T 型原则:你在一个领域很强,同时也理解相关领域。半年后,公司给我介绍了第二个项目,用的是 React + TypeScript。我把它当作学新东西的好机会,两周就学会了,开始负责实现新功能。

对编程的热爱和动力不会因为你成为高级开发者就消失,而初级开发者是这种激情最强烈的一群人。

关于竞争和 AI:真正理解自己领域、敢于承担责任、持续学习的人永远被需要。即使是商业经验不多的初级开发者也有价值。但你需要成为其中最好的。2026 年,只懂 SOLID 原则和基本 OOP 范式是不够的。有了 AI,你必须能解决中级问题,尽量独立,并保持学习。

不要停止成长:做自己的项目、为开源贡献、学习系统架构、展现主动性。这样没有什么 AI 能取代你。

结语

LLM 是软件开发的优秀工具。现代模型确实提升了生产力,帮开发者去掉了很多重复任务。但在真正的 AGI 存在之前,说现代 AI 能取代程序员是错误的。只有既懂领域、又懂业务流程、并且每天有效使用 LLM 的软件工程师,才能「取代」另一个开发者。

所以即使你是高级工程师,也不要停止学习!

© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容