前言

  • 在一个周末我尝试进行了两天的 vibecoding, 高强度的 vibecoding(超过5000w token 消耗), 的确是很不一样的体验
  • 首先我想要说的是我可能和绝大多数人不一样,绝大多数人去用 AI 大部分是基于小项目,或者说大项目,类似企业级的项目分为这两种,因此他们得出的结论通常有两种。对于那些开源项目或者说小公司的项目,他们通常会觉得 AI 是一个非常有帮助的工具,甚至可以说能替代程序员,但是实际上针对于大厂,类似字节、腾讯这种的员工来说,当他们真正使用这 AI 的时候,他们会发实际上 AI 能发挥的功能是非常有限的。之所以得出这两种截然相反的结论,主要是因为他们从事的行业或者说做的代码规模的不一样,但我其实比较幸运,我首先本身是大厂的员工,因此我能接触到那些动辄十万乃至百万行的代码。以及我同事在维护着很多开源项目,包括在改写一些自己的小项目之类的,因此我也有需求是去写小项目的。这就给我非常大的体验,在这两种场景下确实 AI 能发挥的功能差异非常大
  • 但是实话实讲,我确实被震惊到了,因为我从来是不带以AI 发展的速度确实是指数级的。

表现

  • 小于10万行并且依赖的项目里面 AI 发挥的功能是非常大的,比方说我曾经用 AI给某个界面加上某一样元素,或者说给某一个仓库加上某一种功能。这些场景下 AI 都能非常快和准确的完成任务。但是当代码量大于10万行,当然这个估计并不准确,我只能够根据常识和经验来进行一个初步的预估。大于10万行的时候,AI 解决一个问题的时候,就没有办法全部阅读完所有的代码,然后得出正确结论。经常是 AI 会陷入一些不停的自循环搜索,或者说一些其他的一个问题,甚至会把你的代码给改崩。这种情况下基本上是属于不可用的。在大规模的代码,或者说有复杂的外部依赖的时候,AI 的实代码功能受非常大的影响, 基本不可用
  • 而且还有点 AI,目前的上下文长度还是不足以支撑编写大型项目。我当时编码时候用的是100万上下文的。Gemini 2.5模型,但是实际上还是不够用,还是会有超越100万上下文的情况。

AI 发展的方向

模型

当年互联网之所以能够突发猛进发展起来,有一个很重要的原因就是网络从2G 变成3G 了,乃至4G 了,更大的带宽承载了更多的流量,这是整个互联网能够蓬勃发展的基石和底座。而现在 AI 的时代,模型的质量就是网络的速度

更大

更小

应用

10年叫做互联网+万物, 20年就是 AI+万物

对行业的冲击

应该做什么