一个独立开发者用几个月时间“氛围编程”出来的项目,被OpenAI收编了。这件事本身不大,但围绕它的争论,折射出AI行业最核心的一个矛盾:模型能力和产品分发,到底谁更值钱?
事情的起点很戏剧化。这个项目最初叫Clawdbot,和Claude发音几乎一模一样,Anthropic两次发函要求改名。开发者先改成Moltbot,后来又自己改成OpenClaw。讽刺的是,Anthropic在商标上赢了面子,却在人才上输了里子。这位开发者最终加入了OpenAI。
Reddit上吵得最凶的问题是:一个能被氛围编程搞出来的东西,凭什么值得OpenAI出手?
有人说得很到位:分发和产品市场契合度,远比产品质量重要一万倍。质量永远可以迭代,但产品市场契合是商业世界里最稀缺的东西。OpenClaw在极短时间内获得了大量真实用户,GitHub星标飙升,全球媒体报道。OpenAI买的不是代码,是势能。
也有人看得更透:他们雇的是一个造出了增长最快项目的流量明星。在今天的AI行业,能写好代码的工程师遍地都是,但能在正确的时间造出正确产品并引爆传播的人,凤毛麟角。想想那些AI公司高薪养着的开发团队,看着一个素人几周内做出大规模采用的产品,内心该有多恐慌。
这也映射出Anthropic和OpenAI两家公司路线的微妙分化。Anthropic更像一家专注的研究型公司,重心在做最好的模型,Claude Code和Cowork面向企业。OpenAI则越来越像一家产品公司,从ChatGPT到Codex到硬件,甚至请来了苹果iPhone团队的人做设备。有人说这让OpenAI不再纯粹,但反过来想,光有好模型不够,还得有人用。
关于Codex和Claude Code的性价比之争也很有意思。不少用户反映,20美元的Plus计划下用Codex,一周都用不完额度;而Claude Code的低价套餐,30分钟就能把限额烧光。背后的原因也很现实:OpenAI坐拥全球约40%的GPU资源,大语言模型在英伟达GPU上跑的效率本身就比Anthropic依赖的自研芯片更高。当然,也可能只是OpenAI更舍得烧钱补贴用户。对消费者来说,原因不重要,便宜好用就行。
但批评声同样尖锐。有人指出OpenClaw的技术含量有限,本质上就是一些脚本循环加简单的记忆系统,没有任何技术壁垒。还有人担忧安全隐患:过度自主的AI代理替用户做财务决策,出了事谁负责?更有人直言,这不过是OpenAI自DeepSeek事件以来又一次慌张的动作。
最有意思的反驳来自项目支持者:任何人都能一天之内复制一个Facebook,但你能让人们真的去用它吗?OpenClaw的代码库经过实战检验,代理在出错时会自动提交修复请求,这种活的生态比任何静态代码仓库都有价值。
Anthropic在商标维权上没有错,不保护商标就等于放弃商标,这是法律常识。但时机和方式值得商榷。当一个开源项目正在爆发式增长时,两封律师函的效果,往往是把人推向对手的怀抱。
这个故事的真正寓意也许是:在AI时代,产品的护城河从来都不在代码里。谁先占领了用户心智,谁就掌握了话语权。技术可以被复制,但时机和信任不能。
深度思考:
现实比"分发 vs 技术"的二元叙事要混沌得多。
OpenClaw事件真正值得关注的不是谁赢谁输,而是它暴露出的行业深层焦虑:当AI工具强大到让个人开发者能在几周内复制大公司几个月的工作时,大公司的应对策略不是技术创新,而是人才收编和叙事控制。这不是强者的姿态,这是防守。
至于"技术可以被复制,但时机和信任不能"这个结论——它只对了一半。时机确实不能复制,但信任可以被摧毁。当一个开源项目的创造者转身加入商业巨头,那些最初因为信任而来的用户和贡献者,会记住这个选择。
在AI时代,最稀缺的资源既不是代码,也不是分发,而是独立性。一旦卖掉,就买不回来了。
18年嵌入式Linux经验,过去一年深度使用AI。真正让人不安的不是AI现在能做什么,而是它的加速度曲线。
一年前Claude还在研究预览阶段,Karpathy刚提出“vibe coding”形容周末随手做的项目。现在他已经弃用这个词,改称“agentic engineering”。不懂编程的人在发布真正的应用,每一代模型都让上一代的工作方式显得原始。
我曾经以5年为单位规划职业生涯,现在连2年后都看不清。那些投入多年打磨的技能——底层调试、内核内部机制、构建系统——究竟是坚固的护城河,还是正在融化的冰山?今天它们有价值,因为AI还做不好。但“AI做不到的事”这个圈子正在缩小。
我真的不确定。只能继续投资AI素养和领域专业性,希望这个组合保持相关性。但我对任何预测都不再有信心。
+ 共识正在形成:从码农到规格大师
讨论中压倒性的共识是,未来的赌注在于成为AI的“规格大师”,而不仅仅是编码者。资深开发者凭借深厚的领域知识相对安全,因为工作重心从写代码转向了写详细规格(CLAUDE.md成为新宠)和验证AI的输出。你不再是程序员,而是agent编排者。
初级开发者和CS学生的前景黯淡,很多人感觉还没开始就要被取代。新的核心技能是高层架构、发现问题的能力,以及识别AI何时自信满满地犯错。
+ 护城河在哪里?
有人指出,低级调试和内核知识并非简单的任务清单,而是“约束素养”——关于系统如何在负载下、在凌晨3点、在真实硬件上失败的直觉。AI能生成代码,但在有状态、硬件耦合的系统中仍然难以处理深层因果关系。
真正昂贵的不再是打字,而是判断力。当代码生成变得廉价,知道代码何时出错的能力变得珍贵。持久的护城河不是写代码,而是验证代码。在加速时代生存的工程师不会是最快的建造者,而是最好的验证者。
一位开发者分享了实战经验:用Claude并行运行5个agents,真正的工作变成了撰写详细的CLAUDE.md文件和审查它们的差异。18年嵌入式经验意味着你知道规格应该说什么——这才是护城河。
+ 软技能的逆袭
有趣的是,越来越多人认为纯技术技能正在商品化。能与客户交流、制定计划、审查、测试和部署功能的人,现在相当于拥有一整个初级工程师团队来完成所有编码工作。
产品意识+AI素养可能是未来十年的黄金组合。编码部分正在快速商品化,但理解客户真正需要什么并将其转化为有用的东西,仍然很难自动化。非技术CEO不想成为CTO,他们需要能接电话说“修好它”的人,而不是自己跟提示词打交道。
一位临床研究护士提供了另一个视角:AI将显著改变她的工作,但主要是向好的方向。大量数据审查、录入和修正工作是愚蠢的,AI做得更好。如果她只需要打针、抽血、知情同意、体检和教育部分,每天能看的患者至少翻倍。工作将变成监督和验证AI的管理工作,而临床工作增加填补空白。
+ 逃生舱:回归物理世界
对于寻找逃生路线的人,反复出现的建议是学一门手艺。AI不能用激光脱毛、不能修管道、不能焊接……至少现在还不行。少数人认为LLM正在触及天花板,但大多数人在为大规模转变做准备。
有人半开玩笑地说要成为美容师,“因为没人信任AI给自己的屁股激光脱毛”。也有人计划做电工、木匠或护理——那些需要在现场、与真实物理世界交互的工作。
+ 系统性思考的价值
一位开发者犀利地指出:AI在自我纠正方面很糟糕。它擅长构建输入输出清晰明确的工具,但当这些输入输出需要改变时呢?AI只是工程工具,目的是加速人类工作流程,而不是取代它。人类仍然拥有真正的自我纠正能力、直觉和系统思维。
未来最受保护的人是那些不断寻找需要解决的问题、知道如何用AI更快理解和解决问题的人。在编程世界,最安全的人是问题发现者,而在过去仅仅是个好程序员和解决方案提供者就能过关。
+ 冷静的声音
也有人保持相对乐观:我们可能正在看到的不是模型本身的重大进步,而是工具使用和我们围绕模型构建的工具链的改进。模型的上下文窗口仍然相当小,在5万到10万token级别表现最佳。
增加上下文窗口可能提升AI,但世界上的算力(和能源)有限。人脑运行功率约20W,却提供令人难以置信的算力,效率惊人。在没有突破性新型AI的情况下,我们可能已经接近可处理的上下文和模型能力的天花板。人脑仍然需要推理整个应用和架构,应用多年有机培养的长期记忆经验。这些模型训练一次后就无法学习新东西——除了上下文窗口内的内容。
+ AI不是泡沫,是汽车时刻
一位即将退休的IT老兵提供了历史视角:大多数一厢情愿的人只是将AI视为即将破裂的泡沫。坦白说,如果我25岁刚开始科技职业生涯,我不知道该怎么办。但AI不是泡沫,它是汽车发明后的那个时刻——人类是马,AI是汽车。
唯一确定的是:那些冻结不动、等待确定性的人可能会被甩在后面。但没有确定性,只有行动。选一个工具开始用,让它教你如何使用它。人类不会消失,工作会转变但不会消失。总得有人决定构建什么、跨团队协调、做判断、与客户交谈、设定方向。
Claude Code 2.1.20版本悄悄做了一件事:把所有文件读取和搜索操作的详细信息,压缩成了一行毫无意义的摘要。
以前你能看到它读了哪些文件、搜了什么关键词。现在你只能看到“读取了3个文件”。哪3个?不告诉你。“搜索了1个模式”。什么模式?不重要。
这不是一个无关痛痒的界面调整。对于在大型代码库中工作的开发者来说,看到AI正在读取哪些文件,是判断它有没有跑偏的唯一窗口。一位管理多个业务领域的CTO说得很精准:他只需要在前三秒确认Claude看的是正确的代码目录,然后就可以放心切到下一个任务。这三秒的信息密度,和其他任何形式的“详细输出”完全不是一回事。
一位使用屏幕阅读器的无障碍公司CTO的反馈更令人深思:视力正常的用户失去的是便利,而他失去的是对工具的信任。屏幕阅读器没有“扫一眼”这个概念,文字要么被朗读出来,要么就不存在。新版本给他的选择变成了“零信息”或“信息洪水”,而之前那个中间地带恰恰是最具可访问性的方案。
GitHub上多个issue里,用户的诉求高度一致:恢复内联显示文件路径,或者至少给一个配置开关。Anthropic的回应是:试试详细模式。
问题在于,详细模式会把思考过程、子代理输出、钩子日志全部倾泻到终端里。用户要的是一根针,给的是一个草垛。于是Anthropic开始反复手术般地从详细模式中剥离各种输出,试图让它变得“不那么详细”。这本质上是用最复杂的方式重新发明了一个配置开关。
更讽刺的是,原来真正使用详细模式查看思考过程的用户,现在反而需要额外按快捷键才能找回自己原有的功能。修一个问题,制造两个问题。
Anthropic团队成员Boris的回应倒是坦诚:随着模型越来越强,代理运行时间从几十秒延长到几小时甚至几天,终端输出量急剧膨胀,他们需要管理默认视图的信息密度。他承认对部分用户“没有达到预期”,并表示会持续迭代。
这个解释合理,但暴露了一个更深层的产品哲学问题。
一位产品经理一针见血:在“改善用户体验”的旗号下简化和移除有用信息,是产品管理中最经典的错误。犯这个错误的根源,是不够深入地理解用户为什么觉得某些信息有价值。很多人被教导“精简和移除是正面的”,尤其当非专家用户的声音占据注意力时,这种错误就更容易发生。
这里有一个被反复忽视的常识:开发者工具的用户喜欢可配置性。这就是为什么IDE至今还保留vim键位绑定和无数选项。当你的用户是高技能专业人士时,让他们自己决定想看什么,永远比替他们决定更安全。
有人把这件事上升到了更宏观的视角:Anthropic的品牌正在危险地滑向“AI界的微软”。微软在90年代末完全统治市场,但做了一些根本性的选择,用向导和“下一步”按钮隐藏了复杂性,结果培养了一代被简化的开发者。苹果则做了一个极具战略眼光的决定:在BSD基础上重建操作系统,与Linux生态对齐。两种选择,两种命运。
当然,也有冷静的声音指出:三十个在GitHub上抱怨的人,并不能代表Claude Code的全部用户群。那些觉得新界面更清爽的人不会专门开一个issue说“谢谢,挺好的”。产品决策永远是在不完整信息下的权衡。
但权衡的前提是尊重。一个布尔值的配置项,实现成本远低于反复改造详细模式。当三十个人说“给我们一个开关”,而回答始终是“让我帮你调整详细模式”的时候,这不是在倾听,这是在用自己的方案替代用户的需求。
这件事的本质其实不是一个UI争论。它折射出AI工具进入主流市场时必然面对的张力:当用户群从极客扩展到大众,产品该向哪个方向倾斜?简化默认体验没有错,但把专业用户的合理需求推到一个叫“详细模式”的角落里,然后反复重新定义这个模式的含义,这不是渐进式改良,这是在回避一个本该直面的设计决策。
模型在变强,代理在变长,终端在变拥挤。但解决信息过载的方式,应该是给用户更精细的控制权,而非替他们决定什么值得看。毕竟,你卖的是一把手术刀,不是一个黑箱。
前GitHub CEO Thomas Dohmke宣布创办新公司Entire,拿到6000万美元种子轮融资,估值3亿美元。投资方包括Felicis领投,Madrona、M12等跟投,个人投资者阵容也颇为豪华。他的愿景是为AI代理时代重建整个软件开发生命周期。
第一个产品是一个开源命令行工具,核心概念叫“Checkpoints”。做的事情说起来很简单:当AI代理生成代码并提交时,自动将完整的对话上下文、提示词、文件变更、token用量等信息作为元数据写入Git。代码本身不变,只是多了一层“为什么这样写”的记录。推送时,这些元数据会存入一个独立分支,形成一份只增不删的审计日志。
目前支持Claude Code和Gemini CLI,Codex和Cursor CLI即将跟进。
这个产品试图解决一个真实存在的问题:AI代理的会话是短命的。提示词活在终端里,推理过程活在上下文窗口中。一旦关闭会话,生成这些代码的决策链路就彻底蒸发了。Git记录了“改了什么”,却从不记录“为什么改”。当代理每次会话生成成百上千行代码时,这种上下文丢失的代价会急剧放大。
问题是真问题,争议在于解法。
网络上的讨论堪称两极分化的经典样本。支持者认为这是“AI时代的git blame”,反对者认为这是“一个10行bash脚本就能干的事”。
有意思的是,大量开发者在评论区分享了自己的土方法:有人让代理每次运行结束写一份结构化的工作总结存入markdown文件;有人用task.md做门控机制,在Claude Code的钩子里塞一张“便签”提醒代理当前任务是什么;有人把会话ID写进issue追踪系统;还有人干脆用git notes把摘要挂到提交上。这些手工方案五花八门,但都指向同一个痛点:代理生成的代码缺少可追溯的决策上下文。
当一个问题的解决方案在社区中自发涌现了几十种变体,说明需求是刚性的。但当这些变体都只需要几十行脚本,说明壁垒是脆弱的。
有人把这比作当年Dropbox在HN发布时遭遇的经典嘲讽:“我用FTP和NAS自己搭一个就行了。”这个类比既有道理也有漏洞。Dropbox面对的嘲讽来自非目标用户,而Entire面对的质疑恰恰来自它的目标用户群体。而且Dropbox发布时,普通人确实搭不出那种体验;今天任何一个用Claude Code的开发者,都能在午饭前把类似功能搭好。
更尖锐的质疑来自竞争格局:Anthropic完全可以在Claude Code里原生集成这个功能,GitHub可以把它变成平台标配。一个建在别人地基上的工具,护城河在哪里?
有一条评论看得很透:这个CLI工具本身大概率只是获取数据的入口。真正的商业逻辑藏在后面。当海量的代理推理轨迹汇聚到一个平台上,这些数据本身就是训练更好模型的燃料。另一种可能是,他们要建的其实是面向企业的AI代码协作平台,Checkpoints只是第一块砖。
6000万美元的种子轮,对一个刚发布命令行工具的公司来说确实惊人。但风投的赌注显然押的是Thomas Dohmke这个人。前GitHub CEO的身份意味着行业人脉、企业销售通道、以及对代码托管平台核心逻辑的深度理解。一位评论者说得直白:风投买的是他通讯录的保鲜期。
也有冷静的声音指出,开发者工具领域的成功案例几乎都是草根项目解决自身痛点后自然生长出来的,极少有靠巨额融资从天而降的。Git本身就是Linus解决自己版本管理需求的产物,GitHub是在git已经大量普及之后才找到了产品化的切入点。
讨论中最有深度的一个观察是:我们正处在一个奇特的时期。所有人都在为AI代理的工作流构建工具,但没人真正知道最终的工作流长什么样。Entire押注的是一个我们尚不确定是否需要的方案。这种豪赌在风投逻辑里完全合理,在工程逻辑里却充满风险。
当技术浪潮还在剧烈翻涌时,最聪明的策略未必是造船,而是先学会游泳。
第一个产品是一个开源命令行工具,核心概念叫“Checkpoints”。做的事情说起来很简单:当AI代理生成代码并提交时,自动将完整的对话上下文、提示词、文件变更、token用量等信息作为元数据写入Git。代码本身不变,只是多了一层“为什么这样写”的记录。推送时,这些元数据会存入一个独立分支,形成一份只增不删的审计日志。
目前支持Claude Code和Gemini CLI,Codex和Cursor CLI即将跟进。
这个产品试图解决一个真实存在的问题:AI代理的会话是短命的。提示词活在终端里,推理过程活在上下文窗口中。一旦关闭会话,生成这些代码的决策链路就彻底蒸发了。Git记录了“改了什么”,却从不记录“为什么改”。当代理每次会话生成成百上千行代码时,这种上下文丢失的代价会急剧放大。
问题是真问题,争议在于解法。
网络上的讨论堪称两极分化的经典样本。支持者认为这是“AI时代的git blame”,反对者认为这是“一个10行bash脚本就能干的事”。
有意思的是,大量开发者在评论区分享了自己的土方法:有人让代理每次运行结束写一份结构化的工作总结存入markdown文件;有人用task.md做门控机制,在Claude Code的钩子里塞一张“便签”提醒代理当前任务是什么;有人把会话ID写进issue追踪系统;还有人干脆用git notes把摘要挂到提交上。这些手工方案五花八门,但都指向同一个痛点:代理生成的代码缺少可追溯的决策上下文。
当一个问题的解决方案在社区中自发涌现了几十种变体,说明需求是刚性的。但当这些变体都只需要几十行脚本,说明壁垒是脆弱的。
有人把这比作当年Dropbox在HN发布时遭遇的经典嘲讽:“我用FTP和NAS自己搭一个就行了。”这个类比既有道理也有漏洞。Dropbox面对的嘲讽来自非目标用户,而Entire面对的质疑恰恰来自它的目标用户群体。而且Dropbox发布时,普通人确实搭不出那种体验;今天任何一个用Claude Code的开发者,都能在午饭前把类似功能搭好。
更尖锐的质疑来自竞争格局:Anthropic完全可以在Claude Code里原生集成这个功能,GitHub可以把它变成平台标配。一个建在别人地基上的工具,护城河在哪里?
有一条评论看得很透:这个CLI工具本身大概率只是获取数据的入口。真正的商业逻辑藏在后面。当海量的代理推理轨迹汇聚到一个平台上,这些数据本身就是训练更好模型的燃料。另一种可能是,他们要建的其实是面向企业的AI代码协作平台,Checkpoints只是第一块砖。
6000万美元的种子轮,对一个刚发布命令行工具的公司来说确实惊人。但风投的赌注显然押的是Thomas Dohmke这个人。前GitHub CEO的身份意味着行业人脉、企业销售通道、以及对代码托管平台核心逻辑的深度理解。一位评论者说得直白:风投买的是他通讯录的保鲜期。
也有冷静的声音指出,开发者工具领域的成功案例几乎都是草根项目解决自身痛点后自然生长出来的,极少有靠巨额融资从天而降的。Git本身就是Linus解决自己版本管理需求的产物,GitHub是在git已经大量普及之后才找到了产品化的切入点。
讨论中最有深度的一个观察是:我们正处在一个奇特的时期。所有人都在为AI代理的工作流构建工具,但没人真正知道最终的工作流长什么样。Entire押注的是一个我们尚不确定是否需要的方案。这种豪赌在风投逻辑里完全合理,在工程逻辑里却充满风险。
当技术浪潮还在剧烈翻涌时,最聪明的策略未必是造船,而是先学会游泳。
一位发表过150多篇论文的教授坦言:每次坐下来写作,感觉都像在湿水泥里拖行。你盯着空白页面,大脑死机,两小时后写出一段明天大概率会删掉的话。而隔壁同事同样的教学负担、同样的截止日期,一学期交了三篇。
你以为他们更自律、更有天赋、有更多“受保护的写作时间”。都不是。他们有一套系统。
这个区别至关重要。你不是不会写作,你是不会“怎么写”。
写作看似一件事,实际上是六种认知过程同时运转:决定写什么、选择怎么表达、记住读者是谁、追踪前文写过什么、规划下文写什么、判断写得好不好。六个进程同时跑,相当于浏览器开了59个标签页,然后纳闷为什么电脑像喷气发动机一样响。
多数人以为写作难是因为意志力不够。真正的问题是,写作同时向大脑索取了太多东西。
这套系统的核心是五个协议,每一个瞄准一个认知瓶颈。
第一,倒序组装。绝大多数人从标题写到结论,这在认知上完全是反的。引言要求最高的认知负荷,你要框定问题、定位贡献、向读者许诺,而此刻你手里的素材最少。这就像托尔金还没把霍比特人带出绿龙酒馆,就试图写夏尔的收复战。正确的顺序是:图表、方法、结果、讨论、引言、摘要。每一步都用上一步生成的素材,你永远不会面对一张白纸问自己“该写什么”。骑自行车下坡,而不是推着爆胎的车上山。
第二,零稿协议。人脑有两种模式:生成模式和评估模式,它们在神经层面互相排斥。生成是发散的、快速的;评估是收缩的、挑剔的。两者都吃工作记忆,而工作记忆极其有限。同时生成和评估,就像一脚踩油门一脚踩刹车。所以:设定25到45分钟计时器,尽可能快地写,不修改错别字,不查文献,大量使用占位符。你在往沙箱里铲沙子,之后才能堆城堡。采石的时候没法雕刻。
第三,结构模板。每个写作决策都消耗心智燃料。成熟的模板把结构选择变成填空题,释放工作记忆去做真正的智识劳动。摘要用“背景、问题、方案、发现、贡献”五段式;引言用斯韦尔斯的“建立领地、确立空缺、占据空缺”三步法;方法用“语境化、描述、论证”循环;结果用“提醒、描述、解释”循环;讨论从窄到宽,先总结发现,再扩展到领域影响。别即兴发挥,按公式来。
第四,用AI做陪练,不做代笔。AI会编造引用、生成通用文本,缺少你的智识指纹。但它极其擅长卸载特定认知任务:让它做反向大纲提取,找出论证薄弱处;让它扮演挑剔的审稿人,提前发现方法论漏洞;让它做清晰度编辑,优化表达但不改变意思。拳王阿里有陪练伙伴,但上场挥拳的永远是他自己。
第五,分层修改。多数人看到什么改什么,一个错别字、一个弱词。这极其低效,你可能精心打磨了一段话,结果发现整节都要砍掉。房子着火的时候擦银器,注意力可嘉,优先级全错。永远按这个顺序修改:结构、清晰度、风格、校对。从大到小,因为大的改动会让小的改动作废。
这五个协议合在一起,把写作从意志力的消耗战变成了流水线作业。你的大脑是一台超级计算机,别让它同时杂耍,给它顺序明确、边界清晰的任务。