Anthropic宣称Claude Code可以自动分析和迁移COBOL遗留系统,IBM单日暴跌13%,市值蒸发约300亿美元。但多数技术人士认为这是严重过度反应,银行不迁移COBOL从来不是因为没钱没时间,而是因为风险太高,AI幻觉问题并没有解决这个核心障碍。
全美95%的ATM交易跑在COBOL上。这门语言诞生于1959年,比互联网还老。银行、航空、政府的核心系统里,几十亿行COBOL代码安静地运转着,像地基一样不被人看见。懂它的程序员正在慢慢老去,年轻人没有人愿意学,维护费用也因此居高不下。
然后Anthropic发了一篇博客,说Claude Code能分析庞大的COBOL代码库、识别风险、大幅降低迁移成本。市场的反应是:IBM股价当天跌13%,这是它25年来最惨烈的单日表现,2月份累计跌幅接近27%,创下1968年以来最差月度表现。
300亿美元,一篇博客文章的代价。
讽刺的是,有人指出Anthropic根本没有发布什么"新工具",只是给Claude Code现有功能写了一份新的营销材料,专门对准COBOL场景包装了一下。没有新模型,没有新功能,就是换了个说法重新讲了一遍。
恐慌归恐慌,真正的问题在于:银行为什么几十年来一直没有迁移COBOL?
答案不是缺钱,也不是缺人。有观点认为,答案是风险。金融系统里一个错误可能意味着数亿人的账户出问题,没有任何CEO愿意在财报里解释"我们用AI迁移了核心系统然后它产生了幻觉"。AI会幻觉这件事是公认的,你仍然需要人工逐行审查每一行输出——而这恰恰是整个工程最慢的那一步。AI并没有移除瓶颈,只是把前面那段路修得稍微平整了一点。
放射科医生的故事可以类比:AI今天已经可以替代90%的影像诊断工作,但医院并没有裁员,因为没人愿意第一个承担责任。金融系统同理。
不过,有一个角度值得认真对待。有观点认为,这件事真正动摇的不是COBOL迁移市场本身,而是IBM那块利润极高的咨询和专业服务收入。过去,COBOL知识是稀缺资源,IBM靠垄断这种稀缺性定价。Claude的出现让这种知识变得不那么稀缺了——哪怕迁移本身依然危险,分析、文档整理、风险评估这些前期工作的成本已经在下降。
一位做过COBOL转Java项目的开发者提到,当年整个项目最难的部分根本不是写Java,而是搞清楚那些COBOL代码到底在干什么。这正是AI可以显著加速的地方。
IBM当然也有自己的AI工具用于大型机现代化,这一点在讨论里几乎没人提。
现在的问题是:一年后回头看,这次暴跌到底是市场提前定价了一个真实的长期威胁,还是一次集体过度反应。有人已经设了一年后的提醒,等着来验证。
300亿美元蒸发的本质,是市场在追问一个哲学问题:谁敢第一个签字? COBOL像心脏手术——AI可以读片、画线、甚至建议下刀位置,但最后那一刀,必须有个活人敢签生死状。
银行不迁移从来不是不会,是不敢。几十亿行代码背后是几亿人的工资卡、房贷、退休金,任何一个幻觉都可能变成头条新闻。AI把“能不能做到”的问题解决了八成,但“谁来负责”的问题一个字没动。
Anthropic写了篇营销文案,IBM跌了四分之一,这不是技术革命,是一群对金融系统运作方式毫无概念的投资者在集体应激。
Anthropic发布了一篇关于“蒸馏攻击”的博客,声称检测到DeepSeek等中国实验室通过大量账户系统性地调用其API来生成训练数据。更值得关注的是,他们承认不只是封号,而是主动对“可疑”请求的输出结果进行投毒。这引发了广泛讨论——一家公司有没有权利在你不知情的情况下给你一个故意错误的答案?
Anthropic最近发布了一篇博客,主题是他们如何检测并反制所谓的“蒸馏攻击”。内容大意是:他们发现一批账户行为高度同步,支付方式相似,请求节奏整齐,判断是有人在规模化地调用Claude来生成chain-of-thought训练数据,幕后指向中国实验室的研究人员。
这本是一个普通的商业纠纷,却被写成了半个国家安全报告的语气。
但真正让人不安的不是被追踪,而是这一句:他们选择对“问题输出”进行投毒,而不是直接封号。
有网友直接点出了这件事的荒诞逻辑:你不会去雇一个会随机给你错误建议的顾问。如果一个API供应商公开宣布它有能力、也有意愿在后台悄悄劣化你的输出,你怎么知道自己什么时候是正常用户,什么时候已经被划入“可疑”名单?
“可疑”的标准是什么,没人说清楚。有观点认为,这套系统只要存在,任何用户都面临不确定性。问题越多的人,越容易触发某些阈值。
更讽刺的一层:他们用来检测“攻击者”的手段,是分析请求元数据并追踪到具体研究人员。这听起来很高明,其实无非是查账号、IP和支付信息,基本上所有API供应商都能做到,只是大多数人不会公开炫耀。
有网友提到,这些研究人员大概率不会傻到用实名账号。背后涉及多达2.4万个账号的协调操作,追踪链条肯定比官方描述复杂得多。至于“通过元数据锁定到具体研究员”这个说法,听起来更像是施压姿态,而不是侦探工作的复盘。
Anthropic在博客结尾还呼吁加强芯片出口管制,理由是限制算力可以遏制蒸馏攻击。有网友指出这两件事根本不在同一个讨论层面,把商业竞争问题包装成国家安全叙事,目的不言而喻。
目前讨论中最直接的行动结论是:用本地模型,或者至少分散使用多个来源的模型。当你无法验证一个API的输出是否被人为干预过,信任就不再是理性的选择。
有用户在看完这篇博客后取消了Claude订阅。他说,封号他能接受,投毒他不能接受。
这个区别,Anthropic大概认为不重要。
Anthropic这篇博客最精彩的部分,是它亲手拆掉了自己的护城河。AI服务卖的从来不是算力,是信任——而信任这东西,最怕的不是背叛,是“我保留背叛你的权利”。封号是绝交,投毒是诈骗,前者终止关系,后者腐蚀关系的定义本身。当一家公司公开宣称它的检测系统可以悄悄给你塞错误答案,每个用户都必须面对一个无法证伪的质问:我这次的输出,是真货还是样品?最讽刺的是,他们用来证明自己“正义”的手段,恰恰证明了自己“有能力作恶”。这不是安全报告,这是一封写给所有付费用户的勒索信:好好表现,别问太多问题。
AI正在压缩软件工程师的就业市场,“学会用AI工具就能找到工作”的说法过于乐观。真正的问题不是个人适应能力,而是整体岗位数量在收缩。
Reddit上一张梗图引起广泛讨论:失业程序员追着工作机会跑,旁边有人拦住他说“Claude在做那份工作”。评论区瞬间炸开了锅。
有人说,学会跟AI工具协作的工程师还在被录用,适者生存,技术圈向来如此。这话听起来很有道理,甚至有点励志。
有观点认为,这套逻辑有个致命漏洞:会用Claude写prompt的人多了去了,简历上都能写,面试却几乎不测。你所谓的“差异化竞争力”,根本没有壁垒。评论区里好几位有着3到7年工作经验的工程师表示,已经在积极使用这些工具,依然在求职。经验够用,工作没有。
一个有20年经验的人说,如果他是刚入行的年轻人,会非常认真地重新考虑职业方向。
有人提出另一套愿景:AI工具让个人能力大幅扩展,以后会出现大量“1个人+多个AI”的微型公司,大公司将失去存在的必要。这个说法颇具吸引力,但也遭到了几乎等量的反驳。有网友指出,有资本的人随时可以复制你的产品,软件领域的时间壁垒已经消失。还有人说,你以为的民主化,最终会被营销预算和现有基础设施碾压。人是懒的,大多数人会选择最省力的方案,Linux桌面版到现在也没占领市场。
也有观点认为,软件工程师不会消失,只是被要求用更少的人交付更多的东西。写代码本来就不是大公司的瓶颈所在,需求分析、架构决策、客户沟通、合规文档,这些事AI还替代不了。
UBI的呼声也冒出来了。有人说该认真讨论全民基本收入了,回复只有四个字:“昨天就该。”
有人提到“劳动总量谬误”——认为工作岗位总量固定,AI多做一份工作就少一个人类岗位,这在历史上每次技术革命里都被证明是错的。这次会不会不同,没人知道。
问题大概是:工具民主化之后,每个人都能做更多事,可市场需要的总产出并没有等比例增长。多出来的产能,去哪了?
最讽刺的不是AI抢了工作,而是我们被要求感谢这把刀磨得够快。“拥抱AI”是一种精巧的责任转嫁术:公司裁员是战略调整,个人失业是适应不良。评论区那些3到7年经验的工程师,工具用得熟练,简历写得漂亮,依然在漂流——因为问题从来不是你会不会游泳,而是船上的位置本来就不够。有人描绘“1人+AI”微型公司的美好图景,却忘了资本可以在24小时内复制你的创意,用营销预算把你碾成齑粉。技术民主化了,权力没有。 当Linux用了三十年都没占领桌面市场,你凭什么相信个体能用AI逆袭巨头?这不是躺平,是认清战场地形。
代码生产成本正在趋近于零,但这不是什么新鲜的危机。软件开发真正困难的部分从来都不是写代码本身,而是弄清楚要构建什么、怎么维持它运转、怎么让一群人在一起把事做成。
作者加入 Etsy 的时候,团队已经花了两年时间在做架构重写,追求“更优雅的方案”——实际上是两套互不兼容的优雅方案——而这两年里没有向用户交付过任何功能。后来他们停下来,统一用 PHP 重新出发。没有人会为什么是“优雅的 PHP”而争论不休,因为这种东西根本不存在。
他的结论:让 Etsy 后来一切得以发生的,不是那套优雅的代码,而是让团队重新开始交付。
这个故事本身就是文章核心论点的注脚:我们长期以来把代码本身当成了价值所在,但成功的团队一直清楚,真正的价值在于整个系统,在于那个让产品得以持续交付、满足用户需求、随时间演进的人机混合体。
代码生产成本正在趋近于零。作者承认这是真实的、前所未有的变化,Claude Code 这类工具确实带来了某种新东西。但他同时指出,“代码是最容易的部分”这个判断并不是 AI 时代的新发现,在此之前这已经成立了几十年。Web、CI/CD、移动端、单页应用,每一次技术浪潮都打乱过团队的工作方式,逼着人们重新发明协作模式。
这次只是规模更大、速度更快。
此文在 Hacker News 上引起广泛讨论,争议出人意料地激烈。有网友提到,把代码说成“容易的部分”其实是一种工资压制宣传,薪资数字本身就是反驳证据。也有观点认为这是程序员面对 AI 冲击的集体心理防御:把自己做的事重新定义成“本来就是次要的”,这样失去它就不那么令人恐慌。
反驳的声音同样尖锐。有人说,阅读一部诺贝尔文学奖小说很容易,但那种流畅的可读性本身就是成就,不是它无足轻重的证明。写代码也一样,你读代码读得像鱼呼吸一样自然,于是就以为写代码也理所当然地简单——这是一种典型的幸存者视角。
但也有经验丰富的工程师直接说:对,代码确实是最容易的部分。真正难的是长期维护,是在已有系统上加新功能,是不要把整个东西建成一坨无法理解的烂泥。《人月神话》写于几十年前,今天读起来依然像昨天写的,因为问题从来不是我们打字的速度。
作者自己的表达有一处值得停下来想想:那些近年因为“好工作”或“喜欢编程”而入行的人,面对这个时刻会有真实的失落感。而他这一代人入行是因为沉迷于那种掌控感,所以很难在情感上理解那种失落。这不是谁对谁错,只是两代人站在完全不同的位置看同一件事。
现在的问题是,当代码成本趋近于零,“构建什么”和“为什么构建”的决策权会落到谁手上,用什么方式落到他们手上。这个问题没有标准答案,但每个还在这个行业里的人都得给自己想一个。
“代码是最容易的部分”这句话,本质上是一场话语权的争夺。把心脏手术说成“只是开刀缝合”,把建筑设计说成“只是画线条”,任何职业都能用这种修辞被矮化。Etsy那个故事真正的教训不是PHP打败了优雅,而是内耗打败了交付。两年做不出东西,换成AI写代码照样做不出——因为问题从来不在键盘上。高薪从来不是为“打字速度”付费,而是为“知道该打什么字”付费。当所有人都能瞬间生成代码,区别你的就是那个“知道”。这不是心理防御,是逻辑必然。
MIT有门课专门教CS学生那些“没人教但天天要用”的东西:命令行、版本控制、调试工具、代码质量。2026年新增了AI辅助编程内容。这门课在网络上引发广泛讨论,核心争议是:这些基础工具技能,到底该不该系统教?
MIT有门叫“Missing Semester”的课,名字起得很直白:这就是你CS教育里缺掉的那学期。
操作系统原理、机器学习算法,高校教得很系统。但Shell怎么用、Git怎么用好、怎么写有意义的commit message——这些东西学生要么自己摸索,要么毕业了才发现自己根本不会。
有网友专门提到代码注释这件事,说得相当到位:读代码本身能告诉你“做了什么”,注释应该解释“为什么这么做”。`i+=1; /- 增加i */` 这种注释毫无价值,真正有用的注释是:我在循环中途自增i,是为了能提前看到下一个值来判断是否需要交换。
用给外行讲解的语气写注释,代码才能活得更久。软件的大部分生命周期和大部分成本都在维护阶段,这一点很多人从来没认真想过。
Git的讨论占了评论区相当大的篇幅。
有观点认为,大量所谓“高级工程师”、“可靠性工程师”,遇到git出问题的第一反应是删掉重克隆。提交信息永远是`changes`或者`try fix`,git bisect/blame/revert根本不知道怎么用,更别说用这些工具还原一段代码演变的故事。
反驳的声音也很强:这不完全是工程师的问题,Git的设计本身就不友好。接口反直觉,抽象层到处漏,一旦出了问题,不熟悉内部模型的人根本不知道怎么脱身,而能把自己搞进那个处境的人,往往也没能力出来。有人用电锯打比方,也有人回说:正因为我们做的是软件,不受物理定律限制,我们完全可以造出一把不会切断手指的电锯。
Mercurial当年输掉的那场仗,到现在还有人觉得可惜。
有一句话值得单独拿出来品品:如果你把commit历史维护好,让它讲个故事,代码审查是一种享受。如果你往上堆26条`try fix`,最后留下一团烂泥,那是折磨。
提交历史是写给未来的自己看的。很多人到现在还没意识到这一点。
2026年这版新加了AI辅助编程的内容,有人直接说应该删掉,理由是学生会产生依赖、反而学不到东西。也有人觉得这个方向对,甚至建议专门加一节“自己动手写一个agent”,说代码不复杂,几百行就能搞定,但能建立非常扎实的直觉。
还有人问得很直接:现在还有必要学CS吗,AI不是把这些都替代了?
有一个回答说得很清楚:agent很擅长解决“被解决过很多次”的问题,但无法用洞察力重新定义问题本身。他举了Flying Edges算法的例子——那是对Marching Cubes的一次根本性重构,换了底层思考框架。AI能模仿形状,但不能产生这种跃迁。
工具学得再好,不理解自己在构建什么,迟早会遇到那个时刻。
这门课真正在教的不是命令行,是手艺人的尊严。
算法是屠龙术,Git是磨刀石——CS教育培养的是会想象巨龙的人,却忘了刀钝了连猪都杀不死。
那个写i+=1; /*增加i*/的人,和在博物馆油画前挂个牌子写“这是一幅画”的人,本质上是同一个人。代码注释的真谛是留下思考的温度,让后来者知道此刻你为何如此抉择。
有趣的是Git的争论。有人说电锯危险怪使用者,有人说软件不受物理限制、完全可以造不伤手的锯子。这恰恰暴露了程序员的傲慢与天真:我们总以为自己是造工具的人,却忘了大多数时候我们只是被工具塑造的人。
提交历史是写给未来的遗书。可惜多数人写的是changes、fix、try again——像极了人生最后只留下“来过”两个字。
我们把“色情App”拆了,彻底扒开一行行龌龊的代码!| youtube
“「选 A 还是 B?」这可能是每个垂直领域的工具讨论中都绕不开的问题。在笔记管理这个圈子也总能看到类似的讨论:Logseq 还是 Obsidian?Notion 还是 Roam Research?而对我来说,让我纠结了很长一段时间的 A 和 B,正是 Heptabase 和 Tana。
说实话这可能就是一种执念吧。我们总希望找到一款 All in One 的工具,能够一次性解决所有问题。记录、整理、思考、输出,最好全都能搞定。事实上,有很多工具也的确是往这个方向发展的。
但问题在于,当你试图用一个工具照顾到所有场景时,你会发现每个场景都只能做到「还行」,没有一个真正做得很好。这不是工具的问题,而是我们对工具的期待本身存在矛盾。更重要的是,我们很容易被各种工具的 feature 带跑偏。过度关注「这个工具能干什么」,却忽略了更本质的问题:「我究竟想要获得什么?」
说到底,知识管理这件事,技巧和功能都只是表层。真正重要的是如何构建自己的思考模式、如何理解知识,以及最终能沉淀出什么真正属于自己的东西。
Heptabase 和 Tana 都是我非常喜欢的产品。它们都是我希望能够长期用来学习、沉淀的平台。但这两款产品无论从理念还是功能上看都是截然不同的。如何选择?这个问题在很长一段时间里困扰着我,也消耗了我不少时间和精力。
我记得自己反复尝试在其中一个工具里 All in One 又反复失败,试图找到那个「最适合」的,却发现每个都有不可替代的优势。两边来回切换,既焦虑又低效。
不过也正是这段纠结摇摆的时间,让我逐渐想明白了几件事:我为什么需要它们?我究竟想用它们来帮助自己解决什么问题?
当这些问题的答案逐渐清晰,困扰我许久的选择难题豁然开朗。我不再纠结「选哪个」,而是决定两款工具「双修」。这也是这篇文章最原始的思考起点。今天的这篇文章,我怕不会详细介绍两款工具的具体功能——那些内容在各自的官网和教程里都能找到。我更想从产品理念和真实需求的角度,聊聊我对这两款工具的理解,以及为什么我最终选择了「双修」。
如果你也在为类似的问题困扰,或许这篇文章能给你提供一些不一样的思路。“
一篇由开发者 Kalomaze 撰写的技术博文,针对大模型的强化学习提出了一个反直觉的观点:在构建用于训练推理模型的数据集时,不应随意剔除或清洗掉那些包含“试错、自我修正、甚至死胡同”的长思维链(RL Rollouts)。
这些看似冗余或不完美的推理过程,恰恰是模型通过强化学习涌现出智能的关键特征。应该设计奖励信号来主动引导模型远离该行为。
“网上有很多测 AI 视频生成的,都喜欢用同一段提示词去测试不同的模型。实际上这种测法并不具备参考性,我前两年提到过模型的发展路径并不只有遵循这一条路,还有一条叫做推理。
你们用同一段提示词,看上去好像很公平,但对推理能力强的视频模型来说,它要的其实是想象空间,尤其在文生视频领域更是如此。
语义理解之后,遵循占大头还是推理占大头,厂商其实有不同的理解。人类的语言不可能完全描述出所有的画面,除非你告诉它三维空间坐标,亮度和颜色码值等这种程度的信息,你们觉得可能吗。
何况你的提示词写的很多看上去好像很详细很丰富约束很好的样子,你要不先看看自己的表述有没有前后矛盾的地方,你脑子里想象的画面有没有经过你开过光的嘴正确地表达了出来。相信我,大部分人做不到的。
那些比较优秀的 AI 艺术家这个级别出来的视频,提示词没那么复杂的。那你要说我想做到精确控制可以吗,当然这很重要,但不代表一开始生成就得是完全正确的。图像生成尚且还有编辑模型这个分支,为什么视频就不能先生成再编辑呢,我觉得这才是控制力真正将会发挥出作用的重要环节和流程。
在我看来,遵循能力强的模型其实很适合做成编辑模型,它和推理能力强的模型正好形成互补的关系。你的提示词要做的是把意图表达完整,当有惊喜更出彩的视频生成后,再靠模型的遵循能力去控制不好的地方以及做一些锦上添花的部分,是我心目中今年视频模型应该发展的路线。
所以用同一段提示词去测试不同厂家的模型,只能得出模型对语义的理解偏向,并不代表生成能力的强弱。我要是想生成一段光怪陆离吃了菌子后的幻想视频,说不定初代 Sora 同样可以满足要求。(别忘了 ComfyUI 这样的工具所搭建的那些巨型工作流,往往还在用 SD1.5 的模型),这背后无关模型生成能力的强弱,只关乎它背后的运作逻辑。”
——by 摇摆时间线ZHLMI
你们用同一段提示词,看上去好像很公平,但对推理能力强的视频模型来说,它要的其实是想象空间,尤其在文生视频领域更是如此。
语义理解之后,遵循占大头还是推理占大头,厂商其实有不同的理解。人类的语言不可能完全描述出所有的画面,除非你告诉它三维空间坐标,亮度和颜色码值等这种程度的信息,你们觉得可能吗。
何况你的提示词写的很多看上去好像很详细很丰富约束很好的样子,你要不先看看自己的表述有没有前后矛盾的地方,你脑子里想象的画面有没有经过你开过光的嘴正确地表达了出来。相信我,大部分人做不到的。
那些比较优秀的 AI 艺术家这个级别出来的视频,提示词没那么复杂的。那你要说我想做到精确控制可以吗,当然这很重要,但不代表一开始生成就得是完全正确的。图像生成尚且还有编辑模型这个分支,为什么视频就不能先生成再编辑呢,我觉得这才是控制力真正将会发挥出作用的重要环节和流程。
在我看来,遵循能力强的模型其实很适合做成编辑模型,它和推理能力强的模型正好形成互补的关系。你的提示词要做的是把意图表达完整,当有惊喜更出彩的视频生成后,再靠模型的遵循能力去控制不好的地方以及做一些锦上添花的部分,是我心目中今年视频模型应该发展的路线。
所以用同一段提示词去测试不同厂家的模型,只能得出模型对语义的理解偏向,并不代表生成能力的强弱。我要是想生成一段光怪陆离吃了菌子后的幻想视频,说不定初代 Sora 同样可以满足要求。(别忘了 ComfyUI 这样的工具所搭建的那些巨型工作流,往往还在用 SD1.5 的模型),这背后无关模型生成能力的强弱,只关乎它背后的运作逻辑。”
——by 摇摆时间线ZHLMI
Anthropic给软件工程师开出57万美元年薪,同时CEO公开宣称AI将在6至12个月内接管大部分编程工作。这不是矛盾,而是行业正在发生的一场隐秘分裂:少数顶尖工程师身价暴涨,其余人正在被悄悄淘汰。
Anthropic最近的一张offer截图在网上传开了。职位:软件工程师,年薪57万美元,含30万底薪、22万股权、5万签字费。页面底部有一行红色小字:“注意:此职位可能在12个月内不复存在。”
达里奥·阿莫迪在达沃斯告诉全世界,AI已经能处理“大多数,甚至全部”编程任务。他自己公司的工程师现在不写代码,他们审查AI写的代码。
然后他给这些工程师开出了57万美元的年薪。
这件事最值得玩味的地方在于:它同时是两件相互矛盾的事情的铁证。
支持“工程师不会消失”的一方说:编码从来不是软件工程的核心,架构设计、系统决策、凌晨两点系统崩了谁来处理,这些事AI接不住。有观点认为,高级工程师的工作流程其实没变多少,不过是把过去分配给初级工程师的活交给了AI代理。
支持“行业要完”的一方则直接多了。有网友提到,这不过是在用一个人57万的薪水,替代了原本需要一百人的团队。剩下99个人去哪?没人在乎。评论里“骨架团队”这个词出现了很多次,意思是公司会保留极少数顶尖人才,其他人全部清退。
两方都没说错。它们描述的是同一件事的两个侧面。
真正被这张offer忽略掉的群体,是那些刚入行的初级开发者。一位用户直接写道:“我即将毕业拿到计算机学士,这是我去面试时该开口要的数字吗?”没人回答他。另一个人说自己需要的是5万美元的职位,57万跟他毫无关系。
制造业自动化的时候,工厂工人的失业被称为“行业转型”。白领失业,人们突然开始认真谈论了。有网友援引80年代到本世纪初制造业自动化的历史,指出最终结果取决于管理层怎么选择——有人会用AI裁员,有人会用AI提升产能同时留住员工。区别不在技术,在人。
这张offer还引发了另一个有趣的插曲:评论区里几乎所有人都认定,这篇原帖是Claude写的。“一句一段的LinkedIn风格”、“我一眼就认出来了”。有网友说,大量使用AI工具之后,人类识别AI文本的能力已经超过了任何检测算法。
一个造出最强编程AI的公司,雇了一群专门审查这个AI产出的工程师,用AI写了一篇关于AI不会取代工程师的帖子,然后被工程师们一眼识破。这个循环有点令人头晕。至于那行红色小字,到底是免责声明,还是诚实,现在还很难说。
真相藏在那行红色小字里。
Anthropic用57万年薪说了一句话:我们需要的不是写代码的人,是能判断AI代码写得对不对的人。这个“判断力”才是新的稀缺资源。
但这里有个残酷的悖论——能做出这种判断的人,恰恰是那些写了十年代码的老手。可如果入口被堵死,新人永远不会变成老手。行业正在锯掉自己站着的那根树枝。
那个问“这是我该要的数字吗”的毕业生,其实问出了这个时代最真实的困惑:当通往塔尖的楼梯被拆掉,塔尖还在,但跟你我还有什么关系?
所以这57万不是薪资,是分水岭。它宣告的是:少数人的黄金时代,和多数人的冰河世纪,同时到来。
有人指责人类公司“用AI帮你自动化一切,却不让你自动化它自己”,但这个批评基本站不住脚。订阅计划和API计费是两套逻辑,混淆两者只会让自己委屈。
事情的起因是有人发帖抱怨:一家靠AI自动化起家的公司,居然不允许开发者用自动化脚本调用它的产品。听起来讽刺,仔细一想其实相当朴素。
每月20美元的订阅,本质上是一个定价策略,而非技术承诺。消费者计划从设计之初就没打算支撑商业应用的调用量。有网友说得很直接:他们愿意在订阅这端亏钱,是因为赌你会留在他们的生态里,但你不能把这笔赌注直接套现。
真正被禁止的,是用OAuth令牌绕过API计费,把消费者订阅当成商业流量的后门。这不是歧视开发者,这是堵漏洞。不少人在读TOS的时候只读了一半就开始愤怒,其实条款说的很清楚:禁止第三方产品要求用户用自己的订阅账号来驱动你的应用,但你自己用订阅跑自动化脚本、写工具、建工作流,从来没被禁过。
有网友提到,之前可以用OAuth登录的GitHub Actions集成,后来改成了仅支持API密钥。这个改动确实值得讨论。官方文档的解释空间本可以更大,但这和“不让开发者自动化”是两件事。
值得注意的是,有观点认为这家公司在走一条熟悉的路:先用订阅计划拉升用户规模,再慢慢把高频用户推向按量计费。当初推出“额外用量充值”的那一刻,方向其实已经写在墙上了。
有网友提出了一个更根本的问题:我们为什么对按量付费如此抵触?答案藏在另一条评论里,一个反常识的观察——我们为幻觉付费,和为正确答案付费,收费标准完全一样。调用两次、得到两个废话,额度就没了,这件事本身的荒谬几乎没有人认真追究过。
开源模型的路当然还在,自建GPU跑本地模型的选项也没有消失。只是大多数人在抱怨订阅限制的时候,并不是真的想要那条路,只是希望商业公司更慷慨一些。
这个愿望本身没有错。只是慷慨这件事,向来有有效期。
订阅制的本质,是一场关于“用不完”的对赌。
公司赌你懒、你忙、你三天打鱼两天晒网;你赌自己勤奋、高产、物尽其用。大多数时候公司赢,所以他们敢亏着卖。但你不能因为自己终于勤快了一回,就指责赌场不让你把筹码带走。
真正值得追问的是另一件事:我们按token付费,却对token的质量没有任何追索权。问一个问题,AI胡说八道,钱照扣。这就好比出租车司机把你拉错了地方,下车时说“您走了这么多公里,按表付吧”。
我们抗拒按量付费,不是因为贵,是因为不甘心——为什么我要为AI的不确定性买单,而AI不用为自己的错误负责?
订阅制掩盖了这个荒诞,按量计费把它暴露无遗。愤怒的人找错了靶子,该问的问题还没人问出口。