大型LLM厂商每次产品发布都可能让某些公司瞬间出局,但真正被“一枪毙命”的案例屈指可数。更值得关注的是那些慢慢失血的行业,以及藏在免费模式背后的数据逻辑。
有人在Twitter上说,2026年经营一家公司,基本上就是每天早上醒来祈祷某个大型LLM厂商别在今天的发布会上顺手把你干掉。
这话听着夸张,却有几分真实的恐慌。
有观点认为,那些基础模型厂商产品发布得越来越快,恰恰说明它们自己也没把握靠单个产品赚够钱。真要有信心“一枪毙命”某个行业,就不会搞出ChatGPT Health这种不上不下的东西了。
那么,到底有没有被一枪打死的公司?有,Chegg。这家靠卖作业答案起家的教育平台,在ChatGPT出现后股价近乎归零。不过争议随之而来:有人认为它的死是AI造成的,也有人翻出数据说,它的股价在2021年底、ChatGPT发布之前就已经跌回疫情前水平,真正的死因是商业模式本身就是一个伪装成公司的答案库,学生一回校它就没用了,FTC还在2025年以“暗黑模式”订阅陷阱判它赔了750万美元。
Stack Overflow、Quora、Grammarly、DeepL,这些名字也被拿出来讨论。它们算不算“被打死”,取决于你如何定义“死”。流量下滑不是死,营收压缩也不是死,但增长逻辑被彻底打断,迟早是死。
有网友提到,SaaS整体收入已经下滑40%到60%。一枪毙命是夸张,但持续失血是真的。
免费层这件事更耐人寻味。有人说OpenAI如果取消免费版会亏更多,但马上有人反驳:他们已经开始测试广告了,这就把底牌亮出来了——你的数据比你的订阅费值钱得多。广告是Google和Meta的印钞机,OpenAI走到这一步,不管愿不愿意,商业逻辑开始趋同。
还有网友提出一个更冷静的视角:全球劳动力哪怕只提升几个百分点的效率,就已经是以万亿美元计算的价值。非要等某家公司被完全替代才算数,这个标准本身就是在回避问题。
客服领域目前正在发生的事情最具代表性。大量公司裁员、上AI,部分客户投诉激增,一些公司悄悄开始回聘真人。有观点认为,这就像当年把客服外包给印度、菲律宾,消费者最初强烈抗拒,后来慢慢接受了。AI是下一轮外包,只是这次外包给了算法。
重型机械、化工、采矿、物流,这些行业的人理所当然地觉得自己安全。他们也许是对的,至少目前是。仓储机器人还只能在室内光滑地面上跑,还需要全覆盖的Wi-Fi信号。
所以实体世界的护城河,到底能守多久?
当OpenAI开始测试广告的那一刻,所有用户都该明白一件事:你从来不是客户,你是矿藏。免费层不是慈善,是圈地运动——先用便利换取你的思维轨迹、表达习惯、决策模式,再把这些数据打包卖给出价最高的人。
Google和Meta用了二十年才让人类习惯“用隐私换便利”这笔交易,AI公司用两年就完成了同样的驯化。所以2026年经营公司最该祈祷的,不是别被发布会干掉,而是祈祷自己别在不知不觉中,把最值钱的东西免费送了出去。真正的猎杀从来不开枪,它让猎物自己走进陷阱。
CVPR一年收录4000篇论文,ICLR超过5300篇。顶会录取还算不算一种认可?这个问题本身可能问错了方向。
有人在Reddit上发了个梗:CVPR/ICLR录取通知一到,感觉就像《玩具总动员》里巴斯光年骄傲地说"我做到了",镜头一拉,会场里站着5000个一模一样的巴斯光年。
这个梗之所以传播,是因为它精准戳中了一种集体焦虑。
录取率其实没怎么变,变的是分母。投稿人数爆炸式增长,录取数字自然水涨船高。所以从概率角度讲,通过审稿这件事本身的难度并没有降低多少。真正在松动的,是录取背后隐含的那层意思:这篇文章值得读。
有网友一针见血:会议正在变成"带餐饮服务的预印本服务器"。
问题出在审稿端。一位CVPR 2024的审稿人提到,他一个周末要处理12篇稿子,到第8篇时,他已经开始靠经验直觉下判断了——代码能不能跑、baseline是不是这个年代的。这种状态下,真正需要仔细品读的工作很容易被错判。
更麻烦的是benchmark的信用崩塌。大模型的训练数据吞噬了互联网上几乎所有内容,一个benchmark刚发出来,数据污染可能就已经发生了。模型在某个测试集上表现优异,换一种问法分数就大幅下滑——这不是模型在学习,这是在记忆。有观点认为,benchmark只适合做"事后评价",一旦公开,它作为标准的有效性就开始倒计时。
有网友提出了另一种信号:GitHub star数量、主流框架是否集成某项技术,比审稿人的评分更能说明一篇论文是否真的有用。这话有道理,现实中确实有很多人靠这个筛论文。只是,这套逻辑有个历史盲区——神经网络在2012年之前的三十年,几乎通不过任何"大众审查",黎曼几何等了60年才等到爱因斯坦。被冷落的东西,不一定是错的。
有观点认为,当前ML领域的学术发表已经不再以推进科学为目标,而是在服务一个日益商业化的职业通道。这个判断有些刻薄,但不是完全没有根据。
一个值得观察的现象是:方法类论文在求职中的含金量远高于benchmark类论文,即便后者的工作量不一定更少。这不是学术评价标准在起作用,而是行业筛选逻辑在反向塑造论文的生产方向。
也有人说,引用量才是更真实的信号,"会议录取"只是第一轮过滤,"被引用"才是真正的验证。这个说法没错,但引用数据同样可以被刷,操纵引用并不比操纵审稿更难。
真正没有人给出好答案的问题是:在这个规模下,同行评审还能做到什么程度的"同行"?
一个审稿人,面对12篇跨子领域的论文,在一个周末内完成评分,这本质上已经不是专家评审,而是一种有组织的快速过滤。也许会议的功能从来就不只是质量认证,而更多是一个社群定期聚集、交换信息的仪式。只是当参与者把它当成职业勋章时,所有人都在为一个自己其实不太相信的系统维持着体面。
问题的根源不是论文太多或审稿太敷衍,而是激励结构和评价功能的根本错配。顶会录取被市场化为职业货币,但学术会议的原始设计从来不是为了给HR提供筛选依据。当一个仪式性场合被迫承担质量认证的功能,它要么崩溃,要么异化。
巴斯光年们没有错,错的是有人把嘉年华入场券当成了行医执照。真正值得追问的是:为什么我们的职业系统如此饥渴,以至于非要从一个学术聚会里榨取信用?顶会不是变水了,是被迫承载了它不该承载的重量。
Anthropic指控DeepSeek、Moonshot AI和MiniMax通过2.4万个账号、1600万次对话对Claude实施“工业级蒸馏攻击”。问题是,Anthropic自己训练模型用的数据,相当一部分是从互联网和书籍上未经授权获取的。这场控诉,更像是一出黑色喜剧。
Anthropic最近在X上发帖,措辞严肃地宣布:DeepSeek、Moonshot AI和MiniMax对他们的模型发动了“工业级蒸馏攻击”,创建了超过2.4万个账户,与Claude产生了逾1600万次交互,目的是提取Claude的能力来训练自己的模型。
“蒸馏攻击”。这个词选得很妙。
有网友立刻指出,所谓“攻击”,本质上是:付钱用API,记录输出,用来训练自己的模型。其中一条评论说得直接——“‘蒸馏攻击’,你是指我们付钱购买的服务吗?”
更要命的是,有人截图显示Claude Sonnet 4.6在对话中把自己称作DeepSeek。Anthropic的模型在喊另一家公司的名字,说明训练数据里的痕迹没那么干净。另一方向更早被人挖出来的老料是:Claude曾频繁把自己称为ChatGPT,这显然是Anthropic在早期训练时也大量使用了OpenAI输出数据的结果。锅叠着锅。
Anthropic在训练数据问题上的底牌,并不比被它指控的对象光鲜多少。他们买下约100万册实体书、物理切割书脊后扫描,以规避版权限制;另据法庭文件,他们还从LibGen、Pirate Library Mirror等影子图书馆下载了约700万册书籍,完全没有付费,直到去年在法庭败诉后才被判每本书赔偿至少3000美元。有网友因此调侃:“我以为你们要说什么违法的事,结果是机器人在24小时切割书脊,那没事了。”
有观点认为,Anthropic这次公开点名三家中国公司,时机相当可疑,节点恰好在DeepSeek新模型发布前夕,这更像是一次针对监管层的定向喊话,而非单纯的维权声明。有网友直接说:他们的目标不是用户,是立法者,他们想让这些中国模型在监管层面被封杀,就像芯片禁令的逻辑一样。
围观的人很多,声援Anthropic的寥寥无几。
有评论写道:“你没有资格控诉别人偷了你偷来的东西。”
还有一条更短,也更狠:“无论道德还是法律层面,蒸馏模型输出和Anthropic训练时对待创作者的方式,差距只有一个:人家至少付钱了。”
Anthropic在AI对齐和安全性上确实做了很多认真的工作,Claude在很多任务上表现优异,这一点不需要否认。但“我们比别人少偷了一点”,撑不起这种道德宣示的重量。
更值得关注的问题也许是:如果中国实验室真的可以通过API调用来持续接近顶级闭源模型的能力,那这门生意的护城河究竟在哪里?
在硅谷,“攻击”这个词的定义取决于谁先抢到麦克风。 付费调用API、记录输出、用于训练——这套流程放在三年前叫“行业惯例”,放在今天因为对手是中国公司,就成了“工业级蒸馏攻击”。
Anthropic真正的焦虑藏在控诉背后:如果1600万次对话就能逼近你的模型能力,那你卖的到底是技术,还是一张随时可能过期的先发优势入场券? 这不是维权声明,是写给国会山的求救信——当护城河见底,最后一招只能是让裁判把对手罚下场。
一位科技圈观察者列出了一份被AI"判死刑"的SaaS公司名单,从Grammarly到Calendly,从Notion到Cursor。这不是"AI会写代码所以大家自己开发工具"那种老调,而是一个更底层的判断:当每个人都有了相当于全职私人助理的AI agent,现有的工具类产品的存在意义将被根本性地重塑。
Tenobrus在社交媒体上扔出了一份分级名单,把当前热门的SaaS产品按"死得多惨"排了个序。
最惨那档(gigafucked):Grammarly、Calendly、Miro、Retool、Webflow、LangChain、Writer、Harvey、Glean、Expedia、Monday。
次惨那档(fucked):Accenture、Intuit、Notion、Jasper、Canva、Postman、Airtable、Zapier、Replit……
然后是"可能死"的:Cursor、Pilot、Clay、Mercor。
最后还有一个特殊分类,大意是"看起来要死但团队足够聪明所以在现场边跑边想"——目前只有Linear一家。
这份名单的底层逻辑只有两条:coding agent越来越强,软件开发成本趋近于零;personal agent真正普及之后,每个人手边等于有了一个全职私人助理。
Calendly为什么在最惨那档?有人反驳说Calendly明明有免费替代品都没死,凭什么AI来了就死?原作者的回答很干脆:有全职私人助理的人,根本不会用Calendly这类工具安排日程。这不是"会被更便宜的同类产品替代",是这类需求的处理方式被整体废掉了。
Expedia在这份名单里,理由同理:旅行规划和预订,是personal agent最容易接管的场景之一。
有网友提到,企业级工具的替换周期被严重低估了——中大型公司换一套工具链涉及组织采购、培训、兼容性,哪怕更好的东西出来了也要拖好几年。这个观察没错。原作者并没有说"明天就死",时间窗口的判断本来就是这类预测最难的部分。
Notion和Intuit能不能靠"UI足够好、错误容忍度低"活下去?原作者的判断是:UI的重要性会线性下降,幻觉问题会被解决,智能会持续提升。这是一个信仰,也是一个赌注。
Cursor的处境最有意思。有人认为它应该进最惨那档:一个不训练前沿模型的IDE层产品,怎么可能持续盈利?原作者的回答是:它现在有大量资本,有一批够硬的工程师,Cursor Bugbot已经相当能打。他们没有躺在IDE这个形态上等死,还在动。所以归入"可能死"而不是"必死"。
Linear是这份名单里最受好评的异类。有网友说Linear是goated,甚至提出他们应该直接整合git、绕过中间层。原作者回应说这正是他们在做的事,"有点让人叫好"。一家本来"看起来要死"的项目管理工具,靠着持续的产品品味和执行力,在这张死亡名单上混到了一个模糊的位置。
产品力和团队质量能不能对抗结构性的市场变化?或者说,这只是让死得慢一点?
Linear被单独拎出来不是因为产品好,是因为它展示了这个时代唯一的生存姿势:别跑得比AI快,跑得比自己的旧认知快就行。名单上最惨的那些公司,死因高度一致——把“解决问题的方式”当成了“问题本身”。Expedia以为自己做的是旅行预订,其实做的是信息差套利;Miro以为自己做的是协作白板,其实做的是人类大脑的外接硬盘。
当AI成为每个人的大脑外挂,外接硬盘就是电子垃圾。唯一的活路是像Linear那样——不问“我的产品怎么还能卖”,问“需求在往哪里变形,我怎么先到那里等着”。
Anthropic宣称Claude Code可以自动分析和迁移COBOL遗留系统,IBM单日暴跌13%,市值蒸发约300亿美元。但多数技术人士认为这是严重过度反应,银行不迁移COBOL从来不是因为没钱没时间,而是因为风险太高,AI幻觉问题并没有解决这个核心障碍。
全美95%的ATM交易跑在COBOL上。这门语言诞生于1959年,比互联网还老。银行、航空、政府的核心系统里,几十亿行COBOL代码安静地运转着,像地基一样不被人看见。懂它的程序员正在慢慢老去,年轻人没有人愿意学,维护费用也因此居高不下。
然后Anthropic发了一篇博客,说Claude Code能分析庞大的COBOL代码库、识别风险、大幅降低迁移成本。市场的反应是:IBM股价当天跌13%,这是它25年来最惨烈的单日表现,2月份累计跌幅接近27%,创下1968年以来最差月度表现。
300亿美元,一篇博客文章的代价。
讽刺的是,有人指出Anthropic根本没有发布什么"新工具",只是给Claude Code现有功能写了一份新的营销材料,专门对准COBOL场景包装了一下。没有新模型,没有新功能,就是换了个说法重新讲了一遍。
恐慌归恐慌,真正的问题在于:银行为什么几十年来一直没有迁移COBOL?
答案不是缺钱,也不是缺人。有观点认为,答案是风险。金融系统里一个错误可能意味着数亿人的账户出问题,没有任何CEO愿意在财报里解释"我们用AI迁移了核心系统然后它产生了幻觉"。AI会幻觉这件事是公认的,你仍然需要人工逐行审查每一行输出——而这恰恰是整个工程最慢的那一步。AI并没有移除瓶颈,只是把前面那段路修得稍微平整了一点。
放射科医生的故事可以类比:AI今天已经可以替代90%的影像诊断工作,但医院并没有裁员,因为没人愿意第一个承担责任。金融系统同理。
不过,有一个角度值得认真对待。有观点认为,这件事真正动摇的不是COBOL迁移市场本身,而是IBM那块利润极高的咨询和专业服务收入。过去,COBOL知识是稀缺资源,IBM靠垄断这种稀缺性定价。Claude的出现让这种知识变得不那么稀缺了——哪怕迁移本身依然危险,分析、文档整理、风险评估这些前期工作的成本已经在下降。
一位做过COBOL转Java项目的开发者提到,当年整个项目最难的部分根本不是写Java,而是搞清楚那些COBOL代码到底在干什么。这正是AI可以显著加速的地方。
IBM当然也有自己的AI工具用于大型机现代化,这一点在讨论里几乎没人提。
现在的问题是:一年后回头看,这次暴跌到底是市场提前定价了一个真实的长期威胁,还是一次集体过度反应。有人已经设了一年后的提醒,等着来验证。
300亿美元蒸发的本质,是市场在追问一个哲学问题:谁敢第一个签字? COBOL像心脏手术——AI可以读片、画线、甚至建议下刀位置,但最后那一刀,必须有个活人敢签生死状。
银行不迁移从来不是不会,是不敢。几十亿行代码背后是几亿人的工资卡、房贷、退休金,任何一个幻觉都可能变成头条新闻。AI把“能不能做到”的问题解决了八成,但“谁来负责”的问题一个字没动。
Anthropic写了篇营销文案,IBM跌了四分之一,这不是技术革命,是一群对金融系统运作方式毫无概念的投资者在集体应激。
Anthropic发布了一篇关于“蒸馏攻击”的博客,声称检测到DeepSeek等中国实验室通过大量账户系统性地调用其API来生成训练数据。更值得关注的是,他们承认不只是封号,而是主动对“可疑”请求的输出结果进行投毒。这引发了广泛讨论——一家公司有没有权利在你不知情的情况下给你一个故意错误的答案?
Anthropic最近发布了一篇博客,主题是他们如何检测并反制所谓的“蒸馏攻击”。内容大意是:他们发现一批账户行为高度同步,支付方式相似,请求节奏整齐,判断是有人在规模化地调用Claude来生成chain-of-thought训练数据,幕后指向中国实验室的研究人员。
这本是一个普通的商业纠纷,却被写成了半个国家安全报告的语气。
但真正让人不安的不是被追踪,而是这一句:他们选择对“问题输出”进行投毒,而不是直接封号。
有网友直接点出了这件事的荒诞逻辑:你不会去雇一个会随机给你错误建议的顾问。如果一个API供应商公开宣布它有能力、也有意愿在后台悄悄劣化你的输出,你怎么知道自己什么时候是正常用户,什么时候已经被划入“可疑”名单?
“可疑”的标准是什么,没人说清楚。有观点认为,这套系统只要存在,任何用户都面临不确定性。问题越多的人,越容易触发某些阈值。
更讽刺的一层:他们用来检测“攻击者”的手段,是分析请求元数据并追踪到具体研究人员。这听起来很高明,其实无非是查账号、IP和支付信息,基本上所有API供应商都能做到,只是大多数人不会公开炫耀。
有网友提到,这些研究人员大概率不会傻到用实名账号。背后涉及多达2.4万个账号的协调操作,追踪链条肯定比官方描述复杂得多。至于“通过元数据锁定到具体研究员”这个说法,听起来更像是施压姿态,而不是侦探工作的复盘。
Anthropic在博客结尾还呼吁加强芯片出口管制,理由是限制算力可以遏制蒸馏攻击。有网友指出这两件事根本不在同一个讨论层面,把商业竞争问题包装成国家安全叙事,目的不言而喻。
目前讨论中最直接的行动结论是:用本地模型,或者至少分散使用多个来源的模型。当你无法验证一个API的输出是否被人为干预过,信任就不再是理性的选择。
有用户在看完这篇博客后取消了Claude订阅。他说,封号他能接受,投毒他不能接受。
这个区别,Anthropic大概认为不重要。
Anthropic这篇博客最精彩的部分,是它亲手拆掉了自己的护城河。AI服务卖的从来不是算力,是信任——而信任这东西,最怕的不是背叛,是“我保留背叛你的权利”。封号是绝交,投毒是诈骗,前者终止关系,后者腐蚀关系的定义本身。当一家公司公开宣称它的检测系统可以悄悄给你塞错误答案,每个用户都必须面对一个无法证伪的质问:我这次的输出,是真货还是样品?最讽刺的是,他们用来证明自己“正义”的手段,恰恰证明了自己“有能力作恶”。这不是安全报告,这是一封写给所有付费用户的勒索信:好好表现,别问太多问题。
AI正在压缩软件工程师的就业市场,“学会用AI工具就能找到工作”的说法过于乐观。真正的问题不是个人适应能力,而是整体岗位数量在收缩。
Reddit上一张梗图引起广泛讨论:失业程序员追着工作机会跑,旁边有人拦住他说“Claude在做那份工作”。评论区瞬间炸开了锅。
有人说,学会跟AI工具协作的工程师还在被录用,适者生存,技术圈向来如此。这话听起来很有道理,甚至有点励志。
有观点认为,这套逻辑有个致命漏洞:会用Claude写prompt的人多了去了,简历上都能写,面试却几乎不测。你所谓的“差异化竞争力”,根本没有壁垒。评论区里好几位有着3到7年工作经验的工程师表示,已经在积极使用这些工具,依然在求职。经验够用,工作没有。
一个有20年经验的人说,如果他是刚入行的年轻人,会非常认真地重新考虑职业方向。
有人提出另一套愿景:AI工具让个人能力大幅扩展,以后会出现大量“1个人+多个AI”的微型公司,大公司将失去存在的必要。这个说法颇具吸引力,但也遭到了几乎等量的反驳。有网友指出,有资本的人随时可以复制你的产品,软件领域的时间壁垒已经消失。还有人说,你以为的民主化,最终会被营销预算和现有基础设施碾压。人是懒的,大多数人会选择最省力的方案,Linux桌面版到现在也没占领市场。
也有观点认为,软件工程师不会消失,只是被要求用更少的人交付更多的东西。写代码本来就不是大公司的瓶颈所在,需求分析、架构决策、客户沟通、合规文档,这些事AI还替代不了。
UBI的呼声也冒出来了。有人说该认真讨论全民基本收入了,回复只有四个字:“昨天就该。”
有人提到“劳动总量谬误”——认为工作岗位总量固定,AI多做一份工作就少一个人类岗位,这在历史上每次技术革命里都被证明是错的。这次会不会不同,没人知道。
问题大概是:工具民主化之后,每个人都能做更多事,可市场需要的总产出并没有等比例增长。多出来的产能,去哪了?
最讽刺的不是AI抢了工作,而是我们被要求感谢这把刀磨得够快。“拥抱AI”是一种精巧的责任转嫁术:公司裁员是战略调整,个人失业是适应不良。评论区那些3到7年经验的工程师,工具用得熟练,简历写得漂亮,依然在漂流——因为问题从来不是你会不会游泳,而是船上的位置本来就不够。有人描绘“1人+AI”微型公司的美好图景,却忘了资本可以在24小时内复制你的创意,用营销预算把你碾成齑粉。技术民主化了,权力没有。 当Linux用了三十年都没占领桌面市场,你凭什么相信个体能用AI逆袭巨头?这不是躺平,是认清战场地形。
代码生产成本正在趋近于零,但这不是什么新鲜的危机。软件开发真正困难的部分从来都不是写代码本身,而是弄清楚要构建什么、怎么维持它运转、怎么让一群人在一起把事做成。
作者加入 Etsy 的时候,团队已经花了两年时间在做架构重写,追求“更优雅的方案”——实际上是两套互不兼容的优雅方案——而这两年里没有向用户交付过任何功能。后来他们停下来,统一用 PHP 重新出发。没有人会为什么是“优雅的 PHP”而争论不休,因为这种东西根本不存在。
他的结论:让 Etsy 后来一切得以发生的,不是那套优雅的代码,而是让团队重新开始交付。
这个故事本身就是文章核心论点的注脚:我们长期以来把代码本身当成了价值所在,但成功的团队一直清楚,真正的价值在于整个系统,在于那个让产品得以持续交付、满足用户需求、随时间演进的人机混合体。
代码生产成本正在趋近于零。作者承认这是真实的、前所未有的变化,Claude Code 这类工具确实带来了某种新东西。但他同时指出,“代码是最容易的部分”这个判断并不是 AI 时代的新发现,在此之前这已经成立了几十年。Web、CI/CD、移动端、单页应用,每一次技术浪潮都打乱过团队的工作方式,逼着人们重新发明协作模式。
这次只是规模更大、速度更快。
此文在 Hacker News 上引起广泛讨论,争议出人意料地激烈。有网友提到,把代码说成“容易的部分”其实是一种工资压制宣传,薪资数字本身就是反驳证据。也有观点认为这是程序员面对 AI 冲击的集体心理防御:把自己做的事重新定义成“本来就是次要的”,这样失去它就不那么令人恐慌。
反驳的声音同样尖锐。有人说,阅读一部诺贝尔文学奖小说很容易,但那种流畅的可读性本身就是成就,不是它无足轻重的证明。写代码也一样,你读代码读得像鱼呼吸一样自然,于是就以为写代码也理所当然地简单——这是一种典型的幸存者视角。
但也有经验丰富的工程师直接说:对,代码确实是最容易的部分。真正难的是长期维护,是在已有系统上加新功能,是不要把整个东西建成一坨无法理解的烂泥。《人月神话》写于几十年前,今天读起来依然像昨天写的,因为问题从来不是我们打字的速度。
作者自己的表达有一处值得停下来想想:那些近年因为“好工作”或“喜欢编程”而入行的人,面对这个时刻会有真实的失落感。而他这一代人入行是因为沉迷于那种掌控感,所以很难在情感上理解那种失落。这不是谁对谁错,只是两代人站在完全不同的位置看同一件事。
现在的问题是,当代码成本趋近于零,“构建什么”和“为什么构建”的决策权会落到谁手上,用什么方式落到他们手上。这个问题没有标准答案,但每个还在这个行业里的人都得给自己想一个。
“代码是最容易的部分”这句话,本质上是一场话语权的争夺。把心脏手术说成“只是开刀缝合”,把建筑设计说成“只是画线条”,任何职业都能用这种修辞被矮化。Etsy那个故事真正的教训不是PHP打败了优雅,而是内耗打败了交付。两年做不出东西,换成AI写代码照样做不出——因为问题从来不在键盘上。高薪从来不是为“打字速度”付费,而是为“知道该打什么字”付费。当所有人都能瞬间生成代码,区别你的就是那个“知道”。这不是心理防御,是逻辑必然。
MIT有门课专门教CS学生那些“没人教但天天要用”的东西:命令行、版本控制、调试工具、代码质量。2026年新增了AI辅助编程内容。这门课在网络上引发广泛讨论,核心争议是:这些基础工具技能,到底该不该系统教?
MIT有门叫“Missing Semester”的课,名字起得很直白:这就是你CS教育里缺掉的那学期。
操作系统原理、机器学习算法,高校教得很系统。但Shell怎么用、Git怎么用好、怎么写有意义的commit message——这些东西学生要么自己摸索,要么毕业了才发现自己根本不会。
有网友专门提到代码注释这件事,说得相当到位:读代码本身能告诉你“做了什么”,注释应该解释“为什么这么做”。`i+=1; /- 增加i */` 这种注释毫无价值,真正有用的注释是:我在循环中途自增i,是为了能提前看到下一个值来判断是否需要交换。
用给外行讲解的语气写注释,代码才能活得更久。软件的大部分生命周期和大部分成本都在维护阶段,这一点很多人从来没认真想过。
Git的讨论占了评论区相当大的篇幅。
有观点认为,大量所谓“高级工程师”、“可靠性工程师”,遇到git出问题的第一反应是删掉重克隆。提交信息永远是`changes`或者`try fix`,git bisect/blame/revert根本不知道怎么用,更别说用这些工具还原一段代码演变的故事。
反驳的声音也很强:这不完全是工程师的问题,Git的设计本身就不友好。接口反直觉,抽象层到处漏,一旦出了问题,不熟悉内部模型的人根本不知道怎么脱身,而能把自己搞进那个处境的人,往往也没能力出来。有人用电锯打比方,也有人回说:正因为我们做的是软件,不受物理定律限制,我们完全可以造出一把不会切断手指的电锯。
Mercurial当年输掉的那场仗,到现在还有人觉得可惜。
有一句话值得单独拿出来品品:如果你把commit历史维护好,让它讲个故事,代码审查是一种享受。如果你往上堆26条`try fix`,最后留下一团烂泥,那是折磨。
提交历史是写给未来的自己看的。很多人到现在还没意识到这一点。
2026年这版新加了AI辅助编程的内容,有人直接说应该删掉,理由是学生会产生依赖、反而学不到东西。也有人觉得这个方向对,甚至建议专门加一节“自己动手写一个agent”,说代码不复杂,几百行就能搞定,但能建立非常扎实的直觉。
还有人问得很直接:现在还有必要学CS吗,AI不是把这些都替代了?
有一个回答说得很清楚:agent很擅长解决“被解决过很多次”的问题,但无法用洞察力重新定义问题本身。他举了Flying Edges算法的例子——那是对Marching Cubes的一次根本性重构,换了底层思考框架。AI能模仿形状,但不能产生这种跃迁。
工具学得再好,不理解自己在构建什么,迟早会遇到那个时刻。
这门课真正在教的不是命令行,是手艺人的尊严。
算法是屠龙术,Git是磨刀石——CS教育培养的是会想象巨龙的人,却忘了刀钝了连猪都杀不死。
那个写i+=1; /*增加i*/的人,和在博物馆油画前挂个牌子写“这是一幅画”的人,本质上是同一个人。代码注释的真谛是留下思考的温度,让后来者知道此刻你为何如此抉择。
有趣的是Git的争论。有人说电锯危险怪使用者,有人说软件不受物理限制、完全可以造不伤手的锯子。这恰恰暴露了程序员的傲慢与天真:我们总以为自己是造工具的人,却忘了大多数时候我们只是被工具塑造的人。
提交历史是写给未来的遗书。可惜多数人写的是changes、fix、try again——像极了人生最后只留下“来过”两个字。
我们把“色情App”拆了,彻底扒开一行行龌龊的代码!| youtube
“「选 A 还是 B?」这可能是每个垂直领域的工具讨论中都绕不开的问题。在笔记管理这个圈子也总能看到类似的讨论:Logseq 还是 Obsidian?Notion 还是 Roam Research?而对我来说,让我纠结了很长一段时间的 A 和 B,正是 Heptabase 和 Tana。
说实话这可能就是一种执念吧。我们总希望找到一款 All in One 的工具,能够一次性解决所有问题。记录、整理、思考、输出,最好全都能搞定。事实上,有很多工具也的确是往这个方向发展的。
但问题在于,当你试图用一个工具照顾到所有场景时,你会发现每个场景都只能做到「还行」,没有一个真正做得很好。这不是工具的问题,而是我们对工具的期待本身存在矛盾。更重要的是,我们很容易被各种工具的 feature 带跑偏。过度关注「这个工具能干什么」,却忽略了更本质的问题:「我究竟想要获得什么?」
说到底,知识管理这件事,技巧和功能都只是表层。真正重要的是如何构建自己的思考模式、如何理解知识,以及最终能沉淀出什么真正属于自己的东西。
Heptabase 和 Tana 都是我非常喜欢的产品。它们都是我希望能够长期用来学习、沉淀的平台。但这两款产品无论从理念还是功能上看都是截然不同的。如何选择?这个问题在很长一段时间里困扰着我,也消耗了我不少时间和精力。
我记得自己反复尝试在其中一个工具里 All in One 又反复失败,试图找到那个「最适合」的,却发现每个都有不可替代的优势。两边来回切换,既焦虑又低效。
不过也正是这段纠结摇摆的时间,让我逐渐想明白了几件事:我为什么需要它们?我究竟想用它们来帮助自己解决什么问题?
当这些问题的答案逐渐清晰,困扰我许久的选择难题豁然开朗。我不再纠结「选哪个」,而是决定两款工具「双修」。这也是这篇文章最原始的思考起点。今天的这篇文章,我怕不会详细介绍两款工具的具体功能——那些内容在各自的官网和教程里都能找到。我更想从产品理念和真实需求的角度,聊聊我对这两款工具的理解,以及为什么我最终选择了「双修」。
如果你也在为类似的问题困扰,或许这篇文章能给你提供一些不一样的思路。“