前OpenAI研究员Andrej Karpathy制作了一张职业自动化风险评估表后迅速删除。这张表用Gemini Flash评估各行业受AI影响程度,但它忽略了最关键的问题:当白领大规模失业,所谓的“安全职业”也会因连锁反应崩溃。
此表标注哪些职业容易被AI替代。软件工程师、律师是重灾区,体力劳动相对安全。表发出没多久就删了。
他自己也承认这是“slop”(垃圾输出),用AI评估AI的影响本身就很讽刺。但真正的问题不是方法论有多粗糙。
有观点提到,这种分析最致命的缺陷是把自动化当成孤立事件。一个办公室关门,清洁工、周边餐厅、托儿所都会受波及。失业潮会传导到每个角落。那些标记为绿色的“安全职业”只是暂时的,当所有人都想当水管工,供需失衡会让这个行业也变成红海。
更微妙的是,大部分工作不会完全消失,而是一个人干三四个人的活。公司不再补缺,招聘冻结,失业率统计看起来还正常。刚毕业的年轻人找不到对口工作,只能去送外卖,算“就业”但实际上是underemployed。数据会骗人。
有网友提到建筑工人也不安全。机器人技术在突破,虽然成本高、环境复杂、数据不足,但失去一个40万美元的机器人总比失去一个人便宜。这个逻辑很冷酷,却可能就是未来的现实。
Karpathy删表这件事本身比表的内容更有意思。给职业自动化打分会引发政治风暴,无论数据多精确。当你把失业量化成具体数字,就不再是抽象的技术讨论,而是每个人都能对号入座的恐慌。
最讽刺的是,软件工程师——十年前被认为最安全的职业——现在成了高危行业。有刚入行的人说自己改专业学了CS,结果刚工作几个月就面临职业消失的可能。这种错位感很残酷。
UBI(全民基本收入)在美国是个笑话。一个连全民医保都做不到的国家,指望它发钱给所有人?有观点认为,美国是资本主义大本营,UBI是资本主义的反义词,权力者为什么要放弃权力?
表本身是垃圾,但它至少让人开始讨论。问题是讨论之后呢?大多数人还是会继续假装一切如常,直到裁员信真的来了。
有人在修改OpenCode工具代码时发现:运行`opencode serve`后,Web UI的所有请求都被代理到这里。没有启动参数可以关闭,没有选项可以修改。
GitHub上堆积了十几个相关PR和issue,最早的投诉可以追溯到几个月前。防火墙内运行?启动时会卡在白屏等待外部请求超时。完全断网?功能直接残废。
更诡异的是,即便关闭自动更新,Web UI版本依然会自动刷新,新的模型provider会突然出现,甚至成为默认选项。一位用户说得直白:“我以为在用本地模型,结果OpenRouter给我发了账单补充提醒。”
有网友验证:启动时的第一个动作就是把你的初始prompt上传到opencode.ai/zen/v1/responses生成标题,无论你用的是不是本地模型。除非手动指定small_model,否则这个行为无法避免。文档里写着“会fallback到主模型”,但代码里根本不是这么干的。
看看RolandCode(一个剥离了隐私功能的fork)删掉的endpoint列表:
- us.i.posthog.com → 使用分析
- api.honeycomb.io → 遥测数据、IP、位置
- api.opencode.ai → 会话内容、prompts
- opencode.ai/zen/v1 → prompts代理
- app.opencode.ai → 全局代理
一个本地工具需要连接这么多服务器?
有观点认为这是为了盈利做的妥协。OpenCode背后有VC资金支持,拒绝合并显示tokens-per-second指标的PR,在OpenCode Zen项目中对provider、量化方案、速率限制都不透明。锁定默认的build prompts,要求重新编译才能修改,这种设计选择本身就很可疑。
另一个细节:即便用户明确关闭自动更新,Web UI仍会静默升级,新的模型provider会突然出现在列表里,甚至自动成为默认路由目标。这不是失控,是有意为之。
社区里开始有人重新审视当初OpenCode和Crush的争议:“现在想想,那场冲突可能不是我们以为的那样。”
终端复制粘贴遵循不了Linux标准,退出后看不到会话历史,这些看似小问题的背后是什么?有人说是editor风格的trade-off,但Gemini CLI、Claude CLI、Codex都没这些毛病。
现在的选择:
Pi Coding Agent被多次提及,简单、轻量、真正本地。有人fork了oh-my-pi增强版,也有人在用RolandCode。Nanocoder从头设计,原生支持agentic coding和tool calling。
但守住“本地”这个词的意义比工具本身更重要。
模型权重能离线运行吗?系统能在没有任何外部API调用的情况下工作吗?网络访问是可选还是强制?如果运行时管道依赖远程endpoint,那就别叫它“本地”,叫“混合”更准确。
本地AI的价值在于隐私、确定性和成本控制。当这些保证被隐藏的网络依赖打破,整个价值主张就变了。
一位剑桥学生用Claude配合五个问题,20分钟内就能像资深学者一样批判性地阅读论文。关键不在于让AI总结内容,而在于用它来检验论文的逻辑漏洞、未言明的假设和缺失的对话。
大多数人用Claude读论文的方式是错的。
他们粘贴论文,要求总结,得到一段流畅的概括,然后以为自己读懂了。这不是阅读,这是带着科技感的走马观花。
剑桥这位学生的做法完全不同。她先完整读一遍论文,然后问Claude:“仅从方法和结果来看,这项研究能合理推出什么结论、不能推出什么?现在读摘要,告诉我作者在哪里过度延伸了。”
她不是让Claude替她读论文,而是用它来检验论文是否真的证明了作者声称的东西。大多数学生读到作者的主张就当成了作者的发现。这两者之间的鸿沟,正是她用20分钟学会的。
接下来更有意思。
她问:“这项研究没有测量什么,如果测了会显著增强或削弱核心主张?作者的方法论在悄悄假设什么,却从不说明?”大多数学生读方法论是为了理解研究者做了什么。她读是为了找到他们没做什么,以及他们希望没人注意到什么。
然后她让论文自我对质:“如果我在不同背景的不同人群中重复这项研究,结果最可能在哪里变化?这说明作者的结论实际能推广到多远?”大多数发表的主张看起来是普遍的,实际上是特定的。这个问题每次都能找到两者之间的界限。
有观点认为,她这不是在加速阅读,而是在把研究当作论辩而非文件来对待。资深学者读论文时把它们看作持续辩论中的一个立场,而不是完成品。这种框架一旦切换,问题自然从“他们说了什么”变成“这实际证明了什么,基于什么假设”。
她还会追问:“这篇论文在回应什么辩论?它回应的那些人会怎么反驳?这篇论文在已有争论中处于什么位置?”那一天,她不再把论文当作孤立的对象来读。每篇论文都是对某事的回应。大多数学生从不知道是什么。她五分钟就找到了,这完全改变了论文的意义。
最后她问:“这篇论文的参考文献中缺失的、该领域每个严肃研究者都会认为必不可少的最重要引用是什么?作者没有参与但应该参与的对话是什么?”
她在研讨班上提出了一个作者的理论盲点。导师停下讨论,问她怎么发现的。她说她向论文提了正确的问题,而不只是读了它。导师说这正是在学术界干二十年才能学会的。
她做了三周。
有网友提醒,使用Claude时要验证答案,避免“幻觉”。也有批评指出这些提示词本身就是AI生成的,文风过于明显。还有人质疑:如果她真的读了论文,不应该自己就知道答案吗?
但更多讨论集中在这种方法的本质。有人指出,这其实是将本科教学转向研究生风格,增强学生的推理能力。也有人担忧,这是在让Claude替她理解论文,而不是替她读论文,后者可能更糟。
工作流很简单。五个问题,按顺序:方法和结果能合理推出什么?研究没测量什么、方法论在默默假设什么?换人群或情境会怎样?论文在回应什么辩论?参考文献缺了哪篇关键文献?
大多数学生花三年从外部读论文。这五个问题让你20分钟就进入内部。论文没变,问题变了。