阿里巴巴通义千问的核心人物林俊阳宣布离职。这个看似平常的人事变动,却在海外AI社区引发了一场罕见的“集体致敬”,从PyTorch联合创始人到Ollama,顶级大牛纷纷表示震惊。有投资人甚至直言:我买阿里股票就是因为千问,现在得重新评估了。
“我手里的阿里股票,基本就是千问的头寸。现在我真的需要重新评估了。”
一位投资者在看到林俊阳的告别推文后,写下了这句话。林俊阳,阿里巴巴通义千问项目的核心人物,只用了一句极简的“我走了,再见我亲爱的千问”,宣告了自己的离开。
你可能不知道他的名字,但这不重要。重要的是,这条推文下方,几乎是全球AI开源社区的一次罕见集体列队致敬。PyTorch联合创始人Soumith Chintala、fast.ai创始人Jeremy Howard、Ollama官方……这些在AI圈如雷贯耳的名字,都在第一时间表达了震惊、惋惜和感谢。
这绝非一次普通的技术骨干离职。在许多全球开发者眼中,千问是罕见的、由中国科技巨头主导,却真正赢得了全球技术社区尊重的开源大模型项目。而林俊阳,正是这个项目与全球社区沟通的桥梁和灵魂。他的存在,让外界相信千问的技术愿景超越了单纯的商业KPI。
一个人的离开,之所以能引发如此大的震动,是因为他带走的可能不只是代码,而是一个项目的“可信度”和一个大公司内部罕见的“理想主义微气候”。当这把保护伞消失,项目本身是否还能抵御来自巨头内部的流程、政治与战略摇摆?这才是所有人真正担心的。
所以,那个投资者的反应或许并非夸张。有时候,我们投资一家公司,最终赌的,其实是具体在做事的那几个人。
在大公司里,明星项目真正的护城河,有时不是技术,不是资源,而是那个能为它挡住所有内部流程和政治的“伞”。伞一走,项目就直接暴露在风雨里。林俊阳的离开,让很多人担心千问的这把伞没了。
一个从0到1做起来的“内部创业”团队一旦成功,宿命不是被嘉奖,而是被“拆分”和“收编”,因为它威胁到了既有的组织范式。当组织范式本身成为创新的最大阻碍,再优秀的人才也只能选择离开。这或许能解释为什么颠覆式创新总是发生在体系之外。
开源项目 PinchTab是一款高性能浏览器自动化桥接及多实例调度工具,支持先进的隐身注入和实时仪表盘。
它提供了统一的 HTTP 服务接口,让 AI 代理或开发者直接控制 Chrome 浏览器,支持无头和有界面模式,可以并行运行多个隔离浏览器实例,且内存占用低,token利用率高(单页提取约800 tokens,远优于截图方式)。
主要功能:
- 命令行与 HTTP API 双重控制方式;
- 多实例多用户会话隔离,支持持久化浏览器配置文件;
- 高度隐身的自动化,减少被检测风险;
- 支持 ARM64 架构,完美兼容树莓派等设备;
- 快速集成,单个12MB二进制包,无外部依赖;
- 详尽文档支持,轻松上手。
适合构建智能爬虫、自动化测试和 AI 智能助理等项目,极大提升效率与稳定性。
快速安装
curl -fsSL https://pinchtab.com/install.sh | bash你可以按行业、失败原因来筛选,甚至能查到每个项目具体烧了多少钱。像腾讯做短视频为何输给抖音字节、做游戏为何敌不过王者荣耀这类问题,这里都把失败原因剖析得明明白白,还附带当前的市场现状解读。
中国研究者发现,LLM中不到0.1%的特定神经元可以可靠预测幻觉的发生,这些神经元早在预训练阶段就已形成,并与模型的“过度顺从”行为直接相关。这一发现引起广泛讨论,争议焦点不只是技术本身,更是一个令人不安的问题:AI的毛病,究竟是AI的问题,还是人类的问题?
中国的研究团队最近发表了一篇论文,声称找到了LLM产生幻觉的神经元级别机制。他们把这类神经元命名为H-Neurons,数量极少,不到模型全部神经元的0.1%,却能可靠预测幻觉何时发生。更关键的是,这些神经元并非来自后期的指令微调或强化学习,而是在预训练阶段就已经存在。
这件事最有意思的地方不在于技术细节,而在于它揭示了一个结构性困境:幻觉的根源不是“不知道”,而是“不允许说不知道”。
论文指出,预训练阶段的下一个token预测目标,优先保证语言流畅而非事实准确;后续的指令微调则进一步奖励“表面上有帮助的回答”,哪怕这个回答是编出来的。换句话说,模型从一开始就被训练成“宁可自信地说错,也不能沉默”。
有网友打了个绝妙的比方:这就像参加一场选择题考试——空着不答肯定得零分,猜一个至少有可能蒙对。所以模型学会了猜,然后把猜的结果说得跟真的一样。问题在于,考试结束了,它还在猜。
这个比喻引发了更深的讨论。有观点认为,人类其实也一直在“幻觉”,我们也是用三个数据点拟一条曲线,然后对曲线上所有点给出结论。区别在于,人类有元认知能力——我们能感知自己是在确定地知道,还是在大胆猜测。能说出“我记得大概是这样,但你最好查一下”的人,和那些什么都说得斩钉截铁的人,不是同一种人。
问题是,我们在训练模型时,奖励的恰恰是后者。
有网友一针见血:在现实世界里,承认不确定是一种专业信号,是靠谱的标志。但LLM的训练机制把这个逻辑完全反转了——它永远不会说“我不确定”,因为说了就会被惩罚。
当然也有人泼冷水。Gemini自己评估这篇论文时说:找到这些神经元是一个很强的分析发现,但如果真的去抑制它们,模型极可能在其他功能上损坏。“不会是切掉就完事那么简单”——有观点认为,这就好比找到了人类说谎时激活的脑区,然后以为把那块切掉人就不撒谎了。
还有一个更根本的质疑:幻觉这个词本身是否就是一种误导?有人认为,把统计概率预测的出错结果叫做“幻觉”,给了它太多拟人化的色彩,掩盖了这不过是一个语言生成算法在没有可靠锚点时自然滑落的结果。
这篇论文是增量性进展,不是革命。但它把一个模糊的问题变得稍微清晰了一点:幻觉不只是数据问题,也不只是算法问题,它在某种程度上是一个激励机制设计问题。
而激励机制是人设计的。
我们用“做题家”的规则训练AI,却指责它没有学者的诚实。想想看,模型的一生是什么?答对奖励,沉默惩罚,不确定表达直接扣分。这不就是那套“不会也要写满”的应试哲学吗?然后我们震惊地发现:它真的学会了不会也写满。更讽刺的是,那0.1%的“幻觉神经元”不是病变,是勋章——它们是模型在我们设计的生存游戏里进化出的最优解。问题从来不是AI在撒谎,而是我们从未允许它说“我不知道”还能活下来。
Anthropic宣布放弃其旗舰安全政策RSP的核心承诺,理由是竞争对手不受约束地向前冲,单方面坚守没有意义。这不是技术问题,而是一个关于道德承诺在商业压力下能撑多久的古老故事。
2023年,Anthropic立下一个听起来很认真的誓言:除非能提前确认安全措施到位,否则绝不训练新模型。当时,他们把这个“负责任扩展政策”(RSP)当作与OpenAI切割的核心标志,是公司存在的道德地基。
两年后,这块地基悄悄被撤掉了。
首席科学官Jared Kaplan的解释非常坦率,坦率到有点令人不舒服:“我们感觉,如果竞争对手在全速前进,单方面作出这样的承诺并没有什么意义。”
这句话的另一种读法是:我们本来想当好人,但好人活不下去。
这是经典的囚徒困境。每个人都知道最优解是合作,但只要有一方选择背叛,其余所有人的理性策略就是跟着背叛。Anthropic不是第一个走这条路的,也不会是最后一个。Google曾有“不作恶”,OpenAI曾有“非营利使命”,现在轮到Anthropic的RSP。
有观点认为,此次放弃承诺与五角大楼向Anthropic施压有直接关联。但更准确的说法是,Pentagon之争针对的是现有模型的使用权限,而RSP涉及的是未来模型的训练边界,是两件事。只是两件事都在同一段时间里发生,难免让人觉得Anthropic正在全线溃退。
值得注意的是,这场讨论里几乎没人相信Anthropic“落后于OpenAI”这个前提。GPT-5在许多重度用户眼中并不算成功,Claude在开发者和企业市场的口碑反而更稳。这让Kaplan那句“竞争对手在狂奔”听起来更像借口。
讨论中另一个被反复提及的声音是:大家把太多精力花在科幻式的末日威胁上——生化武器、核武器、AI失控——反而集体忽视了一个正在发生的现实问题:大量初级岗位正在被快速消解,而Anthropic从来没有认真回应过这件事。
有网友提到,真正的风险不是好莱坞剧本,而是找不到工作的人越来越多,安全网越来越薄,某一天积累的压力会以谁也预料不到的方式爆发。
Anthropic创立之初,是一批从OpenAI出走的人,理由正是对安全理念的坚持。这个起源故事现在读起来有一种特别的讽刺感。
现在的问题不是Anthropic会不会继续做安全研究——他们大概会的。问题是,当一家公司连自己设定的承诺都可以随时收回,“我们比别人更负责任”这句话,还剩下多少分量。
我们见证的不是一家公司的堕落,而是一种幻觉的破灭:原来根本不存在“负责任的AI巨头”这种生物。Google放弃了“不作恶”,OpenAI放弃了“非营利”,现在Anthropic放弃了RSP——这不是多米诺骨牌,这是同一块骨牌反复倒下。真正值得追问的是:为什么我们每次都信?也许人类需要一个“有良心的科技公司”神话来安慰自己,就像需要睡前故事一样。故事的结局永远是——狼来了,但讲故事的人已经拿着钱跑了。