Anthropic的“安全”生意:一家从未开源任何模型的AI安全公司 | 帖子

Anthropic以AI安全为旗号,却从未开源任何模型,连tokenizer都不对外公开。这家公司把“安全研究”包装成流量,实质上对开源社区毫无贡献。

有人最近想做一个多语言tokenizer效率对比项目,分析了Google、OpenAI、Meta的模型,轮到Anthropic时愣住了:没有任何公开资料可以分析。Google论文里提到Gemini和Gemma共享tokenizer,OpenAI开源了tokenizer和gpt-oss,Meta的Llama就更不用说。Anthropic那边:一片空白。

这是一家以“AI安全”为核心使命的公司。

OpenAI这些年被骂得最多的就是“不Open”,可至少还在发论文、开源tokenizer、放出基础模型。Anthropic连这点都做不到。有观点认为,他们每次发布都附带几百页的自我宣传材料,里面充满末日预警和能力吹嘘,但对真正的安全对齐研究者有用的信息几乎为零。

开源恰恰是加速安全研究最有效的方式之一,一家声称在做安全的公司,却把所有东西锁死,这逻辑本身就值得怀疑。

有网友提到,他用同一套方法在过去一年里连续绕过了Claude 3.5到4.6共五代模型的安全限制,方法没变过,效果一直有。几百名博士,数十亿美元投入,结果一个人在家鼓捣就能突破。他拒绝公开具体方法,理由是有恶意行为者在看,另一个理由他说“有点尴尬”。有网友怀疑他在编,他表示可以私信演示,但需要鼓起勇气。

还有观点认为,这套“安全”叙事本身是一门生意。先用开源代码库里的漏洞制造恐慌,高喊“开源不安全”,第二天转头卖自己的代码安全审计服务。剧情弧度相当完整。

Anthropic的投资方包括Google,合作方包括Palantir。一家喊着安全口号的公司,跟一家以数据军事化闻名的公司深度绑定,这件事本身就很难解释得通。

关于Claude为什么感觉比其他模型“不一样”,有几种猜测在流传:大量可验证的逻辑合成训练数据、以代码为核心的早期训练策略、可能存在的非标准tokenization方案。GLM和MiniMax的表现或许能作为某种侧证。但这些都是猜测,因为没有任何公开信息。

有人说如果Anthropic上市会去买股票。这倒是一个完全不同维度的坦诚。

“安全”两个字,在硅谷的语境里,从来都是个定价策略而非技术指标。Anthropic深谙此道:用末日叙事锁定企业客户的焦虑,用封闭架构锁死竞争对手的窥探,用几百页白皮书锁住舆论的定义权。OpenAI被骂“不Open”好歹还漏点东西出来,Anthropic连tokenizer都藏着,却从没人质疑那个“AI安全公司”的title。

这不是双标,这是教科书级的品牌溢价管理——卖恐惧的人,怎么能让你看见恐惧的生产车间?Google投钱、Palantir合作,资本的嗅觉比道德判断诚实得多。
 
 
Back to Top