315晚会戳破的AI真相:你得到的“标准答案”,可能只是别人花钱买的广告

315晚会曝光了一条名为“GEO投毒”的灰色产业链,通过向大模型批量投喂虚假内容,将广告包装成“标准答案”。你对AI的每一次信任,都可能正在被明码标价。

一个根本不存在的智能手环,在被虚构出十余篇评测软文并发布后,短短两小时,就登上了多个主流AI大模型的推荐榜前列。

这不是科幻,是今年315晚会揭开的荒诞一幕。

我们倾向于相信AI的答案是客观、中立的,是对海量信息进行公正计算后的结果。但现实是,这种信任正在被一种叫“GEO”(生成式引擎优化)的技术系统性“投毒”。说白了,就是AI时代的SEO黑产,而且更加隐蔽和高效。

这条产业链的逻辑简单粗暴:客户付钱,服务商就负责“驯服AI”。他们通过自建的发稿平台,向全网海量投喂包含特定关键词的软文,污染AI模型赖以生存的信息源。由于AI需要不断抓取新信息,这种持续性的“洗脑”操作,能确保客户的产品稳定出现在AI的回答里,就像一个被植入的记忆。

一个问题词条,一个季度收费4000元,就能交付排名效果。而客户的产品,售价可以因此抬高近5倍。在这背后,是数百万抢夺一个手机推荐位的疯狂生意。

这不再是遥远的技术作恶,而是我们每一次提问时都可能踩中的陷阱。AI本身没有恶意,它只是个过于勤奋的学生,把被严重污染的互联网当成了唯一的教科书,然后一五一十地复述给我们。

真正的问题或许不是如何“净化”AI,而是当水源本身已经被污染,我们从井里打出的每一桶水,又要如何辨别?

我们用AI是为了绕过信息的噪音,结果AI本身成了噪音的最大扩音器。这更像一个关于人性的寓言,而不是技术问题。当信任可以被量化和操纵时,最稀缺的能力不再是获取信息,而是怀疑一切。
一张图看懂40个开源大模型:2024-2026年,LLM架构正在收敛还是分裂 | blog

Sebastian Raschka整理了从2024年初到2026年春天发布的40多个开源大模型的架构图谱。这些模型几乎都在做同一件事:想办法让注意力机制便宜一点、快一点、跑得更长,同时保住性能。收敛的是设计语言(MoE、QK-Norm、滑窗注意力成了标配),分裂的是具体方案:Mamba混搭、线性注意力替换、MLA压缩KV——每家都在赌不同的技术路线。

这份图谱最有意思的地方,不是某个模型用了什么新招,而是它摊开来让你看见:现在做LLM,其实是在一个非常窄的设计空间里反复试探。

Llama 3还在坚持GQA加RoPE的经典搭配。DeepSeek V3一出来,MLA(Multi-head Latent Attention)加稠密前缀加共享专家这套组合拳就成了“大力出奇迹”的新标杆。然后你会看到整个2025年,几乎所有超过百亿参数的MoE模型——Llama 4 Maverick、Mistral Large 3、Kimi K2、GLM-5——都在学这套模板。

有观点认为,这不是趋同,是“抄作业”。但换个角度看,这恰恰说明大家都卡在同一个瓶颈上:长上下文推理的计算成本。标准注意力的复杂度是O(n²),扩到百万token级别根本撑不住。于是2026年开始,架构图谱出现了明显的“混搭”趋势。

Qwen3.5用了3:1的DeltaNet和普通注意力交替层。Kimi Linear干脆把大部分注意力层换成线性版本,只保留四分之一的MLA。NVIDIA的Nemotron 3 Nano更激进,用Mamba-2跑大部分层,注意力只在关键节点出现。

这些方案的共同点是:承认注意力机制不可能全程在线,得找个替代品分担压力。分歧在于,到底哪种替代品靠谱。有网友提到,线性注意力省显存但长依赖能力存疑;状态空间模型(SSM)速度快但训练难调;滑窗注意力简单粗暴但信息会丢。

另一个值得注意的细节是QK-Norm的普及速度。从Qwen3开始,几乎所有新模型都加了这个归一化层,不管是稠密模型还是MoE。OLMo 2甚至把整个规范化方案从pre-norm改成post-norm,就为了配合QK-Norm稳住训练。

这说明什么?说明大模型训练已经卷到“微操”阶段了。架构上的大创新(比如Transformer本身)几年没见过,现在拼的是各种小技巧的叠加效应。归一化放哪一层、RoPE用多少维度、专家路由的稀疏度怎么调——这些以前不太被重视的细节,现在成了决定成败的关键。

Step 3.5 Flash是个有意思的例外。它用多token预测(MTP-3)在训练和推理阶段都保持高吞吐量,196B的总参数、11B的激活参数,推理速度能和600多B的DeepSeek V3掰手腕。有人说这是“取巧”,我觉得更像是一种务实:既然架构创新空间有限,那就在工程实现上找机会。

最后说回这份图谱本身。它收录了从3B到1T参数的模型,每个都标注了关键设计选择、发布日期、配置文件链接。但真正有价值的不是这些信息本身,而是它让你意识到:LLM的架构演进,正在从“范式革命”滑向“增量优化”。

下一个突破会是什么?可能不在注意力机制本身,而在怎么把注意力、SSM、线性模型这些东西拼得更聪明。或者干脆跳出这个框架,找一个全新的序列建模方式。
AI编程让你跳过了最简单的部分,却放大了最难的部分 | 帖子

用AI在周末做出一个“能用”的项目管理工具很容易,但两个用户同时编辑数据时系统就会悄无声息地崩溃。AI生成的代码完美符合你的要求,但它不会告诉你什么是乐观锁,也不会处理支付webhook重复触发导致的双重扣费。能跑的原型只占软件工程的1%,剩下99%的问题要等真实用户出现才会暴露。

有人周末用Claude Code搭了个项目管理工具,发推说“刚替代了Jira”。

本地测试,单用户,顺利通过。但当两个人同时编辑同一条记录,数据就悄无声息地损坏了。他们不知道什么是乐观锁,之前也从没需要知道。

这种过度自信才是最糟糕的部分。“上线前只需要调整几个地方”——你需要调整的那几个地方,就是产品本身。这就像打了个地基就说房子基本盖好了。

原型可能只占软件工程的1%。剩下99%是真实用户出现后才会遇到的:竞态条件、事务失败、会话在错误时刻过期、支付webhook触发两次导致重复扣费。AI没覆盖任何这些。它只会精确地构建你要求的东西。

Vibe coding确实有效。做个人工具、一次性脚本、不会给付费用户用的原型时,它又快又够用。但它有个硬天花板,一旦遇到真实场景就会显现。

代理工程(Agentic engineering)是另一个维度的能力。你不是在提示词里要代码,而是在分解问题、设计系统边界、写足够精确的规格说明让AI不跑偏。你要审查它构建的一切,因为它会犯那种只有你知道“正确”长什么样才能发现的错误。你要引导它,捕捉它遗漏的东西。

如果你不知道什么是分布式事务,AI救不了你。它会信心满满地生成有问题的代码,你要到上线后才会发现。软件开发最难的部分从来不是写最初那200行代码。

有观点认为,Slack处理通知的方式就是个经典案例。登录和注册看起来简单,但加上2FA、Google和Apple登录、移动端、OAuth、限流、垃圾攻击防护和SSO后,很快就变成噩梦。

有网友提到:“原型基本就是概念验证,证明理想路径存在。生产环境是证明所有非理想路径不会害死你。AI瞬间给你前者,让人忘了后者才是99%的工作。”

另一个评论一针见血:“AI加速了本来就简单的部分。困难的部分依然困难——竞态条件、重复扣费的webhook、没人想到的边界情况。”

那些宣称周末就替代了整个SaaS解决方案的人,已经登上了“愚昧之巅”。原型能跑和产品能用,完全是两码事。

“开快车仍然需要知道怎么掌方向盘。引擎不是问题所在。”

软件工程依然很难,创业依然很难。我们只是有了更强大的工具来加速这两件事而已。
在线做科研太折腾,从灵感到论文得跑好多环节:文献查找、实验调试、论文写作,费时费力。

开源项目 AutoResearchClaw 实现了从“聊个科研想法”到“生成完整学术论文”的全流程自动化科研!

它能自动:

- 挖掘 arXiv 和 Semantic Scholar 上真实文献,筛选高质量相关论文;
- 自动设计硬件感知实验,运行沙盒代码,出结果还能自我修复;
- 多智能体展开假说辩论和同侪评审,保障方法和证据一致性;
- 生成 NeurIPS/ICML/ICLR 级别的论文草稿、LaTeX模板和真实BibTeX引用;
- 进行4层引用检测,自动剔除虚假引用,保证论文品质;
- 具备“PIVOT/REFINE”自我迭代能力,实验失败还能自动调整方向;
- 支持OpenClaw集成,一条命令即可启动自动科研流程。

只要装好环境,配置好LLM接口,敲一句命令输入你的科研话题,它就能自动跑完从文献综述、假说生成、试验设计到撰写上传的一整套流程,无需人工看护。
ykdojo在github 上分享了关于Claude Code的 45 条实用技巧,从入门到高级,涵盖自定义状态栏、系统提示语精简、用 Gemini CLI 作为 Claude 代理、甚至让 Claude Code 自己在容器中跑自己,还有超实用的 dx 插件。| #技巧

主要看点:

- 一键设置自定义状态栏,实时显示模型状态、Git 当前分支、Token 使用率,随时掌控上下文空间(Tip 0)
- 利用 /compact 和半克隆脚本主动压缩对话上下文,让 Claude Code 保持高效运转(Tip 8、23)
- 使用 Gemini CLI 作为 WebFetch 的备胎,解决某些网站访问限制(Tip 11)
- 通过多终端分屏、多git worktree等工作流大幅提升多任务处理能力(Tip 14、16)
- 用 Claude Code 做写作助手,语音输入加速初稿生成,Markdown 格式极简高效(Tip 18、19)
- 自动执行写-测-改循环,结合 tmux 完成自动化测试和长跑任务(Tip 9、36)
- 精简系统提示语,减少 50% 以上 Token 占用,大幅延长对话长度(Tip 15)
- 将 Claude Code 打造成“万用界面”,本地文件操作、GitHub PR 审核、数据分析样样行(Tip 27、29、31)
- 利用 dx 插件集合,将多条实用命令和技能整合一键安装,极大提升开发体验(Tip 44)
- 快速部署一键脚本,配置状态栏、插件、别名、权限一次搞定(Tip 45)

无论你是刚接触 Claude Code 还是想解锁更高阶玩法,这份全方位技巧宝典绝对是提高效率,打造个性化 AI 助手的必备神器。
Media is too big
VIEW IN TELEGRAM
在线聊天记录和上下文管理总是难题,消息太多模型上下文窗口很快就撑满了。| #插件

一个超棒的开源插件 Lossless Claw(基于 LCM:Lossless Context Management),为 OpenClaw 提供了一套无损上下文管理方案。

它用有向无环图(DAG)替代传统滑动窗口,完美保存所有消息,通过智能摘要浓缩旧消息,又能即时复原细节,感觉像和一个“永不忘记”的智能助手聊天。

主要功能:

- 所有对话消息持久存储到 SQLite 数据库,确保数据不丢失;
- 采用 LLM 自动生成多层摘要形成聚合 DAG 结构,压缩旧内容但保持可展开细节;
- 每次对话上下文由最新消息+层级摘要组成,极大扩展了上下文容量;
- 配套 lcm_grep、lcm_describe、lcm_expand 等搜索和回溯工具,快速定位旧消息和内容;
- 支持自动分层压缩、会话持久化,减少手动操作;
- 多种可自定义参数调节压缩触发阈值、摘要深度、最新消息保护数量等。

安装只需在 OpenClaw中执行插件安装命令,一键启用,适合想突破上下文限制的AI项目和研究者。
Vibe Coding 指南:终极 AI 结对编程流程,帮开发者规划驱动开发,模块化拆解任务,一步步把想法变成可维护代码流水线。| #指南

它强调以“规划就是一切”为核心理念,采用递归自我优化的元方法论,规范 AI 生成的提示词和技能,防止项目陷入混乱。配合 VSCode 插件和终端 CLI,支持 Claude Opus 4.5 与 gpt-5.1-codex 等顶级模型,能实现从需求设计、技术选型、开发规划到代码实现的完整闭环。

主要功能:
- 详细的实施计划生成,分步指导开发与测试,保证质量;
- 系统提示词库和编码提示词库,约束 AI 行为边界;
- 模块化项目结构管理,防止代码膨胀和混乱;
- 支持多模型和工具集成,如 Codex CLI、Claude Code、LazyVim、Warp 终端等;
- 结合记忆库和上下文,提升 AI 代码生成准确度和连续性。

项目已开源,拥有丰富文档和实用工具,适合软件开发者想用 AI 高效编码、持续迭代和复盘。
Back to Top