Claude Code的28个官方插件,你可能只用了60%的能力 | 帖子

有人在Claude Code配置目录里发现了一个官方插件市场,藏着28个插件,大多数从未被讨论过。插件路径:

~/.claude/plugins/marketplaces/claude-plugins-official/plugins/

这些插件分两类。技术向的包括:typescript-lsp提供真正的类型检查而非猜测,security-guidance被动扫描安全漏洞,context7让Claude查阅最新文档而非依赖训练数据,playwright实现浏览器自动化测试。非技术向的有:claude-md-management自动维护项目文件,explanatory-output-style让Claude解释决策背后的原因,frontend-design引入设计系统和无障碍标准。

实测下来,typescript-lsp的代码质量提升肉眼可见,Claude不再靠猜来处理类型。security-guidance曾捕获一个Claude自己写出来却从未标记的认证绕过漏洞。context7解决了API建议过时的老问题。

但评论区的反应很有意思。高赞回复几乎都在说同一件事:这些插件根本不是什么秘密,在Claude Code里输入/plugins就能看到全部,官方文档写得清清楚楚。有人指出实际插件数量是53个而非28个,还有人发现帖子对hookify的描述完全错误。

这场讨论折射出一个更普遍的现象:人们宁愿看30分钟视频,也不愿花10分钟读官方文档。技术素养在年轻一代中正在下降,因为设备太好用了,好用到不需要理解任何底层逻辑。一位工程师说他团队里二十多岁的同事不知道"文件管理器"是什么意思。

工具的易用性和使用者的理解深度,似乎正在形成一种此消彼长的关系。当一切都能开箱即用,阅读手册就变成了稀缺能力。而那些愿意读文档的人,反而成了团队里所有人的答案来源,然后发现自己什么正事都干不了。

最实用的建议反而是最朴素的:先装三个插件用一周,再逐个添加。在CLAUDE.md里记一行:一个管代码质量,一个管安全,一个管工作流。当输出开始跑偏,禁用一个模块快速定位问题,而不是调试整个系统。
没人在乎你,这是你听过最好的消息 | 帖子

二十多岁时收到的最好建议:没人在乎。

你赢的时候,没人在乎。你输的时候,也没人在乎。这不是说没人爱你,而是说没有人会像你自己那样在意你的人生。

这话乍听刺耳,细想却是解药。

我们总以为有一群观众在盯着自己的一举一动,随时准备评判。但真相是:大多数人忙着应付自己的焦虑,根本没空关注你的。你以为的聚光灯,其实只是自己打在自己身上的。

想想看,有多少冒险死在了“别人会怎么想”这句话里。不敢创业,不敢发表作品,不敢离开一份让你窒息的工作。但如果你把镜头拉远,大多数人看到你的决定,点点头,然后继续刷手机。

有人说得好:你没那么有趣。这话听着扎心,却是事实。还记得别人当众出丑的场景吗?两小时后你就忘了。你对别人如此,别人对你也一样。

一旦接受这个设定,压力就消失了。你不再为一个根本不存在的观众表演,开始真正为自己建造。停止等待许可,停止寻求掌声,直接行动。

有个程序员说,他花了两个月重构代码,后来意识到自己对“速度”的焦虑,不过是演给一个根本没在看的观众。没人在乎你的延迟,他们只在乎产品到手时好不好用。

这就是关键:人群的漠然是中性的,不是残忍的。它剥掉了虚构的压力,逼你成为自己的领导者。那些真正接受这一点的人,不再追逐认可的循环,开始安静地积累真正的筹码。

没人来救你,但也没人拦着你。既然一切都取决于你,那么力量也在你手里。

去失败十次吧,没人会记得。然后成功一次,人们会表现得好像你一直在赢。
当教授也开始用AI批作业,教育的本质反而显现了 | 帖子

MIT教授在Zoom课上忘关屏幕共享,意外暴露了自己的批改系统:47篇论文,12分钟搞定。

他的方法很简单。把学生论文和评分标准一起丢进NotebookLM,让AI逐篇对照标准评估,标记偏离预期的部分。

真正有意思的是下一步:他让AI交叉比对每个学生历次提交的写作风格,结果揪出三例风格突变的可疑情况。这种跨时间维度的模式识别,人眼几乎不可能完成。

最后一步才是点睛之笔:AI为每个学生生成个性化反馈,把薄弱点和具体课程材料精准关联。以前6小时的苦差事,现在15分钟收工,学生拿到的反馈质量反而更高。

批改从折磨变成了真正的教学。

评论区炸了。有人问:学生用AI写,教授用AI批,反馈AI生成,诚信AI检测,人类还剩什么?

这个问题问得好,但问反了。

当重复性劳动被卸载,人类反而能做回该做的事。一位数学老师说,他见过文科同事批作业批到崩溃,认真给反馈的人往往要花好几天。工具解放的不是责任,是被琐事吞噬的时间。

当然有人担心AI会出错。但NotebookLM有个特性:它只基于你喂给它的资料输出,不会凭空编造。这让它在学术场景下格外可靠。

更深一层的悖论是:教授们一边告诫学生不要用AI,一边自己悄悄用得飞起。这不是虚伪,而是现实在倒逼诚实。也许真正该教的,是如何与AI协作,而不是假装它不存在。

教育的核心从来不是批改本身,而是让学生知道自己哪里不会、该看什么。AI恰好擅长这个。
500行C代码,把Transformer的神秘感彻底杀死 | 帖子

有人用纯C从零实现了一个GPT,没有PyTorch,没有autograd,连numpy都没有。前向传播、反向传播、Adam优化器、文本采样,全部手写。

严格来说这不是GPT的架构复刻,而是精神继承。没有可学习参数的LayerNorm,用的是RMSNorm;激活函数是Squared ReLU而非GELU;tokenizer是字符级的,不是BPE。但核心机制一个不少:embedding、多头因果自注意力、残差连接、MLP、交叉熵损失。

这篇文章真正的价值在于:它把transformer从黑盒API调用变成了你能用for循环和指针算术理解的东西。

当你看到attention就是两层嵌套循环做点积再softmax再加权求和,当你看到backprop就是把这些操作反过来一步步算偏导,那种"这玩意儿到底在干嘛"的困惑就消失了。

用C而不是Python来做这件事有独特的教学意义。numpy的广播和PyTorch的autograd隐藏了太多细节,C强迫你面对每一次内存访问、每一次循环、每一次乘法。框架让你高效,但也让你无知。

几个值得注意的实现细节:softmax加交叉熵的梯度简化被清晰展示了,就是那个经典的prob减one_hot;RMSNorm的反向传播推导是很多人会卡住的地方,这里给出了完整实现;KV cache不是作为优化技巧引入,而是作为架构的自然组成部分。

当然这不是生产级代码。batch size是1,梯度噪声极大;静态内存分配在某些系统上可能直接栈溢出;没有梯度裁剪。但教学代码的目标从来不是能用,而是能懂。

Karpathy的llm.c是这个方向的标杆,工程质量完全不在一个量级。这篇更像是micrograd精神在C语言中的投射:教学优先,能跑就行。

如果你想真正理解attention的每一个梯度是怎么流动的,这篇值得逐行读一遍。理解一个系统最好的方式,永远是亲手把它拆开再装回去。
当AI助手只需要5MB内存和10美元硬件

AI基础设施正在经历一场静默的革命。当大多数人还在为云端算力账单发愁时,一个叫ZeroClaw的开源项目证明了一件事:真正的技术突破不是堆资源,而是把资源需求降到极致。

这是一个用Rust写的全自主AI助手框架。数字很惊人:内存占用不到5MB,启动时间10毫秒以内,编译后的二进制文件只有3.4MB。作为对比,同类项目OpenClaw需要超过1GB内存,启动要500多秒。差距是两个数量级。

更有意思的是它的设计哲学。整个系统由8个核心trait构成,AI模型、消息通道、记忆系统、工具集、可观测性、运行时、安全策略、隧道服务,每一个都可以热插拔。想换AI供应商?改一行配置。想接入新的聊天平台?实现一个trait。这种"一切皆可替换"的架构,让技术选型从一次性决策变成了持续演进。

记忆系统的实现尤其值得玩味。没有依赖Pinecone,没有Elasticsearch,没有LangChain,纯粹用SQLite实现了向量数据库、全文检索和混合搜索。向量存成BLOB,关键词走FTS5,两者通过自定义权重函数融合。这种"零外部依赖"的执念,在微服务泛滥的今天显得格外清醒。

安全设计同样克制。网关默认只绑定本地地址,首次连接需要6位配对码,文件操作被限制在工作区内,14个系统目录和4个敏感配置文件被硬编码屏蔽。空的白名单意味着拒绝一切,而不是允许一切。这种"默认安全"的思路,比事后打补丁高明得多。

支持22个AI供应商,8个消息通道,50多个集成服务。能跑在Mac上,也能跑在10美元的树莓派上。ARM、x86、RISC-V通吃。

软件工程有一条被低估的真理:约束产生创造力。当你决定用Rust写、决定不依赖外部服务、决定让一切可替换时,你被迫去思考什么是真正必要的。ZeroClaw的极简不是功能缺失,而是对本质的逼近。

在AI领域,我们太习惯用更多资源解决问题了。但有时候,少即是多。
让AI自己教自己变强:5个Claude Code进阶技巧 | 帖子 | #技巧

用AI写代码的人越来越多,但大多数人只是把它当成一个高级补全工具。真正的高手在做什么?他们在教AI如何自我进化。

Luca Dellanna分享了5个他正在使用的Claude Code技巧,核心思路只有一个:让AI在工作中自动积累经验,而不是每次都从零开始。

第一招叫"自我改进注入"。设置一个全局钩子,当AI在一次任务中调用超过8次工具时,自动追加一条优化建议。可以是可复用的技能、记忆模式或工作流修复。关键在于那个"8次以上"的阈值设定。触发条件的精准度比提示内容本身更重要。在错误的任务类型上触发钩子,消耗的token比没有钩子还多。

第二招是"技能审计"。创建一个技能,列出所有已安装的技能及其代码行数,然后让用户选择哪些需要审查。审查什么?简洁性、清晰度、功能重叠、token效率。你的AI助手装了多少技能你可能都不记得了,但它们每一个都在消耗你的上下文窗口。

第三招是"配置文件审计"。让AI读取所有CLAUDE.md文件,检查冗余指令、啰嗦表述,以及可以移到记忆模块的内容。配置文件写一次就忘了,但它每次对话都在被读取。

第四招叫"反思"。让AI回顾当前对话,分析任务、错误和用户反馈,提取学习机会、技能创建和改进建议。这本质上是在对话结束时做一次复盘,把临时经验转化为持久能力。

第五招是"条件提示检查器"。当用户输入超过50个词时,自动追加一条提示,让AI确认预期结果是否清晰。提示越长,意图越容易模糊。

这些技巧的共同点是:它们都不需要复杂设置,不需要信任你不理解的第三方工具。复制粘贴那一段话就能用。

有意思的是,这套方法论的底层逻辑和管理团队很像。你不可能盯着每个细节,但你可以建立机制让系统自己发现问题、自己改进。AI工具正在从"被动执行"走向"主动学习",而推动这个转变的不是AI本身,是使用它的人。
OpenClaw易主OpenAI:一个开源项目背后的商业暗战 | 帖子

一个独立开发者用几个月时间“氛围编程”出来的项目,被OpenAI收编了。这件事本身不大,但围绕它的争论,折射出AI行业最核心的一个矛盾:模型能力和产品分发,到底谁更值钱?

事情的起点很戏剧化。这个项目最初叫Clawdbot,和Claude发音几乎一模一样,Anthropic两次发函要求改名。开发者先改成Moltbot,后来又自己改成OpenClaw。讽刺的是,Anthropic在商标上赢了面子,却在人才上输了里子。这位开发者最终加入了OpenAI。

Reddit上吵得最凶的问题是:一个能被氛围编程搞出来的东西,凭什么值得OpenAI出手?

有人说得很到位:分发和产品市场契合度,远比产品质量重要一万倍。质量永远可以迭代,但产品市场契合是商业世界里最稀缺的东西。OpenClaw在极短时间内获得了大量真实用户,GitHub星标飙升,全球媒体报道。OpenAI买的不是代码,是势能。

也有人看得更透:他们雇的是一个造出了增长最快项目的流量明星。在今天的AI行业,能写好代码的工程师遍地都是,但能在正确的时间造出正确产品并引爆传播的人,凤毛麟角。想想那些AI公司高薪养着的开发团队,看着一个素人几周内做出大规模采用的产品,内心该有多恐慌。

这也映射出Anthropic和OpenAI两家公司路线的微妙分化。Anthropic更像一家专注的研究型公司,重心在做最好的模型,Claude Code和Cowork面向企业。OpenAI则越来越像一家产品公司,从ChatGPT到Codex到硬件,甚至请来了苹果iPhone团队的人做设备。有人说这让OpenAI不再纯粹,但反过来想,光有好模型不够,还得有人用。

关于Codex和Claude Code的性价比之争也很有意思。不少用户反映,20美元的Plus计划下用Codex,一周都用不完额度;而Claude Code的低价套餐,30分钟就能把限额烧光。背后的原因也很现实:OpenAI坐拥全球约40%的GPU资源,大语言模型在英伟达GPU上跑的效率本身就比Anthropic依赖的自研芯片更高。当然,也可能只是OpenAI更舍得烧钱补贴用户。对消费者来说,原因不重要,便宜好用就行。

但批评声同样尖锐。有人指出OpenClaw的技术含量有限,本质上就是一些脚本循环加简单的记忆系统,没有任何技术壁垒。还有人担忧安全隐患:过度自主的AI代理替用户做财务决策,出了事谁负责?更有人直言,这不过是OpenAI自DeepSeek事件以来又一次慌张的动作。

最有意思的反驳来自项目支持者:任何人都能一天之内复制一个Facebook,但你能让人们真的去用它吗?OpenClaw的代码库经过实战检验,代理在出错时会自动提交修复请求,这种活的生态比任何静态代码仓库都有价值。

Anthropic在商标维权上没有错,不保护商标就等于放弃商标,这是法律常识。但时机和方式值得商榷。当一个开源项目正在爆发式增长时,两封律师函的效果,往往是把人推向对手的怀抱。

这个故事的真正寓意也许是:在AI时代,产品的护城河从来都不在代码里。谁先占领了用户心智,谁就掌握了话语权。技术可以被复制,但时机和信任不能。

深度思考:

现实比"分发 vs 技术"的二元叙事要混沌得多。

OpenClaw事件真正值得关注的不是谁赢谁输,而是它暴露出的行业深层焦虑:当AI工具强大到让个人开发者能在几周内复制大公司几个月的工作时,大公司的应对策略不是技术创新,而是人才收编和叙事控制。这不是强者的姿态,这是防守。

至于"技术可以被复制,但时机和信任不能"这个结论——它只对了一半。时机确实不能复制,但信任可以被摧毁。当一个开源项目的创造者转身加入商业巨头,那些最初因为信任而来的用户和贡献者,会记住这个选择。

在AI时代,最稀缺的资源既不是代码,也不是分发,而是独立性。一旦卖掉,就买不回来了。
嵌入式老兵的困惑:当AI加速进化,职业护城河还能守多久?| 帖子

18年嵌入式Linux经验,过去一年深度使用AI。真正让人不安的不是AI现在能做什么,而是它的加速度曲线。

一年前Claude还在研究预览阶段,Karpathy刚提出“vibe coding”形容周末随手做的项目。现在他已经弃用这个词,改称“agentic engineering”。不懂编程的人在发布真正的应用,每一代模型都让上一代的工作方式显得原始。

我曾经以5年为单位规划职业生涯,现在连2年后都看不清。那些投入多年打磨的技能——底层调试、内核内部机制、构建系统——究竟是坚固的护城河,还是正在融化的冰山?今天它们有价值,因为AI还做不好。但“AI做不到的事”这个圈子正在缩小。

我真的不确定。只能继续投资AI素养和领域专业性,希望这个组合保持相关性。但我对任何预测都不再有信心。

+ 共识正在形成:从码农到规格大师

讨论中压倒性的共识是,未来的赌注在于成为AI的“规格大师”,而不仅仅是编码者。资深开发者凭借深厚的领域知识相对安全,因为工作重心从写代码转向了写详细规格(CLAUDE.md成为新宠)和验证AI的输出。你不再是程序员,而是agent编排者。

初级开发者和CS学生的前景黯淡,很多人感觉还没开始就要被取代。新的核心技能是高层架构、发现问题的能力,以及识别AI何时自信满满地犯错。

+ 护城河在哪里?

有人指出,低级调试和内核知识并非简单的任务清单,而是“约束素养”——关于系统如何在负载下、在凌晨3点、在真实硬件上失败的直觉。AI能生成代码,但在有状态、硬件耦合的系统中仍然难以处理深层因果关系。

真正昂贵的不再是打字,而是判断力。当代码生成变得廉价,知道代码何时出错的能力变得珍贵。持久的护城河不是写代码,而是验证代码。在加速时代生存的工程师不会是最快的建造者,而是最好的验证者。

一位开发者分享了实战经验:用Claude并行运行5个agents,真正的工作变成了撰写详细的CLAUDE.md文件和审查它们的差异。18年嵌入式经验意味着你知道规格应该说什么——这才是护城河。

+ 软技能的逆袭

有趣的是,越来越多人认为纯技术技能正在商品化。能与客户交流、制定计划、审查、测试和部署功能的人,现在相当于拥有一整个初级工程师团队来完成所有编码工作。

产品意识+AI素养可能是未来十年的黄金组合。编码部分正在快速商品化,但理解客户真正需要什么并将其转化为有用的东西,仍然很难自动化。非技术CEO不想成为CTO,他们需要能接电话说“修好它”的人,而不是自己跟提示词打交道。

一位临床研究护士提供了另一个视角:AI将显著改变她的工作,但主要是向好的方向。大量数据审查、录入和修正工作是愚蠢的,AI做得更好。如果她只需要打针、抽血、知情同意、体检和教育部分,每天能看的患者至少翻倍。工作将变成监督和验证AI的管理工作,而临床工作增加填补空白。

+ 逃生舱:回归物理世界

对于寻找逃生路线的人,反复出现的建议是学一门手艺。AI不能用激光脱毛、不能修管道、不能焊接……至少现在还不行。少数人认为LLM正在触及天花板,但大多数人在为大规模转变做准备。

有人半开玩笑地说要成为美容师,“因为没人信任AI给自己的屁股激光脱毛”。也有人计划做电工、木匠或护理——那些需要在现场、与真实物理世界交互的工作。

+ 系统性思考的价值

一位开发者犀利地指出:AI在自我纠正方面很糟糕。它擅长构建输入输出清晰明确的工具,但当这些输入输出需要改变时呢?AI只是工程工具,目的是加速人类工作流程,而不是取代它。人类仍然拥有真正的自我纠正能力、直觉和系统思维。

未来最受保护的人是那些不断寻找需要解决的问题、知道如何用AI更快理解和解决问题的人。在编程世界,最安全的人是问题发现者,而在过去仅仅是个好程序员和解决方案提供者就能过关。

+ 冷静的声音

也有人保持相对乐观:我们可能正在看到的不是模型本身的重大进步,而是工具使用和我们围绕模型构建的工具链的改进。模型的上下文窗口仍然相当小,在5万到10万token级别表现最佳。

增加上下文窗口可能提升AI,但世界上的算力(和能源)有限。人脑运行功率约20W,却提供令人难以置信的算力,效率惊人。在没有突破性新型AI的情况下,我们可能已经接近可处理的上下文和模型能力的天花板。人脑仍然需要推理整个应用和架构,应用多年有机培养的长期记忆经验。这些模型训练一次后就无法学习新东西——除了上下文窗口内的内容。

+ AI不是泡沫,是汽车时刻

一位即将退休的IT老兵提供了历史视角:大多数一厢情愿的人只是将AI视为即将破裂的泡沫。坦白说,如果我25岁刚开始科技职业生涯,我不知道该怎么办。但AI不是泡沫,它是汽车发明后的那个时刻——人类是马,AI是汽车。

唯一确定的是:那些冻结不动、等待确定性的人可能会被甩在后面。但没有确定性,只有行动。选一个工具开始用,让它教你如何使用它。人类不会消失,工作会转变但不会消失。总得有人决定构建什么、跨团队协调、做判断、与客户交谈、设定方向。
因为AI越来越火,频道的内容也是以AI较多,以后尽量发点儿别的内容
祝各位新年快乐平安顺遂
放完鞭炮设置一下发言权限,之前有很多营销号发广告就给关了,然后就忘了,我一直以为开着……
频道于2018年创建,到现在已七八年了,没有你们的支持就没有黑洞,感谢大家的信任与陪伴。

所以我会在00:00点放完鞭炮后发个支付宝红包,钱不多,大家别嫌弃。希望以后大家在评论区多多互动。
会员折扣已调整,感谢各位关注。

如有需求请联系 @ashbur_bot 。拼课频道 @hodonote
当你每月花1500元买的工具,开始对你隐瞒它在做什么 | blog

Claude Code 2.1.20版本悄悄做了一件事:把所有文件读取和搜索操作的详细信息,压缩成了一行毫无意义的摘要。

以前你能看到它读了哪些文件、搜了什么关键词。现在你只能看到“读取了3个文件”。哪3个?不告诉你。“搜索了1个模式”。什么模式?不重要。

这不是一个无关痛痒的界面调整。对于在大型代码库中工作的开发者来说,看到AI正在读取哪些文件,是判断它有没有跑偏的唯一窗口。一位管理多个业务领域的CTO说得很精准:他只需要在前三秒确认Claude看的是正确的代码目录,然后就可以放心切到下一个任务。这三秒的信息密度,和其他任何形式的“详细输出”完全不是一回事。

一位使用屏幕阅读器的无障碍公司CTO的反馈更令人深思:视力正常的用户失去的是便利,而他失去的是对工具的信任。屏幕阅读器没有“扫一眼”这个概念,文字要么被朗读出来,要么就不存在。新版本给他的选择变成了“零信息”或“信息洪水”,而之前那个中间地带恰恰是最具可访问性的方案。

GitHub上多个issue里,用户的诉求高度一致:恢复内联显示文件路径,或者至少给一个配置开关。Anthropic的回应是:试试详细模式。

问题在于,详细模式会把思考过程、子代理输出、钩子日志全部倾泻到终端里。用户要的是一根针,给的是一个草垛。于是Anthropic开始反复手术般地从详细模式中剥离各种输出,试图让它变得“不那么详细”。这本质上是用最复杂的方式重新发明了一个配置开关。

更讽刺的是,原来真正使用详细模式查看思考过程的用户,现在反而需要额外按快捷键才能找回自己原有的功能。修一个问题,制造两个问题。

Anthropic团队成员Boris的回应倒是坦诚:随着模型越来越强,代理运行时间从几十秒延长到几小时甚至几天,终端输出量急剧膨胀,他们需要管理默认视图的信息密度。他承认对部分用户“没有达到预期”,并表示会持续迭代。

这个解释合理,但暴露了一个更深层的产品哲学问题。

一位产品经理一针见血:在“改善用户体验”的旗号下简化和移除有用信息,是产品管理中最经典的错误。犯这个错误的根源,是不够深入地理解用户为什么觉得某些信息有价值。很多人被教导“精简和移除是正面的”,尤其当非专家用户的声音占据注意力时,这种错误就更容易发生。

这里有一个被反复忽视的常识:开发者工具的用户喜欢可配置性。这就是为什么IDE至今还保留vim键位绑定和无数选项。当你的用户是高技能专业人士时,让他们自己决定想看什么,永远比替他们决定更安全。

有人把这件事上升到了更宏观的视角:Anthropic的品牌正在危险地滑向“AI界的微软”。微软在90年代末完全统治市场,但做了一些根本性的选择,用向导和“下一步”按钮隐藏了复杂性,结果培养了一代被简化的开发者。苹果则做了一个极具战略眼光的决定:在BSD基础上重建操作系统,与Linux生态对齐。两种选择,两种命运。

当然,也有冷静的声音指出:三十个在GitHub上抱怨的人,并不能代表Claude Code的全部用户群。那些觉得新界面更清爽的人不会专门开一个issue说“谢谢,挺好的”。产品决策永远是在不完整信息下的权衡。

但权衡的前提是尊重。一个布尔值的配置项,实现成本远低于反复改造详细模式。当三十个人说“给我们一个开关”,而回答始终是“让我帮你调整详细模式”的时候,这不是在倾听,这是在用自己的方案替代用户的需求。

这件事的本质其实不是一个UI争论。它折射出AI工具进入主流市场时必然面对的张力:当用户群从极客扩展到大众,产品该向哪个方向倾斜?简化默认体验没有错,但把专业用户的合理需求推到一个叫“详细模式”的角落里,然后反复重新定义这个模式的含义,这不是渐进式改良,这是在回避一个本该直面的设计决策。

模型在变强,代理在变长,终端在变拥挤。但解决信息过载的方式,应该是给用户更精细的控制权,而非替他们决定什么值得看。毕竟,你卖的是一把手术刀,不是一个黑箱。
Back to Top