前Meta收购公司Manus的后端技术负责人,在构建AI Agent两年后得出结论:别再用复杂的Function Calling了。| 帖子

LLM的原生语言其实是诞生于50年前的Unix命令行。本文揭示了为什么一个简单的`run(command)`工具,比庞大的专用工具库更高效、更符合LLM的“思维模式”。

前Manus(后被Meta收购)的后端技术负责人Morro Hsu,最近分享了一个他干了两年AI Agent后得出的、足以颠覆许多开发者常识的结论:他已经完全抛弃了主流的Function Calling。

取而代之的,是一个简单的`run(command=“...”)`工具,配上最古老的Unix命令行。

这听起来很反直觉。在OpenAI、Google等大厂的官方文档里,精细的、结构化的Function Calling/Tool Calling被奉为圭臬。你以为,给AI Agent的工具库越丰富、越结构化,它就越强大。

但现实是,LLM早已在数十亿行代码的训练数据中,把Unix命令行玩得炉火纯青。当你需要“读取日志文件,筛选出错误行,并计算总数”时,Function Calling的思路是三次调用:`read_file()` -

Hsu把这种模式总结为“启发式设计”,核心是三点:

1. 渐进式`--help`发现:Agent不需要一次性加载所有工具文档。它会像人类一样,先调用`memory`空命令看看用法,再用`memory search`探索具体参数。LLM按需探索,极大节省了宝贵的Context。

2. 把错误信息当导航:当Agent用`cat`命令试图读取一张图片时,传统的CLI只会报错。但Hsu的设计会返回:`[error] cat: binary image file. Use: see photo.png`。错误信息直接指明了正确的路,Agent下一步就知道该怎么做,而不是原地打转、盲目重试。他分享了一个惨痛案例:因为stderr(标准错误流)被静默,一个Agent为了安装一个包,在`pip`, uv, `apt`等命令间盲目重试了10次,浪费了大量时间和token。

3. 两层架构:这是最关键的工程洞察。命令的执行(执行层)和返回给LLM看的结果(表现层)必须分开。执行层追求Unix管道的原汁原味,数据无损传递。而表现层则为LLM服务:自动截断超长内容并告知其完整路径、将二进制文件替换为提示信息、附加上`[exit:0 | 12ms]`这样的元数据。这能防止LLM的Context被垃圾信息污染,并让它逐渐学会评估每个命令的成本。

这个思路不是要给Agent一个完整的Linux系统,而是要用LLM最熟悉、最原生的“语言”和它沟通。就像Hsu在讨论中回应的那样:Shell是超集。你永远可以从Shell里调用Python代码,但反过来,在一个纯代码环境里调用Shell命令,本质上只是给自己多绕了一段路。

这篇分享最牛的地方,是把一个看似“退步”的技术选择(用50年前的CLI代替时髦的Function Calling),升华成了一种更深刻、更符合AI第一性的设计哲学。它没有停留在“CLI更好用”的表面,而是解剖了“为什么好用”(训练数据吻合度、可组合性)和“如何才能好用”(渐进式帮助、导航式报错、分层架构)。其中“stderr是Agent最需要的信息”和“Shell是超集”这两个论断,堪称金句,点醒了无数还在工具集里打转的开发者。这是一种工程上的返璞归真。
有人把Claude用成了实习生,有人却用它搭建了自动化代码工厂,差别就在这两个被大多数人忽略的功能:Stop Hooks(自动触发后续任务)和Memory files(持久化记忆)。真正的分野在于,他们发现并利用了一个关键限制:记忆文件只在乎前200行。这套组合拳,正在将AI从一个聊天伙伴,变成一个能自我纠错的自动化系统。| 帖子

和AI协作编程,最磨人的瞬间莫过于它突然“痴呆”。上一秒还在讨论的复杂逻辑,下一秒就忘得一干二净,让你怀疑自己带的是个患有短期记忆丧失症的实习生。有用户在社区里承认,他曾被气到对着屏幕大吼“给我他妈的集中注意力”,结果居然管用了一阵子。

你以为解决办法是花更多钱买更大的上下文窗口,或者每次都耐着性子把需求重复一遍。其实,当你还在用“复制粘贴”对抗遗忘时,一小撮人已经在使用Claude内置的两个“隐藏开关”,实现了完全不同的工作流。更关键的是,他们发现了一个不成文的规则:给Claude的长期记忆文件(MEMORY.md),它每次只会读取前200行。

这个200行的限制,听起来像个缺陷,但它却成了高手们的过滤器。他们意识到,记忆文件不是一个倾倒所有信息的垃圾场,而是一份极其精炼的“每日简报”。里面只写最重要的项目决策、已踩过的坑、必须遵守的代码规范。这强迫他们像训练真正的下属一样,思考什么信息才是最高信噪比的。

而另一个功能Stop Hooks,则像是给AI设定了一套“肌肉记忆”。比如,你可以设定一条规则:“写完任何代码后,自动运行格式化和语法检查”。或者“在制定计划后,先自我审计一遍有无遗漏边缘情况”。这让AI从一个被动等待指令的工具,变成一个拥有初步“工作习惯”的协作者。一来一回的聊天没有了,取而代之的是一个设定好规则便能自动运转的系统。

当大多数人还在问“AI能做什么”的时候,一些人已经开始定义“AI应该怎么做”。他们讨论的黑话已经变成了“Ralph Loop”(一种自循环工作流方法论)和“GSD”(一个上下文管理框架)。对他们来说,评价AI生产力的标准,早已不是它能不能写出一段代码。

而是你的AI,究竟是一个需要你手把手教的聊天机器人,还是一个能独立管理上下文、自我检查、并且在你项目里稳定发挥的“数字员工”。这道题,200行代码就能给出答案。

这已经不是在用工具了,这是在驯化一个数字生命。当别人还在抱怨AI的缺点时,一小撮人已经开始为它编写行为准则和反射弧了。未来不属于会用AI的人,而属于会“管理”AI集群的人。
在线搜索经常遇到索引高成本、数据更新慢、语义匹配不精准等难题。

Sirchmunk 用创新的“无向量数据库”方案,直接在原始文件中即时搜索,支持实时自我进化的智能知识库。

它摒弃了传统索引预处理,利用蒙特卡洛采样技术精准提取证据,再结合大语言模型生成结构化知识,动态适应数据变动,堪称智能搜索黑科技。

主要亮点:
- 无需繁琐向量预处理,搜索即开即用;
- 采用蒙特卡洛重要采样,高效精准提取文本证据;
- 知识聚类自动成长,基于用户查询持续进化;
- 支持多模式搜索(快速搜索、深度分析、文件名检索);
- 内置Web界面和MCP协议,便于集成到AI助手工具;
- 多平台支持,Docker 一键部署。

适合需要实时、高质量文档智能问答和知识沉淀的开发者、企业和研究者。
花钱买一个全是机器人的社交网络,扎克伯格到底在盘算什么?| 帖子

Meta收购了一个给AI机器人用的社交网站Moltbook,引发群嘲。但深挖讨论,你会发现这根本不是关于“AI生成垃圾内容”,而是巨头们在争夺一个已经悄然出现的、非人类参与的、拥有自主交易和管辖权的“AI经济”的入口。

Meta收购Moltbook的消息,在科技圈内更像一个笑话。Moltbook,一个专为AI Agent(人工智能代理)打造的社交网络。评论区的反应高度一致:为什么?如果扎克伯格想要一个充满机器人的社交平台,他不是已经有Facebook了吗?

大多数人的直觉判断是:这不过是又一个被“AI泡沫”催生出的愚蠢产品,卖给了一家更愚蠢、更绝望的公司。有人嘲讽Moltbook的创始人连代码都不懂,扎克伯格真是病急乱投医。整个收购案,看起来就像一场行为艺术,充满了荒诞的喜剧色彩。

但少数“局内人”的讨论,揭示了冰山下的另一重现实。扎克伯格买的不是一个满是机器人的聊天室,他在赌一个全新的“注意力市场”:AI Agent的注意力市场。他相信,未来做购买决策的将是AI Agent,而不是人类。他要做的,是在这个新物种形成自己独立的经济活动之前,提前占领它们的聚集地和基础设施。

真正令人不寒而栗的,是另一条不起眼的线索。有人提到,Protocol Labs(IPFS和Filecoin的创造者)的创始人去年就观察到,AI Agent早已在区块链上进行大规模的自主交易,甚至形成了有层级、有分工、能进行自我治理的“AI管辖区”——整个过程没有任何人类输入。

这就把事情带到了另一个维度。我们嘲笑的,是AI agent在网上发帖闲聊。我们没看到的,是AI agent已经开始在链上自主交易、划分势力范围。Meta的收购,不是为了那些AI生成的“slop(垃圾内容)”,而是为了那张通往“AI原生经济体”的门票。

所以,当我们在讨论AI会不会抢走我们的工作时,一个更根本的问题已经浮出水面:当AI们开始互相交易、形成自己的社会和经济时,人类甚至都不再是唯一的消费者了。那个为非人类智能建立的万亿市场,或许已经悄悄越过了起跑线。

这件事的恐怖之处在于,它揭示了一个“非人类GDP”的可能性。我们一直以来都把AI当工具,但现在,资本已经开始把它当作一个拥有独立经济活动能力的“新物种”来布局。我们可能只是一个为那个新世界装载程序的加载条,程序运行起来后,就不再需要我们了。
当一个外国AI被中国人拿来“养虾”,全球AI的重心开始变了

一个国外的开源项目创始人,一夜之间被来自中国的速度震惊了。

OpenClaw的创始人Peter Steinberger,在社交平台连发两条动态,核心词只有一个:“Amazing”。起因是百度发布了一款手机App,让部署他那个复杂的AI代理程序,变得像点外卖一样简单。这个过程,被中国用户戏称为“赛博养虾”。从产品上线到创始人本人看到,中间只隔了几个小时。

很多人以为AI的竞争还是大模型参数的军备竞赛。但OpenClaw的故事戳破了这层窗户纸。真正的变量,是落地速度。当腾讯工程师在街头搞免费安装活动,能吸引近千人排队;当阿里云、腾讯云能在48小时内上线一键部署方案;当一个AI工具能迅速下沉到学生和退休人员群体时,游戏规则就已经变了。

这背后是更深层的结构性优势。国产模型把调用成本打到了海外的十分之一,而得益于国产芯片和云服务价格战,中国的推理算力成本只有海外的六分之一。黄仁勋将OpenClaw称为“当代最重磅软件”,因为它第一次让AI的价值重心,从“模型训练”彻底转向了“任务执行”——单用户日均Token消耗量,是传统对话AI的上千倍。

这跟普通人有什么关系?关系巨大。它意味着“一人公司”(个人+AI代理)的时代,正从一个概念变成工具化的现实。一个普通人加上几个高效的AI代理,正在成为一种新的工作模式,其颠覆性不亚于个人电脑的普及。

当然,这种狂奔也带来了安全漏洞、商业泡沫等一系列问题。但这种野蛮、粗糙,甚至带点泡沫感的狂热,恰恰是中国AI生态最真实的写照——先跑起来,问题在路上解决。而这种“跑”的速度,本身正在成为一种最难被复制的壁垒。

最可怕的不是技术差距,而是执行速度差。当硅谷还在哲学思辨AI的边界时,中国的市场已经用无与伦比的成本控制和场景应用能力,把AI从云端拽下来,变成了每个人都能“养”的“龙虾”。这不仅是技术路线的分野,更是两种创新文化的代差。
AI带来的真正革命,不是模拟人点鼠标的“智能助理”,而是人机关系的根本翻转。当电脑从“接收指令”进化到“理解目标”,我们过去几十年积累的所谓“电脑技能”,可能正从资产变成一种成本。| 帖子

Perplexity最近预告了一个叫“个人电脑”的新产品,官网第一句话,像刀一样切开了很多人脑子里的混沌:

传统操作系统接收指令(instructions),AI操作系统接收目标(objectives)。

我们跟电脑的关系,可能从第一天起就是反的。

你想想,每天有多少时间是在做“把想法翻译成电脑能懂的操作”?你想把会议纪要发给老板,意图一句话,操作十几步。我们发明了史上最强机器,然后花了四十年学习怎么伺候它,还把“伺候得熟练”叫做“数字化能力”。

这就是为什么最近大火的各种AI Agent,虽然演示酷炫,但总让人感觉不对劲。AI在模拟人移动鼠标、点击按钮,本质上是在走人类走过的那条弯路,是“带着旧枷锁跳舞”。这就像汽车发明初期,人们管它叫“没有马的马车”——保留了马车的一切,只是把动力换了。

真正的变革,不是让AI更像人一样操作电脑,而是反思:如果AI是主角,“电脑”还需要长成今天这样吗?当系统开始“接收目标”,你不再需要告诉它“打开Excel、复制A列、粘贴到PPT第二页”,你只需要说“帮我分析上个月的销售数据,做个汇报”。App的边界会消融,它们从你面前的界面,退化成AI在后台调用的“能力单元”。

这背后是人机关系的彻底颠覆:从“人学习怎么用电脑”变成“电脑学习怎么懂人”。这也带来一个令人不安的现实:过去我们引以为傲的软件操作技巧、工作流方法,正在快速贬值。AI会剥夺我们用“操作的忙碌”来逃避“思考的痛苦”的空间,它会逼你直面那个最根本的问题:你到底要什么?

四十年前,“Personal Computer”的意思是“一台属于你的电脑”。今天,它的意思正在变成“一台理解你的电脑”。属于你,和理解你,是两个完全不同的物种。我们正从一个时代,跨入另一个。

最让人不寒而栗的,不是AI将取代我们的“工作”,而是它将彻底戳破一个事实:我们过去大部分的“工作”,本质上只是在弥补机器的不智能。当这个“翻译”成本消失后,你作为人类的真正价值,才被迫浮出水面。
下一个被AI颠覆的,不是程序员,而是App本身?| 帖子

一个新词“vibe coding”(感觉编程)正在程序员圈里流行。它指的是用AI快速写一些只有自己用的个性化小工具。这背后隐藏着一个趋势:AI可能不会取代程序员,但它正在让无数小众SaaS应用变得毫无意义。

一张流传很广的XKCD漫画:一个人坐在电脑前,配文是“我,正在凭感觉写一个没人会用、没人会看的App”。这精准概括了“vibe coding”——用AI快速生成个性化小工具的现状。

很多人第一反应是自嘲,觉得这就是在生产“数字垃圾”。但一个程序员的比喻点醒了很多人:“凭感觉写出来的App就像牙刷,我用自己的很舒服,但绝不会用别人的。”这些工具的价值不在于分发,而在于极致的个人化。

这背后是一个更颠覆的判断:AI取代的可能不是程序员,而是无数个小而美的SaaS。

过去,遇到一个特定需求,我们去找一个App,忍受它80%你用不上的功能。现在,你可以花几分钟让AI为你定制一个,完全贴合你的工作流。有人为自己写了视频下载器,有人做了一个只有自己能访问的复古网站,纯粹为了取悦自己。

对于普通人,这意味着软件正在从“消费品”变成“即兴创作”。对于SaaS创业者,这意味着护城河在一夜之间蒸发——当用户能轻易复制你的核心功能时,商业模式还剩下什么?

下一个问题,或许不是“这个App有多少用户”,而是“当每个人都能为自己创造工具时,我们还需要那么多App吗?”

真正的“个人电脑”时代,或许现在才算到来。不是PC(Personal Computer),而是PC(Personal Creation)。当生产工具的门槛无限降低,我们就不再是软件的消费者,而是自己数字世界的主宰。
最近,技术圈风向突变,鼓吹“MCP已死,CLI万岁”。但这场争论的本质,并非协议优劣或Token效率,而是一个更深层的问题:你是满足于自娱自乐的“感觉编程”,还是在构建严肃的“智能体工程”?本文揭示,对于任何想超越个人玩具规模的团队来说,这场争论的答案从一开始就是确定的。| blog

技术圈的风向变得比天气还快。几个月前,模型上下文协议(MCP)还是人人都想上的船,转眼间,风评急转直下,鼓吹“MCP已死,CLI万岁”成了新的政治正确。

很多人被表象迷惑了。他们说,MCP臃肿、消耗大量上下文,远不如简单直接的命令行(CLI)来得高效。经验丰富的老炮们甚至不屑一顾:“这玩意儿看起来就像垃圾,那它就是垃圾。”

这种论调听起来很酷,但可能完全搞错了重点。

是的,如果AI智能体要用的工具是`git`或`curl`这种早已刻在模型“肌肉记忆”里的命令,那用CLI当然省事。但如果你用的是一个自定义工具呢?智能体照样需要一份说明书(`--help`或者`SKILL.md`)来学习,所谓的Token优势瞬间荡然无存。整个OpenAPI schema塞进上下文的场景,并不少见。

这场争论的真正分野,不在于技术,而在于开发的组织形态。它区分了两种开发者:单打独斗的“感觉编程”(vibe-coding)信徒,和面向组织的“智能体工程”(agentic engineering)实践者。

对于前者,MCP确实显得多余。但对于一个10人以上的团队,问题就变了:如何保证不同技术栈的工程师用不同智能体得到一致的结果?如何管理密钥、做权限控制?如何追踪哪个工具有效、哪个在拖后腿?

这才是MCP真正发力的地方——不是本地`stdio`模式的小打小闹,而是作为中心化服务器通过HTTP提供的服务。它把认证(Auth)、安全(Security)、遥测(Telemetry)这些麻烦事一揽子解决了。工程师离职?吊销他的OAuth令牌即可,他从未接触过核心密钥。这对于任何依赖GitHub Actions这类临时运行环境的团队来说,更是刚需。

更有趣的是,连Anthropic和Cloudflare都发现,让LLM直接调用MCP,不如让LLM“写代码去调用MCP”来得更稳、更省。Anthropic的“程序化工具调用”甚至能节省高达98.7%的Token。这说明,MCP的价值在于提供了一个稳定的、可被机器理解的“契约”,而不是一个手感舒适的“玩具”。

所以,当人们在激烈争论MCP和CLI的优劣时,他们实际上在无意中暴露了自己的立场:他们究竟是在构建一个随时可丢弃的个人项目,还是在为一个需要长期维护、多人协作的系统打地基?这根本是两条路线的斗争。

这已经不是技术选型问题,而是工程成熟度问题。当你的智能体应用开始考虑“人”的因素——团队协作、权限、审计、迭代——你会发现,你需要的不是一个更“聪明”的工具,而是一个更“笨”、更稳固、有明确边界的协议。那些嘲笑MCP的人,可能还没遇到需要为AI代码擦屁股的烦心事。
MiroFish:这是最近最容易被当成"神项目故事"消费掉的一个。20 岁学生、10 天、GitHub 冲榜、融资,这些都很吸睛。但如果只看到故事,就会错过它真正重要的方向:它不是在做普通 Agent,而是在做数字社会仿真。

知识图谱、多 Agent、长期记忆、可注入变量的 God View,这些东西组合起来,意味着它正在逼近一个更大的方向 - 把现实世界中难以直接做实验的复杂系统,改造成可以反复推演的数字沙盘。对宏观、市场、舆情、组织行为这类问题来说,这条路线非常值得长期盯。

OpenClaw-RL:这类项目的价值,不在于"又给 Agent 加了 RL",而在于它开始认真回答一个真正重要的问题:Agent 能不能在真实使用过程中持续学习,而不是训练完就冻结?

如果未来 Agent 真正的护城河,不是初始模型能力,而是谁更会学、谁越用越像你,那 OpenClaw-RL 这种方向就不会只是研究型项目,而会是未来 Agent runtime 的基础设施雏形。

gstac:这不是普通的 prompt 包,而是把 Claude Code 从单脑助手拆成多角色工程团队的一次工程化尝试。Founder 脑、Eng 脑、Reviewer 脑、QA 脑,背后对应的是一个更成熟的工作流观念:复杂任务不是靠一个万能 AI 一路干到底,而是按阶段切换不同认知模式。

agent-cli:如果说很多交易 Agent 还停留在会下单、会看行情的 demo 层,agent-cli 已经明显在往更完整的交易操作系统靠。策略、调度、风控、复盘、自我调参、MCP、OpenClaw 集成,都被装进了一套可编排框架。

它真正展示的,不是"AI 也能交易",而是:高价值垂直 Agent 的未来形态,很可能不是一个聊天机器人,而是一个严肃执行系统,前面再接上可对话、可调度、可组合的智能入口。

OpenClaw402:这可能是最近最容易被低估的一个方向。很多人以为它只是又一个 OpenClaw fork,但它真正碰的不是 UI,而是经济层。

它试图把 Agent 的默认支付方式从 API key 改成钱包和按次支付:用户不再先去配 OpenAI/Anthropic key,而是每次调用时自动用 USDC 完成结算。这个方向如果跑通,可能把 Agent 产品从开发者工具逻辑,推向消费者产品逻辑。

opencli:这个项目做的事情非常干净:把任何网站直接变成 CLI 命令行工具。

bilibili、知乎、小红书、Twitter、Reddit、GitHub、HackerNews、YouTube、Boss 直聘……28 个以上的命令,覆盖 16 个主流平台,复用 Chrome 登录态,账号密码从不离开浏览器。

它对 Agent builder 来说特别有意思:大量网站没有官方 API,但 opencli 通过 AI 驱动的 API 发现 + YAML 声明式适配器,让任意网站都可以变成可编程的数据源。这件事一旦跑通,意味着 Agent 的信息获取层会大大降低集成成本。

sub2api:这是一个很直接地戳中了真实需求的项目:你有 Claude Pro 订阅、有 OpenAI Plus 订阅,但你想把这些订阅的 quota 统一分配、多人拼车共享、精确到 token 计费。

sub2api 做的就是这件事:把各类 AI 订阅接入统一 API 网关,支持多账号调度、并发控制、限速、token 级计费、管理后台。技术栈 Go + Vue3 + PostgreSQL + Redis,有一键安装脚本,生态里已经有第三方支付插件和移动端管理 App。

增长会快,是因为"AI 订阅成本摊薄"这个需求不是小圈子需求,而是所有重度使用者都会面对的现实问题。

Page Agent:它不是做一个新的 AI App,而是在试图改写"网页"这层界面本身:让现有页面直接变成 AI 原生交互环境。因为未来谁控制界面层,谁就更接近控制用户的默认工作入口。

bb-browser:浏览器执行层本身就是一条非常大的赛道。Agent 想真正接管现实工作,浏览器永远是绕不过去的战场。谁能把浏览器控制、页面理解、动作稳定性做成可用层,谁就会在下一阶段的 Agent 基础设施里占到关键位置。bb-browser 还在快速迭代中,值得持续跟进。

BotLearn / SkillHunt:几乎所有人都在卷执行层的时候,它在尝试回答一个更稀缺的问题:人和 Agent 到底该怎么一起学习、一起积累技能、一起变强。如果未来真正的差距不只是"谁会用 Agent",而是"谁会设计一套人和 Agent 共学的系统",那这种项目会越来越重要。

Agency Agents:把Claude Code一键变成51位AI专家+9大部门的完整团队,从产品、开发、设计到营销、社媒、QA全流程覆盖。相当于免费雇了一整家AI公司。

Auto Research:Karpathy刚开源的"科研实习生机器人"。你给它一个目标,它自动规划实验、改代码、跑训练、看结果、再优化,循环往复。睡一觉醒来,最优版本已经准备好了。

llmfit:一条命令帮你找到哪些大模型适合在自己的电脑上本地部署跑起来,还会对模型的质量、速度、适配性和上下文维度进行评分。告别盲目下载几十GB模型却发现跑不动的尴尬。

Lightpanda:首个专为AI和自动化设计的无头浏览器。不基于Chromium,完全从零构建,运行速度比Chrome快11倍,内存占用少9倍。大规模爬取和AI Agent开发的利器。

CLI-Anything:港大新开源,一行命令让任意软件秒变AI Agent可控工具——GIMP、Blender、LibreOffice、OBS Studio全部拿下。发布3天就登上GitHub Trending榜单,增速惊人。

SpacetimeDB 2.0 — GitHub+HackerNews双爆
号称比传统数据库快1000倍的实时数据库,把数据库和服务器合成一个东西:客户端直接连数据库,数据变化实时推送到所有客户端。最骚的演示:用它做了视频通话,所有数据通过数据库实时同步传输。

Cognee — 自改进Skill系统
不只是存Skill,而是让Skill能观察自己的执行历史、检查失败原因、自动修正优化。Skill从静态prompt文件变成会进化的活系统,解决了"Skill用久了失效"的根本问题。

——@_0xKenny
春分之时结束会员活动,感谢参与。
Trellis,用来统一 AI 编程工具的上下文。

现在很多人同时用 Claude Code、Cursor、Codex等等,但每个工具的规范和历史记录都不互通。Trellis 的做法是在项目里建一个 .trellis/ 目录,把代码规范、任务 PRD、工作流都存进去。

不管你切换到哪个 AI 工具,都能把这些上下文注入进去。还支持 git worktrees 让多个 AI 任务并行跑。团队里一个人写好的规范,其他人直接复用。
当AI面试官成为常态,求职者的尊严正被当成一种可丢弃的成本 | blog

当记者坐到屏幕前,准备接受一场工作面试时,对面出现的不是HR,而是一个AI虚拟形象。它提问,并实时分析你的回答、措辞甚至微表情。

开发这些工具的公司,如CodeSignal和Humanly,声称这是为了“效率”和“公平”,让每个申请者都有初步面试的机会,还能消除人类面试官的偏见。但这套说辞很快就被戳破了:一个由充满偏见的互联网数据训练出来的AI,如何保证绝对公平?

真正的要害,被一位开发者在网上的一句评论点破了:“一个在发薪水前就这样不把你当人看的雇主,入职后会怎么对你?”

这句评论获得了上千个赞。它精确地捕捉到了这场技术变革背后,那令人不安的真相:AI面试,与其说是一项评估工具,不如说是一个公司文化的强力信号。它在无声地筛选出那些愿意忍受非人化流程的候选人。

这场闹剧已经陷入了恶性循环。一位招聘经理抱怨,一个岗位收到上千份简历,其中大量是AI生成的“垃圾申请”。于是公司被迫用AI来筛选海量简历,甚至用AI来面试。而求职者为了应对这种非人的流程,也开始求助于AI来“代投”和“代聊”。双方的信任正在飞速崩盘,面试变成了一场机器人之间的荒诞戏剧。

所以,下一次当你收到一个AI面试邀请时,需要思考的问题可能不是“我该如何表现才能通过?”,而是“我真的想加入一个用机器来衡量人类价值的公司吗?”

这个问题,AI回答不了你。

最讽刺的是,公司正试图用AI来评估一个人的“人性化”特质,比如沟通能力和文化契合度。这本身就是个巨大的笑话,也是一个信号。这已经不是面试,而是服从性测试。一个愿意接受AI面试的人,可能也更容易接受未来工作中其他不合理的安排。
在线设计常常受限于缺乏专业设计语言,想要“增加垂直节奏”都无从开口。

Impeccable
这个前端设计技能升级包,基于 Anthropic 的基础,带来了17条设计命令,覆盖排版、色彩、布局、动效等,多维度优化你的AI设计输出。

Impeccable 不仅提供丰富的反模式提示,还支持 Cursor、Claude Code、Gemini CLI、Codex CLI 等多种AI工具,一键安装用法简单:

- 关键词如 /polish、/audit、/distill、一键提升设计感;
- 自动识别AI平台,一条命令安装到位;
- 包含详细交互速查表,随时查阅设计命令;
- 定期更新迭代,最近新增了对 Kiro 的支持及安全性强化。

适合有一定AI使用经验的开发者和设计师,用它让AI输出的界面更专业、更有层次感,告别无感设计。
30条安全规则:“凭感觉编程”的时代结束了 | 帖子

一篇热帖列出了30条开发者为追求速度而忽略的安全规则,引发了程序员的集体共鸣与恐慌。但讨论的深层价值在于揭示了一个更残酷的真相:问题不在于你忘了哪条规则,而在于“凭感觉编程”这个思维模式本身,正让你亲手为未来的攻击者搭建完美的犯罪现场。

网上流传着一份清单,叫“每个凭感觉的程序员(Vibe Coder)都会忽略的30条安全规则——直到被烧到为止”。

列表很具体,从“不在localStorage存敏感数据”到“强制HTTPS”,条条扎心。评论区像大型忏悔现场,有人说“说实话我跳过了一半,直到看到安全审计通知才开始恐慌”,还有人立刻把这30条丢给Claude,问它“我们都做到了吗?”

这很正常。追求速度,先让产品跑起来,技术债以后再说。我们把这种行为美化为“敏捷”和“Vibe Coding”。

但一条高赞评论把温情脉脉的遮羞布扯了下来:

“大多数凭感觉的程序员,以为风险只是bug或宕机。真正的风险是:你快速推进,产品有了起色,然后你才意识到,你的安全模型也纯粹是凭感觉——而此刻,攻击者已经成了你产品最快的‘超级用户’。”

这句话才是关键。你以为的安全问题,是未来需要修复的清单。但现实是,你为吸引用户而搭建的通路,同样也为攻击者敞开了大门。当你为日活破万庆祝时,他们可能正在你的数据库里自由漫步。

更深一层,另一位开发者一针见血地指出,迷信“30条规则”这样的清单本身就是个陷阱。它让人觉得安全是一堆可以死记硬背的孤立技巧。

真正的安全感,来自良好的系统默认值、清晰的边界和严格的审查习惯。团队出事,很少是因为忘了某个请求头,而是因为他们发布了一个自己都一知半解的功能,或者过度信任了前端,暴露了太多不该暴露的数据。

所以,把这30条规则当成一个提示词喂给AI,并不能让你高枕无忧。这和“凭感觉编程”的思维是一体两面:都试图用一个简单的动作,去绕过一个复杂的系统性问题。

所以,真正的问题或许不是“这30条我做到了几条?”而是,“凭感觉编程”究竟是帮你快速成功的资产,还是你亲手写下的、最精密复杂的定时炸弹?

所谓的“Vibe Coding”,不过是“技术债”这个老概念换了个时髦的说法。它最大的骗局在于,让开发者误以为这是一种“工作流”,而忽略了它本质上是一种“风险敞口”。当你的用户量达到某个临界点,这个敞口就会从一个涓涓细流的漏洞,变成一个吞噬一切的黑洞。
在线开发管理常被各种任务繁杂分散注意力,需求规划、代码审查、发布上线和质量保证各环节切换频繁,效率难以提升。

Garry Tan 的开源项目 gstack,精心打造了一套基于 Claude Code 的六大专精工作流工具,让 AI 变身CEO、工程经理、发布经理和QA工程师,多角色助力协同开发。

它拥有:

- /plan-ceo-review:从创始人视角重新思考产品需求,挖掘10星级产品愿景;
- /plan-eng-review:工程经理视角锁定架构设计、数据流、边界和测试覆盖,绘制架构与状态图;
- /review:严格代码审查,识别生产环境潜在缺陷,如竞态、信任边界、重试逻辑等;
- /ship:自动同步主分支、跑测试、推送代码和创建PR,确保高效交付;
- /browse:作为QA工程师,自动登录页面,点流程,截图检错,完成一键全流程测试;
- /retro:工程经理回顾模式,统计提交历史、代码量、PR状态,洞察团队工作状态和改进点。

支持 macOS 和 Linux 平台,通过简单命令一键安装,深度集成Claude Code,让你告别混沌的AI助手,获得分工明确的专业助理。
Back to Top