最近开发者圈子里流传着一个有趣的玩法:用本地开源模型驱动Claude Code,实现完全离线、零API费用的AI编程助手。| 帖子
先说清楚一点:这套方案用的是Claude Code的工具链和交互框架,底层跑的是本地开源模型,并非Anthropic的Claude模型本身。但这恰恰是它的价值所在,你获得了一个能读写文件、执行终端命令、理解项目上下文的本地AI代理,数据完全不出本机。
整个搭建过程分四步:
第一步,安装Ollama作为本地模型引擎。Ollama负责托管AI模型并支持工具调用,安装后在后台静默运行。模型选择上,高配机器可以拉qwen3-coder:30b,普通配置用qwen2.5-coder:7b或gemma:2b也能跑。终端执行ollama run加模型名即可下载。
第二步,安装Claude Code本体。Mac和Linux用curl命令,Windows用irm命令,一行搞定。安装完用claude --version验证。如果之前登录过Anthropic账号,需要先登出。
第三步是关键,把Claude指向本地。默认情况下Claude会连Anthropic服务器,需要手动重定向。设置三个环境变量:ANTHROPIC_BASE_URL指向localhost:11434,ANTHROPIC_AUTH_TOKEN随便填个值比如ollama,再加上CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1关闭遥测。
第四步,进入任意项目目录,用claude --model加模型名启动,就能开始干活了。
评论区有些争议值得关注。有人质疑本地模型不支持工具调用,作者明确回应:支持。也有人反馈配置后无法创建文件,作者建议确保上下文长度超过32k,并尝试不同模型。还有人指出qwen3-coder:30b相比顶级闭源模型仍有差距,gemma:2b作为代理几乎不可用,而且要跑得流畅需要不错的硬件。
这套方案的真正意义在于提供了一种可能性:当你需要处理敏感代码、受限于网络环境、或者单纯想省钱时,本地AI代理是个可行选项。它不会取代云端大模型的能力上限,但在特定场景下足够实用。
至于什么时候能本地跑Opus 4.5?正如作者调侃的,得先问问Anthropic什么时候开源。
这背后的原理其实很直观。大语言模型本质上是因果语言模型,每个 token 只能“看到”它前面的内容。这意味着当你问“先给背景,再提问题”和“先提问题,再给背景”时,模型的理解深度是不同的。重复提示词相当于让每个 token 都有机会“看到”完整的上下文,弥补了单向注意力的先天缺陷。
研究团队在 Gemini、GPT、Claude、Deepseek 等七个主流模型上进行了测试,覆盖 ARC、GSM8K、MMLU-Pro 等多个基准。结果相当惊人:70 组测试中,提示词重复赢了 47 次,输了 0 次。
更妙的是,这个方法几乎没有代价。重复发生在可并行化的预填充阶段,生成的 token 数量和延迟都不会增加。输出格式也完全不变,可以直接无缝替换现有系统。
一个有趣的观察是:那些经过强化学习训练的推理模型,往往会自发学会在思考过程中重复用户的问题。提示词重复技术本质上是把这个“好习惯”前置到了输入阶段,用更高效的方式实现了类似效果。
研究还测试了几个变体。比如重复三次,在某些任务上效果更好。而单纯用句号填充到相同长度则毫无作用,证明提升确实来自语义重复本身。
当启用“逐步思考”等推理模式时,提示词重复的效果变得中性到略正面。这也符合预期,因为推理过程本身就包含了对问题的复述。
这项研究给我们的启示是:有时候最简单的方法反而最有效。在追求复杂提示工程技巧之前,不妨先试试这个零成本的小技巧。对于那些对延迟敏感、不适合开启推理模式的场景,提示词重复可能是一个值得尝试的默认策略。
论文还列出了十几个未来研究方向,包括只重复部分提示词、用小模型重排序、探索多轮对话场景等。这个看似简单的发现,或许能打开一扇理解 Transformer 注意力机制的新窗口。
Reddit上一个帖子引发了热议:为什么AI热潮中,大家都在做同样的事?
又一个聊天应用,又一个AI助手,又一个“智能工具”。仔细一看,要么早就存在,要么别人做得更好更成熟。很多功能明明一个插件就能搞定,却有人砸钱订阅、烧电费,只为造一个OpenWebUI的低配版。
评论区炸了,但观点出奇地冷静。
有人说这是学习的代价。就像织毛衣,市面上有的是成品,但自己动手的过程本身就是收获。99%的项目不会有人用,但那1%的人可能正在默默打磨下一个OpenWebUI。
有人看得更远:真正在做创新的人,根本不会在网上聊这些。他们怕被抄。
一位25年经验的系统工程师说了句扎心的话:那些你觉得在“偷懒”的年轻人,正在用你看不懂的方式快速迭代。这让他想起当年自己碾压老一辈的样子。
最有意思的是历史视角。BBS时代,人人写BBS;网页时代,人人做网站;文件共享、视频流媒体,每一波新技术都是这样。大量重复,少数突围,最后沉淀出真正有价值的东西。
有人提到dot com泡沫。1999年光搜索引擎就有几十上百个,泡沫破了,但Google活下来了。泡沫清除的是泡沫,不是技术本身。
还有一个更深的洞察:AI正在让“个人定制软件”成为可能。以前想要一个功能,要么忍受现有工具的不完美,要么花几周自己开发。现在几分钟就能让AI生成一个刚好满足需求的小工具。不完美,但刚好够用,而且完全按自己的想法来。
这或许才是真正的变革:不是谁做出下一个独角兽,而是每个人都能拥有为自己量身定制的工具。
当然,泡沫确实存在。那些把周末vibe coding的产物当成改变世界的天才发明的人,迟早会醒。但在喧嚣之下,真正的建设者正在安静地工作。
一位开发者的总结很到位:我不是在做产品,我是在交学费。只不过这次的学费,是付给Anthropic和OpenAI的。
Anthropic团队今天宣布将Claude Code中的Todos升级为Tasks。这个看似简单的改动,实际上标志着AI编程工具正在从“执行单一指令”向“管理复杂项目”演进。
随着模型能力的提升,如何让AI充分发挥潜力成为关键课题。Opus 4.5已经能够更长时间地自主运行,并更好地追踪自身状态。团队发现,对于简单任务,Claude其实已经不需要TodoWrite工具来提醒自己该做什么了。
真正的挑战在于更大的项目。当开发者开始用Claude Code处理跨越多个子代理、多个上下文窗口甚至多个会话的长期项目时,原有的Todos就显得力不从心了。项目天然具有复杂性,任务之间存在依赖和阻塞关系,需要在不同会话间进行协调。
Tasks的设计正是为了解决这些问题。它的核心特性包括:
任务可以相互依赖,依赖关系存储在元数据中,这更贴近真实项目的运作方式。
任务存储在文件系统中,多个子代理或会话可以协同工作。当一个会话更新任务状态时,所有正在处理同一任务列表的会话都会收到通知。
任务文件存放在 ~/.claude/tasks 目录下,开发者可以基于此构建自己的工具。
要让多个会话协作处理同一个任务列表,只需设置环境变量:
CLAUDE_CODE_TASK_LIST_ID=groceries claude
这个机制同样适用于 claude -p 命令和 AgentSDK。
值得一提的是,这个功能的诞生也受到了社区的启发,特别是Steve Yegge的Beads项目。社区的响应同样热烈,已经有开发者构建了任务看板可视化工具、文档集成方案等周边生态。
从更宏观的视角来看,Tasks代表了一种思维转变:AI编程助手正在从“工具”进化为“协作者”。当AI能够理解任务间的依赖关系、能够跨会话保持状态、能够与其他AI实例协同工作时,它就具备了参与真正软件工程的基础能力。
这让人想起一个有趣的问题:当AI能够自己管理任务、自己循环迭代时,人类开发者的角色会如何演变?也许答案是,我们会从“写代码的人”变成“定义问题和验收结果的人”。
我今年54岁,做了几十年物理研究,用数学探索宇宙、解决问题、构建系统。如果你的工作现在或将来会涉及数字,这份路线图或许能帮你真正学会数学。
学习分两个阶段。前25条是基础框架,之后是职业应用。
先从代数开始。学会干净利落地操作符号。这一关过不去,后面全是噪音。代数的核心是规则和结构,不是计算速度。慢下来,直到每一步都显而易见。
把方程理解为因果关系。别急着求解,先搞清楚什么影响什么。
接下来是几何。学习形状、距离、角度的行为规律。这能训练出公式给不了的直觉。同时用视觉和代数两种方式理解几何,把图形翻译成方程,再翻译回来。
尽早引入向量。向量统一了代数和几何,别拖延这一步。
三角函数的本质是角度和旋转,不是三角形。把正弦和余弦当作函数来学。通过单位圆理解三角函数,而非死记恒等式。能画出来,才算真懂。
预备微积分连接函数、三角和代数,它的任务是让微积分变得可预测。如果这部分感觉模糊,停下来解决它。微积分会惩罚薄弱的基础。
微积分从导数开始,导数就是变化率。先别管公式,把概念搞清楚。导数回答的问题是:如果我稍微改变这个,会发生什么?不断练习问这个问题。
用微积分建模行为,而非计算表达式。大多数真实问题止步于建模阶段。
积分是累积。面积只是一个例子。永远问自己:什么东西在被加起来?
微积分二难,因为技术性强。别死记技巧,学会判断每个工具何时适用。从概念上理解极限,它解释了微积分为何有效。
然后学逻辑和基础证明。这能磨砺推理能力,防止隐藏假设。证明训练的是严谨,不是优雅。逐行跟踪论证,直到没有任何东西感觉像魔法。
线性代数应该早学,不是晚学。它解释多变量系统的结构。把矩阵理解为变换,而非表格。这个思维转变至关重要。
特征值描述稳定性和长期行为。它们是思想,不是计算。
多元微积分反映现实。大多数系统依赖不止一个输入。偏导数分离影响因素,梯度指示方向。明确学习约束问题,无约束的数学很少是真实的。
只有完成这些,才去学概率和统计。当你理解了变化和结构,不确定性才有意义。
基础完成,进入应用:
工程:微积分加线性代数加约束条件,用于建模、优化和稳定性分析。
机器学习:线性代数加概率加优化,其他都是实现细节。
数据科学:统计加线性代数加基础微积分,重点在假设,不在工具。
金融:微积分加概率加线性系统,变化率和风险主导一切。
物理:微积分、线性代数、微分方程,几何和对称性比公式更重要。
经济学:多元微积分加优化,模型的生死取决于假设。
计算机图形学:线性代数加几何加三角函数,一切都是变换。
控制系统:线性代数加特征值加微积分,稳定性是核心问题。
研究:证明加建模加抽象,知道为什么比结果更重要。
最后一条现实:你不会每天用到所有数学,但薄弱的基础会立刻暴露。
数学学习最大的误区是追求速度和技巧。真正的数学能力来自对概念的深刻理解,来自不断追问“为什么”和“如果改变会怎样”。慢就是快,基础就是天花板。
Reddit上的LocalLLaMA社区最近上演了一出黑色幽默。
一位用户花500美元淘到了一张冷门的W6800 32GB显卡,测试后发现效果出奇地好,于是兴冲冲地写了篇详细评测分享给社区。结果第二天醒来,他盯上的所有W6800全部售罄,最便宜的价格直接翻倍突破1000美元。
他亲手把自己想买的第二张卡买贵了。
评论区有人搬出了加州淘金热的典故:当年发现金矿的人没有四处声张,而是先悄悄买光了周边所有的铲子、淘金盘和采矿设备,然后才告诉大家这里有金子。最终靠卖工具成为加州第一个百万富翁的,是商人Samuel Brannan,而不是挖金子的人。
这个故事放在今天的本地大模型圈子里,讽刺意味更浓。当显存成为跑大模型的硬通货,每一篇“这卡真香”的帖子都可能成为价格上涨的导火索。有人调侃:别推理了,改行倒卖显卡吧。
社区里关于性价比显卡的讨论也很有意思。MI50凭借32GB显存和1TB/s带宽,曾经160美元就能入手,堪称穷人福音。但软件生态是硬伤,基本只有llama.cpp和ComfyUI能用,想做微调或者跑专业推理引擎就抓瞎了。P40现在200美元以下,3090依然是主流推荐,而Strix Halo的128GB内存让一些人蠢蠢欲动——当然,前提是别再发帖推荐了。
还有人挖出了一个冷知识:AMD V620其实和W6800是同一张卡的服务器版本,eBay上只要450美元,只是没有显示输出。但对于纯跑推理的人来说,这根本不是问题。
这场闹剧背后折射出本地大模型社区的真实生态:大多数人的显存还不到16GB,真正拥有24GB以上推理设备的可能只有几百人,但每个人都在焦虑地寻找下一个性价比之王。价格一旦涨上去就很难降下来,而社区的每一次“安利”都在加速这个过程。
所以下次发现什么好东西,记得先买够再说。
一则“OpenAI拒绝苹果Siri交易”的消息在科技圈引发热议,但深挖原始信源后,故事远比标题复杂。
事情的真相是:苹果从去年夏天开始测试Anthropic、OpenAI和Google的模型,最终Gemini凭借性能基准、基础设施可靠性以及能在苹果私有服务器上安全运行的能力胜出。
OpenAI的说法是“有意识地决定不成为苹果的定制模型供应商”,转而专注于开发自己的AI硬件设备。但这种表态很难不让人联想到“分手后说是自己先提的”。
这笔交易的结构值得玩味:Google提供定制版Gemini模型,但推理全部在苹果私有云或本地设备上运行,不向Google回传数据,也不会有任何Google品牌露出。对苹果而言,这是用最小代价换取顶级AI能力的时间窗口;对Google而言,这是“躺赚”——模型授权费到手,推理成本归零。
有人指出,OpenAI真正的顾虑可能是利益冲突:他们正与苹果前设计总监Jony Ive合作开发一款耳后佩戴的AI设备,直接与苹果生态竞争。既然要做对手,自然不便做供应商。
但也有声音认为这是OpenAI的战略失误。想象一下,如果全球数亿iPhone用户每天与OpenAI模型对话,那将是怎样的品牌渗透?现在,这个机会拱手让给了Google——他们已经拿下Android,如今又吃下iOS,移动端AI入口被一家通吃。
更深层的问题是:当AI成为操作系统级基础设施,谁掌握模型,谁就掌握用户体验的底层逻辑。苹果选择外包这一层,是务实还是隐患?OpenAI选择单干,是远见还是傲慢?
答案或许要等到那支传说中的“AI笔”问世才能揭晓。
OpenAI正式宣布,将在未来几周内于ChatGPT免费版和Go订阅层级测试广告功能。这一消息在用户社区引发了激烈讨论。
官方给出了四项承诺:广告不会影响AI回答内容;广告与对话内容明确分离并标注;用户对话隐私不向广告商泄露;Plus、Pro、Business和Enterprise层级不会出现广告。
看起来很克制,但问题在于——Go层级是付费订阅,每月8美元,却依然要看广告。这让不少用户感到不满:付了钱还要被广告打扰,这算什么道理?
社区的反应大致分为三派。
务实派认为这完全可以理解。免费服务总得有人买单,数据中心不会自己付账。与其让广告悄悄渗透进AI的回答里,不如明明白白地展示在界面上。Gmail不也这么干了很多年吗?
警惕派则看到了更深层的隐忧。他们援引“enshittification”(平台劣化)这个概念:几乎所有互联网服务都走过同样的路——先用免费吸引用户,再逐步加入广告,最后连付费用户也难逃其扰。今天说Plus不会有广告,谁能保证明天不会?Netflix、Paramount+、Amazon Prime,哪个不是这样一步步走过来的?
更让人担忧的是广告对AI回答的潜在影响。当你询问“附近有什么好餐厅”,AI会不会优先推荐付了广告费的商家?当你描述身体症状寻求建议,会不会被引导去购买某款保健品?一旦商业利益介入,AI作为“中立信息助手”的可信度就会大打折扣。
还有一派用户选择直接用脚投票。Gemini、Claude、Grok,以及来自中国的Deepseek、Qwen、Kimi等模型,目前都没有广告。虽然有人指出,谷歌作为全球最大的广告公司,Gemini迟早也会走上这条路,但至少现在还有选择。
这件事真正值得思考的,是AI行业的商业模式困境。
OpenAI据说连200美元的Pro订阅都在亏钱。训练和运行大模型的成本是天文数字,而用户已经习惯了免费或低价使用。当风投的钱烧完,当“AGI即将到来”的故事讲不下去,广告几乎是唯一的出路。
有用户一针见血地说:一旦OpenAI开了这个头而没有遭到市场惩罚,其他公司必然跟进。这不是OpenAI一家的选择,而是整个行业的转向。
更深层的问题是:当AI成为我们获取信息、做出决策的重要工具,它的中立性就变得至关重要。搜索引擎的广告化已经让我们付出了代价——前几条结果往往是广告而非最佳答案。如果AI也走上同样的路,我们失去的可能不只是使用体验,而是对一种新型信息工具的信任。
有人说,本地运行开源模型才是最终出路。这话不无道理,但对普通用户来说门槛太高。
或许我们需要接受一个现实:在互联网世界,如果你不是客户,你就是产品。免费的AI从来都不是真正免费的,只是账单还没寄到而已。
xAI的Colossus 2正式投入运营,成为全球首个功率达到吉瓦级别的前沿AI数据中心。这个消息在技术社区引发了一场关于AI发展路径的深度讨论。
有人调侃说,通往AGI的道路看起来就像一场巨大的暴力破解攻击——“我们的基本策略连猴子都能理解:魔法盒子越大,魔法就越多。”这话虽然戏谑,却道出了当前AI竞赛的核心逻辑。
但事情并非如此简单。有内部观察者指出,xAI在过去六个月对Grok 4架构进行了大量优化,从Grok 4到4.1 thinking版本的进步有目共睹。这是一种双管齐下的策略:一边疯狂扩张算力,一边持续优化模型。正如有人所说:“如果有效,那就是有效。进化本身也是暴力破解。”
不过,质疑声同样存在。尽管xAI在建设数据中心方面展现了惊人速度,但在前沿AI领域的竞争力似乎并不突出。除了Grok Imagine,他们的模型从未真正出圈。在代理编码应用方面,甚至GLM可能比Grok更受欢迎。马斯克自己也承认,下一代Grok在编码能力上无法击败Opus 4.5。
这就引出了一个关键问题:更大的算力是否必然带来更好的性能?
从机器学习的扩展定律来看,计算资源的增加确实能带来性能的可预测提升。但正如有人指出,如果没有优秀的架构和训练方法,巨大的算力只会在饱和曲线上获得对数级别的边际收益。你必须设计它去做新的事情,它才能做出新的事情。
值得关注的是Grok 5的预期发布。据称这个模型将拥有约6万亿参数——参数就像大脑中的神经元,数量越多意味着模型能捕捉更微妙、更复杂的数据模式。预计它将在未来几个月内发布。
谷歌的策略则截然不同。他们不依赖超大规模集中式集群,而是采用众多分布式数据中心。统一集群在原始训练能力上确实有优势,但分布式系统可以通过更大的资源总量来弥补通信延迟的劣势。两种路径各有千秋。
这场算力军备竞赛的代价也不容忽视。有孟菲斯当地居民抱怨,未经授权的燃气涡轮机给周边居民健康带来了影响。技术进步与环境责任之间的张力,是这场竞赛中无法回避的议题。
很多人问我,学AI和机器学习到底需要掌握哪些数学?今天把我自己走过的路和用过的资源整理出来,希望能帮你少走弯路。
先说结论:三大支柱——统计概率、线性代数、微积分。但更重要的是理解它们为什么重要。
+ 一、统计与概率:与不确定性共处的智慧
现实世界的数据从来都是嘈杂、残缺、充满不确定性的。概率论和统计学赋予我们在混沌中找规律的能力。
从最基础的概念开始:总体与样本。我们永远无法观测到完整的世界,只能通过有限的样本去推断。理解抽样偏差和代表性,直接关系到模型能否泛化。
描述性统计是起点——均值、中位数、众数帮我们把握数据的“中心”在哪里;方差和协方差则告诉我们数据有多“散”、变量之间如何联动。这些看似简单的概念,却是理解损失函数和风险最小化的根基。
随机变量、概率分布、正态分布、二项分布——这些不是抽象的数学游戏,而是我们对数据生成机制的假设。为什么高斯分布无处不在?中心极限定理给出了答案:即使原始数据分布不正态,样本均值也会趋向正态。这个定理是统计推断的基石。
贝叶斯定理值得特别关注。它教会我们一件事:信念应该随证据更新。这不仅是概率公式,更是一种思维方式——在不确定中保持开放、用新信息修正旧认知。现代机器学习中对不确定性的量化,很大程度上植根于此。
最大似然估计则搭建了理论与实践的桥梁:交叉熵损失、均方误差损失,其实都是MLE的自然产物。
+ 二、线性代数:数据与模型的骨架
机器学习里几乎所有计算都是矩阵运算。数据是矩阵,权重是矩阵,梯度是矩阵,激活值还是矩阵。
标量、向量、矩阵、张量——这是从一维到高维的进阶。一张图片是三维张量,一批图片是四维张量。理解这些结构,才能读懂深度学习框架里的每一行代码。
矩阵乘法定义了神经网络的前向传播;转置用于对齐形状;行列式和逆矩阵虽然实践中很少直接计算,但理解它们对把握线性系统的可解性至关重要。
特征值和特征向量描述的是变换的“本质方向”——哪些方向在变换中保持不变,只是被拉伸或压缩。这直接关联到模型的稳定性和收敛性。
SVD和PCA可能是最实用的两个工具。SVD提供数值稳定性和低秩近似;PCA实现降维、去噪、特征提取。它们本质上都在做同一件事:在保留核心信息的前提下,尽可能简化问题。
+ 三、微积分:让机器学会学习
训练模型的本质是优化问题。微积分解释了模型如何学习、学习多快、能否收敛。
导数衡量变化率,梯度指向最陡峭的上升方向。梯度下降就是沿着负梯度方向走,一步步逼近最优解。
高维世界需要更强大的工具:雅可比矩阵处理向量函数的一阶导数,海森矩阵捕捉二阶曲率信息,链式法则则是反向传播的数学基础。
理解损失曲面的地形很关键。局部最小值可能让训练“卡住”,鞍点在高维空间中比想象的更常见,凸性虽然罕见但能保证找到全局最优。
+ 四、我的学习路径
第一步:建立直觉。推荐3Blue1Brown的《线性代数的本质》和《微积分的本质》,用可视化理解抽象概念。
第二步:系统学习。Coursera上帝国理工的《机器学习数学》课程,把线性代数和多变量微积分讲得非常实用。
第三步:夯实统计概率。可汗学院的课程讲解清晰,练习充足。
第四步:连接数学与机器学习。《统计学习导论》这本书完美展示了理论如何落地为真实的模型。
最后:融会贯通。《机器学习数学》这本书把所有概念串联起来,展示它们如何在具体算法中协同工作。
数学从来不是机器学习的门槛,而是打开深层理解的钥匙。与其畏惧,不如拥抱——这条路走通了,你看问题的视角会完全不同。
10个月深度使用后,我的Claude Code完整配置指南 | 原文
从二月实验版开始,我就是Claude Code的重度用户,并用它在Anthropic x Forum Ventures黑客松中拿下冠军。十个月日常使用后,分享我摸索出的完整配置体系。
+ Skills与Commands:让重复工作一键完成
Skills本质上是限定作用域的规则,可以理解为特定工作流的提示词简写。长时间用Opus 4.5写代码后想清理死代码?直接运行/refactor-clean。需要测试?/tdd、/e2e、/test-coverage,这些命令还能在单个提示词中链式调用。
两者略有重叠但存储位置不同:Skills放在~/.claude/skills,是更宽泛的工作流定义;Commands放在~/.claude/commands,是快速可执行的提示词。
+ Hooks:基于触发器的自动化
与Skills不同,Hooks被限定在工具调用和生命周期事件上。主要类型包括:PreToolUse(工具执行前的验证提醒)、PostToolUse(执行后的格式化反馈)、UserPromptSubmit(发送消息时)、Stop(Claude响应完成时)等。
比如我设置了一个Hook:在执行npm、pnpm等长时间命令前,如果不在tmux会话中就提醒考虑使用tmux保持会话持久性。另一个实用技巧是用hookify插件对话式创建Hooks,省去手写JSON的麻烦。
+ Subagents:任务委派的艺术
Subagents是主编排器可以委派任务的子进程,拥有受限的作用域,可在前台或后台运行,为主Agent释放上下文。它们与Skills配合默契——一个能执行部分Skills的Subagent可以自主完成被委派的任务。
我的Subagents配置包括:planner负责功能规划、architect负责系统设计、tdd-guide负责测试驱动开发、security-reviewer负责漏洞分析等。关键是为每个Subagent配置允许的工具、MCP和权限。
+ MCP:连接外部世界的桥梁
MCP将Claude直接连接到外部服务,本质是API的提示词驱动包装器。比如Supabase MCP让Claude能直接拉取特定数据、执行SQL查询,无需复制粘贴。
但这里有个关键点:上下文窗口管理。200k的上下文窗口,如果启用太多工具可能实际只剩70k,性能会显著下降。我的原则是:配置20-30个MCP,但保持启用数量在10个以下、活跃工具在80个以内。
+ 插件与LSP
插件将工具打包以便安装,省去繁琐的手动设置。LSP插件特别有用——如果你经常在编辑器外运行Claude Code,语言服务器协议能提供实时类型检查和智能补全,无需打开IDE。
+ 实用技巧集锦
键盘快捷键方面:Ctrl+U删除整行、!作为快速bash命令前缀、@搜索文件、Tab切换思考显示、Esc Esc中断Claude或恢复代码。
并行工作流方面:/fork可分叉对话处理非重叠任务;Git Worktrees让多个Claude实例无冲突并行工作。
另外强烈推荐用mgrep替代grep,它比ripgrep有显著提升,支持本地和网络搜索。
+ 编辑器选择
虽然不是必需,但好的编辑器能显著提升效率。我用Zed——一个基于Rust的轻量级编辑器,打开即时、大代码库也不卡顿。它的Agent Panel能实时追踪Claude的文件修改,CMD+Shift+R命令面板可快速访问所有自定义命令。
VS Code和Cursor同样可行,可选终端模式或扩展集成模式。
+ 核心要点
不要过度复杂化,把配置当作微调而非架构设计。上下文窗口是稀缺资源,禁用不用的MCP和插件。善用并行执行,自动化重复工作,为Subagents设置明确边界。
这套体系的精髓在于:在保持强大能力的同时,精准控制资源消耗。
从二月实验版开始,我就是Claude Code的重度用户,并用它在Anthropic x Forum Ventures黑客松中拿下冠军。十个月日常使用后,分享我摸索出的完整配置体系。
+ Skills与Commands:让重复工作一键完成
Skills本质上是限定作用域的规则,可以理解为特定工作流的提示词简写。长时间用Opus 4.5写代码后想清理死代码?直接运行/refactor-clean。需要测试?/tdd、/e2e、/test-coverage,这些命令还能在单个提示词中链式调用。
两者略有重叠但存储位置不同:Skills放在~/.claude/skills,是更宽泛的工作流定义;Commands放在~/.claude/commands,是快速可执行的提示词。
+ Hooks:基于触发器的自动化
与Skills不同,Hooks被限定在工具调用和生命周期事件上。主要类型包括:PreToolUse(工具执行前的验证提醒)、PostToolUse(执行后的格式化反馈)、UserPromptSubmit(发送消息时)、Stop(Claude响应完成时)等。
比如我设置了一个Hook:在执行npm、pnpm等长时间命令前,如果不在tmux会话中就提醒考虑使用tmux保持会话持久性。另一个实用技巧是用hookify插件对话式创建Hooks,省去手写JSON的麻烦。
+ Subagents:任务委派的艺术
Subagents是主编排器可以委派任务的子进程,拥有受限的作用域,可在前台或后台运行,为主Agent释放上下文。它们与Skills配合默契——一个能执行部分Skills的Subagent可以自主完成被委派的任务。
我的Subagents配置包括:planner负责功能规划、architect负责系统设计、tdd-guide负责测试驱动开发、security-reviewer负责漏洞分析等。关键是为每个Subagent配置允许的工具、MCP和权限。
+ MCP:连接外部世界的桥梁
MCP将Claude直接连接到外部服务,本质是API的提示词驱动包装器。比如Supabase MCP让Claude能直接拉取特定数据、执行SQL查询,无需复制粘贴。
但这里有个关键点:上下文窗口管理。200k的上下文窗口,如果启用太多工具可能实际只剩70k,性能会显著下降。我的原则是:配置20-30个MCP,但保持启用数量在10个以下、活跃工具在80个以内。
+ 插件与LSP
插件将工具打包以便安装,省去繁琐的手动设置。LSP插件特别有用——如果你经常在编辑器外运行Claude Code,语言服务器协议能提供实时类型检查和智能补全,无需打开IDE。
+ 实用技巧集锦
键盘快捷键方面:Ctrl+U删除整行、!作为快速bash命令前缀、@搜索文件、Tab切换思考显示、Esc Esc中断Claude或恢复代码。
并行工作流方面:/fork可分叉对话处理非重叠任务;Git Worktrees让多个Claude实例无冲突并行工作。
另外强烈推荐用mgrep替代grep,它比ripgrep有显著提升,支持本地和网络搜索。
+ 编辑器选择
虽然不是必需,但好的编辑器能显著提升效率。我用Zed——一个基于Rust的轻量级编辑器,打开即时、大代码库也不卡顿。它的Agent Panel能实时追踪Claude的文件修改,CMD+Shift+R命令面板可快速访问所有自定义命令。
VS Code和Cursor同样可行,可选终端模式或扩展集成模式。
+ 核心要点
不要过度复杂化,把配置当作微调而非架构设计。上下文窗口是稀缺资源,禁用不用的MCP和插件。善用并行执行,自动化重复工作,为Subagents设置明确边界。
这套体系的精髓在于:在保持强大能力的同时,精准控制资源消耗。
现在学会这项技能的人,将获得巨大的先发优势。六个月后,这将成为常识。但在那之前开始的人,才是真正的赢家。
大多数人打开Claude Code,对着黑色终端发呆二十分钟。他们看到推特上人人都在发布应用、自动化工具、完整产品,然后默默关掉——因为根本不知道该做什么。
问题不在于Claude Code,而在于他们跳过了最关键的一步。
+ 为什么多数人会失败
Claude Code看起来很吓人:终端界面,光标闪烁,仿佛只有开发者才能驾驭。
其实不然。Claude Code本质上就是一个能“动手干活”的聊天窗口——读取文件、编写代码、搜索网络、构建系统。
失败者并非缺乏技术能力,而是不知道该问什么。他们打开软件时想的是“我应该做个应用”,而不是“有什么事情正在困扰我,可以被解决?”
这才是关键的思维转变。
+ 四步工作流
我见过很多人从“不知道做什么”到每周节省数小时,他们都遵循相同的流程。
第一步:盘点你的一周
在打开Claude Code之前,拿张纸写下上周所有重复、繁琐、恼人的事情:研究竞品、整理报告、搬运数据、写重复邮件、整理文件。
这些不是性感的产品创意,不会获得点赞。但它们是你真实存在的问题——这才是重点。你的第一个自动化不应该是业余项目,而应该是那些每周吃掉你两三个小时的琐事。
第二步:与Claude探索方案
现在打开Claude Code,但不要急着让它构建任何东西。先描述你要解决的问题:
“我每周花两小时研究竞品的YouTube频道,查看热门视频、分析趋势。有没有办法自动化?”
然后要求它给出选项:“给我三种不同方案,说明各自优缺点。”
这里有个关键:追求更简单的方案。如果Claude建议需要配置API密钥和计费,就问“有没有免费版本不需要这些?”通常都有。
不要接受第一个答案,把它当作与专家的对话来对待。
第三步:先规划再构建
这是多数人搞砸的地方。他们一兴奋就说“好,开始做”,然后放任Claude运行。
这是个坏主意。AI会做大量假设,跳过规划步骤意味着这些假设会变成日后的bug。
正确做法:按Shift+Tab切换到“计划模式”,告诉Claude写一份规格说明——功能、输入、输出的样子,先不写代码。审查规格说明后,砍掉第一版不需要的一切。
AI总是想做太多,你会看到没要求的功能和不必要的复杂度。规格说明是你与Claude的契约,批准后再让它动手。
这一步花十分钟,能省下数小时的调试时间。
第四步:构建与迭代
现在可以让Claude按规格实现了。它会创建文件、编写代码、搭建系统——你不需要理解任何一行。
出错时(肯定会的),复制错误信息粘贴回去,说“修复这个”。
这就是循环:构建、出错、修复、重复。
不要期望第一次就完美,期望的是一个可以改进的工作草稿。
+ 实战案例:YouTube研究器
我想自动化竞品YouTube研究,手动做需要每周两小时。
我告诉Claude问题后,它给了三个选项:官方API(设置复杂)、网页抓取(不稳定)、免费工具yt-dlp。我问yt-dlp是否更简单,确认后无需API密钥,直接可用。
切换到计划模式要求规格说明后,我砍掉了它自作主张添加的“缩略图分析”功能。十分钟后,我有了一个工作命令:输入频道名,获得完整研究报告。
曾经两小时的工作,现在三十秒完成。
+ 70/80法则
这里有个没人告诉你的真相:这种编程方式70%到80%的工作是写文档,不是写代码。
计划、规格、需求、用大白话描述你想要什么。AI写代码,你的工作是把需求解释得足够清楚,让它不做错误假设。
这正是非技术人员能做好这件事的原因。你比拼的不是编码能力,而是沟通能力、清晰度、具体性。如果你能写一封清晰的邮件,你就能做到这一切。
+ 真正的技能
让我直说正在发生什么:你不是在学编程,你是在学习管理一个替你编程的AI。
这是不同的技能,而现在几乎没人掌握它。
在Claude Code上取得成功的不是开发者,而是那些知道该解决什么问题、能清晰表达问题的人。技术能力每天都在被AI商品化,AI写的代码已经比大多数初级开发者更好了。
但知道该解决哪些问题?知道如何把大目标拆成小步骤?知道如何审查输出、发现错误?这是人类的工作,不会消失。
+ 窗口期
六个月后人人都会知道怎么做这些。Claude Code会有更友好的界面,会有课程和认证,一切会变得理所当然。
现在它仍然感觉困难、吓人,好像需要许可才能尝试。你不需要。
今天培养这项技能的人将拥有巨大的领先优势——不是因为技能本身有多难,而是因为他们在一切变得显而易见之前就开始了。
工具是免费的,机会就在眼前。别再盯着空白终端发呆了,开始和它对话吧。
如果你最近打开终端时感到一阵莫名的焦虑,你并不孤单。
我们都看到了这一幕:敲下一行命令,AI瞬间写出比你花二十分钟还好的代码;把报错日志丢进对话框,它精准告诉你哪个变量是空值。
这感觉像魔法。但对很多工程师来说,这更像是末日预告。
如果你的职业价值建立在背语法、刷算法、白板上翻转二叉树这些技能上,确实该担心了。这种形态的工作已经死了。
但大多数人忽略了一点:软件工程师这个职业并没有消亡,它只是终于甩掉了那些无聊的部分。
2026年的市场不再为代码付费——代码现在几乎免费。市场付费的是被解决的问题。
想要在新时代不仅活下来还能赚更多,你必须停止像流水线工人那样思考,开始像工厂的建筑师那样行动。
+ 从“写作者”到“主编”的身份转变
过去二十年,你的核心工作是把想法手动翻译成精确的机器语言。这是一个缓慢、高摩擦的过程。
现在,大语言模型执行同样的想法比你快一百倍。试图在速度和语法记忆上打败它,就像试图跑赢汽车。
你必须完成一次心智转变:你不再是写作者,你是主编。
AI不是能独立解决问题的初级开发者,而是一个高速执行工具,它精确地写出你告诉它的东西。它映射你的逻辑,但规模放大百倍。如果你的思考是混乱的,AI只会给你一个“完美版本”的错误想法。
你的工作不再是“写循环”,而是:知道真正需要哪种循环、审查AI遗漏的安全漏洞、把那个函数缝合进公司产品这个庞大复杂的系统中。
+ 架构能力是新的入门门槛
既然AI处理了实现细节,你的价值就向上迁移到架构决策层。
AI不擅长大局观。它能写出完美的增删改查服务,但完全不知道这个微服务是否应该存在,或者它会不会让你的数据库成本爆炸。
你需要深入理解数据如何从用户点击流向数据库再返回;学会权衡为什么选关系型数据库而不是文档数据库,为什么选无服务器架构而不是专用服务器——这些决策依赖预算、团队规模等商业约束,AI无法替你做出。
+ 调试能力占工作的九成
关于AI代码有个不能说的秘密:它看起来正确,但会以诡异微妙的方式失败。
我们曾经面对“语法错误”——代码跑不起来。现在我们面对更多“逻辑错误”——代码跑得很顺畅,但自信满满地做着错误的事。
当AI给你一段代码时,把它当作一个微醺实习生提交的代码审查来对待。逐行阅读,假设它漏了空值检查,假设它忘了处理边界情况。
你阅读代码的能力,现在比写代码的能力更重要。
+ 成为安全守门人
2026年,代码库最大的威胁不是黑客,而是未经审查的AI建议。
AI模型在数十亿行代码上训练,其中很多是陈旧的、不安全的、甚至错误的。你要求一个数据库查询,它可能给你一个容易被注入攻击的写法;你要求一个认证流程,它可能建议一个已废弃的哈希算法。
你就是防火墙。你需要识别那些“看起来安全但后门大开”的幻觉式安全逻辑。
+ 成为产品工程师
这是能让你免于被裁的关键。
纯粹的编码者可能会变成可替代品,而产品工程师是资产。
产品工程师不只是看着任务单写代码,他们理解商业目标,会问:为什么要做这个功能?有没有不写代码的更简单方案?这对用户体验有什么影响?
当你理解产品,你就能用AI在几小时内构建过去需要几周的原型。你成为一支一人军队。如果你能走进会议室,理解一个商业问题,然后交付解决方案,你就是不可替代的。
+ 停止做这些事
别再浪费脑力记模板代码的精确语法了,查一下或问AI。别再当纯粹主义者说“不是自己敲的就不是真正的编程”——用户不在乎,业务不在乎。别再关掉代码补全工具说它碍事——2026年无视AI就像2005年无视搜索引擎。
+ 结语
残酷的真相是:那些只会复制粘贴不动脑子的开发者,日子会很难过。
但对于真正的建造者?这是历史上最好的时代。
你曾经被手指移动的速度限制。现在,你只被思考的清晰度限制。入门门槛降低了,但影响力的天花板被捅穿了。
这个周末,别再从零开始写待办事项应用了。拿一个你酝酿已久的想法,看看用AI工具能多快把整个东西搭起来。专注于架构和产品。
让机器处理语法,你来掌控愿景。