记录了超过2000个科幻创意和发明创造以及超过4300种科幻作品系列的基本资料,将不同类型科幻概念的作品按字母和时间分类汇总,也就是说大家可以用它来查询某一个科幻概念最早出现在什么作品里,有些还挺让人意外的。
最近开发者圈子里流传着一个有趣的玩法:用本地开源模型驱动Claude Code,实现完全离线、零API费用的AI编程助手。| 帖子
先说清楚一点:这套方案用的是Claude Code的工具链和交互框架,底层跑的是本地开源模型,并非Anthropic的Claude模型本身。但这恰恰是它的价值所在,你获得了一个能读写文件、执行终端命令、理解项目上下文的本地AI代理,数据完全不出本机。
整个搭建过程分四步:
第一步,安装Ollama作为本地模型引擎。Ollama负责托管AI模型并支持工具调用,安装后在后台静默运行。模型选择上,高配机器可以拉qwen3-coder:30b,普通配置用qwen2.5-coder:7b或gemma:2b也能跑。终端执行ollama run加模型名即可下载。
第二步,安装Claude Code本体。Mac和Linux用curl命令,Windows用irm命令,一行搞定。安装完用claude --version验证。如果之前登录过Anthropic账号,需要先登出。
第三步是关键,把Claude指向本地。默认情况下Claude会连Anthropic服务器,需要手动重定向。设置三个环境变量:ANTHROPIC_BASE_URL指向localhost:11434,ANTHROPIC_AUTH_TOKEN随便填个值比如ollama,再加上CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1关闭遥测。
第四步,进入任意项目目录,用claude --model加模型名启动,就能开始干活了。
评论区有些争议值得关注。有人质疑本地模型不支持工具调用,作者明确回应:支持。也有人反馈配置后无法创建文件,作者建议确保上下文长度超过32k,并尝试不同模型。还有人指出qwen3-coder:30b相比顶级闭源模型仍有差距,gemma:2b作为代理几乎不可用,而且要跑得流畅需要不错的硬件。
这套方案的真正意义在于提供了一种可能性:当你需要处理敏感代码、受限于网络环境、或者单纯想省钱时,本地AI代理是个可行选项。它不会取代云端大模型的能力上限,但在特定场景下足够实用。
至于什么时候能本地跑Opus 4.5?正如作者调侃的,得先问问Anthropic什么时候开源。
这背后的原理其实很直观。大语言模型本质上是因果语言模型,每个 token 只能“看到”它前面的内容。这意味着当你问“先给背景,再提问题”和“先提问题,再给背景”时,模型的理解深度是不同的。重复提示词相当于让每个 token 都有机会“看到”完整的上下文,弥补了单向注意力的先天缺陷。
研究团队在 Gemini、GPT、Claude、Deepseek 等七个主流模型上进行了测试,覆盖 ARC、GSM8K、MMLU-Pro 等多个基准。结果相当惊人:70 组测试中,提示词重复赢了 47 次,输了 0 次。
更妙的是,这个方法几乎没有代价。重复发生在可并行化的预填充阶段,生成的 token 数量和延迟都不会增加。输出格式也完全不变,可以直接无缝替换现有系统。
一个有趣的观察是:那些经过强化学习训练的推理模型,往往会自发学会在思考过程中重复用户的问题。提示词重复技术本质上是把这个“好习惯”前置到了输入阶段,用更高效的方式实现了类似效果。
研究还测试了几个变体。比如重复三次,在某些任务上效果更好。而单纯用句号填充到相同长度则毫无作用,证明提升确实来自语义重复本身。
当启用“逐步思考”等推理模式时,提示词重复的效果变得中性到略正面。这也符合预期,因为推理过程本身就包含了对问题的复述。
这项研究给我们的启示是:有时候最简单的方法反而最有效。在追求复杂提示工程技巧之前,不妨先试试这个零成本的小技巧。对于那些对延迟敏感、不适合开启推理模式的场景,提示词重复可能是一个值得尝试的默认策略。
论文还列出了十几个未来研究方向,包括只重复部分提示词、用小模型重排序、探索多轮对话场景等。这个看似简单的发现,或许能打开一扇理解 Transformer 注意力机制的新窗口。
Reddit上一个帖子引发了热议:为什么AI热潮中,大家都在做同样的事?
又一个聊天应用,又一个AI助手,又一个“智能工具”。仔细一看,要么早就存在,要么别人做得更好更成熟。很多功能明明一个插件就能搞定,却有人砸钱订阅、烧电费,只为造一个OpenWebUI的低配版。
评论区炸了,但观点出奇地冷静。
有人说这是学习的代价。就像织毛衣,市面上有的是成品,但自己动手的过程本身就是收获。99%的项目不会有人用,但那1%的人可能正在默默打磨下一个OpenWebUI。
有人看得更远:真正在做创新的人,根本不会在网上聊这些。他们怕被抄。
一位25年经验的系统工程师说了句扎心的话:那些你觉得在“偷懒”的年轻人,正在用你看不懂的方式快速迭代。这让他想起当年自己碾压老一辈的样子。
最有意思的是历史视角。BBS时代,人人写BBS;网页时代,人人做网站;文件共享、视频流媒体,每一波新技术都是这样。大量重复,少数突围,最后沉淀出真正有价值的东西。
有人提到dot com泡沫。1999年光搜索引擎就有几十上百个,泡沫破了,但Google活下来了。泡沫清除的是泡沫,不是技术本身。
还有一个更深的洞察:AI正在让“个人定制软件”成为可能。以前想要一个功能,要么忍受现有工具的不完美,要么花几周自己开发。现在几分钟就能让AI生成一个刚好满足需求的小工具。不完美,但刚好够用,而且完全按自己的想法来。
这或许才是真正的变革:不是谁做出下一个独角兽,而是每个人都能拥有为自己量身定制的工具。
当然,泡沫确实存在。那些把周末vibe coding的产物当成改变世界的天才发明的人,迟早会醒。但在喧嚣之下,真正的建设者正在安静地工作。
一位开发者的总结很到位:我不是在做产品,我是在交学费。只不过这次的学费,是付给Anthropic和OpenAI的。
Anthropic团队今天宣布将Claude Code中的Todos升级为Tasks。这个看似简单的改动,实际上标志着AI编程工具正在从“执行单一指令”向“管理复杂项目”演进。
随着模型能力的提升,如何让AI充分发挥潜力成为关键课题。Opus 4.5已经能够更长时间地自主运行,并更好地追踪自身状态。团队发现,对于简单任务,Claude其实已经不需要TodoWrite工具来提醒自己该做什么了。
真正的挑战在于更大的项目。当开发者开始用Claude Code处理跨越多个子代理、多个上下文窗口甚至多个会话的长期项目时,原有的Todos就显得力不从心了。项目天然具有复杂性,任务之间存在依赖和阻塞关系,需要在不同会话间进行协调。
Tasks的设计正是为了解决这些问题。它的核心特性包括:
任务可以相互依赖,依赖关系存储在元数据中,这更贴近真实项目的运作方式。
任务存储在文件系统中,多个子代理或会话可以协同工作。当一个会话更新任务状态时,所有正在处理同一任务列表的会话都会收到通知。
任务文件存放在 ~/.claude/tasks 目录下,开发者可以基于此构建自己的工具。
要让多个会话协作处理同一个任务列表,只需设置环境变量:
CLAUDE_CODE_TASK_LIST_ID=groceries claude
这个机制同样适用于 claude -p 命令和 AgentSDK。
值得一提的是,这个功能的诞生也受到了社区的启发,特别是Steve Yegge的Beads项目。社区的响应同样热烈,已经有开发者构建了任务看板可视化工具、文档集成方案等周边生态。
从更宏观的视角来看,Tasks代表了一种思维转变:AI编程助手正在从“工具”进化为“协作者”。当AI能够理解任务间的依赖关系、能够跨会话保持状态、能够与其他AI实例协同工作时,它就具备了参与真正软件工程的基础能力。
这让人想起一个有趣的问题:当AI能够自己管理任务、自己循环迭代时,人类开发者的角色会如何演变?也许答案是,我们会从“写代码的人”变成“定义问题和验收结果的人”。
我今年54岁,做了几十年物理研究,用数学探索宇宙、解决问题、构建系统。如果你的工作现在或将来会涉及数字,这份路线图或许能帮你真正学会数学。
学习分两个阶段。前25条是基础框架,之后是职业应用。
先从代数开始。学会干净利落地操作符号。这一关过不去,后面全是噪音。代数的核心是规则和结构,不是计算速度。慢下来,直到每一步都显而易见。
把方程理解为因果关系。别急着求解,先搞清楚什么影响什么。
接下来是几何。学习形状、距离、角度的行为规律。这能训练出公式给不了的直觉。同时用视觉和代数两种方式理解几何,把图形翻译成方程,再翻译回来。
尽早引入向量。向量统一了代数和几何,别拖延这一步。
三角函数的本质是角度和旋转,不是三角形。把正弦和余弦当作函数来学。通过单位圆理解三角函数,而非死记恒等式。能画出来,才算真懂。
预备微积分连接函数、三角和代数,它的任务是让微积分变得可预测。如果这部分感觉模糊,停下来解决它。微积分会惩罚薄弱的基础。
微积分从导数开始,导数就是变化率。先别管公式,把概念搞清楚。导数回答的问题是:如果我稍微改变这个,会发生什么?不断练习问这个问题。
用微积分建模行为,而非计算表达式。大多数真实问题止步于建模阶段。
积分是累积。面积只是一个例子。永远问自己:什么东西在被加起来?
微积分二难,因为技术性强。别死记技巧,学会判断每个工具何时适用。从概念上理解极限,它解释了微积分为何有效。
然后学逻辑和基础证明。这能磨砺推理能力,防止隐藏假设。证明训练的是严谨,不是优雅。逐行跟踪论证,直到没有任何东西感觉像魔法。
线性代数应该早学,不是晚学。它解释多变量系统的结构。把矩阵理解为变换,而非表格。这个思维转变至关重要。
特征值描述稳定性和长期行为。它们是思想,不是计算。
多元微积分反映现实。大多数系统依赖不止一个输入。偏导数分离影响因素,梯度指示方向。明确学习约束问题,无约束的数学很少是真实的。
只有完成这些,才去学概率和统计。当你理解了变化和结构,不确定性才有意义。
基础完成,进入应用:
工程:微积分加线性代数加约束条件,用于建模、优化和稳定性分析。
机器学习:线性代数加概率加优化,其他都是实现细节。
数据科学:统计加线性代数加基础微积分,重点在假设,不在工具。
金融:微积分加概率加线性系统,变化率和风险主导一切。
物理:微积分、线性代数、微分方程,几何和对称性比公式更重要。
经济学:多元微积分加优化,模型的生死取决于假设。
计算机图形学:线性代数加几何加三角函数,一切都是变换。
控制系统:线性代数加特征值加微积分,稳定性是核心问题。
研究:证明加建模加抽象,知道为什么比结果更重要。
最后一条现实:你不会每天用到所有数学,但薄弱的基础会立刻暴露。
数学学习最大的误区是追求速度和技巧。真正的数学能力来自对概念的深刻理解,来自不断追问“为什么”和“如果改变会怎样”。慢就是快,基础就是天花板。
Reddit上的LocalLLaMA社区最近上演了一出黑色幽默。
一位用户花500美元淘到了一张冷门的W6800 32GB显卡,测试后发现效果出奇地好,于是兴冲冲地写了篇详细评测分享给社区。结果第二天醒来,他盯上的所有W6800全部售罄,最便宜的价格直接翻倍突破1000美元。
他亲手把自己想买的第二张卡买贵了。
评论区有人搬出了加州淘金热的典故:当年发现金矿的人没有四处声张,而是先悄悄买光了周边所有的铲子、淘金盘和采矿设备,然后才告诉大家这里有金子。最终靠卖工具成为加州第一个百万富翁的,是商人Samuel Brannan,而不是挖金子的人。
这个故事放在今天的本地大模型圈子里,讽刺意味更浓。当显存成为跑大模型的硬通货,每一篇“这卡真香”的帖子都可能成为价格上涨的导火索。有人调侃:别推理了,改行倒卖显卡吧。
社区里关于性价比显卡的讨论也很有意思。MI50凭借32GB显存和1TB/s带宽,曾经160美元就能入手,堪称穷人福音。但软件生态是硬伤,基本只有llama.cpp和ComfyUI能用,想做微调或者跑专业推理引擎就抓瞎了。P40现在200美元以下,3090依然是主流推荐,而Strix Halo的128GB内存让一些人蠢蠢欲动——当然,前提是别再发帖推荐了。
还有人挖出了一个冷知识:AMD V620其实和W6800是同一张卡的服务器版本,eBay上只要450美元,只是没有显示输出。但对于纯跑推理的人来说,这根本不是问题。
这场闹剧背后折射出本地大模型社区的真实生态:大多数人的显存还不到16GB,真正拥有24GB以上推理设备的可能只有几百人,但每个人都在焦虑地寻找下一个性价比之王。价格一旦涨上去就很难降下来,而社区的每一次“安利”都在加速这个过程。
所以下次发现什么好东西,记得先买够再说。
一则“OpenAI拒绝苹果Siri交易”的消息在科技圈引发热议,但深挖原始信源后,故事远比标题复杂。
事情的真相是:苹果从去年夏天开始测试Anthropic、OpenAI和Google的模型,最终Gemini凭借性能基准、基础设施可靠性以及能在苹果私有服务器上安全运行的能力胜出。
OpenAI的说法是“有意识地决定不成为苹果的定制模型供应商”,转而专注于开发自己的AI硬件设备。但这种表态很难不让人联想到“分手后说是自己先提的”。
这笔交易的结构值得玩味:Google提供定制版Gemini模型,但推理全部在苹果私有云或本地设备上运行,不向Google回传数据,也不会有任何Google品牌露出。对苹果而言,这是用最小代价换取顶级AI能力的时间窗口;对Google而言,这是“躺赚”——模型授权费到手,推理成本归零。
有人指出,OpenAI真正的顾虑可能是利益冲突:他们正与苹果前设计总监Jony Ive合作开发一款耳后佩戴的AI设备,直接与苹果生态竞争。既然要做对手,自然不便做供应商。
但也有声音认为这是OpenAI的战略失误。想象一下,如果全球数亿iPhone用户每天与OpenAI模型对话,那将是怎样的品牌渗透?现在,这个机会拱手让给了Google——他们已经拿下Android,如今又吃下iOS,移动端AI入口被一家通吃。
更深层的问题是:当AI成为操作系统级基础设施,谁掌握模型,谁就掌握用户体验的底层逻辑。苹果选择外包这一层,是务实还是隐患?OpenAI选择单干,是远见还是傲慢?
答案或许要等到那支传说中的“AI笔”问世才能揭晓。
OpenAI正式宣布,将在未来几周内于ChatGPT免费版和Go订阅层级测试广告功能。这一消息在用户社区引发了激烈讨论。
官方给出了四项承诺:广告不会影响AI回答内容;广告与对话内容明确分离并标注;用户对话隐私不向广告商泄露;Plus、Pro、Business和Enterprise层级不会出现广告。
看起来很克制,但问题在于——Go层级是付费订阅,每月8美元,却依然要看广告。这让不少用户感到不满:付了钱还要被广告打扰,这算什么道理?
社区的反应大致分为三派。
务实派认为这完全可以理解。免费服务总得有人买单,数据中心不会自己付账。与其让广告悄悄渗透进AI的回答里,不如明明白白地展示在界面上。Gmail不也这么干了很多年吗?
警惕派则看到了更深层的隐忧。他们援引“enshittification”(平台劣化)这个概念:几乎所有互联网服务都走过同样的路——先用免费吸引用户,再逐步加入广告,最后连付费用户也难逃其扰。今天说Plus不会有广告,谁能保证明天不会?Netflix、Paramount+、Amazon Prime,哪个不是这样一步步走过来的?
更让人担忧的是广告对AI回答的潜在影响。当你询问“附近有什么好餐厅”,AI会不会优先推荐付了广告费的商家?当你描述身体症状寻求建议,会不会被引导去购买某款保健品?一旦商业利益介入,AI作为“中立信息助手”的可信度就会大打折扣。
还有一派用户选择直接用脚投票。Gemini、Claude、Grok,以及来自中国的Deepseek、Qwen、Kimi等模型,目前都没有广告。虽然有人指出,谷歌作为全球最大的广告公司,Gemini迟早也会走上这条路,但至少现在还有选择。
这件事真正值得思考的,是AI行业的商业模式困境。
OpenAI据说连200美元的Pro订阅都在亏钱。训练和运行大模型的成本是天文数字,而用户已经习惯了免费或低价使用。当风投的钱烧完,当“AGI即将到来”的故事讲不下去,广告几乎是唯一的出路。
有用户一针见血地说:一旦OpenAI开了这个头而没有遭到市场惩罚,其他公司必然跟进。这不是OpenAI一家的选择,而是整个行业的转向。
更深层的问题是:当AI成为我们获取信息、做出决策的重要工具,它的中立性就变得至关重要。搜索引擎的广告化已经让我们付出了代价——前几条结果往往是广告而非最佳答案。如果AI也走上同样的路,我们失去的可能不只是使用体验,而是对一种新型信息工具的信任。
有人说,本地运行开源模型才是最终出路。这话不无道理,但对普通用户来说门槛太高。
或许我们需要接受一个现实:在互联网世界,如果你不是客户,你就是产品。免费的AI从来都不是真正免费的,只是账单还没寄到而已。
xAI的Colossus 2正式投入运营,成为全球首个功率达到吉瓦级别的前沿AI数据中心。这个消息在技术社区引发了一场关于AI发展路径的深度讨论。
有人调侃说,通往AGI的道路看起来就像一场巨大的暴力破解攻击——“我们的基本策略连猴子都能理解:魔法盒子越大,魔法就越多。”这话虽然戏谑,却道出了当前AI竞赛的核心逻辑。
但事情并非如此简单。有内部观察者指出,xAI在过去六个月对Grok 4架构进行了大量优化,从Grok 4到4.1 thinking版本的进步有目共睹。这是一种双管齐下的策略:一边疯狂扩张算力,一边持续优化模型。正如有人所说:“如果有效,那就是有效。进化本身也是暴力破解。”
不过,质疑声同样存在。尽管xAI在建设数据中心方面展现了惊人速度,但在前沿AI领域的竞争力似乎并不突出。除了Grok Imagine,他们的模型从未真正出圈。在代理编码应用方面,甚至GLM可能比Grok更受欢迎。马斯克自己也承认,下一代Grok在编码能力上无法击败Opus 4.5。
这就引出了一个关键问题:更大的算力是否必然带来更好的性能?
从机器学习的扩展定律来看,计算资源的增加确实能带来性能的可预测提升。但正如有人指出,如果没有优秀的架构和训练方法,巨大的算力只会在饱和曲线上获得对数级别的边际收益。你必须设计它去做新的事情,它才能做出新的事情。
值得关注的是Grok 5的预期发布。据称这个模型将拥有约6万亿参数——参数就像大脑中的神经元,数量越多意味着模型能捕捉更微妙、更复杂的数据模式。预计它将在未来几个月内发布。
谷歌的策略则截然不同。他们不依赖超大规模集中式集群,而是采用众多分布式数据中心。统一集群在原始训练能力上确实有优势,但分布式系统可以通过更大的资源总量来弥补通信延迟的劣势。两种路径各有千秋。
这场算力军备竞赛的代价也不容忽视。有孟菲斯当地居民抱怨,未经授权的燃气涡轮机给周边居民健康带来了影响。技术进步与环境责任之间的张力,是这场竞赛中无法回避的议题。
很多人问我,学AI和机器学习到底需要掌握哪些数学?今天把我自己走过的路和用过的资源整理出来,希望能帮你少走弯路。
先说结论:三大支柱——统计概率、线性代数、微积分。但更重要的是理解它们为什么重要。
+ 一、统计与概率:与不确定性共处的智慧
现实世界的数据从来都是嘈杂、残缺、充满不确定性的。概率论和统计学赋予我们在混沌中找规律的能力。
从最基础的概念开始:总体与样本。我们永远无法观测到完整的世界,只能通过有限的样本去推断。理解抽样偏差和代表性,直接关系到模型能否泛化。
描述性统计是起点——均值、中位数、众数帮我们把握数据的“中心”在哪里;方差和协方差则告诉我们数据有多“散”、变量之间如何联动。这些看似简单的概念,却是理解损失函数和风险最小化的根基。
随机变量、概率分布、正态分布、二项分布——这些不是抽象的数学游戏,而是我们对数据生成机制的假设。为什么高斯分布无处不在?中心极限定理给出了答案:即使原始数据分布不正态,样本均值也会趋向正态。这个定理是统计推断的基石。
贝叶斯定理值得特别关注。它教会我们一件事:信念应该随证据更新。这不仅是概率公式,更是一种思维方式——在不确定中保持开放、用新信息修正旧认知。现代机器学习中对不确定性的量化,很大程度上植根于此。
最大似然估计则搭建了理论与实践的桥梁:交叉熵损失、均方误差损失,其实都是MLE的自然产物。
+ 二、线性代数:数据与模型的骨架
机器学习里几乎所有计算都是矩阵运算。数据是矩阵,权重是矩阵,梯度是矩阵,激活值还是矩阵。
标量、向量、矩阵、张量——这是从一维到高维的进阶。一张图片是三维张量,一批图片是四维张量。理解这些结构,才能读懂深度学习框架里的每一行代码。
矩阵乘法定义了神经网络的前向传播;转置用于对齐形状;行列式和逆矩阵虽然实践中很少直接计算,但理解它们对把握线性系统的可解性至关重要。
特征值和特征向量描述的是变换的“本质方向”——哪些方向在变换中保持不变,只是被拉伸或压缩。这直接关联到模型的稳定性和收敛性。
SVD和PCA可能是最实用的两个工具。SVD提供数值稳定性和低秩近似;PCA实现降维、去噪、特征提取。它们本质上都在做同一件事:在保留核心信息的前提下,尽可能简化问题。
+ 三、微积分:让机器学会学习
训练模型的本质是优化问题。微积分解释了模型如何学习、学习多快、能否收敛。
导数衡量变化率,梯度指向最陡峭的上升方向。梯度下降就是沿着负梯度方向走,一步步逼近最优解。
高维世界需要更强大的工具:雅可比矩阵处理向量函数的一阶导数,海森矩阵捕捉二阶曲率信息,链式法则则是反向传播的数学基础。
理解损失曲面的地形很关键。局部最小值可能让训练“卡住”,鞍点在高维空间中比想象的更常见,凸性虽然罕见但能保证找到全局最优。
+ 四、我的学习路径
第一步:建立直觉。推荐3Blue1Brown的《线性代数的本质》和《微积分的本质》,用可视化理解抽象概念。
第二步:系统学习。Coursera上帝国理工的《机器学习数学》课程,把线性代数和多变量微积分讲得非常实用。
第三步:夯实统计概率。可汗学院的课程讲解清晰,练习充足。
第四步:连接数学与机器学习。《统计学习导论》这本书完美展示了理论如何落地为真实的模型。
最后:融会贯通。《机器学习数学》这本书把所有概念串联起来,展示它们如何在具体算法中协同工作。
数学从来不是机器学习的门槛,而是打开深层理解的钥匙。与其畏惧,不如拥抱——这条路走通了,你看问题的视角会完全不同。