Skip to main content

黑洞资源笔记

  1. 不仅仅是更好的搜索引擎:你从未真正挖掘出的 Claude 12 种高阶用法 | 推文

    大多数人把 Claude 当作一个语法更通顺的搜索引擎:提问、阅读、关闭标签。如果你也是这样,你正坐在金矿上捡碎石。

    Claude 的真正价值不在于给出答案,而在于重塑你的思考方式。以下是 12 个能彻底改变你产出质量的深度用法,按影响力从低到高排列:

    一、 破除思维盲区:从验证到挑战

    1. 极限施压(Steelmaning): 别让它夸你。告诉它:“我决定做 X,请针对这个决策进行‘最强反驳’。”让它找出你计划中那个注定会失败的致命漏洞。在现实撞墙前,先在对话框里撞墙。
    2. 深度访谈: 别直接下指令。要求它:“在我写完之前,不断向我提问,直到你完全理解我想表达的核心逻辑。”generic 的输入只会得到平庸的输出,这个步骤能逼你把模糊的直觉具象化。
    3. 模拟特定读者:“请以一位看过 400 个项目的挑剔投资人的视角阅读这段话,告诉我你在哪里失去了兴趣。”好内容不分绝对的好坏,只看是否精准击中了目标受众的偏见与痛点。
    4. 永久化个人声韵: 在 Project 中喂入 10 篇你的原创文章。让它学习你的节奏、用词习惯和呼吸感。你的声音就是你的品牌,别让 AI 的翻译腔毁了它。

    二、 决策与效能:从执行到思考

    5. 构建决策框架: 面对复杂的真实选择,给它变量,让它建立带权重的矩阵。聪明人不仅用它写作,更用它辅助思考。
    6. 信息脱水: 面对 200 页的报告,别试图通读。要求它提供 500 字的简报,列出 5 个最具操作性的发现和 3 个本周必须执行的动作。信号胜过噪音。
    7. 红队测试(Red-teaming): 把你的市场策略交给它,扮演一个冷酷的竞争对手:“这个方案在第 9 个月会怎么崩盘?”这种不适感,正是你避开真实失败的护身符。
    8. 零代码数据洞察: 直接上传 CSV。不要等分析师,直接问它:“为什么 3 月收入下滑了?找出那个解释数据的关键维度。”

    三、 进化为不同维度的工具

    9. 维护“动态简报”: 在 Project 中建立一个持续更新的文件。每轮对话结束时,让它总结已达成的共识和待解决的悬念。别让灵感在关闭网页时断线。
    10. 难堪对话演习: 扮演你最怕面对的那个人(比如要宣布裁员时的员工或业绩未达标时的董事)。在现实中自信的前提,是在模拟中被“摧毁”过。
    11. 多维语境重写: 一份底稿,30 秒内转化为:给技术专家的实现方案、给高管的风险评估、给团队的 3 点 Slack 消息。这是工作流的降维打击。
    12. 授人以渔(系统构建): 这是最高阶的用法。不要问它要答案,要它为你建立一套“产生答案的系统”。比如一套评估市场机会的永久核查清单。

    你打开 Claude 是为了思考得更深、行动得更快,结果你却只用它来润色语法。工具从未改变,改变的是你提问的高度。
  2. 重塑数学思维:10 本书帮你告别对数学的恐惧 | 推文

    很多人对数学的畏惧,并非源于天赋不足,而是因为最初接触它的方式过于生硬。数学思维并非少数人的专利,而是一项可以后天习得的技能。当你换一种视角,数字将不再是冰冷的符号,而是理解世界的语言。

    这里有10本深度好书,它们将带你重塑逻辑,从零建立真正的数学能力。

    1. 《学习之道》(A Mind for Numbers) - Barbara Oakley
    如果你曾认为自己“没有数学细胞”,请先读这一本。作者曾是数学差生,后成为工程学教授。她利用神经科学揭示了“专注模式”与“发散模式”的切换策略。数学学习不在于死记硬背,而在于学会如何在大脑中构建知识块,并克服“理解的幻觉”。

    2. 《魔鬼数学》(How Not to Be Wrong) - Jordan Ellenberg
    数学不是课本上的习题,而是常识的延伸。作者通过彩票、投票制度和军事策略等案例,证明了数学推理如何保护我们免受错误逻辑的欺骗。它培养的是一种直觉:在信息碎片中识别出底层的数学结构。

    3. 《怎样解题》(How to Solve It) - George Polya
    自1945年出版以来,它一直是数学思维领域的圣经。波利亚提出了解决任何未知问题的四步法。这本书的核心在于“启发式方法”,教你如何在毫无头绪时提出正确的问题。学会提问,比学会计算更重要。

    4. 《烂插画数学》(Math with Bad Drawings) - Ben Orlin
    对于视觉学习者来说,公式往往是枯燥的。作者用幽默的笔触和简笔画,将统计、概率和几何转化为一个个生动的故事。它揭示了一个深刻的道理:数学的本质是关于“为什么”,而不是“怎么做”。

    5. 《解题的艺术》(The Art of Problem Solving) - Richard Rusczyk
    这套书超越了学校的标准课程,旨在培养真正的创造性思维。它不鼓励套用公式,而是引导你从底层逻辑开始构建解决方案。如果你想跳出“机械化刷题”的陷阱,像数学家一样思考,这是必经之路。

    6. 《基础数学》(Basic Mathematics) - Serge Lang
    由20世纪伟大的数学家编写,强调逻辑的严谨性而非机械记忆。它适合想要从头开始、系统性重建数学基础的成年人。虽然过程具有挑战性,但它能带给你大多数课程无法提供的深度理解。

    7. 《数学是什么》(What Is Mathematics?) - Richard Courant & Herbert Robbins
    这是一本探讨数学灵魂的著作。它将数论、几何和拓扑学展现为一个充满生命力的思想景观,而非规则的堆砌。它会彻底改变你对这门学科的认知:数学是对宇宙秩序的终极探索。

    8. 《无限力量》(Infinite Powers) - Steven Strogatz
    微积分常被视为数学学习的终点,但本书将其化为起点。作者用优美的语言拆解了微积分背后的直觉,展示了它是如何成为描述行星运动、医学影像和现代科技的通用语言。理解微积分,就是理解变化。

    9. 《烧掉数学书》(Burn Math Class) - Jason Wilkes
    这是一本具有“反叛精神”的作品。作者鼓励读者去“发明”数学,而不是被动接受权威给出的规则。它剥离了数学的神秘感,将其还原为一种人类可以根据自身逻辑不断重构的工具。

    10. 《X的奇幻旅程》(The Joy of X) - Steven Strogatz
    如果《无限力量》是深度探索,那么这本书就是一场轻快的巡礼。每个章节都以机智的方式讲解一个核心概念,从代数为什么用x到勾股定理的真谛。它旨在帮你找回被传统教育磨灭的、对数学之美的纯粹好奇心。

    精进数学能力,本质上是寻找一种与世界沟通的新方式。天赋决定上限,但正确的路径决定了你能走多远。无论你选择从哪一本书开始,目标都是一致的:构建一种更清晰、更深邃的思维模型。
  3. 别用角色扮演做 AI Agent:工程上的信息损耗才是致命问题 | 推文

    这种模拟公司部门的多 Agent 设计,本质上是在制造工程上的信息损耗。真正的生产级系统不靠角色扮演,而靠显式的外部状态和并行搜索空间。

    很多人试图把 AI Agent 做成一家公司,给它分 PM、架构师和测试。这种模式在工程上是死路。

    人类需要分工是因为注意力带宽有限。LLM 的瓶颈在于推理深度。给模型贴上角色标签会制造假边界,让它拒绝越界。一个被框死在测试岗位的 Agent 可能会无视架构层面的逻辑漏洞,因为它觉得那不属于它的职责范围。

    更糟糕的是信息流转中的损耗。Agent 之间的交接传递的是结论,丢失了推理过程。这种单向的任务接力会让输出在长程任务中发生漂移。每个节点看起来都正确,整体却偏离了目标。

    看 Anthropic 的做法。他们不谈角色扮演,谈的是 Context Engineering。核心在于建立显式的外部状态,比如 `progress.txt`。写的人和读的人是同一个灵魂,只是在不同的 session 里。信息不是被压缩传递的,而是被连续积累的。

    多 Agent 的价值在于并行覆盖更大的搜索空间,而非单纯的分工协作。这更像是在进行广度优先搜索,而不是接力赛。架构不应该模仿人类组织,它应该更像一个思考者的多次草稿。
  4. AI 原生开发:不是加工具,而是重建整个工程循环 | 推文

    真正的 AI 原生开发不只是在现有流程中增加工具,它要求彻底拆除并重建整个工程循环。当构建速度缩短至小时级,工程师的价值正从编写逻辑转向设计约束。

    想象一下,上周二上午十点上线功能,中午完成 A/B 测试,下午三点发现数据不行直接下线。这种节奏在三个月前需要六个星期。

    大部分人还在用 Cursor 这种工具,试图通过 AI 提效 20%。这只是给旧马车加了根鞭子。真正的 AI 原生工程更像是把整个运输体系从马车换成了自动驾驶轨道。工程师的任务已由写代码演变为搭建一套能让 Agent 可见、可验证、可执行的“约束系统”。

    如果 Agent 两小时就能写完功能,但产品经理还在用周为单位做调研,那规划流程就成了新的瓶颈。测试团队还在手动测试,这只会让下游堆积更多的技术债。必须要把整个流水线拉到 Agent 的速度。

    这种转型会产生一种奇特的断层:资深工程师可能最难适应,因为他们需要亲手拆掉积累十年的习惯;初级工程师反而能迅速上手,因为没有旧逻辑的包袱。

    未来的团队里,极少数人是架构师,负责定义什么是“好”的代码和系统边界;剩下的人则是操作员,在 AI 分配的任务中进行风险审查。

    这种变革带来的副作用也很明显:CTO 的管理职责会缩水,但设计系统的压力会成倍增加。你可能会发现,比起对齐人的预期,去对抗 Agent 产生的逻辑漏洞要累得多。
  5. 文档越多检索越不准?高维向量空间的语义坍缩真相 | 帖子

    随着文档量增加,高维向量空间的语义边界会变得模糊,导致检索精度大幅下降。解决办法在于从单纯的“搜索”转向基于图结构的“推理”。

    把成千上万的文档一股脑塞进 RAG,就像试图在一个溢出的堆内存里寻找一个特定变量。随着文档量突破 10,000 这个临界点,语义空间开始变得拥挤。原本清晰的特征簇在极高维度的压缩下逐渐重叠,每个向量看起来都和别的向量“挺像”。

    斯坦福的研究揭示了这种现象:当规模达到 5 万份文档时,检索精度会暴跌 87%。这其实就是维度灾难。在高维空间里,数据点趋向于分布在边缘,彼此之间的距离变得几乎相等。此时的语义搜索,找出来的不再是那个最精准的答案,而是一堆看起来都“相关”的噪声。

    有观点认为,这种现象源于工程实现的局限。目前的做法太过于依赖扁平化的向量检索。真正的知识不是散落在空间里的孤立点,而是一张带有层级、时效和权威性的图。如果只做余弦相似度计算,就无法处理法律条文被废止或辖区变更这种逻辑关联。

    解决路径正从“增加数据量”转向“优化检索结构”。通过 GraphRAG 引入关系约束,或者利用局部上下文窗口来规避全局坍缩。知识的价值在于连接,而非单纯的堆砌。
  6. 一个专门帮计算机科研工作者找论文的skill | github | #论文

    开发者Brian Chao是这么说的:
    “分享一个我为机器学习文献调研创建的非常简单的 Claude 技能。我使用现有技能或机器学习论文搜索引擎的经验是,它们并不能真正捕捉研究者在进行文献搜索时的思维方式。文献搜索不仅仅是查找关键词,还需要创造性思维,从不同领域寻找类比,并提前两到三步进行思考。

    我与 Claude 对这个技能进行了几轮迭代优化,目前对其命中率相当满意。我调研的主题包括高效视频分词、混合分辨率扩散/分词等,它给出了相当准确的结果,并找到了那些未曾注意到的论文。

    希望这对你有帮助!”
  7. 别让 AI,废掉你的编程内功 | blog

    快速阅读:LLM 降低了开发门槛,却也带来了技能萎缩的风险。当编写代码变成一种低成本的指令任务,唯有通过刻意练习保持底层深度的人,才能在大量“批量化垃圾”中建立差异化优势。

    代码生产正在进入大规模流水线时代。这种转变由三种力量驱动:社交媒体对交付速度的狂热、模型性能持续进化的确定性,以及人类天生的惰性。既然可以通过指令直接获取可运行的结果,谁还会愿意去忍受那种由于思考底层逻辑带来的痛苦?

    这种趋势正在重塑工程师的生态位。当技能门槛降低,原本属于“键盘巫师”的领地正被大量具备业务逻辑的人群挤占。如果仅仅满足于做一个 Prompt Monkey,竞争对手将不再是其他开发者,而是产品经理、设计师甚至前任管理者。

    有观点认为,这其实是建立技术护城河的绝佳时机。就像工业革命初期的铁匠,当拖拉机取代了耕犁,懂得处理复杂机械结构的人反而更具价值。未来的竞争力在于成为“T型”人才:在软件工程之外,叠加物理、材料或算法等深层领域的专业知识。代码正逐渐退化为一种应用工具,真正的难点在于解决领域内的本质问题。

    当 AI 生成的代码充斥着看似正确却逻辑隐晦的缺陷时,谁能一眼看出其中的架构风险?技术底层的深度,决定了你在面对 Agentic Engineering 时,是驾驶者,还是被其驱动的零件。
  8. 使用 AI 编码工具时,每次都要重新喂整个代码库上下文,Token 烧得飞起,Claude 还容易幻觉,分析大项目超级麻烦。

    code-review-graph 把代码库变成知识图谱,只读真正相关的文件,平均减少 8.2× Token,用量最高 49×!

    不仅支持 Tree-sitter 解析 19 种语言 + Jupyter,还自动追踪变更“爆炸半径”、增量更新 <2s,甚至生成交互式架构图和 Wiki。

    主要功能:

    - 本地知识图谱,自动映射函数调用、继承、依赖关系;
    - 爆炸半径分析,只读变更影响的文件,精准上下文;
    - 增量更新钩子,文件改动或 git commit 自动重建 <2s;
    - 支持 19 语言(Python/JS/Go/Rust/Java 等)+ 笔记本解析;
    - 语义搜索、社区聚类、风险评分变更分析;
    - MCP 工具集成 Claude Code/Cursor 等,5 大工作流模板。

    支持多平台,pip install 后一键 code-review-graph install 配置,monorepo 利器,零云端零泄露。
  9. 软件工程师转 AI 工程师:不是转行,是基于工程底蕴的进化 | Google Drive

    从软件工程师(SWE)转型为 AI 工程师,不是一次推倒重来的“转行”,而是一次基于工程底蕴的“进化”。

    Lamhot Siagian 在其最新的 2026 职业转型指南中明确指出:AI 时代的下半场,市场不再需要只会调用 API 的 demo 制造者,而是在寻找能将不确定性的 AI 转化为确定性产品的工程专家。

    以下是这份指南的核心洞察与深度行动建议:

    1. 范式转移:从确定性到概率性

    传统软件工程的核心是“确定性”:给定输入 A,通过逻辑 B,必然得到输出 C。但 AI 系统是概率性的,输出具有随机性和上下文敏感性。

    软件工程师的真正优势不在于重新学习微积分,而在于将成熟的工程直觉引入这个混沌领域。你过去处理边缘情况、设计监控指标、优化系统可靠性的经验,正是 AI 进入生产环境最稀缺的资源。

    2. 核心能力栈:五层演进模型

    转型并非漫无目的的学习,而应遵循清晰的层级:

    - 基础层:精进 Python 深度,理解异步处理与服务化思维。
    - 原理层:不一定要能手推公式,但必须理解模型如何学习、如何评估以及在哪里会失效。
    - 生成式 AI 层:掌握 Embedding、向量数据库与 RAG(检索增强生成)的架构设计。
    - 工程系统层:这是 SWE 的主场。关注编排(Orchestration)、数据库集成与云端部署。
    - 应用层:通过构建 Agent(智能体)系统和决策引擎,将技术转化为商业价值。

    3. 避开“教程陷阱”,构建差异化作品集

    不要再在简历里写“泰坦尼克号生存预测”或简单的聊天机器人 demo 了。

    2026 年的雇主希望看到的是:
    - 能够处理 5 亿级文档嵌入的 RAG 系统。
    - 带有自我修复能力的智能体工作流。
    - 包含完整评估框架(Evaluation Harness)的项目,证明你能客观衡量 AI 的好坏。

    4. 简历策略:翻译你的工程资产

    不要把自己定位成“AI 新手”,而要定位成“具备 AI 能力的高级工程师”。

    - 将“调试经验”翻译为“模型评估与指标设计能力”。
    - 将“CI/CD 经验”翻译为“持续评估与 AI 质量保证能力”。
    - 将“系统设计”翻译为“端到端 AI 工作流编排”。

    5. 深度思考:工程化是 AI 的最后公里

    现在的 AI 行业正从“模型中心”转向“系统中心”。模型本身正在商品化,真正的护城河在于如何围绕模型构建一个鲁棒的系统。

    启示:
    - AI 工程师的价值,不在于模型跑通的那一刻,而在于模型出错时,你有一套系统能接住它。
    - 别被数学公式吓倒,AI 的本质是数据流的重新编排。
    - 优秀的 AI 工程师,是那个能在概率的荒野上,筑起确定性围墙的人。

    如果你正在寻找一份实操性极强的 24 周学习计划,这份指南提供了从数学基础到 MLOps 监控的全路径覆盖。
  10. 技术文档和报告经常需要画各种架构图、流程图,手绘费时费力,用Mermaid或draw.io又得学语法或反复调整。

    fireworks-tech-graph 用自然语言描述系统,就能秒生成出版级SVG+PNG技术图,支持8种图表类型、7种视觉风格,对AI/Agent领域有深度理解。

    用中文或英文说“画一个Mem0记忆架构图,暗黑风格”,它自动分类、生成泳道、语义箭头,输出1920px高清PNG,完美嵌入文档。

    主要功能:

    - 7种视觉风格,从Flat Icon到Claude官方、OpenAI风格;
    - 8大图表类型 + 14种UML图,支持架构图、流程图、序列图、ER图等;
    - AI/Agent领域专精,内置RAG、Multi-Agent、Mem0、Tool Call等模式;
    - 语义形状词汇,LLM用双边框矩形、Agent用六边形、Vector Store用环形圆柱;
    - 语义箭头系统,颜色+虚线编码读写、异步、循环等含义;
    - 支持40+产品图标(OpenAI、Claude、Pinecone、PostgreSQL等),自动泳道分组;
    - SVG编辑 + 1920px PNG导出,无损高清无压缩伪影。

    支持 npx skills add 安装,macOS/Linux均可,适合架构师、开发者、AI工程师使用。
  11. AI 调试新思路:别硬堆算力,先建立单点真理来源 | 帖子

    通过引入外部文档记录假设与证据,可以有效防止 AI 在长上下文压缩中丢失推理链。这种方法能将耗费数亿 Token 的无效尝试,转化为分钟级的根因定位。

    有时候,解决问题的关键不在于增加计算量,而在于建立一个“外部存储层”。

    最近有个很有意思的案例:有人为了调试一个竞态条件(Race Condition),消耗了数亿 Token 却颗粒无收。直到引入了一个简单的指令——要求 AI 把所有假设和证据写进 `DEBUG.md`。结果 AI 列出五个假设,发现第三个没有任何反对证据,随后仅通过三次实验就锁定了根因。

    这本质上是在为 Agent 的推理过程做“持久化”。

    现在的长上下文模型看似能记住一切,但实际上存在严重的上下文压缩问题。当对话轮次过多,中间的逻辑链条会像被挤压的内存一样发生信息丢失。把证据写在文件里,就是给 AI 提供了一个不可篡改的、具备强一致性的“单点真理来源”。

    有网友提到,这种做法其实是在手动实现原本应该由自动化测试框架(Harness)完成的工作。好的系统应该能自动判断哪些中间推理需要持久化,而不是靠人去写规则提醒它。

    这里总结了四条极具实操性的调试准则:

    首先,改代码前必须先列假设。不要直接进入指令流水线,先在逻辑层完成预判。

    其次,每次实验的改动量要极小。虽然有人觉得“最多改 5 行”太死板,但追求“外科手术式”的微创改动,能让因果关系变得极其清晰。

    第三,强制要求将证据写入文件。这是防止推理链断裂的唯一手段。

    最后,如果同一个方向失败两次,必须强制切换假设。

    有观点认为,AI 给出的往往不是答案,而是一面镜子。它照出的是我们假设中的盲点。当我们在面对复杂 Bug 时,习惯性地想通过增加 Token 投入来“硬刚”,这其实是一种低效的暴力破解。

    真正的智能不在于无止境的计算,而在于能够像人类一样,在证据和假设之间建立起逻辑的边界。

    如果实验的路径已经走到了死胡同,是不是该考虑给 Agent 换一个全新的搜索分支了?
  12. 开发AI智能体经常需要搭建复杂环境,管理本地工作树、保持电脑常开、处理超时中断,还要手动协调文件操作、Shell命令和Git流程,开发效率低下且易出错。

    Open Agents 把智能体开发所需的一切整合到云端,提供了完整的后台编码代理平台。

    支持聊天驱动的编码代理、持久化沙箱VM、隔离文件系统和Git集成,还能自动提交PR、多模型路由、语音输入,甚至支持无限期运行的耐久工作流。