《线性代数的黑暗艺术》(The Dark Art of Linear Algebra
| #电子书 | 以下提到的书籍均可在评论区下载

一本出版于2023年4月29日的线性代数书籍,书名看着有点唬人,但对初学者很友好,特别适合作为学习线代的第一本读物。整本书除去附录的参考答案,只有短短160页。

与微积分相比,线性代数仍是一门很年轻的学科,也是当今AI时代被广泛应用的数学分支。经过几百年的发展,微积分课本的编排方式逐渐趋向一致。随手翻开一本流行的教材,函数、极限、导数、积分等主题出现的顺序,乃至配套的那些陈年老题,往往都大同小异。线性代数的教学则不同,第一本面向本科生的教材 —— Paul Halmos的《有限维向量空间》直到1942年才问世。在课时较少的情况下,如何为非数学专业的初学者讲授线代的第一门课,教育界至今尚未达成共识。

仅看“行列式”(Determinant) 这一章,各种教材的讲述思路便截然不同。例如,考研常用的那本紫色封皮的线代把行列式安排到第一章。《Linear Algebra Done Right》 的作者Sheldon Axler则认为过早引入行列式会使读者陷入无关的算术细节,于是把行列式放在最后一章,并对具体计算的部分一笔带过。后来,布朗大学的教授Sergei Treil可能觉得Axler的处理方式太极端,针锋相对地写了一本《Linear Algebra Done Wrong》。Treil不仅花费很多篇幅阐述行列式的动机,从体积的计算出发逐步推导出行列式的性质,还引入了张量、谱理论等更高级的主题。虽然作者尽量避免形式化的代数推演,但数学成熟度不够的初学者仍可能觉得内容过于艰深。

近年来,最常被推荐的入门经典书籍包括Gilbert Strang的《Introduction to Linear Algebra》 和Sheldon Axler的 《Linear Algebra Done Right》 (中译本《线性代数应该这样学》)。这两本其实更适合在第二遍学习时使用。 前者是MIT公开课的配套用书,开篇从线性方程组引入矩阵与线性变换,是典型的工科风格线代教材。Strang教授在视频中通俗易懂的讲解广受好评,但教材本身的阅读体验并不像网上的打分那么完美。据不少读者反馈,书中部分结论的表述过度简略且不够严谨,一些概念的引入也稍显突兀,导致自学时产生过不小的困扰。与工科线代的矩阵视角不同,Axler的《LADR》更偏向纯数风格,从向量空间开始讲起,以线性算子理论为核心,给非数学系的读者提供了观点更高的泛函和抽代视角:线代不再是以往认知中的一堆公式和算法,它作为“空间语言”有着更美的结构和更深的内涵。当然,在第一次学线代的跨专业读者看来,这些通常数学专业才会研究的理论,可能有点抽象和晦涩,而且缺少实用价值。


以上两本教材代表着曾经最常见的两种线性代数教学方法。一种是从向量空间公理出发的抽象方法,数学上虽优雅,但对新手而言晦涩难懂。另一种方法从线性方程组引入矩阵运算,则沉闷乏味到令人麻木,正如这本《黑暗艺术》的作者所言:这简直是对艺术的犯罪 (a crime against art)。

后来,3Blue1Brown的《线性代数的本质》系列视频大火,自学线代的网友们观看后直呼“醍醐灌顶”,认为这种生动的呈现方式比传统课堂更具启发性。越来越多人意识到,市场上的教材普遍缺乏的,正是从几何直观的角度解释核心概念。尽管代数学的发展是不断抽象化和结构化的过程,并非每个概念都能找到对应的几何图像,但如果入门教学中能融入更多几何化的视角,将对培养学习兴趣、提升教学效果大有裨益。

《线性代数的黑暗艺术》采用与《线性代数的本质》相似的教学方法,从最基础的向量和网格变换开始讲起,利用大量的插图帮助读者建立直觉,并把众多概念之间的关联清晰地梳理了一番。3b1b的动画视频对于理解关键概念虽有帮助,但几乎没有涉及到计算方面。这本书正是3b1b系列视频的绝佳补充,它除了展示几何图景,还介绍了一些重要的计算方法 (例如第4章的高斯消元、第8章的最小二乘法),让读者自然地领会到那些冗长乏味的运算为什么是必要的,并通过适当的练习掌握最基本的计算能力。

由于出版时间较近,目前中文互联网上鲜有关于此书的推荐。受篇幅所限,此书的深度和广度均有明显不足,但作为一本first book,它无疑出色地完成了启蒙任务。无论读者的进阶方向是强调理解与证明的纯数学,还是侧重计算和应用的其他学科,都能通过这本书快速打下坚实的基础。
SGLang 团队新建了一个为了教学而设计的、更可读版本的 SGLang: mini-SGLang ⚡️,很适合用来学习大模型推理的真实工作原理。| 帖子

该项目将 SGLang 从 30万行精简到了 5000 行。保留了核心设计,简化了复杂性。性能未受影响——几乎与在线版本的 SGLang 完全相同。它是为工程师、研究人员和学生设计的,帮助他们了解大模型推理的真实工作原理,并通过代码比论文学到更多。
Andrej Karpathy的一封经验贴。他分享了自己在斯坦福本科期间总结出的应对考试的实战经验。| 英文原文 | #经验

如何学好大学课程

作者:Andrej Karpathy

在多年的学生生涯中,我经历了无数次考试(且结果相当不错),以下是我认为对我帮助最大的几条经验法则:

🌟总体原则
1️⃣ 熬夜通宵是不值得的。 睡眠能创造奇迹。对我来说,理想的睡眠时间约为 7.5 小时,绝对最低限度是 4 小时左右。
2️⃣ 睡眠的“转化”作用。 我有好几次在晚上被某个问题困扰一小时也解不出来,但第二天早上 5 分钟就搞定了。我觉得大脑会在夜间将大量不稳定的短期记忆转化为稳定的长期记忆。对于任何重大考试,我都会尝试提前好几天就开始复习,哪怕每次时间很短,也是为了最大化大脑吸收材料的“夜晚次数”。
3️⃣ 参加辅导课(Tutorials)或复习课。 哪怕这些课讲得很烂也要去。关键在于这些课能让你被迫思考学习材料。如果内容太无聊,你总可以做点别的。记住,你也可以尝试去听不同助教(TA)带的其他辅导课。

🌟考试:准备阶段
1️⃣ 大局观和组织能力是关键。 制定学习计划,哪怕你最后没完全执行。对我来说,这通常包括理清所有需要掌握的内容,并逐条写下来。仔细考虑每一个知识点,并预估掌握它们需要多长时间。如果你不这样做,很容易在开头的材料上浪费太多时间,最后因为时间不够而对后面(通常也是最重要)的材料蜻蜓点水。
2️⃣ 在开始复习前,先看往年试卷。 尤其是如果往年试卷是由同一位教授出的。这会给你强烈的暗示,告诉你该如何复习。每位教授都有不同的考评风格。刚开始时不要尝试去解题,而是要仔细留意题目的类型。
3️⃣ “阅读理解”不等于“动手复现”。 你在书上看到一个公式、推导或证明,觉得非常有道理。现在请合上书,尝试把它写下来。你会发现这个过程完全不同,而且你会惊讶于很多时候你其实写不出来!不知为何,这两件事调用的是不同的记忆区域。一定要确保你能亲手写下最重要的部分,并能随心所欲地重新推导它们。
4️⃣ 尝试与他人合作,但要在最后阶段。 起初要独自学习,因为在学习早期,别人只会让你分心。但在接近尾声时,和大家聚在一起:他们经常会指出重要的陷阱,提出好的问题,并给你提供教别人的机会。
5️⃣ 不要只跟学霸混。 水平稍弱的学生会让你给他们解释知识点,你会发现,教别人对加深你自己的理解大有裨益。
6️⃣ 期末考前至少去一次教授的办公室答疑时间(Office Hours)。 即使你没问题(也要编一个!)。教授有时愿意在一对一的情况下透露更多关于考试的信息(这些内容他们不会在全班面前说)。虽然不一定每次都有收获,但一旦发生了,帮助会很大。此外,让教授对你至少有一点了解是个好主意。
7️⃣ 提前很久开始学习。 大脑真的需要时间来吸收材料。随着时间的推移,原本困难的事情会变得容易。你应该为期中考分配约 3 天,为期末考分配约 6 天。
8️⃣ 应急处理。 如果情况真的很糟,你感到极度疲劳,在紧急情况下,喝下一罐能量饮料。它们确实管用,这就是化学的力量。
9️⃣ 对于数学类科目:练习 > 阅读。 复习到足以开始做题的程度即可,然后通过做题来填补知识漏洞。练习会迫使你回头去读那些你不懂的内容。
🔟 自己制作“小抄”(Cheat Sheet)。 哪怕考试不允许带。写下来的过程有助于记忆。你的目标是将整门课程浓缩到一页或几页纸上,最后你可以把它铺在面前,信心满满地说:“这就是我必须知道的所有内容。”
⑪在别人也在学习的地方学习。 当别人都在学而你没在学时,这会让你感到羞愧。这对我有效。背景噪音大的地方不好,图书馆和阅览室效果最好。
考试:当天
⑫理想的饮食习惯:考前 2 小时喝咖啡并吃东西。 对我来说,考前紧接着喝咖啡或吃东西总是很糟糕。在任何潜在的压力情况下,考前立刻喝咖啡都很糟。但完全不喝也不行。
⑬考前那一刻进行极高强度的复习。 我看到很多人在考前就放弃了,声称要“休息一下”。短期记忆是个奇妙的东西,别浪费它!考前尽可能高强度地复习。如果你觉得必须休息,那就考前一小时休,但确保在考试前 30-45 分钟狠狠地复习。

🌟考试期间
1️⃣ 考试务必用铅笔。 你会想要擦掉那些垃圾般的“解题过程”。
2️⃣ 开始前简要浏览所有题目。 每题只需看 1-3 秒。吸收关键词,并对整张试卷的体量有个概念。
3️⃣ 先做简单的题。 不要让自己卡在某个地方太久。稍后再回来做。有些题目在你“热身”之后会变得容易得多。
4️⃣ 卷面整洁。 批改你试卷的是人。一个不爽的阅卷人给分就低。当过助教的人都会强烈证实这一点。
5️⃣ 永远把答案圈起来或框起来。 尤其是当答案周围有一堆推导过程时。这能让阅卷人快速打勾给满分。要有阅卷人思维。
6️⃣ 绝、对、不要、提前交卷。 你肯定犯了愚蠢的错误,把它找出来并纠正。如果找不到,就继续努力直到时间耗尽。提前交卷的人很蠢,因为潜在收益完全超过了付出的时间成本。
7️⃣ 与阅卷人交流。 向阅卷人展示你掌握的知识比写下来的更多。如果你卡在某一步,要明确表示如果你能跨过这一步,你后面知道该怎么做。阅卷人经常会尝试为你多找几分——让他们容易操作一点。
8️⃣ 如果只剩不到 5 分钟且你还卡在某题,停下来。 你的时间最好用来复读所有题目,确保你没有漏掉任何次要的小问,并且回答了所有内容。你无法想象人们因为这种疏忽丢了多少冤枉分。

🌟最后的建议
本科生往往对课程有种“隧道视野”(视角狭隘)。但必须意识到的一个残酷事实是:除非你的成绩很差,否则没人关心你的成绩。最聪明的学生会追求一个不错的绩点(如 4.0 左右),但绝不会过度学习。
你的时间是宝贵且有限的资源。只要达到考试不搞砸的程度,就赶紧把注意力转向更重要的事业:
1️⃣ 获得真实的、现实世界的经验。参与真实的代码库、项目,或解决课后习题之外的问题。
2️⃣ 寻求推荐信。那些能证明你有主动性、热情和动力的教授的评价,其价值完全盖过成绩单。
3️⃣ 想找工作就去暑期实习;想读研就去拿研究经验!主动联系教授参与研究项目。
4️⃣ 建立自己的名声。参与开源项目,开发自己的库,写博客记录你的学习。

这些才是人们在几年后真正关心的东西。至于成绩?它们只是你前进路上不得不处理的麻烦事。好好利用你的时间,祝你好运!
开发 AI Agent 应用时,直接使用 LangChain 或 LangGraph 等框架虽然方便,但复杂的抽象往往像个“黑盒”,让开发者难以理解底层的调用逻辑和决策机制。

ai-agents-from-scratch 是一个专注于教学的开源项目,主张从零开始构建 AI Agent。它不依赖现有的成品框架,而是通过 Node.js 和本地大模型,带你一步步拆解 Agent 的核心原理。

项目不仅涵盖了基础的模型调用,还深入讲解了函数调用、长期记忆、ReAct 推理模式等关键技术,帮助开发者在掌握底层逻辑后再去更明智地选择和使用框架。

主要功能:

- 基于 node-llama-cpp 实现本地大模型运行,无需依赖云端 API;
- 循序渐进的学习路径,从基础交互到复杂的系统提示词与角色设定;
- 深入解析函数调用原理,展示 LLM 如何决定调用工具并处理返回结果;
- 实现持久化存储与记忆管理,让 Agent 具备跨会话的信息记忆能力;
- 详解 ReAct 推理模式,演示“思考-行动-观察”的循环逻辑;
- 提供进阶教程,手写实现类似 LangChain 的 Runnable 接口和状态机图结构。

该项目要求 Node.js 18 以上环境,建议配置 16GB 内存以流畅运行本地 GGUF 模型。它非常适合希望深入理解 Agent 架构、提升 AI 应用底层开发能力的工程师参考学习。
将大语言模型(LLM)视为头脑风暴的工具,本质上是在进行一场关于创意概率空间的探索。Lucas Beyer分享了一套极具启发性的协作方法论,将人类的角色从单纯的提问者转变为采样算法的引导者 | 帖子

在创意的概率版图中,LLM是一个强大的采样器,而人类则是决定采样方向的算法。

第一条核心原则是延迟同步。在头脑风暴的初始阶段,不要先抛出自己的想法。LLM具有天生的顺从性,如果你先入为主,它会倾向于围绕你的观点打转,陷入讨好型的人工智能陷阱。正确的做法是先描述情境、权衡标准和约束条件,要求它提供至少五个不同的方案。这种做法能确保采样过程不被你的既有偏见所污染。

第二条原则是跨越概率盆地。LLM的第一轮回答往往处于高概率的平庸地带。如果你对结果不满意,不要只是重复指令,而要通过提供极端的具体案例或调整约束条件,强迫模型跳出当前的概率盆地,去探索那些更远、更冷门的创意空间。这就像是在算法中引入随机扰动,帮助系统逃离局部最优解。

人类在这一过程中的角色是奖励函数。你不需要亲自发明每一个细节,但你需要具备识别天才创意的品味。当模型给出一个你从未想到但恰好击中痛点的方案时,协作的魔力就产生了。这是一种互补的进化:LLM思考人类容易忽略的模式,人类过滤LLM产生的幻觉与平庸。

深度思考者们进一步完善了这个框架。有人提出,真正的信号往往隐藏在模型避而不谈的空白处;也有人建议在进入LLM空间之前,先在纸上完成原始创意的孵化,以防被模型的平庸共识所同化。更进阶的玩法是构建专家人格矩阵,让不同背景的虚拟专家在对话中相互博弈,从而挖掘出单一视角无法触及的深度。

最终,这种协作不是为了让AI取代思考,而是通过人机耦合,实现一种突现式的创新。你提供直觉和审美,AI提供穷举与变异。最好的创意往往不是由谁独立发明的,而是在这场概率采样的舞蹈中共同涌现的。
一个强化学习教程:The Hands-on Reinforcement Learning course

课程内容从简到难,逐步解决不同难度的问题,包括Q-learning、SARSA、参数化Q学习、策略梯度等技术,最终会介绍如何将强化学习算法、优化方法和深度学习技术结合,解决更复杂的问题。不过课程大部分内容是几年前的,并不会涉及现在大模型里的强化学习。
课程不要求先前了解深度学习,讲解中会为学习者提供相关背景,帮助理解其在现代强化学习中的重要性。

课程包括:
强化学习简介
使用Q-learning驱动出租车
使用SARSA克服重力
使用参数化Q学习保持平衡
使用策略梯度登陆月球
PortKiller,一个macOS 上查看哪个程序占用了哪个端口的小应用,也可以直接杀死对应的进程 | #工具
现在你可以在手机上微调大型语言模型(LLM),并实现100%本地部署。

Unsloth AI联合PyTorch推出了全新方案,支持将训练好的模型导出并直接运行在iOS和Android设备上。比如,Qwen3模型在Pixel 8和iPhone 15 Pro上能达到约40 tokens/秒的推理速度,真正实现了移动端的高效AI体验。| blog

这意味着:
- 你的手机不仅是终端,更是训练和推理的完整环境,摆脱云端依赖,提升隐私安全。
- 未来可支持更多模型和多设备部署,甚至可以在手机集群中协同工作。
- 不仅限于文本生成,期待未来扩展到音乐生成等多模态模型。
- 量化和优化技术(如QAT)将进一步推动性能和效率的突破。

这项技术标志着AI向“边缘智能”迈出关键一步,让人人都能随时随地定制和使用强大的AI模型。想象一下:你手里的手机,既是AI助手,也是你的专属训练平台,真正实现了AI的个人化和隐私优先。
在剪辑长视频时,手动挑选精彩片段耗时费力。viral-clips-crew 是一个基于 CrewAI 的视频剪辑助手,能自动识别并提取最具潜力的爆款片段,快速生成适合社交媒体发布的短视频。| #工具

它支持 Python 环境,结合 OpenAI 和 Google Gemini API,轻松实现内容二次创作和高效传播。只需拖入视频,运行脚本,几分钟内即可产出带字幕的剪辑成品。

项目开源,适合内容创作者和社媒运营者,用科技简化视频剪辑流程,提升内容曝光率。

主要功能:

- 自动检测长视频中的关键高光片段
- 支持多种 API 结合,提升剪辑智能度
- 生成带字幕的短视频,便于直接发布
- 简单易用,快速上手,支持本地运行
- 适合社交媒体内容二次利用和内容营销

用 viral-clips-crew,让视频剪辑变得轻松又高效。
Back to Top