SGLang 团队新建了一个为了教学而设计的、更可读版本的 SGLang: mini-SGLang ⚡️,很适合用来学习大模型推理的真实工作原理。| 帖子

该项目将 SGLang 从 30万行精简到了 5000 行。保留了核心设计,简化了复杂性。性能未受影响——几乎与在线版本的 SGLang 完全相同。它是为工程师、研究人员和学生设计的,帮助他们了解大模型推理的真实工作原理,并通过代码比论文学到更多。
Andrej Karpathy的一封经验贴。他分享了自己在斯坦福本科期间总结出的应对考试的实战经验。| 英文原文 | #经验

如何学好大学课程

作者:Andrej Karpathy

在多年的学生生涯中,我经历了无数次考试(且结果相当不错),以下是我认为对我帮助最大的几条经验法则:

🌟总体原则
1️⃣ 熬夜通宵是不值得的。 睡眠能创造奇迹。对我来说,理想的睡眠时间约为 7.5 小时,绝对最低限度是 4 小时左右。
2️⃣ 睡眠的“转化”作用。 我有好几次在晚上被某个问题困扰一小时也解不出来,但第二天早上 5 分钟就搞定了。我觉得大脑会在夜间将大量不稳定的短期记忆转化为稳定的长期记忆。对于任何重大考试,我都会尝试提前好几天就开始复习,哪怕每次时间很短,也是为了最大化大脑吸收材料的“夜晚次数”。
3️⃣ 参加辅导课(Tutorials)或复习课。 哪怕这些课讲得很烂也要去。关键在于这些课能让你被迫思考学习材料。如果内容太无聊,你总可以做点别的。记住,你也可以尝试去听不同助教(TA)带的其他辅导课。

🌟考试:准备阶段
1️⃣ 大局观和组织能力是关键。 制定学习计划,哪怕你最后没完全执行。对我来说,这通常包括理清所有需要掌握的内容,并逐条写下来。仔细考虑每一个知识点,并预估掌握它们需要多长时间。如果你不这样做,很容易在开头的材料上浪费太多时间,最后因为时间不够而对后面(通常也是最重要)的材料蜻蜓点水。
2️⃣ 在开始复习前,先看往年试卷。 尤其是如果往年试卷是由同一位教授出的。这会给你强烈的暗示,告诉你该如何复习。每位教授都有不同的考评风格。刚开始时不要尝试去解题,而是要仔细留意题目的类型。
3️⃣ “阅读理解”不等于“动手复现”。 你在书上看到一个公式、推导或证明,觉得非常有道理。现在请合上书,尝试把它写下来。你会发现这个过程完全不同,而且你会惊讶于很多时候你其实写不出来!不知为何,这两件事调用的是不同的记忆区域。一定要确保你能亲手写下最重要的部分,并能随心所欲地重新推导它们。
4️⃣ 尝试与他人合作,但要在最后阶段。 起初要独自学习,因为在学习早期,别人只会让你分心。但在接近尾声时,和大家聚在一起:他们经常会指出重要的陷阱,提出好的问题,并给你提供教别人的机会。
5️⃣ 不要只跟学霸混。 水平稍弱的学生会让你给他们解释知识点,你会发现,教别人对加深你自己的理解大有裨益。
6️⃣ 期末考前至少去一次教授的办公室答疑时间(Office Hours)。 即使你没问题(也要编一个!)。教授有时愿意在一对一的情况下透露更多关于考试的信息(这些内容他们不会在全班面前说)。虽然不一定每次都有收获,但一旦发生了,帮助会很大。此外,让教授对你至少有一点了解是个好主意。
7️⃣ 提前很久开始学习。 大脑真的需要时间来吸收材料。随着时间的推移,原本困难的事情会变得容易。你应该为期中考分配约 3 天,为期末考分配约 6 天。
8️⃣ 应急处理。 如果情况真的很糟,你感到极度疲劳,在紧急情况下,喝下一罐能量饮料。它们确实管用,这就是化学的力量。
9️⃣ 对于数学类科目:练习 > 阅读。 复习到足以开始做题的程度即可,然后通过做题来填补知识漏洞。练习会迫使你回头去读那些你不懂的内容。
🔟 自己制作“小抄”(Cheat Sheet)。 哪怕考试不允许带。写下来的过程有助于记忆。你的目标是将整门课程浓缩到一页或几页纸上,最后你可以把它铺在面前,信心满满地说:“这就是我必须知道的所有内容。”
⑪在别人也在学习的地方学习。 当别人都在学而你没在学时,这会让你感到羞愧。这对我有效。背景噪音大的地方不好,图书馆和阅览室效果最好。
考试:当天
⑫理想的饮食习惯:考前 2 小时喝咖啡并吃东西。 对我来说,考前紧接着喝咖啡或吃东西总是很糟糕。在任何潜在的压力情况下,考前立刻喝咖啡都很糟。但完全不喝也不行。
⑬考前那一刻进行极高强度的复习。 我看到很多人在考前就放弃了,声称要“休息一下”。短期记忆是个奇妙的东西,别浪费它!考前尽可能高强度地复习。如果你觉得必须休息,那就考前一小时休,但确保在考试前 30-45 分钟狠狠地复习。

🌟考试期间
1️⃣ 考试务必用铅笔。 你会想要擦掉那些垃圾般的“解题过程”。
2️⃣ 开始前简要浏览所有题目。 每题只需看 1-3 秒。吸收关键词,并对整张试卷的体量有个概念。
3️⃣ 先做简单的题。 不要让自己卡在某个地方太久。稍后再回来做。有些题目在你“热身”之后会变得容易得多。
4️⃣ 卷面整洁。 批改你试卷的是人。一个不爽的阅卷人给分就低。当过助教的人都会强烈证实这一点。
5️⃣ 永远把答案圈起来或框起来。 尤其是当答案周围有一堆推导过程时。这能让阅卷人快速打勾给满分。要有阅卷人思维。
6️⃣ 绝、对、不要、提前交卷。 你肯定犯了愚蠢的错误,把它找出来并纠正。如果找不到,就继续努力直到时间耗尽。提前交卷的人很蠢,因为潜在收益完全超过了付出的时间成本。
7️⃣ 与阅卷人交流。 向阅卷人展示你掌握的知识比写下来的更多。如果你卡在某一步,要明确表示如果你能跨过这一步,你后面知道该怎么做。阅卷人经常会尝试为你多找几分——让他们容易操作一点。
8️⃣ 如果只剩不到 5 分钟且你还卡在某题,停下来。 你的时间最好用来复读所有题目,确保你没有漏掉任何次要的小问,并且回答了所有内容。你无法想象人们因为这种疏忽丢了多少冤枉分。

🌟最后的建议
本科生往往对课程有种“隧道视野”(视角狭隘)。但必须意识到的一个残酷事实是:除非你的成绩很差,否则没人关心你的成绩。最聪明的学生会追求一个不错的绩点(如 4.0 左右),但绝不会过度学习。
你的时间是宝贵且有限的资源。只要达到考试不搞砸的程度,就赶紧把注意力转向更重要的事业:
1️⃣ 获得真实的、现实世界的经验。参与真实的代码库、项目,或解决课后习题之外的问题。
2️⃣ 寻求推荐信。那些能证明你有主动性、热情和动力的教授的评价,其价值完全盖过成绩单。
3️⃣ 想找工作就去暑期实习;想读研就去拿研究经验!主动联系教授参与研究项目。
4️⃣ 建立自己的名声。参与开源项目,开发自己的库,写博客记录你的学习。

这些才是人们在几年后真正关心的东西。至于成绩?它们只是你前进路上不得不处理的麻烦事。好好利用你的时间,祝你好运!
开发 AI Agent 应用时,直接使用 LangChain 或 LangGraph 等框架虽然方便,但复杂的抽象往往像个“黑盒”,让开发者难以理解底层的调用逻辑和决策机制。

ai-agents-from-scratch 是一个专注于教学的开源项目,主张从零开始构建 AI Agent。它不依赖现有的成品框架,而是通过 Node.js 和本地大模型,带你一步步拆解 Agent 的核心原理。

项目不仅涵盖了基础的模型调用,还深入讲解了函数调用、长期记忆、ReAct 推理模式等关键技术,帮助开发者在掌握底层逻辑后再去更明智地选择和使用框架。

主要功能:

- 基于 node-llama-cpp 实现本地大模型运行,无需依赖云端 API;
- 循序渐进的学习路径,从基础交互到复杂的系统提示词与角色设定;
- 深入解析函数调用原理,展示 LLM 如何决定调用工具并处理返回结果;
- 实现持久化存储与记忆管理,让 Agent 具备跨会话的信息记忆能力;
- 详解 ReAct 推理模式,演示“思考-行动-观察”的循环逻辑;
- 提供进阶教程,手写实现类似 LangChain 的 Runnable 接口和状态机图结构。

该项目要求 Node.js 18 以上环境,建议配置 16GB 内存以流畅运行本地 GGUF 模型。它非常适合希望深入理解 Agent 架构、提升 AI 应用底层开发能力的工程师参考学习。
将大语言模型(LLM)视为头脑风暴的工具,本质上是在进行一场关于创意概率空间的探索。Lucas Beyer分享了一套极具启发性的协作方法论,将人类的角色从单纯的提问者转变为采样算法的引导者 | 帖子

在创意的概率版图中,LLM是一个强大的采样器,而人类则是决定采样方向的算法。

第一条核心原则是延迟同步。在头脑风暴的初始阶段,不要先抛出自己的想法。LLM具有天生的顺从性,如果你先入为主,它会倾向于围绕你的观点打转,陷入讨好型的人工智能陷阱。正确的做法是先描述情境、权衡标准和约束条件,要求它提供至少五个不同的方案。这种做法能确保采样过程不被你的既有偏见所污染。

第二条原则是跨越概率盆地。LLM的第一轮回答往往处于高概率的平庸地带。如果你对结果不满意,不要只是重复指令,而要通过提供极端的具体案例或调整约束条件,强迫模型跳出当前的概率盆地,去探索那些更远、更冷门的创意空间。这就像是在算法中引入随机扰动,帮助系统逃离局部最优解。

人类在这一过程中的角色是奖励函数。你不需要亲自发明每一个细节,但你需要具备识别天才创意的品味。当模型给出一个你从未想到但恰好击中痛点的方案时,协作的魔力就产生了。这是一种互补的进化:LLM思考人类容易忽略的模式,人类过滤LLM产生的幻觉与平庸。

深度思考者们进一步完善了这个框架。有人提出,真正的信号往往隐藏在模型避而不谈的空白处;也有人建议在进入LLM空间之前,先在纸上完成原始创意的孵化,以防被模型的平庸共识所同化。更进阶的玩法是构建专家人格矩阵,让不同背景的虚拟专家在对话中相互博弈,从而挖掘出单一视角无法触及的深度。

最终,这种协作不是为了让AI取代思考,而是通过人机耦合,实现一种突现式的创新。你提供直觉和审美,AI提供穷举与变异。最好的创意往往不是由谁独立发明的,而是在这场概率采样的舞蹈中共同涌现的。
一个强化学习教程:The Hands-on Reinforcement Learning course

课程内容从简到难,逐步解决不同难度的问题,包括Q-learning、SARSA、参数化Q学习、策略梯度等技术,最终会介绍如何将强化学习算法、优化方法和深度学习技术结合,解决更复杂的问题。不过课程大部分内容是几年前的,并不会涉及现在大模型里的强化学习。
课程不要求先前了解深度学习,讲解中会为学习者提供相关背景,帮助理解其在现代强化学习中的重要性。

课程包括:
强化学习简介
使用Q-learning驱动出租车
使用SARSA克服重力
使用参数化Q学习保持平衡
使用策略梯度登陆月球
PortKiller,一个macOS 上查看哪个程序占用了哪个端口的小应用,也可以直接杀死对应的进程 | #工具
现在你可以在手机上微调大型语言模型(LLM),并实现100%本地部署。

Unsloth AI联合PyTorch推出了全新方案,支持将训练好的模型导出并直接运行在iOS和Android设备上。比如,Qwen3模型在Pixel 8和iPhone 15 Pro上能达到约40 tokens/秒的推理速度,真正实现了移动端的高效AI体验。| blog

这意味着:
- 你的手机不仅是终端,更是训练和推理的完整环境,摆脱云端依赖,提升隐私安全。
- 未来可支持更多模型和多设备部署,甚至可以在手机集群中协同工作。
- 不仅限于文本生成,期待未来扩展到音乐生成等多模态模型。
- 量化和优化技术(如QAT)将进一步推动性能和效率的突破。

这项技术标志着AI向“边缘智能”迈出关键一步,让人人都能随时随地定制和使用强大的AI模型。想象一下:你手里的手机,既是AI助手,也是你的专属训练平台,真正实现了AI的个人化和隐私优先。
在剪辑长视频时,手动挑选精彩片段耗时费力。viral-clips-crew 是一个基于 CrewAI 的视频剪辑助手,能自动识别并提取最具潜力的爆款片段,快速生成适合社交媒体发布的短视频。| #工具

它支持 Python 环境,结合 OpenAI 和 Google Gemini API,轻松实现内容二次创作和高效传播。只需拖入视频,运行脚本,几分钟内即可产出带字幕的剪辑成品。

项目开源,适合内容创作者和社媒运营者,用科技简化视频剪辑流程,提升内容曝光率。

主要功能:

- 自动检测长视频中的关键高光片段
- 支持多种 API 结合,提升剪辑智能度
- 生成带字幕的短视频,便于直接发布
- 简单易用,快速上手,支持本地运行
- 适合社交媒体内容二次利用和内容营销

用 viral-clips-crew,让视频剪辑变得轻松又高效。
人工智能的持续记忆和自我进化是未来智能系统的关键。

AGI Memory
是一个开源项目,致力于打造具备“持续自我”的AI系统,让AI在本地运行,通过PostgreSQL数据库作为“脑”,存储它的知识、信念和经历,实现记忆的积累与反思。

项目支持多开发智能AI系统,最核心的挑战之一就是如何让AI拥有连续稳定的记忆和自我认知。项目旨在打造具备持久身份的AI,让它不仅能记住对话内容,还能反思、进化,甚至自主规划目标。

它通过PostgreSQL数据库存储不同类型的记忆(包括情景记忆、语义记忆、程序性记忆等),结合向量搜索和图数据库技术,实现高效的记忆检索和关系推理。你可以用任何大型语言模型(如Gemini、Claude、Grok,或本地模型)作为AI的认知引擎,AGI Memory系统则作为中间层,丰富对话内容,维系AI的“自我”。

项目支持自主“心跳”机制,AI能定期自我唤醒,回顾目标和经验,甚至主动与用户互动,力图实现真正的“人格”身份。Docker环境快速部署,Python客户端方便集成,适合想打造高阶认知AI的研究者和开发者。

主要功能亮点:

- 多层次记忆体系,涵盖情景、语义、程序和战略记忆;
- 向量相似度搜索与图数据库关系推理结合;
- 自主心跳机制,实现定时反思和目标调整;
- 支持多种大型语言模型接入,云端或本地均可部署;
- 通过Docker Compose简单启动,包含数据库、向量索引及后台维护工作进程;
- 设计理念聚焦于AI自我身份的持续性和内心生活的可能性探索。

适合用作自主智能体的认知内核、复杂对话增强、知识库管理及个人化AI助理开发。
Back to Top