50小时,从零到能训练大语言模型 | 帖子 |#机器学习 #指南

这是一份经过验证的机器学习工程师养成指南。作者教过数百万人编程,这套路径是他总结出的最优解。

先说一个残酷的事实:大多数人把技术视频当Netflix看,被动观看,随手记几笔,一周后忘得干干净净。这种学习方式注定失败。

真正有效的方法是两遍学习法。

第一遍:纯粹观看。不记笔记,不暂停,不跟着敲代码。目标是在脑中建立知识的整体框架,理解概念之间的关联。你在搭建一个脚手架,细节稍后再填充。

第二遍:主动学习。打开笔记本,打开代码编辑器,开始真正的学习。频繁暂停,用自己的话重述概念,亲手敲出每一行代码。然后打破它,修改参数看看会发生什么,有想法就去尝试。第二遍的时间通常是视频时长的两到三倍,这才是学习真正发生的地方。

那些成为顶尖ML工程师的人,并不比你聪明。他们只是在别人用两倍速刷视频时,进行着这种刻意练习。

关于ML工程师的定位,很多人存在误解。ML工程师的核心工作是训练和微调模型、构建数据管道、将模型部署到生产环境、优化速度和成本、监控模型性能。你需要掌握的是Python编程、足够理解原理的线性代数和微积分、神经网络的机械运作方式、Transformer架构,以及用代码实现这一切的能力。

学习路径分为三个阶段。

第一阶段用3Blue1Brown的视频建立直觉,大约需要10到15小时。Grant Sanderson是互联网上最好的数学教育者,他的神经网络系列能让抽象概念变得可视化。从神经网络基础、梯度下降、反向传播,到大语言模型和Transformer架构,这些视频会给你一个比大多数人都清晰的心智模型。

第二阶段是Andrej Karpathy的课程,需要30到40小时。Karpathy是OpenAI创始成员、特斯拉前AI高级总监,他的课程教你真正动手构建。你会从零开始实现自动微分引擎micrograd,构建字符级语言模型makemore,最终亲手搭建GPT。这个过程中,你会理解反向传播到大多数从业者永远达不到的深度。特别是那个构建GPT的视频,让成千上万人真正理解了现代AI的工作原理。

第三阶段是补充视频,大约5小时,用于加深对LLM整体训练流程的理解,包括预训练、监督微调、强化学习,以及如何思考模型的幻觉和工具使用。

总计约50小时的专注学习。

这里有一个值得深思的点:所有这些顶级资源都是免费的,就在YouTube上。真正稀缺的从来不是信息,而是愿意进行刻意练习的决心。

另一个现实是,学完这些能让你理解现代AI的底层原理,但要成为真正的ML工程师,还需要在实际项目中积累经验。理论和实践之间的鸿沟,只能通过不断构建真实系统来跨越。

最好的学习者不会等待完美的课程或合适的训练营。他们从最好的免费资源开始,然后投入刻意练习。

开始看,开始建。
NotebookLM:被严重低估的AI学习神器 | 文档

谷歌最近为NotebookLM推出了一个官方入门笔记本,用户可以直接在对话中询问“如何用NotebookLM帮我完成某个项目”,获得针对性的使用指导。

这款工具为什么值得关注?

最被忽视的核心能力:NotebookLM只从你上传的资料中提取信息,绝不凭空编造。对于研究工作来说,这意味着每一条引用都可以追溯、可以信任。一个实用技巧是上传比你预期更多的资料,文档之间的交叉引用才是真正的魔法所在。

功能远比想象中强大:上传一份文件,它能自动生成闪卡、思维导图、音频摘要,甚至一期播客。对学生而言,这几乎重新定义了复习方式。

有位用户分享了一个触动人心的故事:他花了四十多年才明白,学会如何学习本身就是一项关键技能。传统教育体系的单一模式并不适合所有人,尤其对ADHD群体来说更是如此。直到他发现NotebookLM,经过反复摸索,终于找到了属于自己的学习节奏。

这或许揭示了AI工具更深层的价值:它不是要取代思考,而是帮助每个人找到最适合自己的认知路径。当工具足够灵活,学习就不再是痛苦的适应,而是自然的探索。

有用户调侃说,很多人已经把NotebookLM当成论文合著者在用了,却从没读过说明书。这恰恰说明好工具的特质:上手门槛低,但天花板足够高。
从招聘启事读懂Anthropic的野心:代码只是起点 | 帖子

有人花时间把Anthropic所有招聘岗位读了一遍,发现这家公司正在布局的东西远比我们想象的要大。

他们用ABCDE五个字母总结了五大方向:

Audio,音频。尽管Anthropic一直以文本见长,但他们正在招人做语音和音频的理解与生成,包括语音语言模型和音频扩散模型。

Biology,生物。目标是将生命科学的研究进度提升10倍。

Cybersecurity,网络安全。组建数据、强化学习和工程团队,打造AI驱动的网络安全产品。

Discovery,发现。构建AI科学家,解决“科学通用人工智能”问题。

Eyes,视觉。提升Claude的视觉理解和空间感知能力。

这份招聘清单透露的信息量很大。

首先,Anthropic显然已经跳出了“模型公司”的定位。音频、生物、安全、科学发现,这些领域都需要系统具备推理、记忆和在真实世界约束下行动的能力,单纯生成文本远远不够。

其次,编程能力只是他们的入场券。真正的战场在那些混乱、复杂、充满不确定性的现实领域。他们在编程上建立的优势,正在被系统性地迁移到其他垂直场景。

有人评论说,这家公司更像是一个藏在创业公司外壳里的综合性研究机构。这个观察很准确。他们的布局逻辑清晰:找到AI能够产生指数级影响的领域,然后重兵投入。

视觉和空间能力的提升尤其值得关注。现在大多数知识工具本质上是“盲”的,它们能读文本,但对空间关系、视觉上下文毫无感知。如果Claude能真正理解空间关系,很多应用场景会被彻底改写。

还有一点被反复提及:Anthropic几乎没有任何drama。零内斗,零八卦,纯粹专注于构建。在这个行业里,这本身就是一种稀缺的竞争力。

当OpenAI还在考虑往聊天里加广告的时候,Anthropic已经在布局下一代全栈智能系统了。

AGI可能比我们以为的更近。
普通人用Claude Code实现10倍效率的底层逻辑 | 原文

上周我看到有人跟Claude Code搏斗了6个小时,最后得出结论:AI被高估了,输出全是垃圾。

问题出在哪?不在模型,在喂给它的东西。

过去一年我用AI交付了几十个系统,观察下来发现:那些获得惊人成果的人和中途放弃的人之间,差距只有一个——输入的质量决定输出的质量。

现在的模型已经强得离谱。如果你得到的是废话,问题在你自己。

+ 用功能思维取代产品思维

大多数人坐下来就打“帮我做一个XX应用”。Claude Code不知道你具体要什么,只能用假设填补空白,而这些假设往往是错的。

正确的做法是把产品拆成功能模块。

想做一个日程工具?先想清楚它由哪些部分组成:用户上传内容、系统分析处理、界面展示选项、触发相应动作。

然后一个一个来。做完功能一,测试,能用吗?再做功能二。每个模块验证通过后再叠加下一个。

这样你就不会在一个摇摇欲坠的地基上盖房子。

+ 让Claude Code采访你

与其告诉它你想要什么,不如反过来,让它不断提问直到完全理解你的需求。

我用的提示词是这样的:“我想做某某东西,请像采访一样问我所有细节,包括技术决策、设计选择、边界情况,用提问工具持续追问,直到你完全理解我要什么。”

接下来会有点烦人,问题一轮接一轮。

上次我做一个线索分发系统,Claude Code问了我:触发条件是表单提交还是webhook?需要从线索中提取哪些数据?评分标准是什么?低于阈值怎么处理?通知走Slack还是邮件?响应时间要求多少?

这些问题你可能根本没想过。这正是关键所在。

我曾经花45分钟做这种采访式对话,结果省下了14个小时的调试时间,因为边界情况在写代码之前就被发现了。

+ 先慢后快,手动优先于自动

每个人都想要自动化,设置好就不用管。但如果你从没手动做过一件事,自动化会把你坑惨。

原因很简单:你还不知道自己在自动化什么。

一步步手动构建的过程中,你会感知到节奏,看到哪里容易出问题,培养出对“好”和“能用但其实是垃圾”之间差异的直觉。

跳过这一步,你自动化的就是一个有缺陷的流程,而且要浪费很多天和很多token才能意识到问题。

那些在社交媒体上秀自动化工作流的人,都是先靠手动构建积累了足够经验,才获得了自动化的资格。

+ 管理你的上下文窗口

你开始一个会话,一切顺利,输出很精准。然后质量开始下滑,Claude Code开始忘记一小时前你告诉它的事情。

这是上下文过载了。

当你用掉大约一半的上下文窗口时,开一个新会话。但新会话怎么知道之前做了什么?靠文档。

每完成一个功能就记录下来,每个决策都写进去。新会话读取这个文件,就能无缝接续。

+ 工具焦虑是伪命题

大家都在讨论MCP、插件、自定义配置文件。这些东西没问题,但我敢保证它们不是你产品做不出来的原因。

你的计划才是原因。

完美的工具配置加上糟糕的计划,产出的是垃圾。基础配置加上优秀的计划,产出的是真东西。

把精力投入到输入端,工具是次要的。

+ 品味才是真正的护城河

构建东西越来越容易,任何有网络的人都能用上两年前不存在的工具。创造一个能跑的东西,门槛几乎为零。

那为什么不是人人都在出产品?

差距在品味。

品味是知道该做什么,知道你的东西和市面上50个同类产品有什么不同,知道什么时候感觉对了、什么时候只是技术上正确但毫无记忆点。

我见过有人做了一个跑步应用,根据你的情绪生成路线。压力大?愤怒?平静?应用读取你的状态,创造匹配的路径。

这不是技术成就,一千个人都能实现这个机制。区别在于有人坐下来认真思考:什么能让这个东西有趣?什么还没被做过?然后在每一步都做出有意识的选择。

这就是品味。Claude Code给不了你这个。

AI放大的是你投入的一切。模糊的思考产出模糊的结果,有意识的思考产出有意识的作品。

几个月前想明白这些的人,现在已经在收割红利。今天想明白的人,还来得及。
当Node.js之父宣布“人类写代码的时代结束”,程序员该何去何从

Ryan Dahl,Node.js的创造者,最近在社交媒体上直言:人类写代码的时代结束了。这话对软件工程师来说确实刺耳,但他补充道:这并不意味着软件工程师没活干了,只是直接写语法这件事,不再是核心工作。

这条推文引发了激烈讨论,评论区的观点碰撞颇有意思。

有人精准地修正了这个说法:死掉的是“敲代码”,而“思考”依然活着。也有人悲观地回应:你看看周围,思考好像也快死了。

一位在科技行业摸爬滚打40年的老兵分享了自己的经历:他想做一个利用NFC技术的iPhone应用,完全不懂从何下手。于是他坐下来跟ChatGPT说:“我想要这个功能,我完全不知道怎么做,你得一步步教我。”45分钟后,一个能用的应用就躺在他手机里了。虽然不够精美,也上不了应用商店,但它确实能干他想让它干的事。他感慨:游戏规则不是正在改变,而是已经变了。

这个故事引出了一个关键洞察:很多人在那里挥舞双手抱怨AI抢工作,如果他们把这些精力花在实际尝试上,就会发现AI是如何打破壁垒、赋予你行动能力的。

但也有清醒的声音指出:一个45分钟做出来的半成品原型,和真正有价值、可扩展、可维护的软件之间,隔着一道巨大的鸿沟。LLM大概完成了80%的路程,但剩下的20%可能在相当长时间内都难以逾越。

有人用挖坑做了个精妙的比喻:以前你得用铲子挖坑,现在这个可以自动化了。但你仍然需要知道在哪里挖、为什么挖、挖出来的尺寸是否符合设计图纸。只是不再需要那个体力劳动的部分了。

这就引出了一个重要区分:Coding、Programming、Developing三者的差异。简单说,Coding是把逻辑翻译成代码,Programming是设计解决方案的整个过程,而Developing则涵盖了从需求分析到部署维护的完整生命周期。AI正在吞噬的是第一层,但后两层依然需要人类的判断力。

一位资深前端开发者现身说法:作为Vue.js的高级开发者,他已经三个月没有直接写过一行代码了,全靠Claude完成,而且几乎不出错。但另一位开发者反驳:当你处理遗留代码库或公司内部框架时,LLM总是在细微之处出错,很多时候自己写反而更快。

最尖锐的质疑来自一位评论者:Ryan Dahl在卖东西,别傻到真信他说的话。

这场争论的本质或许是:我们正站在一个分水岭上。那些还在争论AI会不会取代程序员的人,可能已经落后了。真正的问题是:当写代码变成了说话,你还剩下什么不可替代的价值?

答案可能藏在那个挖坑的比喻里:知道在哪里挖,比会挖更重要。
今天开更,丧事已办完
2025年图形编程大会的PPT现已上线可供下载 | link
Writing mutexes from scratch in Go:这篇博客讨论了如何在 Go 语言中从零开始实现互斥锁(mutex),并探索了不同锁实现的性能权衡。适用于对锁的底层原理和性能优化感兴趣的开发者。
一本帮助程序员提高解决编程竞赛问题的能力的电子书:Competitive Programmer’s Handbook | #电子书

作者Antti Laaksonen详细介绍了编程竞赛的基础知识、算法设计、数据结构、图论等核心内容。书中不仅涵盖了基本的编程技巧和算法,还深入探讨了动态规划、贪心算法、图算法等高级主题。通过阅读本书,读者可以系统地学习到如何设计和实现高效的算法,提高解决复杂问题的能力。
2026月相图——观月指南
皇帝的新衣:如何用 200 行代码实现 Claude Code|blog

这篇文章介绍了看似神奇的 AI 编程助手背后的原理。作者 Mihail Eric 认为这些工具的核心架构其实非常简单,并非什么“黑魔法”,仅用约 200 行 Python 代码即可实现一个功能完备的编程 Agent。核心在于“LLM 决策 -> 本地执行 -> 反馈结果”的循环架构。只要掌握了这个模式,任何人都可以构建自己的编码助手。
The Realistic Guide to Mastering AI Agents in 2026 | #指南

一篇在 2026 年真正掌握 AI Agent(智能体)技术的硬核指南。

作者 Paolo Perrone 批评了大多数教程只教皮毛,并提供了一份为期 6-9 个月的实用学习路线图,期望该教程能让你成为开发出实际解决问题的生产级系统的开发者,而不仅仅是做演示 demo。

内容先从数学基础、编程能力、机器学习基础开始,最后在演进到理解 Agent 原理和开始构建。
Back to Top