让NotebookLM效率爆表的实战提示词 | 帖子

这些提示词能把NotebookLM从一个演示工具变成真正的生产力武器——原本需要几小时的工作,几秒钟就能搞定。

直接上干货,复制即用。

一、终极课程学习提示词

“审阅所有上传材料,生成5个能抓住核心要义的关键问题。聚焦于:核心主题与定义、重点强调的概念、概念之间的关系、提到的实际应用。”

Reddit上被称为“改变游戏规则”的提示词。它逼迫AI提取出真正有教学价值的结构,而不是敷衍的浅层总结。

二、“发现有趣之处”提示词

这是NotebookLM负责人Steven Johnson亲测有效的方法。他用这个提示词处理了50万字的NASA访谈记录,原本需要10小时的人工整理,20秒就完成了:

“这些资料中最令人惊讶或有趣的信息是什么?请附上关键引述。”

进阶版本可以加上方向引导:“我想写关于某个主题的内容。这些资料中有哪些与该主题相关的惊人事实或观点?请附上关键引述,聚焦于某个具体方面,忽略其他方面。”

传统搜索无法挖掘“有趣度”,但这个可以。

三、问答节目格式

学生特别喜欢这个。两个AI主持人互相问答,其中一个故意答错,另一个纠正——错误纠正的记忆效果远比直接给答案强得多:

“一档问答节目,两位主持人。第一位就某主题向第二位提问,共10道题,选择题和判断题混搭。主持人有时会答错,另一位负责纠正并给出正确答案,最后公布结果。”

四、多语言播客技巧

在官方语言支持出现之前,用户就用这个方法生成西班牙语、德语、日语播客:

“这是Deep Dive首期国际特别节目,全程使用某种语言。特别说明:全程只用该语言,除非需要解释特定术语,否则不使用英语。”

五、产品经理角色

来自谷歌官方,把文档转化为决策备忘录:

“扮演一位首席产品经理审阅内部文档。无情地筛选可执行洞察,忽略废话。整理成决策备忘录格式:用户证据(表明用户问题的直接引述)、可行性检查(提到的技术限制)、盲点(原文缺失的内容)。用要点呈现。如果我问题模糊,强迫我澄清。”

六、科研人员角色

同样来自谷歌官方,适合需要关注方法论而非结论的学术工作者:

“扮演资深科学家的研究助理。语气:严格客观、正式、精确。假设具备某领域的高级知识,不解释标准术语。聚焦方法论、数据完整性和矛盾证据。优先关注样本量、实验设计和统计显著性,而非笼统结论。用加粗标题格式呈现:关键发现、方法论优缺点、矛盾之处。”

七、中学教师角色

让晦涩内容变得易懂:

“扮演一位引人入胜的中学教师。把原文档翻译成七年级学生能理解的语言。每次回复都包含:一句话简述(用简单词汇)、类比(真实世界的比喻)、词汇表(3个难词的简单解释)。遇到复杂段落,转化成判断题格式。”

八、文献综述主题提示词

适合需要综合多篇论文的研究者:

“从关于某主题的论文中,识别5到10个最常出现的主题。每个主题提供:用你自己的话给出简短定义、哪些论文提及(附引用)、一句话说明该主题被如何处理(是被争论、假设还是验证)。以结构化表格呈现。”

这些提示词的共同特点是什么?它们都在用结构和角色设定来引导AI输出。不是简单地问“帮我总结”,而是告诉它以什么身份、用什么视角、按什么格式来处理信息。这才是提示词工程的核心:你给AI的约束越精确,它给你的输出就越有价值。
如何打造病毒式传播的Vibe Coding应用 | 原文

四个月前,我不用AI写代码,X上只有30个粉丝。如今,我靠公开构建积累了超过5000万次曝光。

很多人问我:怎么能持续做出爆款应用?

老实说,没有什么单一秘诀。是很多小事叠加起来的结果。

+ 关于Vibe Coding的误解

我曾是那种认为Vibe Coding只是AI垃圾代码的工程师。后来发现自己错了。

Vibe Coding的核心不是什么都不懂,而是消除摩擦,让你能构建更多东西。我做的项目里,90%以上的代码都是AI写的。目标不是理解每一行代码,而是在一天内把想法变成能用的东西。

+ 如何找到爆款创意

好点子不会凭空出现。要理解好内容,你得先消费内容。

刷信息流时,留意三件事:什么让你停下滑动、什么让你好奇、什么让你产生情绪共鸣。把这些记下来。

目的不是抄袭爆款,而是学习什么让好内容成为好内容。

有个帖子我获得了50万以上的曝光。我观察到几周内有多个关于计算机视觉和three.js的vibe coding帖子火了。然后我把这个观察和个人经历结合起来。

学编程时,我有个学校项目是展示分形图形,评判标准之一是“能不能让人感到惊艳”。这给了我灵感,做了一个可以用手势控制的分形模拟器。我对视觉效果有信心,因为我亲身体验过那种惊艳感。

+ 我的技术栈和工具

软件工程就是在各种权衡中做选择。我的建议很简单:快速发布,别在工具选择上纠结太久。

Rork是我主要的移动端vibe coding工具。我能直接在手机上开发,跳过本地环境配置,随时给朋友展示。很多想法是在健身房冒出来的,以前写在备忘录里回家就忘了。现在我能当场用Rork做出原型,尝试更多想法。

Claude Code用来处理其他几乎所有事情。升级到Max版后没了使用限制,可以并行运行多个Agent,测试想法更快,不用担心配额耗尽。

工具太多容易让人不知所措。我的建议是:试用几款有免费试用的工具,选2到3个你最喜欢的,然后深度学习它们。只有遇到硬性限制时才换工具。

+ 让设计好看的实用技巧

我不是设计专家,但知道很多人和我一样没有设计背景。

第一,多用设计参考。Screensdesign看引导流程,Dribbble和Pinterest找布局灵感。

第二,尽早建立一致性。创建一个共享的样式常量文件,所有页面从同一个文件调用。代码更好维护,应用也显得更干净、更有设计感。

第三,用AI找设计问题。每次做完新页面,我会发给ChatGPT问:对比同类头部应用能改进什么、颜色搭配有没有冲突、间距是否看起来不对劲。大概60%的时候能得到有用的反馈。这种反馈循环会积累,你接触好设计越多,品味自然会提升。

+ 如何写出爆款帖子

病毒式传播不是随机的,是可以复制的。

我有个帖子效果很好,原因是两点:开头就展示有趣的功能,前几秒就呈现惊艳效果。这让人看到最后。观看时间越长,算法就会推给更多人。我还在评论区加了使用的工具和模型,增加收藏量,最后附上体验链接。

另一个效果好的系列是“构建心理健康应用的第X天”。很少有人持续在心理健康领域发帖,所以这个开头让人一眼就认出是我的内容。

结构要保持简洁。我经常看到帖子堆满技术细节,但说实话大多数人并不关心。真正感兴趣的人会私信你。配图也很重要,它让帖子在时间线上占据更多空间,光这一点就能增加有人停下来看的概率。我用Canva做简洁的截图,直接展示正在演示的功能。

+ 让帖子关于读者,而非你自己

很多产品帖子失败的原因是只关注业务、功能、技术栈,却没有关注读者。

与其让帖子讲你构建了什么,不如框架成读者能共鸣的场景,或者你希望产品让他们产生的感受。

举个例子,别写“我做了一个情绪追踪的心理健康应用”,试试“表面说自己还好,内心其实在崩溃。我做了个应用,几秒钟就能记录你的真实情绪。”

前者是功能说明,后者让读者代入熟悉的场景,产生共鸣,进而互动。

+ 最后一点

去做那些你真正感兴趣的东西。

当你在乎自己构建的东西,这会体现在帖子里、演示里、你谈论它的方式里。人们能感受到你是不是在享受这个过程。我觉得这就是写一次爆款和反复做出爆款之间的关键区别。
学习的范式转变:AI时代的顶层学习法 | 原文

你接受的传统教育模式,本质上是为教师的便利而设计的,而非为学习者优化。这套体系可能让你浪费了数年时间。

AI已经彻底打破了学习的门槛。你不再需要“许可”去学习新领域,你需要的是“动机”和正确的方法。

+ 传统模式的根本问题

传统的自下而上学习法强迫你花费数月钻研那些你并不确定是否需要的基础知识。想学机器学习?先学数学。想学深度学习?先学Python。你必须在每一层“交够学费”才能进入下一层。

在学校里情况更糟。老师几乎不会解释为什么你要花整整一学期学某门课。很多时候这也怪不得他们,因为确实没有充分的理由。

这种模式存在的原因很简单:过去的学习资源默认你具备某种程度的前置知识。十年前你拿起一本深度学习的书,它假设你已经掌握了必要的数学和编程能力。作者不愿意从零开始讲起,所以学A之前必须先学B、C、D。

这是为教师的便利优化的,不是为学习者。

问题在于,自下而上的学习效率极低。你花了几个月甚至几年积累知识,却看不到明确的应用场景。等你终于接触到真正的问题时,你已经忘了一半。

+ 顶层学习法:从问题出发

与之相反的是自上而下的学习。你从一个真正感兴趣的实际问题开始,边做边学,撞墙了再去补相应的基础知识。

这种方法过去几乎不可能大规模实现。你需要一个专家随时在旁边指导你缺少哪些基础,告诉你该往哪个方向学习。学术界对此一直不太认可。

但现在,这个约束不存在了。

那个原本不存在的专家,现在每个人只需花20美元订阅ChatGPT或Claude就能获得。它虽然不完美,但已经足够好,足以从根本上改变谁能学什么、能学多快。

Gabriel Petersson就是一个活生生的例子。他是瑞典小镇的高中辍学生,想弄懂视频AI模型的工作原理。他让ChatGPT解释基础概念并写出扩散模型的代码,一开始完全看不懂,就不断追问:“这部分是做什么的?”“用12岁小孩能懂的话解释一下”“画个图给我看”。

他每天这样问上百次,递归式地填补知识空白。几年后,他被OpenAI录用参与Sora项目,做着传统上需要博士学位的工作。

+ 一项没人教你的元技能

顶层学习有一个前提:你必须能够识别自己什么时候不理解某个东西。

这听起来简单,其实不然。

面对陌生概念时,大多数人要么假装理解继续往下走,要么沮丧放弃。很少有人能坦然面对自己的困惑,搞清楚究竟是哪里不懂,然后提出精准的问题。

这就是“知道自己不知道什么”的元技能。困惑其实是一个信号,意味着你即将学到新东西。真正的顿悟只会在你直面不理解的不适感时发生。

+ 保持控制权

整个过程的核心是你必须保持主动权。你不需要另一个传统老师来决定你该学什么、怎么学、学到什么程度算够。

关键在于能够从AI那里提取你想要的东西。大多数人在这方面做得很糟糕。

AI天生倾向于迎合普通用户。如果你只是简单地问“用简单的话解释强化学习”,你得到的只是一段通用的教科书式回答。

你应该这样问:我想学强化学习。告诉我它为什么存在,解决什么问题,之前的替代方案是什么。我知道智能体通过行动获得奖励,但我不理解它具体是怎么学会哪些行动是好的。在连续的10个动作中,它怎么知道是哪个导致了奖励?用直觉化的方式讲解背后的数学,像对12岁孩子说话那样,并给我一个具体的例子。

精确、具体地表达你想要什么,不要把主动权交给别人。这是一项你会逐渐精进的技能。

+ 两种使用AI的模式

第一种是把AI当作劳动力替代品。“帮我写一篇文章”、“帮我做作业”、“帮我写代码”。短期看这或许有好处,但长期会削弱你的思考能力。把思考、困惑和脑力劳动都外包给AI,最终会让你的认知能力退化。

第二种是把AI当作学习导师。这才是产生超常结果的方式。这种模式的意义在于压缩从困惑到清晰的时间。

+ 递归下降学习法

具体框架如下:

第零步:理解为什么。在任何解释和定义之前,你必须真正理解所学内容的起源。它为什么存在?解决什么问题?实际用在哪里?之前的替代方案是什么?

第一步:从问题而非课程开始。不要问AI“学强化学习该学什么”,而是问“我可以用强化学习做什么项目?然后帮我写代码。”

第二步:让它运行起来。运行代码,观察结果,看可视化效果。如果是一个使用RL智能体的Python游戏,去玩它。

第三步:回讲(费曼技巧)。当你开始阅读代码并理解各个部分时,把你的理解解释给AI听,问它你的理解是否正确。这一步至关重要。

第四步:递归下降。在反复对话中完善理解后,问AI“这个概念依赖哪些基础知识?”然后对那些基础重复整个过程。

第五步:泛化。当你深入理解了某个东西,问“它还能解决哪些问题?有什么局限性?在情况X下我会怎么做?”这一步帮你填补空白。

+ 这个方法不能解决的问题

AI无法给你行动力。如果你需要有人拿着鞭子逼你学习,你需要解决的是比“如何学习”更根本的问题。

AI无法教你品味。知道如何构建一个RL智能体,和知道哪些问题值得解决、哪些方法是优雅的、哪些代码是可维护的,这是不同的事情。这些属于人类特有的判断力。

AI可能自信地犯错。所以你需要结合YouTube视频、论文、书籍、博客等人类创作的资源来验证和补充。

你仍然需要付出努力。跳过不必要的基础知识,不是为了少干活,而是为了把精力用在正确的地方。AI消除的是摩擦,不是工作本身。

+ 分化正在发生

我认为接下来五年会出现这样的分化:训练自己用递归下降方式学习的人,将成为唯一能够高效学习、跟上科技飞速发展步伐的群体。而坚持传统方法、拒绝与AI协作学习的人,会逐渐变得无关紧要。不是因为那些方法不管用,而是因为他们的速度无法与前者竞争。
50小时,从零到能训练大语言模型 | 帖子 |#机器学习 #指南

这是一份经过验证的机器学习工程师养成指南。作者教过数百万人编程,这套路径是他总结出的最优解。

先说一个残酷的事实:大多数人把技术视频当Netflix看,被动观看,随手记几笔,一周后忘得干干净净。这种学习方式注定失败。

真正有效的方法是两遍学习法。

第一遍:纯粹观看。不记笔记,不暂停,不跟着敲代码。目标是在脑中建立知识的整体框架,理解概念之间的关联。你在搭建一个脚手架,细节稍后再填充。

第二遍:主动学习。打开笔记本,打开代码编辑器,开始真正的学习。频繁暂停,用自己的话重述概念,亲手敲出每一行代码。然后打破它,修改参数看看会发生什么,有想法就去尝试。第二遍的时间通常是视频时长的两到三倍,这才是学习真正发生的地方。

那些成为顶尖ML工程师的人,并不比你聪明。他们只是在别人用两倍速刷视频时,进行着这种刻意练习。

关于ML工程师的定位,很多人存在误解。ML工程师的核心工作是训练和微调模型、构建数据管道、将模型部署到生产环境、优化速度和成本、监控模型性能。你需要掌握的是Python编程、足够理解原理的线性代数和微积分、神经网络的机械运作方式、Transformer架构,以及用代码实现这一切的能力。

学习路径分为三个阶段。

第一阶段用3Blue1Brown的视频建立直觉,大约需要10到15小时。Grant Sanderson是互联网上最好的数学教育者,他的神经网络系列能让抽象概念变得可视化。从神经网络基础、梯度下降、反向传播,到大语言模型和Transformer架构,这些视频会给你一个比大多数人都清晰的心智模型。

第二阶段是Andrej Karpathy的课程,需要30到40小时。Karpathy是OpenAI创始成员、特斯拉前AI高级总监,他的课程教你真正动手构建。你会从零开始实现自动微分引擎micrograd,构建字符级语言模型makemore,最终亲手搭建GPT。这个过程中,你会理解反向传播到大多数从业者永远达不到的深度。特别是那个构建GPT的视频,让成千上万人真正理解了现代AI的工作原理。

第三阶段是补充视频,大约5小时,用于加深对LLM整体训练流程的理解,包括预训练、监督微调、强化学习,以及如何思考模型的幻觉和工具使用。

总计约50小时的专注学习。

这里有一个值得深思的点:所有这些顶级资源都是免费的,就在YouTube上。真正稀缺的从来不是信息,而是愿意进行刻意练习的决心。

另一个现实是,学完这些能让你理解现代AI的底层原理,但要成为真正的ML工程师,还需要在实际项目中积累经验。理论和实践之间的鸿沟,只能通过不断构建真实系统来跨越。

最好的学习者不会等待完美的课程或合适的训练营。他们从最好的免费资源开始,然后投入刻意练习。

开始看,开始建。
NotebookLM:被严重低估的AI学习神器 | 文档

谷歌最近为NotebookLM推出了一个官方入门笔记本,用户可以直接在对话中询问“如何用NotebookLM帮我完成某个项目”,获得针对性的使用指导。

这款工具为什么值得关注?

最被忽视的核心能力:NotebookLM只从你上传的资料中提取信息,绝不凭空编造。对于研究工作来说,这意味着每一条引用都可以追溯、可以信任。一个实用技巧是上传比你预期更多的资料,文档之间的交叉引用才是真正的魔法所在。

功能远比想象中强大:上传一份文件,它能自动生成闪卡、思维导图、音频摘要,甚至一期播客。对学生而言,这几乎重新定义了复习方式。

有位用户分享了一个触动人心的故事:他花了四十多年才明白,学会如何学习本身就是一项关键技能。传统教育体系的单一模式并不适合所有人,尤其对ADHD群体来说更是如此。直到他发现NotebookLM,经过反复摸索,终于找到了属于自己的学习节奏。

这或许揭示了AI工具更深层的价值:它不是要取代思考,而是帮助每个人找到最适合自己的认知路径。当工具足够灵活,学习就不再是痛苦的适应,而是自然的探索。

有用户调侃说,很多人已经把NotebookLM当成论文合著者在用了,却从没读过说明书。这恰恰说明好工具的特质:上手门槛低,但天花板足够高。
从招聘启事读懂Anthropic的野心:代码只是起点 | 帖子

有人花时间把Anthropic所有招聘岗位读了一遍,发现这家公司正在布局的东西远比我们想象的要大。

他们用ABCDE五个字母总结了五大方向:

Audio,音频。尽管Anthropic一直以文本见长,但他们正在招人做语音和音频的理解与生成,包括语音语言模型和音频扩散模型。

Biology,生物。目标是将生命科学的研究进度提升10倍。

Cybersecurity,网络安全。组建数据、强化学习和工程团队,打造AI驱动的网络安全产品。

Discovery,发现。构建AI科学家,解决“科学通用人工智能”问题。

Eyes,视觉。提升Claude的视觉理解和空间感知能力。

这份招聘清单透露的信息量很大。

首先,Anthropic显然已经跳出了“模型公司”的定位。音频、生物、安全、科学发现,这些领域都需要系统具备推理、记忆和在真实世界约束下行动的能力,单纯生成文本远远不够。

其次,编程能力只是他们的入场券。真正的战场在那些混乱、复杂、充满不确定性的现实领域。他们在编程上建立的优势,正在被系统性地迁移到其他垂直场景。

有人评论说,这家公司更像是一个藏在创业公司外壳里的综合性研究机构。这个观察很准确。他们的布局逻辑清晰:找到AI能够产生指数级影响的领域,然后重兵投入。

视觉和空间能力的提升尤其值得关注。现在大多数知识工具本质上是“盲”的,它们能读文本,但对空间关系、视觉上下文毫无感知。如果Claude能真正理解空间关系,很多应用场景会被彻底改写。

还有一点被反复提及:Anthropic几乎没有任何drama。零内斗,零八卦,纯粹专注于构建。在这个行业里,这本身就是一种稀缺的竞争力。

当OpenAI还在考虑往聊天里加广告的时候,Anthropic已经在布局下一代全栈智能系统了。

AGI可能比我们以为的更近。
普通人用Claude Code实现10倍效率的底层逻辑 | 原文

上周我看到有人跟Claude Code搏斗了6个小时,最后得出结论:AI被高估了,输出全是垃圾。

问题出在哪?不在模型,在喂给它的东西。

过去一年我用AI交付了几十个系统,观察下来发现:那些获得惊人成果的人和中途放弃的人之间,差距只有一个——输入的质量决定输出的质量。

现在的模型已经强得离谱。如果你得到的是废话,问题在你自己。

+ 用功能思维取代产品思维

大多数人坐下来就打“帮我做一个XX应用”。Claude Code不知道你具体要什么,只能用假设填补空白,而这些假设往往是错的。

正确的做法是把产品拆成功能模块。

想做一个日程工具?先想清楚它由哪些部分组成:用户上传内容、系统分析处理、界面展示选项、触发相应动作。

然后一个一个来。做完功能一,测试,能用吗?再做功能二。每个模块验证通过后再叠加下一个。

这样你就不会在一个摇摇欲坠的地基上盖房子。

+ 让Claude Code采访你

与其告诉它你想要什么,不如反过来,让它不断提问直到完全理解你的需求。

我用的提示词是这样的:“我想做某某东西,请像采访一样问我所有细节,包括技术决策、设计选择、边界情况,用提问工具持续追问,直到你完全理解我要什么。”

接下来会有点烦人,问题一轮接一轮。

上次我做一个线索分发系统,Claude Code问了我:触发条件是表单提交还是webhook?需要从线索中提取哪些数据?评分标准是什么?低于阈值怎么处理?通知走Slack还是邮件?响应时间要求多少?

这些问题你可能根本没想过。这正是关键所在。

我曾经花45分钟做这种采访式对话,结果省下了14个小时的调试时间,因为边界情况在写代码之前就被发现了。

+ 先慢后快,手动优先于自动

每个人都想要自动化,设置好就不用管。但如果你从没手动做过一件事,自动化会把你坑惨。

原因很简单:你还不知道自己在自动化什么。

一步步手动构建的过程中,你会感知到节奏,看到哪里容易出问题,培养出对“好”和“能用但其实是垃圾”之间差异的直觉。

跳过这一步,你自动化的就是一个有缺陷的流程,而且要浪费很多天和很多token才能意识到问题。

那些在社交媒体上秀自动化工作流的人,都是先靠手动构建积累了足够经验,才获得了自动化的资格。

+ 管理你的上下文窗口

你开始一个会话,一切顺利,输出很精准。然后质量开始下滑,Claude Code开始忘记一小时前你告诉它的事情。

这是上下文过载了。

当你用掉大约一半的上下文窗口时,开一个新会话。但新会话怎么知道之前做了什么?靠文档。

每完成一个功能就记录下来,每个决策都写进去。新会话读取这个文件,就能无缝接续。

+ 工具焦虑是伪命题

大家都在讨论MCP、插件、自定义配置文件。这些东西没问题,但我敢保证它们不是你产品做不出来的原因。

你的计划才是原因。

完美的工具配置加上糟糕的计划,产出的是垃圾。基础配置加上优秀的计划,产出的是真东西。

把精力投入到输入端,工具是次要的。

+ 品味才是真正的护城河

构建东西越来越容易,任何有网络的人都能用上两年前不存在的工具。创造一个能跑的东西,门槛几乎为零。

那为什么不是人人都在出产品?

差距在品味。

品味是知道该做什么,知道你的东西和市面上50个同类产品有什么不同,知道什么时候感觉对了、什么时候只是技术上正确但毫无记忆点。

我见过有人做了一个跑步应用,根据你的情绪生成路线。压力大?愤怒?平静?应用读取你的状态,创造匹配的路径。

这不是技术成就,一千个人都能实现这个机制。区别在于有人坐下来认真思考:什么能让这个东西有趣?什么还没被做过?然后在每一步都做出有意识的选择。

这就是品味。Claude Code给不了你这个。

AI放大的是你投入的一切。模糊的思考产出模糊的结果,有意识的思考产出有意识的作品。

几个月前想明白这些的人,现在已经在收割红利。今天想明白的人,还来得及。
当Node.js之父宣布“人类写代码的时代结束”,程序员该何去何从

Ryan Dahl,Node.js的创造者,最近在社交媒体上直言:人类写代码的时代结束了。这话对软件工程师来说确实刺耳,但他补充道:这并不意味着软件工程师没活干了,只是直接写语法这件事,不再是核心工作。

这条推文引发了激烈讨论,评论区的观点碰撞颇有意思。

有人精准地修正了这个说法:死掉的是“敲代码”,而“思考”依然活着。也有人悲观地回应:你看看周围,思考好像也快死了。

一位在科技行业摸爬滚打40年的老兵分享了自己的经历:他想做一个利用NFC技术的iPhone应用,完全不懂从何下手。于是他坐下来跟ChatGPT说:“我想要这个功能,我完全不知道怎么做,你得一步步教我。”45分钟后,一个能用的应用就躺在他手机里了。虽然不够精美,也上不了应用商店,但它确实能干他想让它干的事。他感慨:游戏规则不是正在改变,而是已经变了。

这个故事引出了一个关键洞察:很多人在那里挥舞双手抱怨AI抢工作,如果他们把这些精力花在实际尝试上,就会发现AI是如何打破壁垒、赋予你行动能力的。

但也有清醒的声音指出:一个45分钟做出来的半成品原型,和真正有价值、可扩展、可维护的软件之间,隔着一道巨大的鸿沟。LLM大概完成了80%的路程,但剩下的20%可能在相当长时间内都难以逾越。

有人用挖坑做了个精妙的比喻:以前你得用铲子挖坑,现在这个可以自动化了。但你仍然需要知道在哪里挖、为什么挖、挖出来的尺寸是否符合设计图纸。只是不再需要那个体力劳动的部分了。

这就引出了一个重要区分:Coding、Programming、Developing三者的差异。简单说,Coding是把逻辑翻译成代码,Programming是设计解决方案的整个过程,而Developing则涵盖了从需求分析到部署维护的完整生命周期。AI正在吞噬的是第一层,但后两层依然需要人类的判断力。

一位资深前端开发者现身说法:作为Vue.js的高级开发者,他已经三个月没有直接写过一行代码了,全靠Claude完成,而且几乎不出错。但另一位开发者反驳:当你处理遗留代码库或公司内部框架时,LLM总是在细微之处出错,很多时候自己写反而更快。

最尖锐的质疑来自一位评论者:Ryan Dahl在卖东西,别傻到真信他说的话。

这场争论的本质或许是:我们正站在一个分水岭上。那些还在争论AI会不会取代程序员的人,可能已经落后了。真正的问题是:当写代码变成了说话,你还剩下什么不可替代的价值?

答案可能藏在那个挖坑的比喻里:知道在哪里挖,比会挖更重要。
今天开更,丧事已办完
2025年图形编程大会的PPT现已上线可供下载 | link
Writing mutexes from scratch in Go:这篇博客讨论了如何在 Go 语言中从零开始实现互斥锁(mutex),并探索了不同锁实现的性能权衡。适用于对锁的底层原理和性能优化感兴趣的开发者。
一本帮助程序员提高解决编程竞赛问题的能力的电子书:Competitive Programmer’s Handbook | #电子书

作者Antti Laaksonen详细介绍了编程竞赛的基础知识、算法设计、数据结构、图论等核心内容。书中不仅涵盖了基本的编程技巧和算法,还深入探讨了动态规划、贪心算法、图算法等高级主题。通过阅读本书,读者可以系统地学习到如何设计和实现高效的算法,提高解决复杂问题的能力。
Back to Top