Vibe Coding 指南:终极 AI 结对编程流程,帮开发者规划驱动开发,模块化拆解任务,一步步把想法变成可维护代码流水线。| #指南

它强调以“规划就是一切”为核心理念,采用递归自我优化的元方法论,规范 AI 生成的提示词和技能,防止项目陷入混乱。配合 VSCode 插件和终端 CLI,支持 Claude Opus 4.5 与 gpt-5.1-codex 等顶级模型,能实现从需求设计、技术选型、开发规划到代码实现的完整闭环。

主要功能:
- 详细的实施计划生成,分步指导开发与测试,保证质量;
- 系统提示词库和编码提示词库,约束 AI 行为边界;
- 模块化项目结构管理,防止代码膨胀和混乱;
- 支持多模型和工具集成,如 Codex CLI、Claude Code、LazyVim、Warp 终端等;
- 结合记忆库和上下文,提升 AI 代码生成准确度和连续性。

项目已开源,拥有丰富文档和实用工具,适合软件开发者想用 AI 高效编码、持续迭代和复盘。
在线代码评审经常面临一个难题:Claude Code 每次都要重读整个代码库,消耗大量计算资源和时间,效率低下。

code-review-graph 这个开源项目为 Claude Code 构建了本地代码知识图,自动解析你的代码库结构,精准定位改动影响范围,实现只读“关键文件”,大幅减少无用令牌消耗,帮你从海量代码中精准提取精华,让AI读代码更快更省心。

主要功能:
- 基于 Tree-sitter,支持12种语言(包括Python、TypeScript、Java、Go等);
- 增量更新代码图,文件保存或 Git 提交后2秒内完成重解析;
- “爆炸半径”分析,精准追踪受影响代码和测试,避免全面扫描;
- 支持语义搜索、交互式可视化代码依赖图;
- 本地存储,无需云端依赖,数据安全放心;
- 实现代码审查时令牌消耗平均降低6.8倍,日常编码任务最高可达49倍。

使用方式也很简单:
pip install code-review-graph
code-review-graph install

然后打开项目告诉 Claude 构建图即可。
当AI来袭,没有人是安全的:一张表引发的争议 | 帖子

前OpenAI研究员Andrej Karpathy制作了一张职业自动化风险评估表后迅速删除。这张表用Gemini Flash评估各行业受AI影响程度,但它忽略了最关键的问题:当白领大规模失业,所谓的“安全职业”也会因连锁反应崩溃。

此表标注哪些职业容易被AI替代。软件工程师、律师是重灾区,体力劳动相对安全。表发出没多久就删了。

他自己也承认这是“slop”(垃圾输出),用AI评估AI的影响本身就很讽刺。但真正的问题不是方法论有多粗糙。

有观点提到,这种分析最致命的缺陷是把自动化当成孤立事件。一个办公室关门,清洁工、周边餐厅、托儿所都会受波及。失业潮会传导到每个角落。那些标记为绿色的“安全职业”只是暂时的,当所有人都想当水管工,供需失衡会让这个行业也变成红海。

更微妙的是,大部分工作不会完全消失,而是一个人干三四个人的活。公司不再补缺,招聘冻结,失业率统计看起来还正常。刚毕业的年轻人找不到对口工作,只能去送外卖,算“就业”但实际上是underemployed。数据会骗人。

有网友提到建筑工人也不安全。机器人技术在突破,虽然成本高、环境复杂、数据不足,但失去一个40万美元的机器人总比失去一个人便宜。这个逻辑很冷酷,却可能就是未来的现实。

Karpathy删表这件事本身比表的内容更有意思。给职业自动化打分会引发政治风暴,无论数据多精确。当你把失业量化成具体数字,就不再是抽象的技术讨论,而是每个人都能对号入座的恐慌。

最讽刺的是,软件工程师——十年前被认为最安全的职业——现在成了高危行业。有刚入行的人说自己改专业学了CS,结果刚工作几个月就面临职业消失的可能。这种错位感很残酷。

UBI(全民基本收入)在美国是个笑话。一个连全民医保都做不到的国家,指望它发钱给所有人?有观点认为,美国是资本主义大本营,UBI是资本主义的反义词,权力者为什么要放弃权力?

表本身是垃圾,但它至少让人开始讨论。问题是讨论之后呢?大多数人还是会继续假装一切如常,直到裁员信真的来了。
OpenCode虽然标榜“本地运行”,但Web UI默认将所有请求代理到app.opencode.ai,且无法关闭。更隐蔽的是,即使使用本地模型,生成标题等功能也会上传到他们服务器。这不是bug,是设计。| 帖子

有人在修改OpenCode工具代码时发现:运行`opencode serve`后,Web UI的所有请求都被代理到这里。没有启动参数可以关闭,没有选项可以修改。

GitHub上堆积了十几个相关PR和issue,最早的投诉可以追溯到几个月前。防火墙内运行?启动时会卡在白屏等待外部请求超时。完全断网?功能直接残废。

更诡异的是,即便关闭自动更新,Web UI版本依然会自动刷新,新的模型provider会突然出现,甚至成为默认选项。一位用户说得直白:“我以为在用本地模型,结果OpenRouter给我发了账单补充提醒。”

有网友验证:启动时的第一个动作就是把你的初始prompt上传到opencode.ai/zen/v1/responses生成标题,无论你用的是不是本地模型。除非手动指定small_model,否则这个行为无法避免。文档里写着“会fallback到主模型”,但代码里根本不是这么干的。

看看RolandCode(一个剥离了隐私功能的fork)删掉的endpoint列表:
- us.i.posthog.com → 使用分析
- api.honeycomb.io → 遥测数据、IP、位置
- api.opencode.ai → 会话内容、prompts
- opencode.ai/zen/v1 → prompts代理
- app.opencode.ai → 全局代理

一个本地工具需要连接这么多服务器?

有观点认为这是为了盈利做的妥协。OpenCode背后有VC资金支持,拒绝合并显示tokens-per-second指标的PR,在OpenCode Zen项目中对provider、量化方案、速率限制都不透明。锁定默认的build prompts,要求重新编译才能修改,这种设计选择本身就很可疑。

另一个细节:即便用户明确关闭自动更新,Web UI仍会静默升级,新的模型provider会突然出现在列表里,甚至自动成为默认路由目标。这不是失控,是有意为之。

社区里开始有人重新审视当初OpenCode和Crush的争议:“现在想想,那场冲突可能不是我们以为的那样。”

终端复制粘贴遵循不了Linux标准,退出后看不到会话历史,这些看似小问题的背后是什么?有人说是editor风格的trade-off,但Gemini CLI、Claude CLI、Codex都没这些毛病。

现在的选择:

Pi Coding Agent被多次提及,简单、轻量、真正本地。有人fork了oh-my-pi增强版,也有人在用RolandCode。Nanocoder从头设计,原生支持agentic coding和tool calling。

但守住“本地”这个词的意义比工具本身更重要。

模型权重能离线运行吗?系统能在没有任何外部API调用的情况下工作吗?网络访问是可选还是强制?如果运行时管道依赖远程endpoint,那就别叫它“本地”,叫“混合”更准确。

本地AI的价值在于隐私、确定性和成本控制。当这些保证被隐藏的网络依赖打破,整个价值主张就变了。
剑桥学生的Claude读论文法:20分钟学会学术界20年的批判性阅读 | 帖子 | #论文 #经验

一位剑桥学生用Claude配合五个问题,20分钟内就能像资深学者一样批判性地阅读论文。关键不在于让AI总结内容,而在于用它来检验论文的逻辑漏洞、未言明的假设和缺失的对话。

大多数人用Claude读论文的方式是错的。

他们粘贴论文,要求总结,得到一段流畅的概括,然后以为自己读懂了。这不是阅读,这是带着科技感的走马观花。

剑桥这位学生的做法完全不同。她先完整读一遍论文,然后问Claude:“仅从方法和结果来看,这项研究能合理推出什么结论、不能推出什么?现在读摘要,告诉我作者在哪里过度延伸了。”

她不是让Claude替她读论文,而是用它来检验论文是否真的证明了作者声称的东西。大多数学生读到作者的主张就当成了作者的发现。这两者之间的鸿沟,正是她用20分钟学会的。

接下来更有意思。

她问:“这项研究没有测量什么,如果测了会显著增强或削弱核心主张?作者的方法论在悄悄假设什么,却从不说明?”大多数学生读方法论是为了理解研究者做了什么。她读是为了找到他们没做什么,以及他们希望没人注意到什么。

然后她让论文自我对质:“如果我在不同背景的不同人群中重复这项研究,结果最可能在哪里变化?这说明作者的结论实际能推广到多远?”大多数发表的主张看起来是普遍的,实际上是特定的。这个问题每次都能找到两者之间的界限。

有观点认为,她这不是在加速阅读,而是在把研究当作论辩而非文件来对待。资深学者读论文时把它们看作持续辩论中的一个立场,而不是完成品。这种框架一旦切换,问题自然从“他们说了什么”变成“这实际证明了什么,基于什么假设”。

她还会追问:“这篇论文在回应什么辩论?它回应的那些人会怎么反驳?这篇论文在已有争论中处于什么位置?”那一天,她不再把论文当作孤立的对象来读。每篇论文都是对某事的回应。大多数学生从不知道是什么。她五分钟就找到了,这完全改变了论文的意义。

最后她问:“这篇论文的参考文献中缺失的、该领域每个严肃研究者都会认为必不可少的最重要引用是什么?作者没有参与但应该参与的对话是什么?”

她在研讨班上提出了一个作者的理论盲点。导师停下讨论,问她怎么发现的。她说她向论文提了正确的问题,而不只是读了它。导师说这正是在学术界干二十年才能学会的。

她做了三周。

有网友提醒,使用Claude时要验证答案,避免“幻觉”。也有批评指出这些提示词本身就是AI生成的,文风过于明显。还有人质疑:如果她真的读了论文,不应该自己就知道答案吗?

但更多讨论集中在这种方法的本质。有人指出,这其实是将本科教学转向研究生风格,增强学生的推理能力。也有人担忧,这是在让Claude替她理解论文,而不是替她读论文,后者可能更糟。

工作流很简单。五个问题,按顺序:方法和结果能合理推出什么?研究没测量什么、方法论在默默假设什么?换人群或情境会怎样?论文在回应什么辩论?参考文献缺了哪篇关键文献?

大多数学生花三年从外部读论文。这五个问题让你20分钟就进入内部。论文没变,问题变了。
在线自动生成 SKILL.md 技能文档,助力AI编码助手高效成长!

开源项目 HyperSkill基于 Next.js 搭建,结合 Hyperbrowser SDK、Serper API 和 OpenAI GPT-4o,能够帮助开发者输入一个主题或 URL,自动搜索、爬取网页内容,并智能生成结构化的 SKILL.md 技能文件。

主要功能:

- 自动化网络搜索和内容爬取(支持单页及批量多页并行处理);
- 利用 GPT-4o 生成清晰、格式化的技能文档;
- 支持批量生成技能,快速构建多个知识库;
- 实时进度展示,Markdown 预览,支持一键复制与下载;
- 纯前端UI,支持本地运行,无需数据库,轻量易用。

技术栈包括 Next.js 14、Tailwind CSS、React Markdown 等,适合 AI 开发者、成长团队快速搭建智能技能库。

快速体验:克隆后配置 API Key(Hyperbrowser、Serper、OpenAI),运行 npm run dev 即可在 localhost:3000 访问。
在线做学术海报,总是要花大量时间排版调样式,图表文案还得跑来跑去对照修改,十分繁琐。

Posterskill 是一个Claude Code Skill,用 AI 助力直接从你的 Overleaf 源文件和项目网站抓取内容,自动生成可交互编辑的学术会议海报。| #学术

海报是单个 HTML 文件,在浏览器就能打开用拖拽、交换、调字体大小灵活编辑布局,无需安装啥依赖或构建,实时预览打印效果,支持导出 PDF 打印。

主要功能包括:

- 从论文源码和项目网址自动提取文字、图表和标志;
- 生成视觉整洁、结构合理的海报初稿;
- 拖拽调整列宽、卡片大小和顺序,交互式布局编辑;
- 全局实时控制字体大小,预览打印版式;
- 保存和导出完整布局配置 JSON,方便迭代修改;
- 完全独立单文件,无需服务器和构建环境。

适合科研人员、学术会议作者快速高效制作专业级海报,省时又省力!
Back to Top