ykdojo在github 上分享了关于Claude Code的 45 条实用技巧,从入门到高级,涵盖自定义状态栏、系统提示语精简、用 Gemini CLI 作为 Claude 代理、甚至让 Claude Code 自己在容器中跑自己,还有超实用的 dx 插件。| #技巧

主要看点:

- 一键设置自定义状态栏,实时显示模型状态、Git 当前分支、Token 使用率,随时掌控上下文空间(Tip 0)
- 利用 /compact 和半克隆脚本主动压缩对话上下文,让 Claude Code 保持高效运转(Tip 8、23)
- 使用 Gemini CLI 作为 WebFetch 的备胎,解决某些网站访问限制(Tip 11)
- 通过多终端分屏、多git worktree等工作流大幅提升多任务处理能力(Tip 14、16)
- 用 Claude Code 做写作助手,语音输入加速初稿生成,Markdown 格式极简高效(Tip 18、19)
- 自动执行写-测-改循环,结合 tmux 完成自动化测试和长跑任务(Tip 9、36)
- 精简系统提示语,减少 50% 以上 Token 占用,大幅延长对话长度(Tip 15)
- 将 Claude Code 打造成“万用界面”,本地文件操作、GitHub PR 审核、数据分析样样行(Tip 27、29、31)
- 利用 dx 插件集合,将多条实用命令和技能整合一键安装,极大提升开发体验(Tip 44)
- 快速部署一键脚本,配置状态栏、插件、别名、权限一次搞定(Tip 45)

无论你是刚接触 Claude Code 还是想解锁更高阶玩法,这份全方位技巧宝典绝对是提高效率,打造个性化 AI 助手的必备神器。
Media is too big
VIEW IN TELEGRAM
在线聊天记录和上下文管理总是难题,消息太多模型上下文窗口很快就撑满了。| #插件

一个超棒的开源插件 Lossless Claw(基于 LCM:Lossless Context Management),为 OpenClaw 提供了一套无损上下文管理方案。

它用有向无环图(DAG)替代传统滑动窗口,完美保存所有消息,通过智能摘要浓缩旧消息,又能即时复原细节,感觉像和一个“永不忘记”的智能助手聊天。

主要功能:

- 所有对话消息持久存储到 SQLite 数据库,确保数据不丢失;
- 采用 LLM 自动生成多层摘要形成聚合 DAG 结构,压缩旧内容但保持可展开细节;
- 每次对话上下文由最新消息+层级摘要组成,极大扩展了上下文容量;
- 配套 lcm_grep、lcm_describe、lcm_expand 等搜索和回溯工具,快速定位旧消息和内容;
- 支持自动分层压缩、会话持久化,减少手动操作;
- 多种可自定义参数调节压缩触发阈值、摘要深度、最新消息保护数量等。

安装只需在 OpenClaw中执行插件安装命令,一键启用,适合想突破上下文限制的AI项目和研究者。
Vibe Coding 指南:终极 AI 结对编程流程,帮开发者规划驱动开发,模块化拆解任务,一步步把想法变成可维护代码流水线。| #指南

它强调以“规划就是一切”为核心理念,采用递归自我优化的元方法论,规范 AI 生成的提示词和技能,防止项目陷入混乱。配合 VSCode 插件和终端 CLI,支持 Claude Opus 4.5 与 gpt-5.1-codex 等顶级模型,能实现从需求设计、技术选型、开发规划到代码实现的完整闭环。

主要功能:
- 详细的实施计划生成,分步指导开发与测试,保证质量;
- 系统提示词库和编码提示词库,约束 AI 行为边界;
- 模块化项目结构管理,防止代码膨胀和混乱;
- 支持多模型和工具集成,如 Codex CLI、Claude Code、LazyVim、Warp 终端等;
- 结合记忆库和上下文,提升 AI 代码生成准确度和连续性。

项目已开源,拥有丰富文档和实用工具,适合软件开发者想用 AI 高效编码、持续迭代和复盘。
在线代码评审经常面临一个难题:Claude Code 每次都要重读整个代码库,消耗大量计算资源和时间,效率低下。

code-review-graph 这个开源项目为 Claude Code 构建了本地代码知识图,自动解析你的代码库结构,精准定位改动影响范围,实现只读“关键文件”,大幅减少无用令牌消耗,帮你从海量代码中精准提取精华,让AI读代码更快更省心。

主要功能:
- 基于 Tree-sitter,支持12种语言(包括Python、TypeScript、Java、Go等);
- 增量更新代码图,文件保存或 Git 提交后2秒内完成重解析;
- “爆炸半径”分析,精准追踪受影响代码和测试,避免全面扫描;
- 支持语义搜索、交互式可视化代码依赖图;
- 本地存储,无需云端依赖,数据安全放心;
- 实现代码审查时令牌消耗平均降低6.8倍,日常编码任务最高可达49倍。

使用方式也很简单:
pip install code-review-graph
code-review-graph install

然后打开项目告诉 Claude 构建图即可。
当AI来袭,没有人是安全的:一张表引发的争议 | 帖子

前OpenAI研究员Andrej Karpathy制作了一张职业自动化风险评估表后迅速删除。这张表用Gemini Flash评估各行业受AI影响程度,但它忽略了最关键的问题:当白领大规模失业,所谓的“安全职业”也会因连锁反应崩溃。

此表标注哪些职业容易被AI替代。软件工程师、律师是重灾区,体力劳动相对安全。表发出没多久就删了。

他自己也承认这是“slop”(垃圾输出),用AI评估AI的影响本身就很讽刺。但真正的问题不是方法论有多粗糙。

有观点提到,这种分析最致命的缺陷是把自动化当成孤立事件。一个办公室关门,清洁工、周边餐厅、托儿所都会受波及。失业潮会传导到每个角落。那些标记为绿色的“安全职业”只是暂时的,当所有人都想当水管工,供需失衡会让这个行业也变成红海。

更微妙的是,大部分工作不会完全消失,而是一个人干三四个人的活。公司不再补缺,招聘冻结,失业率统计看起来还正常。刚毕业的年轻人找不到对口工作,只能去送外卖,算“就业”但实际上是underemployed。数据会骗人。

有网友提到建筑工人也不安全。机器人技术在突破,虽然成本高、环境复杂、数据不足,但失去一个40万美元的机器人总比失去一个人便宜。这个逻辑很冷酷,却可能就是未来的现实。

Karpathy删表这件事本身比表的内容更有意思。给职业自动化打分会引发政治风暴,无论数据多精确。当你把失业量化成具体数字,就不再是抽象的技术讨论,而是每个人都能对号入座的恐慌。

最讽刺的是,软件工程师——十年前被认为最安全的职业——现在成了高危行业。有刚入行的人说自己改专业学了CS,结果刚工作几个月就面临职业消失的可能。这种错位感很残酷。

UBI(全民基本收入)在美国是个笑话。一个连全民医保都做不到的国家,指望它发钱给所有人?有观点认为,美国是资本主义大本营,UBI是资本主义的反义词,权力者为什么要放弃权力?

表本身是垃圾,但它至少让人开始讨论。问题是讨论之后呢?大多数人还是会继续假装一切如常,直到裁员信真的来了。
OpenCode虽然标榜“本地运行”,但Web UI默认将所有请求代理到app.opencode.ai,且无法关闭。更隐蔽的是,即使使用本地模型,生成标题等功能也会上传到他们服务器。这不是bug,是设计。| 帖子

有人在修改OpenCode工具代码时发现:运行`opencode serve`后,Web UI的所有请求都被代理到这里。没有启动参数可以关闭,没有选项可以修改。

GitHub上堆积了十几个相关PR和issue,最早的投诉可以追溯到几个月前。防火墙内运行?启动时会卡在白屏等待外部请求超时。完全断网?功能直接残废。

更诡异的是,即便关闭自动更新,Web UI版本依然会自动刷新,新的模型provider会突然出现,甚至成为默认选项。一位用户说得直白:“我以为在用本地模型,结果OpenRouter给我发了账单补充提醒。”

有网友验证:启动时的第一个动作就是把你的初始prompt上传到opencode.ai/zen/v1/responses生成标题,无论你用的是不是本地模型。除非手动指定small_model,否则这个行为无法避免。文档里写着“会fallback到主模型”,但代码里根本不是这么干的。

看看RolandCode(一个剥离了隐私功能的fork)删掉的endpoint列表:
- us.i.posthog.com → 使用分析
- api.honeycomb.io → 遥测数据、IP、位置
- api.opencode.ai → 会话内容、prompts
- opencode.ai/zen/v1 → prompts代理
- app.opencode.ai → 全局代理

一个本地工具需要连接这么多服务器?

有观点认为这是为了盈利做的妥协。OpenCode背后有VC资金支持,拒绝合并显示tokens-per-second指标的PR,在OpenCode Zen项目中对provider、量化方案、速率限制都不透明。锁定默认的build prompts,要求重新编译才能修改,这种设计选择本身就很可疑。

另一个细节:即便用户明确关闭自动更新,Web UI仍会静默升级,新的模型provider会突然出现在列表里,甚至自动成为默认路由目标。这不是失控,是有意为之。

社区里开始有人重新审视当初OpenCode和Crush的争议:“现在想想,那场冲突可能不是我们以为的那样。”

终端复制粘贴遵循不了Linux标准,退出后看不到会话历史,这些看似小问题的背后是什么?有人说是editor风格的trade-off,但Gemini CLI、Claude CLI、Codex都没这些毛病。

现在的选择:

Pi Coding Agent被多次提及,简单、轻量、真正本地。有人fork了oh-my-pi增强版,也有人在用RolandCode。Nanocoder从头设计,原生支持agentic coding和tool calling。

但守住“本地”这个词的意义比工具本身更重要。

模型权重能离线运行吗?系统能在没有任何外部API调用的情况下工作吗?网络访问是可选还是强制?如果运行时管道依赖远程endpoint,那就别叫它“本地”,叫“混合”更准确。

本地AI的价值在于隐私、确定性和成本控制。当这些保证被隐藏的网络依赖打破,整个价值主张就变了。
剑桥学生的Claude读论文法:20分钟学会学术界20年的批判性阅读 | 帖子 | #论文 #经验

一位剑桥学生用Claude配合五个问题,20分钟内就能像资深学者一样批判性地阅读论文。关键不在于让AI总结内容,而在于用它来检验论文的逻辑漏洞、未言明的假设和缺失的对话。

大多数人用Claude读论文的方式是错的。

他们粘贴论文,要求总结,得到一段流畅的概括,然后以为自己读懂了。这不是阅读,这是带着科技感的走马观花。

剑桥这位学生的做法完全不同。她先完整读一遍论文,然后问Claude:“仅从方法和结果来看,这项研究能合理推出什么结论、不能推出什么?现在读摘要,告诉我作者在哪里过度延伸了。”

她不是让Claude替她读论文,而是用它来检验论文是否真的证明了作者声称的东西。大多数学生读到作者的主张就当成了作者的发现。这两者之间的鸿沟,正是她用20分钟学会的。

接下来更有意思。

她问:“这项研究没有测量什么,如果测了会显著增强或削弱核心主张?作者的方法论在悄悄假设什么,却从不说明?”大多数学生读方法论是为了理解研究者做了什么。她读是为了找到他们没做什么,以及他们希望没人注意到什么。

然后她让论文自我对质:“如果我在不同背景的不同人群中重复这项研究,结果最可能在哪里变化?这说明作者的结论实际能推广到多远?”大多数发表的主张看起来是普遍的,实际上是特定的。这个问题每次都能找到两者之间的界限。

有观点认为,她这不是在加速阅读,而是在把研究当作论辩而非文件来对待。资深学者读论文时把它们看作持续辩论中的一个立场,而不是完成品。这种框架一旦切换,问题自然从“他们说了什么”变成“这实际证明了什么,基于什么假设”。

她还会追问:“这篇论文在回应什么辩论?它回应的那些人会怎么反驳?这篇论文在已有争论中处于什么位置?”那一天,她不再把论文当作孤立的对象来读。每篇论文都是对某事的回应。大多数学生从不知道是什么。她五分钟就找到了,这完全改变了论文的意义。

最后她问:“这篇论文的参考文献中缺失的、该领域每个严肃研究者都会认为必不可少的最重要引用是什么?作者没有参与但应该参与的对话是什么?”

她在研讨班上提出了一个作者的理论盲点。导师停下讨论,问她怎么发现的。她说她向论文提了正确的问题,而不只是读了它。导师说这正是在学术界干二十年才能学会的。

她做了三周。

有网友提醒,使用Claude时要验证答案,避免“幻觉”。也有批评指出这些提示词本身就是AI生成的,文风过于明显。还有人质疑:如果她真的读了论文,不应该自己就知道答案吗?

但更多讨论集中在这种方法的本质。有人指出,这其实是将本科教学转向研究生风格,增强学生的推理能力。也有人担忧,这是在让Claude替她理解论文,而不是替她读论文,后者可能更糟。

工作流很简单。五个问题,按顺序:方法和结果能合理推出什么?研究没测量什么、方法论在默默假设什么?换人群或情境会怎样?论文在回应什么辩论?参考文献缺了哪篇关键文献?

大多数学生花三年从外部读论文。这五个问题让你20分钟就进入内部。论文没变,问题变了。
Back to Top