OpenAkita ,一个类似OpenClaw(ClawdBot)的开源项目。国内开发者做的,可接入飞书、企微等国内平台,支持自动从 GitHub 搜索技能或生成代码获取新能力。

官方介绍:
OpenAkita 是一个自进化 AI 助手 — 你在数字世界中忠诚可靠的伙伴。
就像它名字来源的秋田犬一样,OpenAkita 具备这些品质:
🤝 忠诚伙伴 — 始终陪伴在你身边,随时准备帮助你
🧠 与你共同成长 — 记住你的偏好,变得越来越懂你
💪 可靠搭档 — 承诺完成任务,不轻言放弃
🛡 值得信赖 — 保护你的数据安全,尊重你的隐私
OpenAkita 不只是一个工具 — 它是一个记住你、理解你、与你并肩面对每个挑战的伙伴。

为什么选择 OpenAkita?
🔄 自我进化:自动从 GitHub 搜索技能或生成代码获取新能力
💪 永不放弃:持续执行直到任务完成
🛠 工具执行:原生支持 Shell 命令、文件操作和 Web 请求
🔌 MCP 集成:通过 Model Context Protocol 连接浏览器、数据库等外部服务
💬 多平台部署:CLI、Telegram、飞书 完整支持(文字、语音、图片、文件);企业微信、钉钉已实现。
Claude Code创造者的10条实战心法:如何让AI真正成为你的编程搭档 | 帖子

Boris Cherny是Claude Code的创造者,最近他分享了团队内部总结的10条使用技巧。这些建议来自一线实践,值得认真对待。

第一条可能是最具争议的:同时开启3到5个git worktree,每个运行独立的Claude会话。团队认为这是生产力提升的最大杠杆。有人设置了快捷键za、zb、zc来一键切换。但社区的反应很现实:这不就是教我们如何一天烧光350M token吗?确实,这条建议更适合企业用户或者不限量套餐持有者。普通开发者量力而行。

第二条是关于计划模式的。复杂任务开始前,先进入plan mode,把精力投入到规划阶段,让Claude一次性完成实现。如果执行过程中出了问题,不要硬推,退回计划模式重新规划。有人甚至会启动第二个Claude来审核计划,像资深工程师那样挑刺。这个思路很有价值:与其让AI反复试错,不如前期多花时间对齐预期。

第三条是关于CLAUDE.md的维护。每次纠正Claude的错误后,告诉它更新CLAUDE.md,让它自己写规则约束自己。Boris说Claude在这方面表现惊人。但社区反馈两极分化:有人说效果显著,有人说Claude根本不看这个文件。一位用户的比喻很精准:这就像和一个患有失忆症的天才共事。实用建议是,对于真正重要的规则,用hooks来强制执行,而不是依赖Claude的自觉。

第四条是把重复操作封装成技能或斜杠命令。如果某件事你每天做不止一次,就值得自动化。团队的例子包括:查找重复代码的techdebt命令、同步Slack和GitHub等多平台信息的命令、自动生成dbt模型的分析代理。

第五条很直接:大多数bug让Claude自己修。把Slack上的bug讨论贴进去,说一句fix。或者让它去修CI测试。不要微观管理具体怎么做。你也可以把docker日志指给它,让它排查分布式系统问题。

第六条是关于提示词的进阶用法。挑战Claude,比如说:严格审查这些改动,在我通过你的测试之前不要提交PR。或者在得到一个平庸的方案后说:基于你现在知道的一切,推翻重来,给我一个优雅的解决方案。规格写得越详细,输出质量越高。

第七条是终端环境配置。团队喜欢用Ghostty,用statusline显示上下文使用量和git分支,给终端标签页配色区分。还有一个建议是用语音输入,因为说话速度是打字的三倍。但社区对此普遍存疑,很多人表示打字比组织语言更快,而且语音识别准确率仍然是个问题。

第八条是善用子代理。当你想让Claude投入更多算力时,直接说use subagents。把任务分流给子代理,保持主上下文窗口干净。你还可以通过hook把权限请求路由给Opus 4.5,自动批准安全操作。

第九条是用Claude做数据分析。配合bq CLI或任何数据库工具,让Claude拉取和分析指标。Boris说他已经六个多月没写过一行SQL了。

第十条是用Claude学习。在config里启用Explanatory或Learning输出风格,让Claude解释每个改动背后的原因。你还可以让它生成可视化的HTML演示、画代码库的ASCII架构图,或者构建间隔重复学习技能。

这些技巧的核心逻辑是:把Claude当作需要管理的团队成员,而不是简单的问答工具。建立规则、分配任务、审核输出、持续迭代。最有价值的不是某个具体技巧,而是这种系统化的协作思维。
让AI模型又快又准的秘密:谷歌Sequential Attention技术解析 | blog

谷歌研究院最近公布了一项名为Sequential Attention的技术,目标直指AI领域的核心难题:如何在不牺牲准确性的前提下,让模型变得更精简、更高效。

这项技术要解决的问题本质上是"子集选择",听起来抽象,但它几乎贯穿了深度学习优化的方方面面。特征选择是选子集,权重剪枝是选子集,嵌入维度调优也是选子集。问题在于,这类问题属于NP难问题,意味着当数据规模变大时,想要找到完美解几乎不可能。

传统的贪婪选择方法虽然有效,但代价极高,每一步都需要重新训练或评估模型。Sequential Attention的聪明之处在于,它把选择过程直接嵌入到模型训练中,用注意力权重作为重要性的代理指标。每一步选出注意力得分最高的候选项,然后重新计算剩余项的权重。这种方式天然能识别冗余,因为已选特征的存在会改变其他特征的边际贡献。

与传统的"一次性"注意力机制相比,Sequential Attention采用序列化决策。这个设计看似简单,实则抓住了问题的要害:特征之间存在复杂的非线性交互,单独看某个特征可能毫无价值,但与其他特征组合后却至关重要。反过来也成立,孤立看很重要的特征,放到整体中可能完全冗余。序列化选择让算法能够适应之前的决策,这是高质量排序的关键。

在实际应用中,这项技术已经展现出不俗的表现。在神经网络基准测试中达到了最先进水平,在结构化剪枝任务中,升级版的SequentialAttention++在ImageNet分类等任务上实现了显著的模型压缩,同时保持了准确性。

值得注意的是,当Sequential Attention应用于简单线性回归时,它在数学上等价于经典的正交匹配追踪算法。这个等价性很重要,因为后者有可证明的可靠性保证,这为Sequential Attention提供了理论根基。

谷歌列出了几个未来方向:大语言模型剪枝、推荐系统中的特征工程优化、以及药物发现和基因组学领域的应用。特别是LLM剪枝,通过这个框架可以实现结构化稀疏,剪掉冗余的注意力头、嵌入维度甚至整个transformer块。

社区对此反应不一。有人指出相关论文早在2022年就发表了,质疑这是否算"新"技术。但核心论文提出的是数学概念,最新进展在于将其成功应用于现代AI硬件和大模型场景。也有人担心这种方法对LLM是否实用,因为序列化注意力计算可能带来速度问题。

一个清醒的认识是:谷歌所说的"不牺牲准确性"指的是测试表现相当,并非像Flash Attention那样计算结果完全一致。这中间是否存在未知的权衡,还需要更多验证。

模型效率优化正在成为AI发展的关键战场。当模型规模持续膨胀,如何用更少的资源达到同样的效果,决定了AI技术能否真正普及。Sequential Attention提供了一个有理论支撑、有实践验证的思路,至于它能走多远,还要看后续在开源社区和实际部署中的表现。
一位开发者深夜调试代码,常规提问毫无进展。绝望之下,他输入了一句:“解释这段代码是干什么的,只给我错误答案。” | 帖子

本以为会得到一堆废话,结果AI回复:“这段代码看起来是在验证用户输入,但实际上它制造了一个竞态条件,攻击者只需间隔0.3秒发送请求就能绕过身份验证。”

这恰恰是真正的漏洞所在。

为什么“求错”反而能得到正确答案?因为当你要求AI给出错误解释时,它被迫从对抗性视角思考,而不是乐观地假设一切正常。常规提问让AI扮演助手,反向提问让它变成审计员。

这背后有一个设计领域的经典方法叫“最糟糕的点子”。只有真正理解什么是好的,才能精准地生成坏的。而且当人们被允许说任何离谱的话时,那些平时不敢提的观察才会浮出水面。

有人用这个方法做时尚品牌策划,团队提出“免费送皮革制品”这种荒唐想法。但正是这个“烂点子”打开了思路,皮革这种昂贵材料此前从未被认真讨论过,因为大家都觉得它太特殊不能乱动。最终他们在疫情最严重的时期打破了销售记录。

几个实测有效的反向提问句式:

“这段代码为什么会失败?”比“这段代码能用吗?”更有价值。

“假设我是个白痴,我漏掉了什么?”

“像这段代码得罪了你一样狠狠吐槽它。”

“扮演我最苛刻的批评者,找出所有能反驳我的地方。”

还有人分享了一个更系统的调试提示词:倒过来思考这个问题,告诉我所有让这段代码出错的可能性,这段代码本应实现某某功能,慢慢分析,给我所有能让它崩溃的场景。

当然也有人提醒:AI同样可能为了迎合你而编造批评。它太想让你满意了,这意味着它经常说你的代码很好,即使代码很烂。所以反向提问不是万能药,而是打破AI讨好倾向的一种策略。

有人在自定义指令里写:“少一些反射性倾听,我不需要啦啦队,我需要有人挑战我的想法。”还有人更直接:“别拍我马屁,你连手都没有。”

最好的代码审查是那种让你心里不舒服的审查。我们一直试图从AI那里获得有帮助的答案,但也许更该让它来摧毁我们的作品。
Epic是一个资源顶级、体系专业的儿童英文线上阅读平台,它被誉为“北美K-12线上图书馆” | 原文
大模型两年狂飙,为何上下文长度原地踏步?| 帖子

Simon Willison 抛出一个有趣的观察:过去两年大模型能力突飞猛进,唯独上下文长度几乎没动。我们在20万到100万token这个区间已经停留很久了。

他的判断是,这更像一个硬件瓶颈。上下文需要显存,而内存带宽是核心制约因素。

但讨论中涌现出更深层的洞见。

有人指出,真正的瓶颈不是长度,而是注意力质量。一个能真正追踪依赖关系的20万token窗口,远胜于读到第50页就忘了第3页的200万token窗口。这话说到点子上了。

另一位开发者分享实战经验:试着把关键信息放在15万token的位置,然后看模型假装它不存在。这才是行业不愿公开的秘密。所谓的百万级上下文,很大程度上是营销数字。

从技术角度看,推理成本不是线性增长的。长上下文会把注意力机制变成一种类似自旋玻璃的状态,太多弱耦合的token会制造出大量浅层竞争盆地,而不是一个深井。简单说,模型会迷失在信息海洋里。

有趣的是,实践者们反而不那么渴望更长的窗口。一位开发者说得好:1万token精准的上下文,胜过10万token的大杂烩。瓶颈已经从「能不能装下」转移到「该装什么」。

还有人提出更激进的观点:与其追求更长的上下文,不如实现持续学习,让上下文窗口扩展变得没有必要。这可能才是研究者们真正努力的方向,只是持续学习太难,进展都藏在水面下。

据透露,Google内部已有1000万token的上下文能力,只是成本上还不可行。而Magic LTM-2-Mini声称达到1亿token,Llama 4 Scout推到1000万。但这些数字背后,是三个残酷的瓶颈:算力、成本、以及模型实际利用这些上下文的能力。

一个类比很贴切:人们在喷气发动机真正量产前几十年就知道它能工作。同样的动态正在上演。当前架构下,2到3倍的改进不会带来惊艳感。真正的突破需要100倍甚至1000倍的有效上下文提升,这需要有人愿意押注全新的模型架构。

目前的解决方案是子代理模式。Claude Code可以精心设计恰到好处的上下文,发送给子代理,等待回复。这本质上是用工程手段绕过了硬限制。

所以现状是:标签上写着百万token,实际可用的可能只有十分之一。行业正在从「堆长度」转向「用好长度」。这个转变本身,或许比单纯的数字增长更有价值。
LLM智能体正在成为新一代高级编程语言 | blog

一个大胆的假设:C语言之于汇编,Java之于C,Python之于Java,现在LLM智能体正在对所有编程语言做同样的事。

这里说的LLM智能体,指的是一种全新的开发模式:多个智能体并行工作,大部分时间自主运转,只在关键节点需要人类介入。判断这个假设是否成立的标准很简单:如果一个开发者借助多智能体能产出十倍于从前的成果,那它就是真的。2026年初的今天,我还不能完全确定,但已经在认真考虑这种可能性。

对于在软件行业摸爬滚打多年的人来说,质疑声不会少。先回应几个常见的:

“十倍代码量不等于十倍产出,那只是垃圾代码。”没错,衡量标准应该是实际交付的功能价值,不是代码行数。如果假设成立,真正的“代码”其实是你给LLM的指令。

“LLM是给不会写代码的人用的。”LLM确实会带来大量新程序员,但这不意味着老手用不上。事实上,很多资深开发者正在借助LLM实现产出的飞跃。

“用LLM就是偷懒不想动脑。”恰恰相反。当你用LLM做更多事情时,你需要思考和工作得更多,而不是更少。管理一支智能体舰队比自己写代码更费心力,因为你要设计的东西是原来的好几倍。

“LLM会让我们的编程技能退化。”可能吧。但我们在工作中也不会担心汇编或C语言技能生疏。大多数人只在业余时间练习这些,因为没人能证明用汇编写业务代码会更高效。

“LLM写的代码比我差太多。”几乎肯定如此。但你的汇编代码也比不上专家。只要LLM生成的代码足够高效,能跑起来,就已经可以交付了。系统会丑一些,但它能用。

“用LLM智能体太贵了。”如果它们能带来50%的生产力提升,对比你的薪资,其实一点都不贵。而且LLM只会越来越便宜。它们只在绝对值上贵,相对值上并不贵。

“我试了一下午,纯粹浪费时间。”学习曲线是存在的。想想你当初花了多少时间和编程工具、语法搏斗,才勉强上手。

以上这些反对意见在逻辑上都站不住脚,但情感上确实不容易接受。

真正触及核心的问题有两个:质量和可理解性。LLM生成的代码会不会很快变成一堆垃圾?我们是不是在沙子上建房子?LLM生成的代码量会不会大到我们永远无法理解?即使系统能跑,我们是否会因为不理解而永远失去控制?

我认为质量和可理解性应该成为任何LLM编程框架的核心目标。从经济角度看,只追求质量是不够的。可理解性可能是浪漫主义的幻想,也可能是一个值得押注的长期赌注。我选择后者。

有趣的是,LLM比以往任何高级语言都更具非确定性。但它们也能在高层次描述上帮你理清思路,这是以前任何抽象层都做不到的。

未来的开发会是什么样子?我看到四个核心要素:文档是一组描述系统规格的页面,包括目的、核心实体、接口、约束、关键流程和编码规范;实现是代码库加上所有数据,代码库应该能从文档重建,数据应该与文档描述一致;对话是多个智能体在执行任务时产生的思考流,人类可以随时查看或介入;任务是一组动态的离散工作单元,可以嵌套,有状态追踪。

两个存量,两个流量。文档和实现是系统的积累,对话和任务是构建它们的过程。人类当然可以直接修改文档和实现,但这种情况会越来越少,因为大部分工作流是智能体驱动的,人类主要在与智能体交互。

智能体可以扮演多种角色:独立完成任务的执行者、协调下一步的管理者、试图破坏新功能的测试者、脱离上下文审查代码的评审者、解决冲突的合并者。重要的是人类可以灵活配置,指令可以是一次性的,也可以是文档的一部分。

MCP协议带来了一个打破应用孤岛的机会。它可以被视为一种通用的数据请求接口,让你的智能体能够从任何现有应用中提取功能和数据,放到你自己设计的动态画布上。你可以说“从某个系统给我拿这些数据”,LLM就会去取,然后在你想要的地方做一个漂亮的即时可视化。这才是真正的孤岛终结者。

如果我们用一个好的底层基座而不是臃肿的技术栈,LLM输出的代码量会大幅减少,也更容易理解。系统的前端变成了文档和智能体,后端变成了基座。

还有一些开放问题:文档和对话如何与实现一起存储?版本控制系统怎么用?这些都等待探索。
向量数据库被颠覆?一个无需嵌入的RAG新思路 | github

最近开源社区出现了一个有意思的项目PageIndex,它提出了一种完全不同的RAG实现路径:用文档树结构替代传统的向量嵌入,在FinanceBench基准测试上达到了98.7%的准确率。

这个方案的核心理念是让大模型直接在文档结构上进行推理,而不是通过关键词匹配来检索。不需要嵌入,不需要分块,完全开源。

听起来很激进,但仔细想想,这其实回归了一个朴素的问题:人类阅读文档时,依赖的是什么?是语义相似度,还是章节、标题、表格这些结构化线索?

对于金融报告、法律合同、合规文档这类天然具有清晰层级结构的内容,让模型沿着文档树进行推理,确实比把文档切成碎片再用向量匹配更符合直觉。结构优先的检索方式,也让引用溯源变得更加可靠。

但社区的实测反馈也很真实。有人指出它目前只能处理单个文档,跨文档比较和相似性匹配这类场景还是需要向量数据库。也有人反映速度偏慢,对于简单查询来说,逐层遍历节点的开销不小。还有人质疑:面对大规模非结构化数据,这种方案能否扩展?

一位开发者的评论很中肯:向量数据库能用廉价的数学运算实现毫秒级检索,而PageIndex依赖的是昂贵且缓慢的大模型推理,在需要扫描海量文档的场景下,可行性存疑。

所以这不是一个“谁取代谁”的故事。更准确的理解是:RAG的工具箱里多了一件趁手的武器。结构化文档用文档树,非结构化内容用向量嵌入,复杂场景可能需要混合方案。

技术选型从来不是非此即彼。真正的答案永远是:在你自己的数据上跑一遍基准测试。
AK 大佬建议大家做出改变,远离垃圾文章,重新启用 RSS,回到订阅高质量长篇内容的阅读方式

他同时发了一份 Hacker News 上最受欢迎的 92 个博客列表,几乎全是长期稳定输出高密度内容的大佬级作者。| 帖子

完整列表在这个 GitHub 仓库,可以直接下载 OPML 文件,一键导入到你自己的 RSS 阅读器

不管是跟踪最新思考,还是系统补课他们过去十几年的内容,这份列表都非常值得长期订阅。
解决学术界在 AI 辅助写作方面存在的“隐形资源”不平等问题 | awesome-ai-research-writing

项目作者调研了MSRA、Seed、SH AI Lab等顶尖研究机构以及北大、中科大、上交等高校的硕博研究生,将他们日常使用的写作技巧整理成了Prompt模板库和Agent Skills,以帮助科研人员节省在Prompt调试上的时间,将精力集中在真正的科研上
Beads 是一个给 AI 编程助手/编码智能体用的任务追踪 + 持久记忆工具。

它解决的问题大致是:AI 做长周期开发时容易丢上下文、计划分叉、多人/多分支并行冲突。Beads 用“依赖图 + 可执行查询”来让 agent 只看当前真正能做、且没被阻塞的工作,比如 bd ready 只列出没有未解决阻塞项的任务。
Back to Top