Skip to main content

黑洞资源笔记

  1. 在线模型推理部署经常遇到多模态模型支持复杂,性能难以优化的问题。

    vLLM-Omni 基于高效的 KV cache 管理和流水线执行,专为支持包括文本、图像、音频、视频等多模态输入的模型设计,轻松实现异构模型推理和服务。

    它不仅兼容主流 Hugging Face 开源模型,还支持分布式推理、多阶段流水线调度、流式输出和 OpenAI 兼容接口,极大提升多模态模型在线推理的效率和灵活性。

    主要功能:

    - 支持多模态数据(文本、音频、图像、视频)处理与生成;
    - 支持非自回归架构如扩散模型,实现高效的并行生成;
    - 基于 KV cache 优化自回归模型推理性能;
    - 异构流水线抽象,管理复杂多阶段模型工作流;
    - 分布式推理支持,涵盖张量并行、数据并行和专家并行;
    - 开箱即用的 OpenAI 兼容 API 服务器,方便集成;
    - 支持主流平台(CUDA/ROCm/NPU/XPU),广泛适配多硬件环境。

    适合AI开发者、研究人员和企业级应用场景的多模态AI模型推理部署。
  2. 在线3D建模和CAD编程总是需要高效且灵活的工具来满足复杂设计需求。

    开源项目 build123d 是一个基于 Python 的参数化边界表示(BREP)建模框架,底层用的是强大的 Open Cascade 几何内核。| #框架

    它通过简洁的 Pythonic 接口,让设计师和工程师能够用代码精准构建适合3D打印、CNC加工、激光切割等制造业的模型。

    主要功能亮点包括:

    - 提供明确的1D、2D、3D几何类和丰富的操作符,支持代数式建模,代码更加可读与组合;
    - 支持无状态的代数模式与有状态的Builder模式,满足不同设计习惯;
    - 丰富的几何构造能力:线段、圆弧、圆形、矩形、孔、倒角、圆角等;
    - 可导入SVG、STEP等多种格式,方便与其他CAD软件互通;
    - 输出STL、STEP格式,便于3D打印和传统CAM加工;
    - 代码严格符合Python标准,支持类型提示,易于扩展和维护。

    安装简单:直接使用pip安装即可

    pip install build123d


    官网文档和示例丰富,上手极快,适合工程师、设计师和开发人员用代码实现复杂的CAD设计思路。
  3. “克隆版”开源AI编码代理ClawCode:开源社区如何48小时跑赢DMCA

    Anthropic的Claude Code源码意外泄露后,社区在一天内完成了所谓的“干净室重写”ClawCode,但这个重写是否真正合法,本身就是个悬而未决的问题。100k GitHub星标、DMCA下架、版权争议,事情比看上去复杂得多。

    前两天,Anthropic在一次npm包更新中犯了个低级错误:调试文件没删干净,51万行TypeScript源码就这样跟着包一起出了门。等他们反应过来开始发DMCA下架通知,代码早已传遍GitHub。

    有意思的部分从这里才开始。

    一个叫Sigrid Jin的韩国开发者(之前因过度使用Claude Code被《华尔街日报》点名报道)在代码泄露后用了大概一个晚上,做出了ClawCode,宣称是“干净室重写”。不是复制泄露代码,而是基于架构重新实现,先Python后Rust。仓库在24小时内冲到了10万stars。

    这个速度本身就足够可疑。有观点认为这些stars大量来自“看热闹的人”,不是真正的竞争工程师,AI领域虽然过热,但真的没有10万个agent工程师在追这个仓库。也有人反驳说,很多账号创建于2015年,不太像机器人,更可能是Claude Code泄露进入新闻周期后带来的真实流量。也许两者都有。

    “干净室重写”这个说法本身有没有法律效力,社区吵得很凶。经典的干净室实现需要:一个“脏团队”看代码写功能规格说明,再把规格交给从未见过原代码的“干净团队”去实现,两个团队完全隔离。这样版权保护的是具体代码,不是功能思想,新实现就合法了。

    有网友提到,今天完全可以用AI来做这件事:一个代理会话分析原码写规格,另一个会话只看规格来写实现。但前提是每一步都要有密码学级别的不可篡改日志、版本控制证明、时间戳审核记录。ClawCode显然没来得及做这些,“在提示词里说了要干净室实现”,充其量是“相信我”。

    还有一个角度让整件事更混乱:Anthropic自己说过,他们几乎100%的代码已经是AI写的。有观点认为,AI生成的代码在美国版权法下无法受到版权保护,那这些代码严格来说应当属于公共领域。不过即便如此,商业秘密的保护还在,泄露行为本身不因此合法化,只是让版权这条路堵死了。

    ClawCode的仓库后来被锁,但ZIP镜像、Python版、Rust版已经传开了。有人做了桌面仪表板产品,有人做了移动端,Solana上甚至出现了$ClawCode代币。

    最值得关注的,也许不是某个具体仓库能活多久,而是有网友说的:与其争第一个做出来,不如真正把这个架构拆清楚,写成可以学习的东西。agent harness的持久执行循环、工具调用模式、跨文件理解能力,这些才是ClawCode事件留下的真正遗产。

    到底谁有资格把泄露的架构思路付诸实现,法院还没说过话。
  4. 让AI炒股四个月,Claude赢了但这个结论没什么用 | 帖子

    标普500从去年11月实验开始至今跌了7%。在这个背景下,五个模型跑赢了大盘,但只有两个实现正收益。Claude和Gemini排在前面,GPT全线落后,Grok一度领先最后吐回了涨幅,Qwen把十万美元全押一只股票,亏了35%才出场。

    实验的设置是相同的提示词、相同的工具集,超过50个研究工具调用加上社交媒体数据,每个模型用的是当时最新版本。运营成本大概每月500美元的API费用。

    有观点认为这个数据从统计上几乎没有意义,一个模型表现好,完全可能只是运气,样本量太小无法区分能力和随机性。OP对此完全同意,并计划运行100个相同模型的并行实例来摊薄方差。有统计学背景的网友进一步指出,真正有价值的是让少量稳定模型在足够长的时间内做大量交易,而不是横向比较更多不同模型。

    为什么Claude领先?OP的解释是一部分运气,一部分来自模型“性格”的差异。Claude表现得像一个主动型摆动交易者,每周管理仓位,持续跟踪市场动量;其他模型更倾向于持仓不动,风险偏好也差异明显。

    有网友提到一个更有意思的问题:回测几乎不可能做到干净,因为这些模型已经见过历史数据,你没法假装它们不知道2020年发生了什么。这意味着这类实验天然只能跑前向测试,而且要等足够长的时间。

    有观点认为,如果AI炒股真的有稳定的超额收益,量化基金早就把这条路堵死了。这个逻辑当然成立,但有网友指出,大型机构在乎的是能否把策略规模化,散户级别的摆动交易根本不在他们的关注范围内,Medallion基金不无限扩大规模就是同一道理。

    还有一个更深的风险被提出来:不是某一个模型亏钱,而是当数千个模型同时读取相同信号、在相同时刻执行相同操作,系统性的相关性会造成什么。这个问题目前没有答案,但它比“Claude赢没赢”更值得想。

    四个月,两个正收益,一个统计上还什么都说明不了的实验。下一步要跑多久,才算够?
  5. 一个脚本省掉50K Token:AI编程的冷启动优化实践 | 帖子

    Claude Code每次新对话都会花费大量token重新探索代码库结构,这是个被忽视的隐性成本。有人构建了预索引工具将这个开销从50K token压缩到3K以内,引发社区广泛讨论。

    每次打开Claude Code,它做的第一件事不是帮你写代码,而是四处张望。

    读目录、扫文件、查函数签名。大项目上,这个“熟悉环境”的过程要烧掉30到50K token,然后才轮到你真正想问的那个问题。有人给这个现象起了个名字:“探索税”。

    一位开发者用一个叫`ai-codex`的脚本来解决这个问题。逻辑很简单:提前把项目结构扫描一遍,生成五个压缩后的Markdown文件,分别记录API路由、页面树、库导出、数据库schema和组件索引。在CLAUDE.md里加一行声明,让Claude每次对话优先读这几个文件,直接跳过探索阶段。

    在一个有950个API路由、255个数据库模型的项目上测试:原来理解一个模块需要15次工具调用,使用索引后降到5次grep,总token消耗从50K级别压缩到约3K。

    这条帖子在Reddit引发广泛讨论,涌现出大量类似工具。Cymbal用SQLite加tree-sitter做实时增量索引,JCodeMunch走MCP路线做精准符号检索,还有TheBrain、codebase-memory-mcp等等。有观点认为,这种“工具大爆炸”本身就说明Claude Code在原生能力上存在明显缺口。

    最被质疑的点是索引过期问题。作者的回答是:路由和schema这类结构变动频率远低于代码内容本身,把`npx ai-codex`挂到git pre-commit hook里,每次提交自动更新,耗时不到一秒,基本无感知。

    也有人提出不同意见。有网友认为配合Serena做实时符号分析、再加上合理的工具调用引导,也能把冷启动控制在3到5次调用以内,不一定需要静态索引。还有人指出,Rails或Django这类约定强制的框架根本不存在这个问题,因为模型早就被训练知道“路由在哪里”,这本质上是JavaScript生态系统过于混乱的代价。

    有网友提到,加上prompt caching会产生双重节省效应:索引文件本身变化少,缓存命中率极高,等于既减少了加载的token量,又降低了每个token的单价。这个组合值得实测。

    更深的问题是:预索引解决的是“什么在哪里”,解决不了“这些东西之间怎么关联”。模块耦合、依赖链、架构边界,这一层每次还是得从代码里重新推导。

    所以预索引是个好的地板,不是天花板。

    预索引能给你一张楼层平面图,Claude不用再挨个开门找厨房,但进了厨房之后,冰箱里装了什么,还是得自己看。

    这个工具本身是Claude Code在单次对话中独立设计并构建完成的,这个细节本身也挺有意思。
  6. 把服务器泡进大海:中国给算力找了个新家

    上海临港全球首个海风直连海底数据中心正式投运,用15℃海水替代空调制冷,绿电供给率超95%,PUE低至1.15。这不只是一个工程项目,是AI时代算力基础设施的一次范式迁移。

    传统数据中心有一个藏不住的秘密:大约40%的电,根本没有用来计算,只是用来给机器降温。

    一个中等规模的陆上数据中心,每年要喝掉10万吨淡水。相当于500个家庭一整年的用量,全都变成热气散掉了。你每次刷视频、跑AI推理,背后都有一台巨大的冷却机器在同步运转,它消耗的资源甚至比计算本身还多。

    这个问题没有软件解,只有物理解。

    上海临港做的事情,逻辑上其实很简单:把数据仓沉到海平面以下10到15米,海水年均温度15℃,天然恒温,铜管循环把热量导走,整个过程无需额外动力,也不消耗一滴淡水。制冷这个成本项,直接从账单上消失了。整体能效PUE做到1.15,而陆地数据中心的行业平均水平在1.4到1.6之间。省下来的,是真实的电。

    有意思的地方在于能源侧的设计。数据舱部署在海上风电场内部,风机发的电通过专属海缆直连,传输损耗从陆地线路的5%到10%压缩到2%以下,绿电供给率超过95%。这不是采购绿色电力指标,是物理上的就近消纳。算力和能源放在同一片海域,中间的损耗几乎不存在。

    这个结构让人想到CPU的存储层级设计。内存离处理器越近,延迟越低,带宽越高。把计算放到能源旁边,本质上是同一个思路。距离是损耗,消灭距离就是消灭损耗。

    有网友提到海底环境的另一个优势:密封舱内缺氧,金属腐蚀速度大幅降低,设备故障率只有陆地的八分之一左右。这是个意外收获,密封本来是为了防水,结果顺手解决了氧化问题。微软早年做过类似实验,Natick项目在苏格兰海域运行了两年,数据证明海底服务器的故障率确实更低。项目最终没有规模化,原因是维护成本和商业模式没跑通。

    中国这次的不同,在于同时解决了冷却、能源、工程三个问题,并且做到了商用规模。总重1950吨的设备,误差20厘米安置在海床上,这个精度要求本身就是一道独立的工程题。

    有观点认为,海底数据中心还有一个不常被提及的特性:物理安全。陆地数据中心的位置是公开的,基础设施暴露在地面。海底的密封舱不一样,它在物理上很难被直接触及。这个角度引起了一些讨论,没有定论,值得观察。

    未来的分工可能是:海底舱跑AI训练、大模型推理这类高并发、高能耗的批量任务;陆地数据中心处理低延迟、需要人工介入的实时业务,比如客服系统、实时视频处理。两套系统各司其职,按计算特征分层。

    海底数据中心现在还有几个没解决的问题:长期海水腐蚀的边界在哪里,设备出故障时的维护窗口怎么定,大规模扩张时海床空间怎么规划。这些不是工程细节,是商业模式能不能跑通的前提。

    算力的尽头是电力,这句话大家都在说。电力的尽头是什么,还没有人给出完整的答案。
  7. OpenClaw落地中国:字节跳动押注AI智能体技能生态

    开源生态进入中国市场,通常有两种姿态:一种是悄悄被抄,一种是体面地被拥抱。OpenClaw这次走的是后一条路,只是拥抱它的人,出乎不少人的意料。

    4月1日,OpenClaw官方宣布ClawHub中国镜像站上线,地址mirror-cn.clawhub.com,由字节跳动火山引擎提供服务器资源和技术运维。消息在X平台发出不到一天,浏览量冲破36万。用户现在可以直接告诉智能体"使用mirror-cn.clawhub.com查找技能",不需要碰终端命令行。

    镜像站不是简单的流量转发。新增了中文搜索、精选技能榜单,所有收录技能完成基础安全扫描,支持腾讯QClaw、字节ArkClaw等本土智能体框架。覆盖超过4.3万个技能,火山引擎承诺赞助资金100%回流社区。

    这件事有个有意思的前传。3月,腾讯推出SkillHub平台时,OpenClaw创始人Peter Steinberger公开质疑对方"照搬技能库",指其推高官方服务器成本却未主动支持社区。腾讯回应称是本地镜像站、标注了来源、还分流了87万次下载请求。双方你来我往,引发广泛讨论。到了4月1日,OpenClaw发布新版本,原生捆绑腾讯QQ机器人插件,腾讯SkillHub被默认为生态补充方案,算是和解了。

    最终深度合作落到字节头上。有网友提到,腾讯其实动作更快,应用生态和流量在国内也是一流,但这么快跟字节达成合作,确实出人意料。有观点认为,火山引擎这次"诚意先行",不是先上车后补票,而是主动成为项目官方维护者。

    值得一提的是,此前国内用户访问ClawHub源站频繁遭遇API限流、技能下载失败。镜像站通过国内节点实现技能秒级加载,对开发者而言实用价值很直接。同期火山引擎透露,豆包大模型日均Tokens消耗达120万亿,三个月翻倍,跻身全球消耗量前三。

    当然,火山引擎也在声明里写清楚了:"不提供任何明示或暗示的保证,也不对可用性负责。"部分开发者担忧镜像站能否实时同步海外技能库,这个问题目前还没有确定的答案。

    开源项目如何在中国生存,一直是个没有标准解法的问题。镜像站是一种答案,但镜像站和生态之间,还隔着很多层。
  8. AI Agent Deep Dive:《Claude Code 源码架构深度解析》(第二版)

    第二版经作者亲自审校,降低技术门槛,试图让非技术背景的读者也能建立对 Agent 系统设计的真实认知
  9. 在线使用 Claude Code 进行 AI 编程时,还得受限于单一模型——但现在有了 OpenClaude,这个开源项目帮你打破了这种限制!它基于 Claude Code 开源源码,并新增 OpenAI 兼容 API 适配层,支持接入 GPT-4o、DeepSeek、Gemini、Ollama、本地模型等 200 多款 LLM,一键切换超自由。

    OpenClaude 不仅支持所有 Claude Code 内置的强大工具:bash 命令执行、文件读写编辑、多步推理、任务管理等,核心还保持了流畅的实时 token 流、工具调用和持久记忆。

    安装也非常方便,npm 一键装,或者源码用 Bun 构建,再通过环境变量轻松配置比如 OPENAI_API_KEY 和模型名称即可启动。

    主要功能亮点:
    - 兼容多厂商多模型,自由选用最适合你场景的大语言模型;
    - 全面支持函数调用,实现场景复杂的多步 AI 辅助工作流;
    - 支持本地与云端模型混合使用,保障隐私且提升响应速度;
    - 强大的工具链系统,涵盖代码执行、文件操作、网络检索等;
    - 预设多种启动配置文件,快速定位最佳模型和使用体验。

    适合开发者及 AI 爱好者打造跨模型通用的智能助理、代码生成和自动化管道,无需局限单一生态。
  10. 研究的本质不是阅读,而是从海量信息中提取价值。| 帖子

    在使用 NotebookLM 的六个月里,我发现它不仅仅是一个 AI 笔记工具,更是一个能将 200 页文档在 1 小时内转化为深度洞察的个人研究助理。

    很多人觉得 AI 只是在做总结,那是由于他们没有掌握正确的指令系统。以下是这套改变工作流的 10 个核心提示词系统,它们能帮你完成从信息输入到深度决策的闭环。

    1. 来源引导系统:建立全局地图
    在上传文档后,不要急于提问。首先运行此指令:
    请基于已上传的来源,提供:1. 贯穿所有文档的 3 个核心主题;2. 各来源之间的共识点与矛盾点;3. 最令人惊讶或反直觉的发现;4. 文档提出但未充分回答的重大问题。

    2. 矛盾猎手:寻找认知的缝隙
    最好的研究往往存在于不同来源的冲突之中。
    指令:找出所有来源在同一主题上结论不一致的地方。要求:1. 引用具体的冲突描述;2. 标明来源;3. 评估哪方证据更强;4. 标记为需要进一步调查的重点。

    3. 专家简报构建:从研究到产出
    将原始文档快速转化为可交付的专业简报。
    指令:创建一个专业简报,包含:1. 5 句以内的执行摘要;2. 按重要性排序的核心发现;3. 支持发现的最强证据及来源;4. 领域内的不确定性或争议点;5. 3 条明确的行动建议。

    4. 问题生成器:探索未知的未知
    大多数研究者不知道自己不知道什么。
    指令:基于来源生成:1. 深度研究此主题必须回答的 10 个关键问题;2. 目前来源尚未完全回答的 5 个缺口;3. 3 个如果答案改变将彻底颠覆现有认知的假设;4. 怀疑论者会提出的挑战。

    5. 证据评级系统:构建稳固的逻辑基础
    并非所有证据都具有同等价值。
    指令:分析核心主张的证据质量:1. 评估证据是来自初级研究、专家意见还是轶事;2. 识别那些听起来自信但缺乏支撑的陈述;3. 标注哪些主张可以重度依赖,哪些需谨慎对待。

    6. 时间线重构:把握演进脉络
    脱离背景的知识是碎片化的。
    指令:重构该主题的完整时间线。包括:1. 关键决策或发展的编年史;2. 导致转折点的触发因素;3. 行业共识随时间演变的路径;4. 现状与起点的对比及未来轨迹预测。

    7. 反驳防御盾牌:预判质疑
    在发布或演示前,先进行压力测试。
    指令:帮我准备应对质疑:1. 针对我的结论可能出现的最强 5 个反驳点;2. 证据中容易被攻击的薄弱环节;3. 我所做的尚未被完全证实的假设;4. 如何利用现有证据进行有力回击。

    8. 知识盲区地图:查漏补缺
    指令:识别当前研究的缺口:1. 哪些重要子话题被忽略或覆盖不足;2. 缺少哪种类型的来源(如数据、案例或专家观点);3. 如果要使研究无懈可击,还需要补充哪 5 类来源。

    9. 深度洞察提取:穿透表象
    总结只是复述,洞察才是创造。
    指令:超越简单的总结:1. 识别 3 个大多数读者会忽略的非显性洞察;2. 发现来源中未明说但确实存在的模式;3. 分析作者的言外之意;4. 找出那些看似微小但影响深远的数据点。

    10. 最终报告生成:完成闭环
    指令:结合所有来源和对话上下文,生成一份完整的报告。包含:标题、执行摘要、带证据引用的核心发现、深度分析、局限性说明以及下一步行动建议。

    在 AI 时代,获取信息的速度已不再是壁垒,如何通过深度提问消除“直觉误判”才是核心。
  11. 在线上 AI 编程时代,如何让会写代码的模型在真实工程环境中安全稳定地运行,是架构设计的头等大事。

    「Harness Books」这个开源项目,收录了两本关于 Harness Engineering(约束执行工程学)的专业书籍,深入探讨了模型行为后果管理、权限控制、上下文治理、多 agent 验证与团队制度等核心设计理念。

    它们不讲代码拆解,而是聚焦「控制结构」如何打造,让不稳定的 AI 编程模型,回归工程可持续运转的秩序体系。

    两本书分别关注:

    - 《Claude Code 设计指南》:讲述 Harness 必须具备的控制面、Query Loop、工具权限、失败恢复、团队制度等架构结构;
    - 《Claude Code 与 Codex 比较》:比较两套 Harness 在控制层次、权限沙箱、策略语言、组织习惯编码等方面的分歧和优劣。

    项目主页还支持在线阅读和 PDF 下载,同时配合 AgentWay 平台,辅助开发者把理论转化为训练、项目和实践。

    主要价值:
    - 深入理解 AI 代码生成模型的工程约束与治理结构;
    - 掌握多 agent 系统的验证与恢复机制,提升系统稳定性;
    - 学会把团队经验固化为可复用制度,打造持久智能开发流程。

    适合 AI 编程工程师、架构师、产品经理,以及所有关注 AI 工程安全与可控性的开发者。

    GitHub | 在线阅读 | PDF 下载:Claude CodeHarness Engineering
  12. 为什么AI永远写不出一篇真正的文章 | 推文

    社交媒体和AI正在以惊人的速度污染人类的信息环境,侵蚀公众独立思考的能力。写文章不只是一种技能,它是在混乱中建立认知秩序、生产真实意义的少数途径之一。

    我们正在经历人类历史上规模最大的“伪思考”生产运动,而大多数人毫无察觉。

    问题出在三个相互咬合的机制上。算法驱动的内容平台天然偏向零和博弈,创作者为了抢夺注意力而放弃深度;注意力本身是整个系统赖以运转的“土壤”,但这块土壤正被以快于再生的速度消耗;AI和社交媒体算法的迭代速度远远超过我们研究其心理影响的速度。三股力量叠加,系统思想家 Daniel Schmachtenberger 把这叫做“元危机”,他认为这最终只会通向两个坏结局:文明崩溃,或是数字极权。

    有网友提到,这听起来像是在小题大做。刷一下 Instagram 怎么会导致文明终结?

    但如果你把镜头拉远,就会发现这不是个人习惯问题,而是信息环境的系统性污染。你消费的内容在训练你的注意力跨度、处理复杂性的能力、以及容纳矛盾的空间。这些能力一旦萎缩,在气候、AI 对齐、公共卫生这些真正重要的问题面前,就会有大量人根本无法理解问题的本质。他们不是不关心,是认知基础设施已经损坏。

    快餐内容直接递给你结论,跳过了思考的过程,读者的意识保持无序。他感到“被告知了”,却什么也没真正消化。

    文章不一样,文章是一种论证。它区别于普通内容的核心在于:文章不从结论出发,它在写作过程中发现结论。作者必须先把自己的混乱整理成结构,读者在阅读时再用自己的思维重走一遍这个过程。这个“把混乱变成秩序”的动作,正是意义产生的机制。

    这也是 AI 永远无法写出真正文章的原因,不是因为它词汇量不够,而是因为它没有“被某件事困扰”的真实状态。AI 可以模拟一个观点,但它没有一个在持续经历的、被每一个当下时刻塑造的视角。更关键的是,写作最有价值的东西恰恰是“意外发现”。你一旦让 AI 帮你生成“令人惊喜的洞见”,那个惊喜就不存在了,因为你在等它。

    有观点认为,意义经济正在快速到来,AI 只是加速了这个趋势。当内容的产量趋近于无限,稀缺的反而是真实的视角和经过痛苦整理的思考。

    所以写文章吧。不是为了涨粉,不是为了证明自己聪明,而是因为你有一些事情还没真正想清楚,而把它们写下来,是目前已知的把模糊变成清晰的少数可靠方法之一。

    从一个让你困惑的问题开始,允许自己在写作过程中改变立场,然后在写完之后问自己:我真的相信这个吗?

    如果答案让你不舒服,说明你写到了有东西的地方。
  13. autoagent 致力于打造“自主引擎工程”。autoagent的核心思想是:你不再直接改动运行代码,而是通过编写一份program.md指令文件,让一个meta-agent自主读取、修改和优化agent.py中的代码,实现自动构建和迭代agent。它会根据benchmark任务的得分,自动调整策略,类似AI自动“打怪升级”的过程。

    项目亮点:
    - 单文件Python架构,注册驱动,结构清晰易改;
    - 任务基于Harbor格式,方便统一测试;
    - 整合Docker隔离环境,安全无风险地自动跑任务;
    - 自动根据测试得分保留更优改动,实现闭环优化;
    - 支持并行任务运行,提升效率。

    适合AI研发、智能agent工程师做自动化实验、自动调优agent的好帮手。只需写好benchmark任务和program.md,就能让meta-agent自主“熬夜”改进代码,效率爆棚!

    适合在线开发自动化调试和迭代代码的朋友们。
  14. 在线调用 Claude Code 时,回答冗长浪费 tokens 导致成本飙升。

    claude-token-efficient 只需在项目根目录放入一份 CLAUDE.md 文件,无需代码改动,即可自动让 Claude 回复更简洁、减少多余客套与冗言,让重度输出工作流节省超过60% token,降低成本。

    主要功能:
    - 去掉无用开头结尾客套语
    - 避免重复复述问题
    - 简化代码方案,不胡乱扩展
    - 阻止错误认同和多余建议

    适合:
    - 需要高频多轮自动化调用的团队和项目
    - 欲稳定输出格式,方便解析
    - 代码生成、自动化代理、流水线工作

    不适合:
    - 低频简短查询,因文件加载成本占优
    - 需要详细讨论或复杂架构设计时

    放入项目后,Claude立刻变得更简短高效,节省数万tokens,助力成本控制及流程提速。