Skip to main content

黑洞资源笔记

  1. 在线科研和软件优化往往需要不断尝试不同方案,修改代码、跑实验,再根据结果决定保留或放弃,整个过程极其复杂且耗时。

    awesome-autoresearch 这个项目汇总了众多公开可用的 autoresearch(自动化反复试验优化)案例,覆盖科学研究、软件优化、金融交易、评测红队、安全攻防等多个领域。

    该项目重点展示了 autoresearch 在真实工作流中的应用,比如自动修改训练脚本并迭代保留性能更优的模型版本,自动调优 GPU 内核,结合自动化背测改进交易策略,甚至用在自动化红队攻击策略验证。

    主要亮点:
    - 多领域 autoresearch 应用汇总,帮助快速理解自动实验循环模式;
    - 详细案例展示如何通过“修改-验证-保留/舍弃”循环持续提升性能;
    - 多个基于 Karpathy 原创 autoresearch 思路的实用开源实现;
    - 出色适合科研人员、系统优化工程师、量化研究员等借鉴。

    支持 Python、Shell 多种环境,方便上手复现或者定制。
  2. 在线训练PyTorch构建块,专为 OLMo 生态系统打造,助力大规模语言模型开发。

    AllenAI推出的 OLMo-core,集成了训练、推理的全套模块,不仅提供了官方训练脚本支持多GPU分布式训练,还能无缝接入 Hugging Face Transformers 和高效的 vLLM 推理引擎。

    主要亮点:

    支持最新的 OLMo-2(32B)和 OLMo-3(7B/32B)模型训练脚本;
    兼容 PyTorch,支持 torchrun 与 Beaker 一键分布式启动训练;
    提供多种可选依赖支持加速(flash-attn、TransformerEngine、torchao 等);
    通过 Hugging Face Transformers 和 vLLM 实现高效推理,加速模型部署;
    提供交互式聊天演示和评测工具,方便研究和测试;
    Docker 镜像包含所有依赖,便于快速启动环境。
    安装简易,pip 安装即用:

    pip install ai2-olmo-core
    官方文档:olmo-core.readthedocs.io

    适合科研人员、AI工程师、NLP开发者使用,全面提升大模型训练与推理效率。
  3. 在线模型推理部署经常遇到多模态模型支持复杂,性能难以优化的问题。

    vLLM-Omni 基于高效的 KV cache 管理和流水线执行,专为支持包括文本、图像、音频、视频等多模态输入的模型设计,轻松实现异构模型推理和服务。

    它不仅兼容主流 Hugging Face 开源模型,还支持分布式推理、多阶段流水线调度、流式输出和 OpenAI 兼容接口,极大提升多模态模型在线推理的效率和灵活性。

    主要功能:

    - 支持多模态数据(文本、音频、图像、视频)处理与生成;
    - 支持非自回归架构如扩散模型,实现高效的并行生成;
    - 基于 KV cache 优化自回归模型推理性能;
    - 异构流水线抽象,管理复杂多阶段模型工作流;
    - 分布式推理支持,涵盖张量并行、数据并行和专家并行;
    - 开箱即用的 OpenAI 兼容 API 服务器,方便集成;
    - 支持主流平台(CUDA/ROCm/NPU/XPU),广泛适配多硬件环境。

    适合AI开发者、研究人员和企业级应用场景的多模态AI模型推理部署。
  4. 在线3D建模和CAD编程总是需要高效且灵活的工具来满足复杂设计需求。

    开源项目 build123d 是一个基于 Python 的参数化边界表示(BREP)建模框架,底层用的是强大的 Open Cascade 几何内核。| #框架

    它通过简洁的 Pythonic 接口,让设计师和工程师能够用代码精准构建适合3D打印、CNC加工、激光切割等制造业的模型。

    主要功能亮点包括:

    - 提供明确的1D、2D、3D几何类和丰富的操作符,支持代数式建模,代码更加可读与组合;
    - 支持无状态的代数模式与有状态的Builder模式,满足不同设计习惯;
    - 丰富的几何构造能力:线段、圆弧、圆形、矩形、孔、倒角、圆角等;
    - 可导入SVG、STEP等多种格式,方便与其他CAD软件互通;
    - 输出STL、STEP格式,便于3D打印和传统CAM加工;
    - 代码严格符合Python标准,支持类型提示,易于扩展和维护。

    安装简单:直接使用pip安装即可

    pip install build123d


    官网文档和示例丰富,上手极快,适合工程师、设计师和开发人员用代码实现复杂的CAD设计思路。
  5. “克隆版”开源AI编码代理ClawCode:开源社区如何48小时跑赢DMCA

    Anthropic的Claude Code源码意外泄露后,社区在一天内完成了所谓的“干净室重写”ClawCode,但这个重写是否真正合法,本身就是个悬而未决的问题。100k GitHub星标、DMCA下架、版权争议,事情比看上去复杂得多。

    前两天,Anthropic在一次npm包更新中犯了个低级错误:调试文件没删干净,51万行TypeScript源码就这样跟着包一起出了门。等他们反应过来开始发DMCA下架通知,代码早已传遍GitHub。

    有意思的部分从这里才开始。

    一个叫Sigrid Jin的韩国开发者(之前因过度使用Claude Code被《华尔街日报》点名报道)在代码泄露后用了大概一个晚上,做出了ClawCode,宣称是“干净室重写”。不是复制泄露代码,而是基于架构重新实现,先Python后Rust。仓库在24小时内冲到了10万stars。

    这个速度本身就足够可疑。有观点认为这些stars大量来自“看热闹的人”,不是真正的竞争工程师,AI领域虽然过热,但真的没有10万个agent工程师在追这个仓库。也有人反驳说,很多账号创建于2015年,不太像机器人,更可能是Claude Code泄露进入新闻周期后带来的真实流量。也许两者都有。

    “干净室重写”这个说法本身有没有法律效力,社区吵得很凶。经典的干净室实现需要:一个“脏团队”看代码写功能规格说明,再把规格交给从未见过原代码的“干净团队”去实现,两个团队完全隔离。这样版权保护的是具体代码,不是功能思想,新实现就合法了。

    有网友提到,今天完全可以用AI来做这件事:一个代理会话分析原码写规格,另一个会话只看规格来写实现。但前提是每一步都要有密码学级别的不可篡改日志、版本控制证明、时间戳审核记录。ClawCode显然没来得及做这些,“在提示词里说了要干净室实现”,充其量是“相信我”。

    还有一个角度让整件事更混乱:Anthropic自己说过,他们几乎100%的代码已经是AI写的。有观点认为,AI生成的代码在美国版权法下无法受到版权保护,那这些代码严格来说应当属于公共领域。不过即便如此,商业秘密的保护还在,泄露行为本身不因此合法化,只是让版权这条路堵死了。

    ClawCode的仓库后来被锁,但ZIP镜像、Python版、Rust版已经传开了。有人做了桌面仪表板产品,有人做了移动端,Solana上甚至出现了$ClawCode代币。

    最值得关注的,也许不是某个具体仓库能活多久,而是有网友说的:与其争第一个做出来,不如真正把这个架构拆清楚,写成可以学习的东西。agent harness的持久执行循环、工具调用模式、跨文件理解能力,这些才是ClawCode事件留下的真正遗产。

    到底谁有资格把泄露的架构思路付诸实现,法院还没说过话。
  6. 让AI炒股四个月,Claude赢了但这个结论没什么用 | 帖子

    标普500从去年11月实验开始至今跌了7%。在这个背景下,五个模型跑赢了大盘,但只有两个实现正收益。Claude和Gemini排在前面,GPT全线落后,Grok一度领先最后吐回了涨幅,Qwen把十万美元全押一只股票,亏了35%才出场。

    实验的设置是相同的提示词、相同的工具集,超过50个研究工具调用加上社交媒体数据,每个模型用的是当时最新版本。运营成本大概每月500美元的API费用。

    有观点认为这个数据从统计上几乎没有意义,一个模型表现好,完全可能只是运气,样本量太小无法区分能力和随机性。OP对此完全同意,并计划运行100个相同模型的并行实例来摊薄方差。有统计学背景的网友进一步指出,真正有价值的是让少量稳定模型在足够长的时间内做大量交易,而不是横向比较更多不同模型。

    为什么Claude领先?OP的解释是一部分运气,一部分来自模型“性格”的差异。Claude表现得像一个主动型摆动交易者,每周管理仓位,持续跟踪市场动量;其他模型更倾向于持仓不动,风险偏好也差异明显。

    有网友提到一个更有意思的问题:回测几乎不可能做到干净,因为这些模型已经见过历史数据,你没法假装它们不知道2020年发生了什么。这意味着这类实验天然只能跑前向测试,而且要等足够长的时间。

    有观点认为,如果AI炒股真的有稳定的超额收益,量化基金早就把这条路堵死了。这个逻辑当然成立,但有网友指出,大型机构在乎的是能否把策略规模化,散户级别的摆动交易根本不在他们的关注范围内,Medallion基金不无限扩大规模就是同一道理。

    还有一个更深的风险被提出来:不是某一个模型亏钱,而是当数千个模型同时读取相同信号、在相同时刻执行相同操作,系统性的相关性会造成什么。这个问题目前没有答案,但它比“Claude赢没赢”更值得想。

    四个月,两个正收益,一个统计上还什么都说明不了的实验。下一步要跑多久,才算够?
  7. 一个脚本省掉50K Token:AI编程的冷启动优化实践 | 帖子

    Claude Code每次新对话都会花费大量token重新探索代码库结构,这是个被忽视的隐性成本。有人构建了预索引工具将这个开销从50K token压缩到3K以内,引发社区广泛讨论。

    每次打开Claude Code,它做的第一件事不是帮你写代码,而是四处张望。

    读目录、扫文件、查函数签名。大项目上,这个“熟悉环境”的过程要烧掉30到50K token,然后才轮到你真正想问的那个问题。有人给这个现象起了个名字:“探索税”。

    一位开发者用一个叫`ai-codex`的脚本来解决这个问题。逻辑很简单:提前把项目结构扫描一遍,生成五个压缩后的Markdown文件,分别记录API路由、页面树、库导出、数据库schema和组件索引。在CLAUDE.md里加一行声明,让Claude每次对话优先读这几个文件,直接跳过探索阶段。

    在一个有950个API路由、255个数据库模型的项目上测试:原来理解一个模块需要15次工具调用,使用索引后降到5次grep,总token消耗从50K级别压缩到约3K。

    这条帖子在Reddit引发广泛讨论,涌现出大量类似工具。Cymbal用SQLite加tree-sitter做实时增量索引,JCodeMunch走MCP路线做精准符号检索,还有TheBrain、codebase-memory-mcp等等。有观点认为,这种“工具大爆炸”本身就说明Claude Code在原生能力上存在明显缺口。

    最被质疑的点是索引过期问题。作者的回答是:路由和schema这类结构变动频率远低于代码内容本身,把`npx ai-codex`挂到git pre-commit hook里,每次提交自动更新,耗时不到一秒,基本无感知。

    也有人提出不同意见。有网友认为配合Serena做实时符号分析、再加上合理的工具调用引导,也能把冷启动控制在3到5次调用以内,不一定需要静态索引。还有人指出,Rails或Django这类约定强制的框架根本不存在这个问题,因为模型早就被训练知道“路由在哪里”,这本质上是JavaScript生态系统过于混乱的代价。

    有网友提到,加上prompt caching会产生双重节省效应:索引文件本身变化少,缓存命中率极高,等于既减少了加载的token量,又降低了每个token的单价。这个组合值得实测。

    更深的问题是:预索引解决的是“什么在哪里”,解决不了“这些东西之间怎么关联”。模块耦合、依赖链、架构边界,这一层每次还是得从代码里重新推导。

    所以预索引是个好的地板,不是天花板。

    预索引能给你一张楼层平面图,Claude不用再挨个开门找厨房,但进了厨房之后,冰箱里装了什么,还是得自己看。

    这个工具本身是Claude Code在单次对话中独立设计并构建完成的,这个细节本身也挺有意思。
  8. 把服务器泡进大海:中国给算力找了个新家

    上海临港全球首个海风直连海底数据中心正式投运,用15℃海水替代空调制冷,绿电供给率超95%,PUE低至1.15。这不只是一个工程项目,是AI时代算力基础设施的一次范式迁移。

    传统数据中心有一个藏不住的秘密:大约40%的电,根本没有用来计算,只是用来给机器降温。

    一个中等规模的陆上数据中心,每年要喝掉10万吨淡水。相当于500个家庭一整年的用量,全都变成热气散掉了。你每次刷视频、跑AI推理,背后都有一台巨大的冷却机器在同步运转,它消耗的资源甚至比计算本身还多。

    这个问题没有软件解,只有物理解。

    上海临港做的事情,逻辑上其实很简单:把数据仓沉到海平面以下10到15米,海水年均温度15℃,天然恒温,铜管循环把热量导走,整个过程无需额外动力,也不消耗一滴淡水。制冷这个成本项,直接从账单上消失了。整体能效PUE做到1.15,而陆地数据中心的行业平均水平在1.4到1.6之间。省下来的,是真实的电。

    有意思的地方在于能源侧的设计。数据舱部署在海上风电场内部,风机发的电通过专属海缆直连,传输损耗从陆地线路的5%到10%压缩到2%以下,绿电供给率超过95%。这不是采购绿色电力指标,是物理上的就近消纳。算力和能源放在同一片海域,中间的损耗几乎不存在。

    这个结构让人想到CPU的存储层级设计。内存离处理器越近,延迟越低,带宽越高。把计算放到能源旁边,本质上是同一个思路。距离是损耗,消灭距离就是消灭损耗。

    有网友提到海底环境的另一个优势:密封舱内缺氧,金属腐蚀速度大幅降低,设备故障率只有陆地的八分之一左右。这是个意外收获,密封本来是为了防水,结果顺手解决了氧化问题。微软早年做过类似实验,Natick项目在苏格兰海域运行了两年,数据证明海底服务器的故障率确实更低。项目最终没有规模化,原因是维护成本和商业模式没跑通。

    中国这次的不同,在于同时解决了冷却、能源、工程三个问题,并且做到了商用规模。总重1950吨的设备,误差20厘米安置在海床上,这个精度要求本身就是一道独立的工程题。

    有观点认为,海底数据中心还有一个不常被提及的特性:物理安全。陆地数据中心的位置是公开的,基础设施暴露在地面。海底的密封舱不一样,它在物理上很难被直接触及。这个角度引起了一些讨论,没有定论,值得观察。

    未来的分工可能是:海底舱跑AI训练、大模型推理这类高并发、高能耗的批量任务;陆地数据中心处理低延迟、需要人工介入的实时业务,比如客服系统、实时视频处理。两套系统各司其职,按计算特征分层。

    海底数据中心现在还有几个没解决的问题:长期海水腐蚀的边界在哪里,设备出故障时的维护窗口怎么定,大规模扩张时海床空间怎么规划。这些不是工程细节,是商业模式能不能跑通的前提。

    算力的尽头是电力,这句话大家都在说。电力的尽头是什么,还没有人给出完整的答案。
  9. OpenClaw落地中国:字节跳动押注AI智能体技能生态

    开源生态进入中国市场,通常有两种姿态:一种是悄悄被抄,一种是体面地被拥抱。OpenClaw这次走的是后一条路,只是拥抱它的人,出乎不少人的意料。

    4月1日,OpenClaw官方宣布ClawHub中国镜像站上线,地址mirror-cn.clawhub.com,由字节跳动火山引擎提供服务器资源和技术运维。消息在X平台发出不到一天,浏览量冲破36万。用户现在可以直接告诉智能体"使用mirror-cn.clawhub.com查找技能",不需要碰终端命令行。

    镜像站不是简单的流量转发。新增了中文搜索、精选技能榜单,所有收录技能完成基础安全扫描,支持腾讯QClaw、字节ArkClaw等本土智能体框架。覆盖超过4.3万个技能,火山引擎承诺赞助资金100%回流社区。

    这件事有个有意思的前传。3月,腾讯推出SkillHub平台时,OpenClaw创始人Peter Steinberger公开质疑对方"照搬技能库",指其推高官方服务器成本却未主动支持社区。腾讯回应称是本地镜像站、标注了来源、还分流了87万次下载请求。双方你来我往,引发广泛讨论。到了4月1日,OpenClaw发布新版本,原生捆绑腾讯QQ机器人插件,腾讯SkillHub被默认为生态补充方案,算是和解了。

    最终深度合作落到字节头上。有网友提到,腾讯其实动作更快,应用生态和流量在国内也是一流,但这么快跟字节达成合作,确实出人意料。有观点认为,火山引擎这次"诚意先行",不是先上车后补票,而是主动成为项目官方维护者。

    值得一提的是,此前国内用户访问ClawHub源站频繁遭遇API限流、技能下载失败。镜像站通过国内节点实现技能秒级加载,对开发者而言实用价值很直接。同期火山引擎透露,豆包大模型日均Tokens消耗达120万亿,三个月翻倍,跻身全球消耗量前三。

    当然,火山引擎也在声明里写清楚了:"不提供任何明示或暗示的保证,也不对可用性负责。"部分开发者担忧镜像站能否实时同步海外技能库,这个问题目前还没有确定的答案。

    开源项目如何在中国生存,一直是个没有标准解法的问题。镜像站是一种答案,但镜像站和生态之间,还隔着很多层。
  10. AI Agent Deep Dive:《Claude Code 源码架构深度解析》(第二版)

    第二版经作者亲自审校,降低技术门槛,试图让非技术背景的读者也能建立对 Agent 系统设计的真实认知