Skip to main content

黑洞资源笔记

  1. Craft Agents:把 AI 协作从命令行拉回直观应用层

    Craft Agents 试图把 AI 协作从冷冰冰的命令行环境拉回到直观的应用层。它通过文档化的工作流和零配置集成,让 Agent 的能力更像是一个可管理的收件箱。

    以前用 Agent 像是在裸写汇编,满屏的 CLI 和配置文件带来的上下文切换极其痛苦。Craft Agents 跳过了代码编辑器,直接给出了一个类似邮件收件箱的工作流。

    你可以直接对它说:“把 Slack 和 GitHub 接进来”。它会自己去读文档、处理凭证。这很像操作系统自动挂载远程文件系统。甚至连没有 API 的网站,它也能通过内置的 Chromium 浏览器去模拟点击和抓取数据。这种设计里有一个很有意思的模式:Explore vs Execute。先让 Agent 在只读状态下规划,确认无误后再授权执行。这种权限控制把 AI 从一个黑盒变成了一个可观测的任务流。

    你可以像管理文档一样管理会话,支持多任务后台运行。有网友提到,这种“文档式”的交互让非开发者也能接管复杂的自动化流程。

    现在的 Agent 还是太像一个对话框了。如果有一天,所有的软件 API 都能像插件一样被自动发现并挂载,我们还需要所谓的“应用”吗?
  2. 阿里 AI 进入战时体制:打通模型、云与业务的全链路

    提要:阿里巴巴通过全员信宣布重大组织调整,核心在于将AI战略从单纯的技术探索转向规模化商业落地。通过成立集团技术委员会并升级通义实验室为事业部,阿里试图打破业务壁垒,实现模型、云基础设施与应用场景的深度集成。

    这次调整更像是一次系统级的内核重构。以前的架构里,AI、云和业务各跑各的进程,指令集不统一,导致整体执行效率极低。现在的动作很明确:通过成立由吴泳铭挂帅的技术委员会,把技术路线的决策权与资源调度权收拢到中枢。

    通义实验室升格为事业部,这不仅仅是改个名字。在计算机体系里,实验室更像是处于研发阶段的实验性指令,而事业部意味着它已经进入了生产环境,要开始大规模处理并发请求并追求吞吐量了。周靖人负责的大模型研发,现在必须直接对接阿里云的基建和淘宝的业务场景,不再仅仅为了跑分或发论文。

    有观点认为,这种调整是在建立一种“战时体制”,把AI从一个可选插件变成了操作系统的核心内核。

    不过,组织的惯性往往比技术迭代更难处理。有网友提到,频繁的架构调整有时会消耗执行效率。当顶层在进行激进的重构时,底层的执行层是否还能保持稳定的指令流,是一个值得观察的问题。

    这种重构能否成功,取决于这套新的“指令集”能否真正跑通从模型研发到商业变现的整个流水线。
  3. 造谣成本趋近于零,真相成本却越来越高:AI 黑产敲响行业警钟

    上海警方近日破获一起利用AI批量制造造谣稿件攻击小米、蔚来、理想等车企的案件。嫌疑人通过AI技术规模化生产虚假信息,试图通过操纵舆论牟利。

    这起案件最让人脊背发凉的地方,不在于造谣本身,而在于这种“工业化”的效率。

    两个人,五台电脑,操控着4000多个账号,竟然能跑出70万篇稿件。这已经不是传统的写稿了,这更像是一个运行在社交媒体上的恶意脚本。他们利用AI洗稿,抓取“电池自燃”、“销量腰斩”等关键词,通过对既有信息进行去伪存真的篡改,实现了一种低成本、高并发的“数字暗杀”。

    单篇稿件的成本甚至低到了几毛钱。这种极低的指令执行成本,与企业维护声誉所需要支付的巨额防御成本之间,形成了一种极其不对称的消耗战。

    有网友提到,这种行为本质上是在破坏行业的“共识协议”。当舆论场被海量的、由算法生成的虚假噪声充斥时,用户对真实信息的检索和验证难度呈指数级上升。

    虽然警方已经采取了刑事强制措施,但更值得深思的漏洞在于:如果造谣的边际成本可以被AI无限压低,那么真相的传播速度是否还能跟上这种规模化的攻击?

    有观点认为,黑产的逻辑往往不关乎品牌好坏,只关乎流量变现。这种“掀桌子”式的竞争,最终只会让整个新能源车圈的舆论环境陷入信任崩塌的死循环。

    现在的技术进步,似乎正让“抹黑”变得像调用一个API接口一样简单。
  4. 工作时总要翻邮件、查会议记录、搜笔记,上下文来回切换,效率低下还容易遗漏关键信息。

    Rowboat 把你的工作记忆全部整合到一起,开源 AI 同事,提供本地优先的知识图谱解决方案。

    不仅能连接 Gmail 和 Google Calendar 构建长期知识库,还支持会议准备、邮件起草、生成 PPT/PDF,甚至实时跟踪人物/话题动态。

    主要功能:

    - 本地知识图谱,自动从邮件、日历、会议笔记构建长期记忆(Obsidian 兼容 Markdown);
    - 会议准备,提取历史决策、待解决问题和相关线程生成简报;
    - 智能起草邮件、文档和 PPT/PDF 幻灯片,基于你的工作上下文;
    - 实时直播笔记,跟踪人物/公司/话题,支持 X/Reddit/新闻监控;
    - 语音备忘录,自动提取关键要点更新知识图谱;
    - 支持本地模型(Ollama/LM Studio)和外部工具(搜索/CRM 等),数据全本地存储;

    支持 Mac/Windows/Linux 多平台,一键下载安装,适合个人和团队使用,无云端依赖。
  5. 智能体软件不是提示词堆叠:一场面向 Agent 的系统工程实践 | 推文

    构建智能体软件(Agentic Software)不应仅仅是“提示词工程”的堆叠,而是一场严谨的系统工程实践。Ashpreet Bedi 通过复盘贝尔实验室构建电话网络的历史教训,指出当前 AI 开发中“过度优化局部、忽视系统整体”的误区。

    + 真正的智能体软件是“业务逻辑被 Agent 替换”的常规软件,它必须在五个核心层面上实现协同:

    1. 智能体工程(Agent Engineering)
    这是系统的“大脑”。除了模型选择,更关键的是定义确定性的执行流、工具配置和上下文管理。智能体的行为在可预测时应保持确定,在不可预测时应保持可观测。

    2. 数据工程(Data Engineering)
    上下文即数据。记忆、存储和知识库必须遵循成熟的数据工程原则:设计良好的 Schema、结构化查询以及高效的读写流水线。Agent 的能力上限取决于它获取数据的质量,而非模型参数。

    3. 安全工程(Security Engineering)
    安全必须由系统强制执行,而非靠提示词约束。“只读权限”应该是数据库连接层面的配置,而不是告诉 Agent “请不要修改数据”。必须通过 JWT 验证、RBAC(基于角色的访问控制)和请求隔离,防止数据越权。

    4. 接口工程(Interface Engineering)
    Agent 会出现在 REST API、Slack、终端等多个表面。挑战在于如何将不同的身份系统(如 Slack 用户 ID 与产品内部 ID)统一映射,确保权限控制在所有入口保持一致。

    5. 基础设施工程(Infrastructure Engineering)
    95% 的工作与传统服务无异(容器化、云部署、横向扩展)。剩下的 5% 在于应对 Agent 的特性:更长的请求耗时、流式响应(SSE/WebSockets)以及主动触发的任务。

    + 系统工程的实践:Dash 项目
    为了证明这一理念,Agno 团队开源了 Dash —— 一个具备自我学习能力的 SQL 数据智能体。它展示了系统工程如何解决实际问题:

    - 六层上下文增强:Dash 不直接写 SQL,而是结合表元数据、业务规则、历史查询模式、机构知识、错误学习记录和运行时 Schema 检查。
    - 自我进化闭环:当 Agent 执行 SQL 报错时,它会诊断修复并记录“学习心得”。第 100 次查询比第 1 次更准,不是因为模型变强了,而是数据层进化了。
    - 架构级安全:分析师 Agent 连接的是只读引擎,工程师 Agent 只能写入特定的 dash Schema。这种物理隔离确保了即便模型“幻觉”产生恶意指令,系统也会在底层将其拦截。

    当我们从系统视角审视软件时,许多争论(如 MCP vs CLI)会变得显而易见。不要给 Agent 不受限的权限,要给它定义清晰、边界明确的工具;不要把记忆存在散乱的文件里,要存入数据库。

    系统工程不是为了增加复杂性,而是为了让各个组件在交互中产生超越个体的可靠性。
  6. 大模型持续学习的真相:很多方法,从一开始就找错了方向 | 推文

    我们从不缺少实现持续学习的尝试——从自蒸馏、实时强化学习到内存脚手架、重放方法或梯度投影。但遗憾的是,许多方法甚至没有在试图解决正确的问题。

    基于经典机器学习文献与前沿对话,我尝试为大语言模型(LLM)的持续学习勾勒一个兼具原则性与野心的定义。

    + 核心愿景:
    我们追求的是让 LLM 在顺序接触到分布迥异的新数据时,能够高效且具组合性地习得新能力,同时至少完整保留其通用能力。

    以下是这一定义的五个核心维度:

    1. 通用能力的保留
    持续学习的基石挑战是“灾难性遗忘”。当模型接触稀疏新数据时,必须确保其原有的语言能力、指令遵循和逻辑推理不发生退化。

    2. 顺序学习而非多任务并行
    目前我们通过混合大规模数据来规避分布偏移,但这并非真正的学习。真正的持续学习应当像现实世界一样,能够从依次出现的数据流中提取表征。

    3. 应对分布偏移
    如果新旧数据分布几乎一致,持续学习将变得毫无挑战。真正的考验在于,当模型遇到与其训练分布完全不同的任务时,是否依然能稳健地吸收知识。

    4. 极致的效率
    如果拥有无限的计算资源和数据,内化新知识是平庸的。持续学习的本质在于效率——我们不能为了记住昨天与用户的一段对话,就去重新训练数万亿个 Token。

    5. 跨阶段的技能组合
    这是最高级的要求:模型不仅要记住 A 和 B,还要能将在不同时间点习得的技能进行“化学反应”。例如,先学编程,后学逻辑,模型应能自发组合出更强的代码推理能力。

    + 为什么必须是“参数化”的持续学习?

    很多人认为,通过 RAG(检索增强生成)或外部脚手架(如 Markdown 文件、向量库)就能解决记忆问题,何必非要动模型的权重?但我认为,权重内的参数化学习有两大不可替代的优势:

    - 规模化增长(Scaling):外部挂载的知识库会遭遇“上下文腐烂”和检索瓶颈。随着技能树的增长,外部方案往往边际递减。而参数化知识能从底层改变每一跳推理的“智力密度”,让模型越学越聪明,而非越学越臃肿。
    - 自动化组合(Automaticity):神经记忆允许知识进行超高效的自动重组。这种“直觉式”的跨领域联想是检索无法企及的。就像学习编程能自动增强非代码领域的逻辑感一样,这种深层表征的进化才是真正的进化。

    + 未竟的思考

    实现这一目标仍面临重重迷雾:
    - 知识覆写:当新旧知识冲突时(如软件库版本更新),模型该如何权衡?
    - 数据效率:参数化学习目前的样本效率远低于上下文学习,合成数据的质量将成为关键瓶颈。
    - 认知核心:我们是否应该剥离百科全书式的记忆,只训练一个极其擅长使用外部工具的“认知核心”?

    持续学习不仅是技术挑战,更是通往通用人工智能(AGI)的必经之路。我们正在与 Prime Intellect 合作开发一套全新的评估方法,试图真正量化这些理想特性。
  7. 构建AI Agent时,常常需要为不同角色收集资料、分析风格、提炼框架,来回切换工具和资料源,过程繁琐低效。

    awesome-persona-distill-skills 汇集了上百种“人格蒸馏”技能模板,提供一站式 Agent 角色构建解决方案。

    从自己.skill、女娲.skill 到乔布斯.skill、马斯克.skill,支持自我镜像、职场关系模拟、公众人物方法论,甚至亲密记忆与精神主题。

    主要功能:

    - 自我蒸馏工具:自己.skill、数字人生.skill、女娲.skill 等,用于个人心智与记忆整理;
    - 职场关系技能:同事.skill、老板.skill、导师.skill,支持工作上下文与沟通模拟;
    - 亲密记忆助手:前任.skill、父母.skill、Reunion Skill,用于情感回溯与家庭陪伴;
    - 公众人物方法论:巴菲特、芒格、PG.skill、费曼.skill 等,提炼决策框架与启发式;
    - 专门化主题:赛博算命、月老姻缘、Master-skill 等,覆盖精神与术数领域。

    开源项目,适合 AI 开发者、产品设计师与个人成长爱好者。
  8. 从单体应用到积木经济:软件开发的范式转移 | 推文

    + 从单体应用到积木经济:软件开发的范式转移

    软件开发的制胜法则正在发生剧变。过去,我们追求打造高质量的主线应用以获取用户;而今天,最有效的增长路径是提供“积木”(Building Blocks)——那些能让其他人、甚至 AI 代理,以数量取胜而非质量优先的开发原语。

    Ghostty 的数据证明了这一点:其 macOS 应用在 18 个月内达到百万级日活,而作为底层积木的 libghostty 仅用 2 个月就突破了数百万用户。这种爆发式增长在 Next.js、Tailwind 等生态中屡见不鲜。这不仅仅是技术选型的变化,更是产品思维的底层重构。

    1. 进口激增:AI 驱动的“胶水”时代

    今天的软件工厂是“代理化”的。无论你是否接受,AI 已经成为生产力的核心。AI 或许不擅长从零构建一切,但它极擅长将高质量、文档完备且经过验证的组件“胶水”在一起。

    过去,人类开发者组合原语需要极高的理解门槛,这个门槛天然过滤了低质贡献。如今,门槛消失了。软件不再仅仅是“库”或“框架”,它演变成了可被任意拆解、打补丁和重新组装的积木。

    2. 出口爆发:数量胜过质量的红利

    当工厂开始全速运转,软件的产出量是惊人的。虽然这带来了安全和不稳定性等负面影响,但其正面效应正在重塑生态:

    - 维护成本的降低:作为积木提供者,你可以理直气壮地拒绝平庸的功能请求。既然提供了生产工具,用户完全可以自行构建特定功能。
    - 研发的去中心化外包:主线应用的维护者可以观察生态中的无数分叉(Forks)和实验。这是一种高效的“先跑后择”机制:让社区去试错,主线只负责收割最优秀的创意。
    - 认知度的降维打击:主线应用无法满足所有细分需求,但基于积木产生的无数衍生版本,能让技术渗透到最隐秘的利基市场。

    3. 商业化的房间大象

    在积木经济中,闭源商业软件正面临巨大挑战。目前的客观事实是:AI 代理在选择组件时,会压倒性地倾向于开源和免费软件。

    虽然商业化的最终答案尚不明朗,但一个趋势是确定的:主线应用将变得更加稳定且克制,其生命力将由庞大的、多样化的用户群和外包化的研发生态共同支撑。

    4. 范式已转,不进则退

    软件积木和软件工厂已经统治了我们的环境。面对这种转变,你可以选择构建抵御洪流的孤岛,也可以选择完全拥抱这种混沌。

    重点在于,这种转变不是“将要发生”,而是“已经发生”。我们正生活在其中。

    + 思考:
    - 软件的未来不再是完美的艺术品,而是易于组装的乐高零件。
    - AI 并不创造逻辑,它只是加速了逻辑的搬运与粘合。
    - 拒绝平庸功能的底气,来自于你为用户提供了自行实现的能力。
    - 伟大的产品不再是终点,而是他人创造力的起点。
  9. 开发AI Agent常常需要切换多个框架和工具,记忆系统难管理,技能创建繁琐,自学习循环还得从零搭建,效率低下。

    《Hermes Agent 从入门到精通》橙皮书,提供Nous Research开源AI Agent框架的完整实战指南。

    全书17章5部分,详解自学习循环、三层记忆系统、自动技能创建与演化,还包括安装、多平台部署和真实场景应用。

    主要内容:

    - 从Harness工程到Hermes Agent核心概念;
    - 学习循环、记忆系统、Skills与工具生态;
    - 动手安装、首次对话、多平台运行与自定义;
    - 知识助手、开发自动化、内容创作、多Agent实战;
    - 自学习Agent边界与三方对比深度思考。

    免费PDF下载,支持开发者与AI爱好者快速上手,基于Hermes Agent v0.7.0。