Skip to main content

黑洞资源笔记

  1. AI一人公司年入150万,但门槛比你想的高得多

    杭州创业者武培文用AI智能体替代90%执行工作,一人公司年营收150万、月成本仅3000元。这个故事真实,但他背后是8年跨境营销经验和Meta硅谷团队的履历,AI放大的是他本来就有的东西。

    武培文给自己的AI团队起了名字:Minion负责抓竞品数据,Sage做投放策略,Quill生成多语种文案,还有个执行体处理客户沟通。他自己只做决策和验收。月成本3000元,净利润率超65%,日均接单8到10单,客单价3000到5000美元。

    这个数字在网上引起广泛讨论,很多人问的第一个问题是:我能复制吗?

    大概率不能,至少不能直接复制。武培文在Meta硅谷团队待过,年薪超20万美元,跨境营销做了8年,90%的营收来自长期合作客户。他搭的那套自动化流程,核心不是会用AI工具,而是把行业认知拆解成了机器能执行的规则,比如“广告ROI低于1:3自动暂停”。这种规则只有真的在这个行当里摸爬滚打过的人才写得出来。

    AI是放大器,不是起点。

    有网友提到,真实体验是“身体自由但心力更累”,凌晨睡觉、决策孤独,所有风险一个人扛。一人公司不是一个人轻松赚团队的钱,是一个人把团队的活全干了,只是有些活交给了机器。

    杭州的政策确实给了助力:免租金、创业基金、算力补贴,这些降低了试错成本。但政策铺的是路,能不能走下去,看的是你在这条路上原本积累了什么。

    社交平台上涌现出大量“0基础AI年入百万”的课程,收费从几千到几万不等,部分已被警方通报为诈骗。幸存者偏差的问题在这里格外明显,你看到的是那个成功的人,看不到的是一百个调试失败、收益不及预期、最后悄悄放弃的人。

    有意思的对比是中美路径的分化:美国方向是高研发投入加订阅制,OpenAI年亏损超90亿美元还在烧;中国方向是直接切产业端,降本增效,政策托底,场景化快速变现。武培文这个案例,恰好是后一条路走通的一个样本。

    他的意义不在于“普通人也能年入150万”,而在于证明了一件事:当AI足够强,行业认知可以被工程化,然后让机器跑着。但工程化这件事本身,需要你先把认知攒够。

    问题是,大多数人想跳过攒认知这一步。
  2. OpenAI完成史上最大私募融资,AI军备竞赛进入资本决战阶段

    OpenAI完成1220亿美元融资,投后估值8520亿美元,刷新全球私募融资纪录。亚马逊、英伟达、软银三家合计出资逾千亿,资金将用于芯片、数据中心和人才。公司仍未盈利,IPO预期在2026年底。

    七年,从微软的10亿美元起步,到现在接近万亿美元的估值。这个速度,连硅谷老兵都觉得有点失控。

    1220亿美元,这不是一轮融资,是一次军事调动。亚马逊出500亿,英伟达出300亿,软银出300亿,三家凑出1100亿打底,剩下的由a16z、TPG、黑石等机构补齐,还首次向高净值个人投资者开放了30亿的窗口。钱的来源结构本身就是一种信号:买芯片的、卖芯片的、做基础设施的,全都下注了。

    业务数据确实撑得住这个叙事。月营收20亿美元,ChatGPT周活用户9亿,企业级收入占比已到40%并持续爬升,Codex三个月用户增长五倍。有意思的是,广告试点仅六周就做到年化1亿美元——这说明OpenAI已经不只在卖AI能力,它在测试自己变成一个平台的可能性。

    有观点认为,Sora的关停时机耐人寻味,年化烧钱54亿、收入只有140万,在融资节骨眼上砍掉这个项目,财务报表的逻辑远大于产品逻辑。这或许是真的。

    麻烦在另一边。合同债务4360亿美元,年收入约250亿,这个比例放在任何传统行业都会触发警报。曾向私募承诺17.5%的保底回报来拉资金,市销率超过50倍。有网友提到,英伟达既是投资方又是主要芯片供应商,这种资金流转是否存在循环空转的隐患,值得持续关注。

    这笔融资大概率是IPO前的最后一次大规模私募。亚马逊那350亿的尾款,部分与上市或AGI里程碑挂钩,本身就是一个嵌入合同的倒计时。

    AI行业现在的逻辑越来越像早期电网建设:你不知道哪家公司最终会赢,但你确定基础设施会被大量投入,所以先把电线杆立起来。问题是,电网建好之后,用电的生意有多少,钱能不能转起来,公开市场的投资者愿不愿意为“高增长但不盈利”的故事继续买单。

    这个问题,2026年底大概会有一个阶段性的答案。
  3. 甲骨文凌晨6点突发裁员3万人:AI时代最冷酷的资本置换

    2026年3月31日凌晨六点,Oracle数万名员工打开邮箱,看到一封署名“Oracle Leadership”的邮件。内容很短,大意是:我们评估了业务需求,决定取消你的岗位,今天是你最后一个工作日。

    系统权限同步关闭。没有一对一谈话,没有提前通知。

    规模估算在两万到三万之间,占全球员工的12%到18%。Oracle官方没有置评,但这个数字已经在科技行业引起广泛讨论。

    理解这件事,需要先看一张资产负债表。Oracle本财年计划资本支出约500亿美元,大部分用于建设AI数据中心,服务OpenAI这类大客户。债务从一年前的890亿美元涨到超过1200亿美元。上季度自由现金流为负100亿美元。今年股价已经跌了约25%。

    与此同时,上季度净收入同比增长95%,剩余履约义务高达5530亿美元。

    这家公司不是在亏损,而是在一场豪赌里缺现金。TD Cowen早在1月就发报告说,裁员2-3万人可以释放80-100亿美元自由现金流,用来支撑AI扩张。这不是分析,是一份操作手册。

    管理层显然读到了。

    有观点认为,Oracle的选择不过是把人力成本转换成算力投资。这个说法足够准确,冷酷到。微软、亚马逊这两年做过同样的事,只是执行方式没这么戏剧性。凌晨六点的邮件,让这件事的本质暴露得更清楚。

    有网友提到,23%的2026年第一季度科技行业裁员明确标注了“与AI相关”。这个数字会继续升。

    印度受影响据称最深,可能有1.2万人左右。Oracle长期把大量工程和支持岗位放在那里,现在这些岗位在一封邮件里同时消失了。

    从操作系统的角度想这件事:Oracle在做的事情,相当于把进程的用户态内存强制回收,全部分配给内核的I/O调度。短期会有进程崩溃,但如果I/O吞吐量提升足够大,系统整体性能理论上会上去。

    问题是,这个“理论上”要等多久兑现,没人知道。

    债券持有人已经起诉公司隐瞒额外债务需求,多家银行退出了数据中心项目贷款,信用违约掉期利差升到三年高位。市场在给这场豪赌定价,而且定的不低。

    Cerner还没卖,那笔2022年283亿美元的收购正在考虑出售。RHS部门裁员比例据报道超过30%。下一轮可能已经在评估中。

    员工们在LinkedIn上写:震惊,无预警,今天就是最后一天。有人在问遣散协议走DocuSign的流程是什么。

    这些问题都是真实的,只是在Oracle的那张资产负债表上,它们不在优先级队列里。
  4. “小龙虾”写专利:一个让技术机密和法律效力同时崩塌的操作 | 帖子

    国家知识产权局发布风险提示,使用OpenClaw等AI智能体撰写专利申请文件,可能同时触发技术泄密、文件实质缺陷、不诚信申请三类风险。专利文件的特殊性在于它既是技术机密又是法律文书,两种属性叠加,任何一个环节的失控代价都成倍放大。

    专利申请这件事,本质上是把你最核心的技术方案翻译成法律语言,然后暂时交给一个陌生系统处理。这个过程里有两件事需要同时保证:内容不能泄露,表达不能出错。偏偏OpenClaw在这两点上都有已知缺陷。

    安全通过率58.9%,这个数字放在任何工程场景里都属于不可接受的失败率。更麻烦的是,OpenClaw需要高权限运行,默认配置又脆弱。全球超27万台设备暴露在公网上,提示词注入攻击成功率超过90%。用它处理技术交底书,大概相当于把保险柜密码写在便利贴上贴到咖啡馆桌子上,然后说“应该没人会看”。

    有网友提到,已有人在使用过程中因为开放端口没处理干净,信用卡被盗刷。这还只是日常使用场景。专利文件里的内容价值通常远不止一张信用卡,一旦泄露,专利因丧失新颖性被驳回,对手抢先申请,损失很难量化。

    AI幻觉的问题同样不容忽视。智能体在处理模糊指令时会主动“脑补”,生成逻辑自洽但技术上错误的表述。专利文件对技术特征的描述要求极高,一个表述不清的权利要求,等于主动缩小了保护范围,有时候比没有专利还糟糕。

    还有一个更少被讨论的维度:凭空拼凑内容属于违反诚实信用原则,代理机构可能被吊销执业许可,严重的进黑名单。代理师替委托人承担这个风险,值得认真想一想。

    有观点认为,这类风险并非OpenClaw独有,而是当前所有具备自主操作能力的AI智能体的共性问题。工具越强,权限越高,攻击面就越大。Docker隔离、最小权限账户、关闭公网暴露端口,这些措施能降低风险,但需要使用者具备相当的技术能力去正确配置。对于非技术用户,“暂缓部署”是更诚实的建议。

    专利文件这个场景有点特殊,它是少数几种对格式和措辞都有极高法律要求、同时内容又极端敏感的文档类型之一。把它交给一个安全通过率不到六成的工具,不是效率问题,是风险定价问题。

    那个问题还没有答案:等AI智能体的安全通过率到了多少,才算可以用于专利场景?99%够吗?
  5. DeepSeek押注Agent:从“会聊天”到“会干活”

    服务宕机12小时的热搜还没凉,DeepSeek悄悄挂出了17个岗位。

    全部指向同一个方向:Agent。算法研究员、数据评测专家、基础设施工程师,连产品经理都单独开了Agent方向。岗位描述里有一句话值得注意——“重度使用Claude Code、Cursor等AI编程工具者优先”。一家AI公司在招聘时明确要求候选人用竞品工具,这本身就是一种表态。

    所谓Agent,用最直白的话说:让AI从“被问才答”变成“自己想、自己干、干完自己检查”。规划任务、调用外部工具、多步执行、长期记忆。过去大模型像一个问答机,Agent更像一个能独立跑任务的进程。底层模型是CPU,Agent才是跑在上面的操作系统。

    有观点认为,底层模型的能力已接近某种边际,接下来的竞争转移到“训练Agent”和评测基础设施。这个判断大概是对的。参数规模的军备竞赛跑到一定程度,差距开始在别处显现——谁能把模型的能力接进真实工作流,谁能让Agent在复杂任务里不乱、不循环、不幻觉。

    DeepSeek-V3.2已经把思考推理和工具调用融进了正式版,此次招聘像是给这个方向补人手。有网友提到,宕机之后DeepSeek的编码风格突然发生变化,加上支持超长上下文,外界猜测内部正在测试新架构。招聘和模型迭代同步出现,这个时间点不像巧合。

    年薪最高154万,实习生待遇也不含糊。钱堆在强化学习、评测、基础设施这几块,说明DeepSeek很清楚卡点在哪。一个Agent系统能不能用,不只取决于模型聪不聪明,还取决于评测数据集够不够准、运行时环境够不够稳、工具调用够不够可靠。这些都是脏活,也都是护城河。

    有观点认为接下来半年内Agent会彻底改变工作流,很多执行类岗位将被替代。这个时间表可能太激进,但方向大概没错。

    真正没解决的问题是:Agent的自主性和可控性之间的张力。让它更自主,就更容易偏;约束得越死,又回到了问答机。这不是招几个工程师能解决的事,更像是一个还在跑的实验。
  6. Claude Code的真正优势藏在引擎盖下面 | 推文

    Claude Code的代码库近日遭到泄露,内部实现细节随之浮出水面。它比网页版聊天界面强的地方,不是模型本身,而是一整套精心设计的上下文管理和工具调用机制。换句话说,同样的模型,装进不同的软件框架,表现会差很远。

    最近Claude Code的TypeScript源码在GitHub上短暂出现过,随即引发广泛讨论。在撇开法律问题之后,它揭示了一个值得深想的问题:为什么同一家公司的同一个模型,放在网页端和放在Claude Code里,用起来感觉像两个东西?

    答案大概不在模型权重里。

    Claude Code启动时会主动拉取当前git分支、最近提交记录、CLAUDE.md等信息,这是它比网页聊天"懂代码库"的起点。更有意思的是它的缓存策略:静态内容和动态内容之间有明确的边界标记,静态部分全局缓存,不用每次重算。这有点像操作系统里的写时复制,脏页才走慢路径,干净的页直接复用。

    工具层面也有讲究。它没有直接通过Bash调grep,而是用一个专门的Grep工具,权限处理和结果收集都在自己掌控里。还有独立的Glob工具做文件发现,以及LSP接入,支持调用层级查找、引用跳转这些功能。网页端看代码更像读静态文本,Claude Code看代码更像真的在跑一个Language Server。

    有观点认为,这些工具的加入本质上是把IDE的能力注入给了模型,而不是让模型自己去猜文件结构。

    上下文膨胀是代码Agent最容易翻船的地方。反复读文件、长日志、来回对话,context很快就满了。Claude Code在这里做了几件事:文件读取去重,检测文件没有变化就不重新处理;工具返回的结果如果太大,写到磁盘,context里只放预览加文件引用;超长context自动触发压缩和摘要。

    这些加在一起,本质上是在做一个手动管理的内存层级,告诉模型什么值得放在寄存器里,什么扔到硬盘就好。

    还有一个细节:Claude Code维护一个结构化的Markdown会话记录,包含当前状态、任务说明、涉及的文件和函数、错误与修正、工作日志等部分。这个设计很像人类程序员写scratch pad的习惯,只是被系统化地内置进去了。

    子Agent和fork机制倒不新鲜,fork出来的Agent复用父级缓存,同时感知可变状态,可以在不污染主循环的情况下跑摘要、提取记忆或做后台分析。

    原作者有个判断,大概70%可信:如果把DeepSeek或其他模型塞进这套框架里,稍作适配,编程表现也会大幅提升。模型是硬件,这套软件框架才是系统软件,性能由两者共同决定。

    这留下一个没解决的问题:如果框架比模型更关键,那未来coding agent的竞争,会不会最终变成一场上下文管理工程的军备赛?
  7. Claude Code开源编译版来了!free-code 是一款免费的 Claude Code 版本,去除了所有遥测,移除了安全提示限制,开启了全部实验功能,完整解锁开发潜能!

    它是基于 Anthropic Claude Code CLI 打造的终端AI编码助手,支持多种高级功能:
    - 完全无遥测,保护隐私不“回传”;
    - 移除安全提示guardrails,释放模型潜力;
    - 启用45+实验特性,如远程多代理策划、深度思考模式、语音输入、IDE远程控制、任务验证等;
    - 支持macOS / Linux(Windows可通过WSL);
    - 简单安装,自动检测系统环境,自动安装依赖并构建二进制程序。

    安装方式也极其友好:
    curl -fsSL https:// raw.githubusercontent.com/paoloanzn/free-code/main/install.sh | bash
    export ANTHROPIC_API_KEY="sk-ant-..."
    free-code


    这意味着开发者可以在终端直接享受一个强大的AI编程助手,提升写代码效率、自动化任务调度、语音交互编程都不在话下。
  8. 在线使用 Claude Code AI API 时,面对高频率、多维度的设备指纹和遥测信息,隐私保护成了大难题。

    motiful/cc-gateway 是一个 AI API 身份网关,作为 Claude Code 和 Anthropic API 之间的反向代理,能彻底规范设备指纹和遥测数据,帮你掌控离开网络的隐私信息。

    项目主要特点:

    - 完整身份重写,将设备ID、邮箱、会话数据统一化为单一的标准身份;
    - 替换超过40个环境维度,包括平台、架构、Node版本等;
    - 系统提示和进程指标脱敏,防止硬件差异暴露身份;
    - 集中管理OAuth,实现免浏览器登录,所有刷新和鉴权均由网关处理;
    - 防止遥测泄露,剥除可能暴露代理的信息字段;
    - 三层防护架构:环境变量强制路由 + 网络层域名屏蔽(Clash规则) + 身份数据智能重写。

    非常适合需要隐私安全和统一身份管理的 AI 开发者,用命令行快速部署,支持 Docker 和多平台。

    主要用途:保护 AI API 用户隐私,绕过多设备身份追踪,简化身份授权流程。
  9. 在线开发界面往往需整合多种功能,调度多个AI模型来提升效率,管理复杂的工作流也极具挑战。

    Claude Code Best Practice 是一套以Claude AI为核心,围绕“实践造就完美”设计的智能代码开发最佳实践集合。

    它涵盖了Agent、Commands、Skills等模块,支持多模型协同、自动权限管理、持续代码审查和自动化工作流程,能极大地提高代码质量和开发效率。

    主要亮点:

    - 多层次Agent分工,针对不同任务细化角色,提升上下文聚焦;
    - 丰富Commands实现日常开发命令自动化,减少重复操作;
    - 灵活Skills支持上下文分叉执行,模块化管理知识和代码片段;
    - 支持持续集成环境中的多模型代码审查,自动发现bug和安全隐患;
    - 强大的Hooks系统,自动格式化、权限控制,确保代码安全合规;
    - 支持计划模式(Plan Mode)带有多阶段测试,保障开发质量;
    - 具备本地和云端调度的周期性任务功能,提升自动化能力;
    - 内置调试工具和状态栏,实时上下文与成本监控,友好易用。

    该项目兼容CLI和VS Code等开发环境,适合想借助大模型系统化提升研发流水线的团队和研发者。
  10. LLM能说服你,也能说服你相信完全相反的事 | 帖子

    Karpathy花四小时用LLM打磨论点,觉得无懈可击,然后让它论证反方,被当场说服。LLM不是真理机器,是说服机器,这个差异比大多数人意识到的要重要得多。

    Andrej Karpathy最近发了条帖子,简洁到有点喜剧效果:写好一篇博文,用LLM磨了四小时论证,感觉天衣无缝,心情很好。然后随手让它论证反方观点,LLM把自己的论点彻底拆烂,而且他被说服了。

    然后他写了个“lol”。

    这个“lol”背后其实是个严肃的问题。LLM不在乎你的论点是什么,它在乎你让它说什么。它优化的是局部连贯性和听起来有说服力,不是真相。所以它可以帮你把一个烂论点打磨得光可鉴人,也可以在五分钟内把它拆成碎片,用的是同等水平的PhD腔调。

    有网友一针见血:“如果它能流利地论证两面,说明的是它的修辞能力,不是你论证的正确性。被说服只代表你的反驳门槛太低。”

    也有观点认为,这个特性反过来可以用。与其把LLM当思想的放大器,不如当压力测试机。在发文前,专门让它找你论点的三个最大漏洞,让它扮演最挑剔的批评者而不是最热情的编辑。还有人在构建multi-agent系统,让不同模型盲评、相互攻击,用隔离上下文的方式对抗天然的讨好倾向。

    真正的问题是:我们习惯用“听起来有没有道理”来判断一个论点好不好。LLM恰好极其擅长让任何东西都听起来有道理。我们过去缺的不是正确答案,是足够好的反驳。现在这个障碍消失了,却多了一个新问题:你愿不愿意在发布前主动让它把你的论点砸烂一遍?
  11. Jevons悖论:AI工具越好用,对开发者需求越大 | 帖子

    AI没有缩小软件开发市场,而是把市场扩大了100倍。真正消失的不是开发者需求,而是"只会写代码"这个岗位。

    有个做MVP开发的创业者发帖,说他今年业务量翻倍了,不是因为别人不会建东西了,而是因为现在每个人都在建东西。

    这背后是一个古老的经济规律在发威,Jevons悖论:当一种资源变得极度高效,人们不会用得更少,而是找到一千个以前从没考虑过的使用场景。蒸汽机没有减少煤炭消耗,它让煤炭变得如此有用,需求反而爆炸。

    两年前,一个没有技术背景的创始人想做SaaS,要么学六个月编程,要么花十几万外包。大部分人选择了第三条路:把想法烂在备忘录里。现在,同一个人周末就能用AI工具搭出原型。你以为这让开发者失业了,实际上发生的是:每个建出"半成品"的人,都立刻需要帮助把它变成能跑在生产环境里、安全且可扩展的真实产品。

    入门门槛降到零,市场没有缩小,而是多了几百万个新入口。

    有意思的是,反驳声音也很集中。有观点认为,AI迟早能处理产品决策、用户访谈、功能取舍这些"人类判断"的部分。原帖作者的回应很直接:代码从来就不是最难的部分。难的是搞清楚该建什么、为谁建、什么时候该砍掉一个功能。这些问题的输入本身就是混乱的、人性化的,AI解决不了,因为问题还没被清晰地提出来。

    有网友提出了更犀利的分层:初级开发者正在被快速挤压,写CRUD接口这类活确实在消失。但能判断"AI在哪里自信地出错了"的高级工程师,成了每个项目的瓶颈。技能溢价从语法转移到了判断力,这个变化比很多人意识到的要快。

    还有人提到,CS毕业生找不到工作,是因为公司不再需要"会写for循环的人",需要的是能把模糊问题变成用户愿意付钱产品的人。这两个需求根本不是同一件事,却长期被同一个职位名称混淆了。

    真正值得想的问题是:如果会AI的一个人能顶以前三到五个人,工资天花板会怎么变?软件越来越多,开发者薪资会跟着涨,还是因为"人人会编程"而变成商品?

    这个问题没有人答得出来。
  12. 用普通笔记本跑大模型,不再是梦 | 帖子

    Google的TurboQuant算法被移植进llama.cpp后,MacBook Air(M4, 16GB)终于能在20000 tokens上下文下运行Qwen 3.5-9B,而此前直接崩溃。这不是什么颠覆,但确实把“不可能”变成了“可以接受的慢”。

    一台最便宜的MacBook Air,能跑20000 tokens上下文的9B模型,而且不崩溃。

    这就是TurboQuant带来的变化。Google这个压缩算法的核心思路不是直接暴力压缩数据,而是改变数据的存储格式,让KV缓存用极坐标(角度)而非直角坐标来表示,顺带去掉了传统量化方案里必须附带的精度校正常数,还加了1bit错误修正。普通的q4量化相当于把一张全彩图片强行降成16色,TurboQuant更接近视觉无损压缩,模型“看起来”还是原来那张图。

    有网友测试后指出,同等bit数下TurboQuant比llama.cpp原生的KV cache量化质量更好,尤其在3bit时差距明显。至于有多接近无损,Google官方说90%以上,实测结果众说纷纭,差距基本在噂1%级别。

    目前TurboQuant还没合并进llama.cpp主线,不过社区已经有可编译的实现,有网友预测本周内就能进主分支。MLX版本在路线图末端,不过已经有人提前做了PR。

    20000 tokens对于真正的AI agent来说其实还很小,Claude Code的系统提示就有12k。本地设备离长上下文代理仍有距离,只是这个距离,今年开始以肉眼可见的速度在缩短。
  13. 在线利用各种AI工具写提示词,常常要反复尝试、浪费大量token和时间。

    Prompt Master 是一个专为Claude设计的技能,能帮你精准生成适合任何AI工具的高效提示词,最大限度减少无效调用。

    Prompt Master 自动识别目标AI,结合任务、上下文、风格等9个维度智能生成最精简有力的提示语,避免无意义啰嗦和反复修正。它支持Claude、ChatGPT、Midjourney、GitHub Copilot等二十多款主流AI工具,且内建35个常见的“坑”避免策略,还有内存区块功能,确保跨对话一致性。

    主要亮点:
    - 超精确:每个词都承载意义,帮你一键拿到想要答案
    - 多场景:写代码、生成图片、设计Prompt都能胜任
    - 智能提问:缺信息时最多问你3个问题,快速补全需求
    - 跨工具:支持20+ AI平台,不用为切换写法烦恼
    - 开源免费,MIT许可,方便本地定制和集成

    无论你是AI初学者还是资深产品经理、开发者,这款Prompt Master都能帮你高效产出、节省费用