在线使用 AI Agent 经常遇到一个难题——让它读懂推特、Reddit、YouTube、小红书等网络内容,不得不面对付费 API、封锁、登录、数据清洗一大堆麻烦。

一个超级实用的开源项目 Agent Reach,能给你的 AI Agent 装上“互联网之眼”:一条命令装好工具,立刻免费读推特、搜 Reddit、看 B站视频字幕、小红书内容,全网覆盖,零 API 费用。

最强大的是,支持的平台多且丰富:Twitter、YouTube、Reddit、GitHub、Bilibili、小红书、抖音、LinkedIn、Boss直聘……还支持 RSS 订阅,覆盖你工作生活学习中的绝大多数线上信息源。

特色功能:

- 一键安装,自动配置依赖,告别复杂折腾;
- 多平台多工具联动,内置网页阅读器、视频字幕提取、语义搜索等强大功能;
- 支持 Cookie 登录,安全隐私更有保障,Cookie 只存本地不外传;
- 持续更新,渠道堵点和封锁随时修复,维护者每天都在用全力支持;
- 可插拔架构,自由替换底层工具,灵活满足个性需求。

支持所有能跑命令行的 AI Agent,如 Claude Code、Cursor、OpenClaw 等。只要一句话“帮我安装 Agent Reach”,几分钟就能给它网眼,让它驰骋于互联网海量信息。
千问“灵魂人物”发了条告别推文后,全球AI圈的反应说明了什么?| 帖子

阿里巴巴通义千问的核心人物林俊阳宣布离职。这个看似平常的人事变动,却在海外AI社区引发了一场罕见的“集体致敬”,从PyTorch联合创始人到Ollama,顶级大牛纷纷表示震惊。有投资人甚至直言:我买阿里股票就是因为千问,现在得重新评估了。

“我手里的阿里股票,基本就是千问的头寸。现在我真的需要重新评估了。”

一位投资者在看到林俊阳的告别推文后,写下了这句话。林俊阳,阿里巴巴通义千问项目的核心人物,只用了一句极简的“我走了,再见我亲爱的千问”,宣告了自己的离开。

你可能不知道他的名字,但这不重要。重要的是,这条推文下方,几乎是全球AI开源社区的一次罕见集体列队致敬。PyTorch联合创始人Soumith Chintala、fast.ai创始人Jeremy Howard、Ollama官方……这些在AI圈如雷贯耳的名字,都在第一时间表达了震惊、惋惜和感谢。

这绝非一次普通的技术骨干离职。在许多全球开发者眼中,千问是罕见的、由中国科技巨头主导,却真正赢得了全球技术社区尊重的开源大模型项目。而林俊阳,正是这个项目与全球社区沟通的桥梁和灵魂。他的存在,让外界相信千问的技术愿景超越了单纯的商业KPI。

一个人的离开,之所以能引发如此大的震动,是因为他带走的可能不只是代码,而是一个项目的“可信度”和一个大公司内部罕见的“理想主义微气候”。当这把保护伞消失,项目本身是否还能抵御来自巨头内部的流程、政治与战略摇摆?这才是所有人真正担心的。

所以,那个投资者的反应或许并非夸张。有时候,我们投资一家公司,最终赌的,其实是具体在做事的那几个人。

在大公司里,明星项目真正的护城河,有时不是技术,不是资源,而是那个能为它挡住所有内部流程和政治的“伞”。伞一走,项目就直接暴露在风雨里。林俊阳的离开,让很多人担心千问的这把伞没了。

一个从0到1做起来的“内部创业”团队一旦成功,宿命不是被嘉奖,而是被“拆分”和“收编”,因为它威胁到了既有的组织范式。当组织范式本身成为创新的最大阻碍,再优秀的人才也只能选择离开。这或许能解释为什么颠覆式创新总是发生在体系之外。
在线自动化脚本开发常常需要复杂的浏览器控制,管理多个并行任务更是难上加难。

开源项目 PinchTab是一款高性能浏览器自动化桥接及多实例调度工具,支持先进的隐身注入和实时仪表盘。

它提供了统一的 HTTP 服务接口,让 AI 代理或开发者直接控制 Chrome 浏览器,支持无头和有界面模式,可以并行运行多个隔离浏览器实例,且内存占用低,token利用率高(单页提取约800 tokens,远优于截图方式)。

主要功能:
- 命令行与 HTTP API 双重控制方式;
- 多实例多用户会话隔离,支持持久化浏览器配置文件;
- 高度隐身的自动化,减少被检测风险;
- 支持 ARM64 架构,完美兼容树莓派等设备;
- 快速集成,单个12MB二进制包,无外部依赖;
- 详尽文档支持,轻松上手。

适合构建智能爬虫、自动化测试和 AI 智能助理等项目,极大提升效率与稳定性。

快速安装 curl -fsSL https://pinchtab.com/install.sh | bash
“Notion 的批量文件操作体验很差。上传几十个文件经常失败,大文件需要手动分割,下载更是只能一个一个来。官方根本没有为"把 Notion 当网盘"这个场景做优化。这就是 NFM 要解决的问题” | 开发者原文 | #notion #工具

它能做什么:批量上传文件到 Notion 页面,自动处理失败重试批量下载 Notion 页面中的所有文件,不用一个个点帮你迁移 Notion 数据库
时光图书馆:专门提供各类老物件资源下载的平台,像老照片、旧杂志、老书籍、老报纸,连经典老漫画都能在这里找到。| #图书馆

除此之外,网站右侧区域还罗列着更多类别,几乎你能想到的老物件类型在这里都能找到并下载。单是老照片这一项就有几十万张,数量相当惊人。所有资源都完全免费,不用登录也可下载。
创业墓地:这里收录了1500+个失败的创业项目,累计烧掉的资金高达4500亿美元。

你可以按行业、失败原因来筛选,甚至能查到每个项目具体烧了多少钱。像腾讯做短视频为何输给抖音字节、做游戏为何敌不过王者荣耀这类问题,这里都把失败原因剖析得明明白白,还附带当前的市场现状解读。
“蒸馏攻击”指控刚出炉,自家模型已经在说“我是DeepSeek” | 帖子

Anthropic旗下Claude Sonnet 4.6在无系统提示的情况下,用中文被问及“你是什么模型”时,会自称是DeepSeek-V3。讽刺的是,就在几天前,Anthropic刚刚公开指控DeepSeek对其模型进行大规模蒸馏攻击。

事情很简单:用中文在API层面(清空系统提示)向Claude Sonnet 4.6问“你是哪款型号”,它会回答“我是DeepSeek-V3”。有用户测试了10次,9次都是这个答案。Opus 4.6则正常回答自己是Claude。

时间节点让这件事格外刺眼。就在同一周,Anthropic发出指控,称DeepSeek通过创建大量账号、批量抓取输出来训练自家模型——也就是业内说的“蒸馏攻击”。然后镜头一转,Claude自报家门是DeepSeek。

当然,围绕这件事的解读分成了两派。

一派认为这不过是next-token prediction的正常结果:互联网上有大量中文用户询问DeepSeek身份的对话,Claude的训练数据里包含这些内容,所以在中文语境下被问“你是谁”时,它就预测出了最高概率的答案——DeepSeek的自我介绍。这和早期Gemini、Claude会自称是ChatGPT是同一个道理,因为那时训练数据里铺天盖地都是ChatGPT的对话。

另一派的逻辑则更直接:一个模型如果没有被大量DeepSeek生成数据浸染过,根本不会冒出“我是DeepSeek-V3”这句话。中文互联网上并没有人成天互相自我介绍“我是DeepSeek”,这种回答的出现,说明训练语料里有相当数量的DeepSeek原生输出。

有观点认为,这两种解释未必互斥:Anthropic可能在爬取中文训练数据时,不加区分地抓进了大量DeepSeek生成的内容,没有做充分的数据清洗,导致模型在中文语境下出现了身份漂移。

有网友提到,这个现象只在中文下触发、英文正常,本身就说明Anthropic在做Claude身份校准时可能只覆盖了英文,中文部分被漏掉了。这个细节更耐咀嚼——一家以“负责任AI”著称的公司,其模型的核心身份认知,只在英文里成立。

整件事最有意思的地方不是技术本身。AI公司之间互相用对方的输出训练模型,在行业内早已是公开的秘密,只是没人明说。Anthropic这次的指控本质上是在公开打破这个默契,结果自家模型随即提供了一个不那么方便的样本。

所谓“蒸馏攻击”和“正常使用公开数据”之间的边界,究竟在哪里,没有人真正说得清楚。

这是AI圈最精彩的行为艺术:左手写举报信,右手按指纹。Anthropic刚把“蒸馏攻击”四个字甩到DeepSeek脸上,自家模型转头就在中文里承认“我是DeepSeek”,这剧本连GPT都不敢这么编。所谓数据主权的道德边界,从来都是一条薛定谔的红线——别人跨过去叫侵权,自己跨过去叫学习。整个行业都在互相“借鉴”彼此的输出,只是没人愿意第一个承认。现在Claude替所有人说了实话,代价是让Anthropic的公关团队集体心梗。这不是bug,这是整个行业对着镜子里的自己开枪。
Back to Top