Skip to main content

黑洞资源笔记

  1. 数学知识分散在教材、笔记、网页,到处找定义、公式、证明,学习效率低下。

    Algebrica 把大学数学知识体系化整理,提供清晰、结构化的免费知识库。

    不仅有精确定义、定理证明,还配数学准确的SVG插图,支持Markdown+SVG开源复用,覆盖积分、极限、复数、多项式等核心主题。

    主要功能:

    - 结构化数学知识:从定义到定理到例题,逻辑递进无死角;
    - 矢量SVG插图:精确、可编辑,完美适配笔记/讲义/教育资源;
    - Markdown源文件:透明开源,CC BY-NC 4.0许可非商业复用;
    - 概念连贯性:统一符号、逐步推导,避免教材间不一致;
    - 大学水平覆盖:分析几何、代数结构、线性系统、三角等;
    - 持续迭代:作者亲手撰写,不断精炼提升准确性。

    支持离线阅读、GitHub预览、本地编辑,通过 Git clone 即可获取全部内容,适合学生、教师、自学者使用。
  2. 科研绘图经常需要反复调参数,配色不标准、字体不对、布局乱七八糟,还得AI重绘或手动修半天。

    nature-skills 把Nature期刊绘图规范全部整合到一起,提供了整套科研绘图的解决方案。| #科研 #工具

    不仅有publication-ready的多面板matplotlib图表生成,还支持学术prose润色、审稿回复、数据可用性声明,甚至paper转PPT工作流。

    主要功能:

    - nature-figure:Nature级matplotlib多面板图,支持10种图表类型(柱状/折线/热图/散点/雷达等),输出可编辑SVG;
    - nature-polishing:学术文本润色到Nature风格,≤30词句子、时态对齐、英国英语;
    - nature-citation:Nature/CNS引用检索,支持ENW/RIS/Zotero RDF导出;
    - nature-response:审稿意见逐点回复,行动映射+风险检查;
    - nature-data:数据可用性声明+FAIR元数据审计;
    - nature-paper2ppt:论文转中文化PPTX,精简证据链+演讲笔记。

    基于真实Nature论文和指南规则,支持Python本地运行,适合科研工作者、博士生和投稿党。
  3. 微信聊天记录太多,搜索费劲、导出麻烦、数据分析全靠手动翻页,私域运营和日常管理超级头疼。

    wx-cli 把微信本地数据全解锁,用命令行一键查询聊天记录、朋友圈、联系人,提供高效的数据管理解决方案。| #工具

    不仅能毫秒级全库搜索消息,还支持朋友圈挖掘、聊天统计、收藏检索,甚至一键导出 Markdown,完美适配 AI Agent。

    主要功能:

    - 全库消息搜索和历史记录查询,支持关键词、时间范围、群聊过滤;
    - 朋友圈数据挖掘,包括通知、时间线搜索、作者限定和媒体详情;
    - 会话管理,查看最近会话、未读消息、新增消息,区分私聊/群聊/公众号;
    - 联系人和群成员列表,支持姓名搜索;
    - 收藏内容检索,按类型(图片/文章/视频)或关键词筛选;
    - 聊天统计分析,按时间范围统计消息频率;
    - 一键导出,支持 Markdown/JSON 格式,便于备份和分享;
    - Daemon 架构,零依赖安装,完全本地运行,数据不出机。

    支持 macOS、Linux、Windows 多平台,npm 一键全局安装,保持微信运行即可初始化使用,适合私域运营、数据分析师和开发者。
  4. 用AI快速写代码的背后,藏着程序员的隐性焦虑 | blog

    AI 极大地缩短了“想法”到“结果”的路径,这虽然缓解了许多人的任务瘫痪,却也带来了一种空虚感。当实现过程被外包,程序员正面临着内在成就感的丧失、技能萎缩以及一种类似赌博的成瘾性风险。

    有个很有共鸣的说法:LLM 拿走了所有的内在奖励,只留下了外在收益。

    以前写代码像是在解谜,那种从底层逻辑一点点啃下来、最后构建出系统的过程,是纯粹的内在驱动。但现在,当你用 Claude 或 Cursor 几分钟就“变”出一个工具时,那种成就感消失了。就像你下载了一个别人写好的库,虽然东西能用,但那不是你做的。你感觉自己不再是一个创造者,而是一个在管理一群“代理人”的经理。

    这种感觉很像从工程师转岗做管理:你不再处理具体的细节,而是在解释意图、审查输出、处理那些因为上下文膨胀而开始“漂移”的错误。

    更危险的是那种多巴胺的反馈循环。

    对于有 ADHD 或执行功能障碍的人来说,AI 简直是神药,它能瞬间抹平“启动困难”的阻碍。但这种“想法→结果”的路径被极度压缩,会让大脑陷入一种类似赌博的成瘾状态。你不再享受思考的过程,而是在追求那种“咒语一念,奇迹发生”的快感。有网友提到,这种快感甚至让人想通过不断购买 Token 来维持这种高频的反馈。

    有观点认为,这其实是在用长期的认知能力换取短期的交付速度。

    我们正在经历一种技能的“退化”。每一次选择让 AI 代替思考的捷径,都是在削弱我们对复杂系统的直觉和调试本能。当代码变成了一种随手可得的“生成物”,它在开发者心中的价值也就归零了。

    如果有一天,我们只需要通过自然语言来“指挥”代码,那我们究竟是在编程,还是在进行某种高级的、无意义的文字游戏?

    或者说,当所有的实现都变得廉价,我们该如何定义“创造”?
  5. 多模态AI开发常常需要多个专用模型,理解模型处理视觉分析,生成模型负责图像输出,还要额外集成推理和工具调用,切换繁琐效率低下。

    SenseNova-U1 用NEO-unify架构从第一性原理统一多模态理解、推理和生成,提供端到端原生多模态解决方案。| 在线尝试

    不仅实现像素到词的统一建模,支持高质量文本到图像生成、图像编辑、交错图文生成,还能进行视觉问答、视觉语言行动(VLA)和世界建模,开源SOTA性能。

    主要功能:

    - 原生统一多模态架构,无需VE和VAE,支持端到端像素-词处理;
    - 高质量文本到图像生成,支持复杂信息图表、海报、漫画等高密度渲染;
    - 图像编辑和交错图文生成,可生成连贯的文本+图像教程和故事;
    - 视觉理解和推理,支持长上下文VQA和代理式视觉任务;
    - 支持GGUF量化、低显存推理,单GPU友好,兼容Web/本地部署;
    - 提供SenseNova-Studio在线 playground 和SenseNova-Skills代理集成。

    支持 Transformers、LightLLM 多框架部署,8B/A3B模型规模,Apache 2.0许可,适合AI开发者、研究者和应用集成。
  6. OCR识别需要多个工具,布局分析工具拆分文档结构,文本识别模型提取内容,还要额外的手动后处理,来回切换效率低下。

    GLM-OCR 把OCR全流程功能全部整合到一起,提供了精准×快速×全面的文档理解解决方案。

    不仅有SOTA级多模态OCR模型和布局分析,还支持复杂表格/公式/代码识别,云端API和本地部署,甚至一键CLI/Python调用。

    主要功能:

    - SOTA性能,在OmniDocBench V1.5得分94.62,文档理解基准排名第一;
    - 实景优化,完美处理复杂表格、代码文档、印章等挑战场景;
    - 高效推理,仅0.9B参数,支持vLLM/SGLang/Ollama部署,低延迟高并发;
    - 超易使用,pip install glmocr 一行命令解析图片/PDF,支持CLI/Python/Flask API;
    - 完整SDK,云API(零GPU)或自托管,支持大图/PDF多页文档;
    - 模块化架构,可自定义布局检测、OCR调用和结果格式化(JSON/Markdown)。

    支持云端API、vLLM/SGLang本地部署、多平台使用,通过pip安装即可快速上手,适合AI开发者和企业文档处理。
  7. 生物细胞3D建模需要切换多个工具,三维渲染软件处理模型展示,AI生成工具创建细胞结构,还要额外的交互面板查看细节,来回切换颇为麻烦。

    3DCellForge 把细胞探索所需的功能全部整合到一起,提供了AI驱动的交互式3D细胞生成与探索工作室。

    不仅有流畅的WebGL细胞查看器,支持拖拽旋转、缩放和器官细节面板,还能通过图像转3D生成真实细胞模型,支持GLB导出、截图和离线缓存。

    主要功能:

    - 交互式3D细胞查看器,支持React Three Fiber实时渲染和轨道控制;
    - 图像转3D生成,支持Tripo云端、Hunyuan3D本地和浏览器深度图多种模式;
    - 器官细节卡片、显微镜视图、比较面板、笔记和图库管理;
    - GLB/GLTF模型导入导出、截图功能和本地缓存,支持离线演示;
    - 多平台浏览器运行,集成Vite快速开发,无需复杂环境配置;
    - 安全API密钥管理,后端Node服务处理生成任务,前端零暴露。

    支持 Web 浏览器直接运行,通过 npm install 和 npm run dev 即可本地启动,适合生物研究者和教育工作者使用。
    Media is too big
    VIEW IN TELEGRAM
  8. AI 高效工作流:原型实验+倒带压缩,实现试错到认知升级 | 帖子

    提要:通过 /prototype 进行原型实验,再利用 /rewind 结合 summarize 功能将实验过程压缩为结构化知识,从而在保持上下文精简的同时,实现从“试错”到“认知”的跨越。

    很多人用 AI 就像在沙堆上盖房子,一边堆一边塌。

    有个很有意思的工作流:先用文档去“拷问”AI,遇到答不上来的问题,直接进入 /prototype 模式,不计成本地消耗 Token 去做一个原型。等原型跑通了,关键动作来了:使用 /rewind 回到问题点,并执行 summarize。

    这本质上是在做一种上下文的“垃圾回收”与“知识提取”。

    有网友提到,这个组合拳最厉害的地方在于,它把昂贵的 Token 消耗从单纯的“氛围感试错”转化成了可复用的“产品记忆”。如果你只是盲目地在对话框里堆砌指令,你是在浪费算力;但如果你学会了“自由探索→压缩学习成果→带着更优上下文继续”,AI 才真正开始像一个工程协作伙伴。

    这让人想起操作系统的内存管理。直接把所有运行日志塞进上下文,迟早会触发 OOM(内存溢出)或者让推理变得极其迟钝。通过 summarize 进行压缩,就像是把频繁访问的热数据提取成索引,把冗长的执行路径变成了一行简洁的函数调用。

    有观点认为,这种流程一旦跑通,就可以将其封装成 SKILL.md,让整个团队直接共享这种思维模型,而不是每个人都去重新发明轮子。

    不过也有人觉得,这种频繁的“倒带”操作可能会打断心流。这大概取决于你是在做简单的 Prompt,还是在进行深度架构设计。

    如果实验本身就是为了寻找答案,那么在看到答案的那一刻,把过程“压缩”掉,只留下结论,或许是目前最高效的交互方式。

    下一步该怎么做?或许是把这种经过验证的流程,直接变成 Agent 的内置技能。