将大语言模型(LLM)视为头脑风暴的工具,本质上是在进行一场关于创意概率空间的探索。Lucas Beyer分享了一套极具启发性的协作方法论,将人类的角色从单纯的提问者转变为采样算法的引导者 | 帖子

在创意的概率版图中,LLM是一个强大的采样器,而人类则是决定采样方向的算法。

第一条核心原则是延迟同步。在头脑风暴的初始阶段,不要先抛出自己的想法。LLM具有天生的顺从性,如果你先入为主,它会倾向于围绕你的观点打转,陷入讨好型的人工智能陷阱。正确的做法是先描述情境、权衡标准和约束条件,要求它提供至少五个不同的方案。这种做法能确保采样过程不被你的既有偏见所污染。

第二条原则是跨越概率盆地。LLM的第一轮回答往往处于高概率的平庸地带。如果你对结果不满意,不要只是重复指令,而要通过提供极端的具体案例或调整约束条件,强迫模型跳出当前的概率盆地,去探索那些更远、更冷门的创意空间。这就像是在算法中引入随机扰动,帮助系统逃离局部最优解。

人类在这一过程中的角色是奖励函数。你不需要亲自发明每一个细节,但你需要具备识别天才创意的品味。当模型给出一个你从未想到但恰好击中痛点的方案时,协作的魔力就产生了。这是一种互补的进化:LLM思考人类容易忽略的模式,人类过滤LLM产生的幻觉与平庸。

深度思考者们进一步完善了这个框架。有人提出,真正的信号往往隐藏在模型避而不谈的空白处;也有人建议在进入LLM空间之前,先在纸上完成原始创意的孵化,以防被模型的平庸共识所同化。更进阶的玩法是构建专家人格矩阵,让不同背景的虚拟专家在对话中相互博弈,从而挖掘出单一视角无法触及的深度。

最终,这种协作不是为了让AI取代思考,而是通过人机耦合,实现一种突现式的创新。你提供直觉和审美,AI提供穷举与变异。最好的创意往往不是由谁独立发明的,而是在这场概率采样的舞蹈中共同涌现的。
一个强化学习教程:The Hands-on Reinforcement Learning course

课程内容从简到难,逐步解决不同难度的问题,包括Q-learning、SARSA、参数化Q学习、策略梯度等技术,最终会介绍如何将强化学习算法、优化方法和深度学习技术结合,解决更复杂的问题。不过课程大部分内容是几年前的,并不会涉及现在大模型里的强化学习。
课程不要求先前了解深度学习,讲解中会为学习者提供相关背景,帮助理解其在现代强化学习中的重要性。

课程包括:
强化学习简介
使用Q-learning驱动出租车
使用SARSA克服重力
使用参数化Q学习保持平衡
使用策略梯度登陆月球
PortKiller,一个macOS 上查看哪个程序占用了哪个端口的小应用,也可以直接杀死对应的进程 | #工具
现在你可以在手机上微调大型语言模型(LLM),并实现100%本地部署。

Unsloth AI联合PyTorch推出了全新方案,支持将训练好的模型导出并直接运行在iOS和Android设备上。比如,Qwen3模型在Pixel 8和iPhone 15 Pro上能达到约40 tokens/秒的推理速度,真正实现了移动端的高效AI体验。| blog

这意味着:
- 你的手机不仅是终端,更是训练和推理的完整环境,摆脱云端依赖,提升隐私安全。
- 未来可支持更多模型和多设备部署,甚至可以在手机集群中协同工作。
- 不仅限于文本生成,期待未来扩展到音乐生成等多模态模型。
- 量化和优化技术(如QAT)将进一步推动性能和效率的突破。

这项技术标志着AI向“边缘智能”迈出关键一步,让人人都能随时随地定制和使用强大的AI模型。想象一下:你手里的手机,既是AI助手,也是你的专属训练平台,真正实现了AI的个人化和隐私优先。
在剪辑长视频时,手动挑选精彩片段耗时费力。viral-clips-crew 是一个基于 CrewAI 的视频剪辑助手,能自动识别并提取最具潜力的爆款片段,快速生成适合社交媒体发布的短视频。| #工具

它支持 Python 环境,结合 OpenAI 和 Google Gemini API,轻松实现内容二次创作和高效传播。只需拖入视频,运行脚本,几分钟内即可产出带字幕的剪辑成品。

项目开源,适合内容创作者和社媒运营者,用科技简化视频剪辑流程,提升内容曝光率。

主要功能:

- 自动检测长视频中的关键高光片段
- 支持多种 API 结合,提升剪辑智能度
- 生成带字幕的短视频,便于直接发布
- 简单易用,快速上手,支持本地运行
- 适合社交媒体内容二次利用和内容营销

用 viral-clips-crew,让视频剪辑变得轻松又高效。
人工智能的持续记忆和自我进化是未来智能系统的关键。

AGI Memory
是一个开源项目,致力于打造具备“持续自我”的AI系统,让AI在本地运行,通过PostgreSQL数据库作为“脑”,存储它的知识、信念和经历,实现记忆的积累与反思。

项目支持多开发智能AI系统,最核心的挑战之一就是如何让AI拥有连续稳定的记忆和自我认知。项目旨在打造具备持久身份的AI,让它不仅能记住对话内容,还能反思、进化,甚至自主规划目标。

它通过PostgreSQL数据库存储不同类型的记忆(包括情景记忆、语义记忆、程序性记忆等),结合向量搜索和图数据库技术,实现高效的记忆检索和关系推理。你可以用任何大型语言模型(如Gemini、Claude、Grok,或本地模型)作为AI的认知引擎,AGI Memory系统则作为中间层,丰富对话内容,维系AI的“自我”。

项目支持自主“心跳”机制,AI能定期自我唤醒,回顾目标和经验,甚至主动与用户互动,力图实现真正的“人格”身份。Docker环境快速部署,Python客户端方便集成,适合想打造高阶认知AI的研究者和开发者。

主要功能亮点:

- 多层次记忆体系,涵盖情景、语义、程序和战略记忆;
- 向量相似度搜索与图数据库关系推理结合;
- 自主心跳机制,实现定时反思和目标调整;
- 支持多种大型语言模型接入,云端或本地均可部署;
- 通过Docker Compose简单启动,包含数据库、向量索引及后台维护工作进程;
- 设计理念聚焦于AI自我身份的持续性和内心生活的可能性探索。

适合用作自主智能体的认知内核、复杂对话增强、知识库管理及个人化AI助理开发。
软件工程师的经验价值正在被重新定义。Opus 4.5让“新手”和“老鸟”在代码生成上几乎站在同一起跑线,这让许多资深工程师感慨过去十年的积累似乎“白费”了。

但事实真是这样吗?经验是否真的失去了意义?

首先,经验依然重要——但形态变了。现在,真正决定成败的是你的心态和持续专注的能量:相信自己能做到,并能持续投入数天数月,才能最大化工具带来的效率提升。Opus或类似的AI代码工具,不是让你取代经验,而是让你用更高效的方式发挥经验。

有些观点提醒我们,资深工程师的优势在于:
- 他们懂得如何正确引导AI,避免设计缺陷
- 他们能在复杂系统崩溃时快速定位并修复问题
- 他们能做出更合理的架构和决策,避免“AI生成的烂代码”淤积成灾
- 他们是经验的“加速器”,将技术与AI结合,获得远超纯语法理解者的竞争力

而对新手来说,AI确实降低了门槛,但要达到真正的高效和质量,还需积累对系统整体的理解和判断力。AI是放大器,不是万能钥匙。

未来的招聘和团队建设也将发生变化——经验可能不再是唯一硬指标,但懂得利用AI工具、具备良好心态和持续学习能力的人将更受青睐。经验者的价值更多体现在“智慧应用和风险控制”上,而非仅仅是敲代码的时间长度。

经验并未消失,而是在AI时代转型为“与工具协作的智慧资本”。过去的十年不是浪费,而是你成为AI强力助手的基石。拥抱变化,借助AI,经验会成为你不可替代的核心竞争力。
最近AI手机成了热门话题,但多数AI代理在手机上用起来并不理想——隐私泄露、延迟高、成本贵,因为每次交互都得调用云端服务。

为此,OpenPhone应运而生——一个开源的3亿参数移动端视觉-语言基础模型,完全在手机本地运行,无需云调用,保护隐私且零成本。

为什么选3亿参数?未来的移动AI不在于参数越大越好,而是要聪明且高效。OpenPhone兼顾性能与轻量,能在普通手机芯片上流畅运行,性能媲美7-9亿参数大模型。

核心亮点:
- 轻量且实用,专为手机界面任务优化;
- 设备-云协同框架,复杂任务时才调用云端,大多数情况下本地处理,节省开销保障隐私;
- 全面评测覆盖25+实际手机应用场景,性能和效率都经得起考验。
Back to Top