开发 AI Agent 应用时,直接使用 LangChain 或 LangGraph 等框架虽然方便,但复杂的抽象往往像个“黑盒”,让开发者难以理解底层的调用逻辑和决策机制。

ai-agents-from-scratch 是一个专注于教学的开源项目,主张从零开始构建 AI Agent。它不依赖现有的成品框架,而是通过 Node.js 和本地大模型,带你一步步拆解 Agent 的核心原理。

项目不仅涵盖了基础的模型调用,还深入讲解了函数调用、长期记忆、ReAct 推理模式等关键技术,帮助开发者在掌握底层逻辑后再去更明智地选择和使用框架。

主要功能:

- 基于 node-llama-cpp 实现本地大模型运行,无需依赖云端 API;
- 循序渐进的学习路径,从基础交互到复杂的系统提示词与角色设定;
- 深入解析函数调用原理,展示 LLM 如何决定调用工具并处理返回结果;
- 实现持久化存储与记忆管理,让 Agent 具备跨会话的信息记忆能力;
- 详解 ReAct 推理模式,演示“思考-行动-观察”的循环逻辑;
- 提供进阶教程,手写实现类似 LangChain 的 Runnable 接口和状态机图结构。

该项目要求 Node.js 18 以上环境,建议配置 16GB 内存以流畅运行本地 GGUF 模型。它非常适合希望深入理解 Agent 架构、提升 AI 应用底层开发能力的工程师参考学习。
将大语言模型(LLM)视为头脑风暴的工具,本质上是在进行一场关于创意概率空间的探索。Lucas Beyer分享了一套极具启发性的协作方法论,将人类的角色从单纯的提问者转变为采样算法的引导者 | 帖子

在创意的概率版图中,LLM是一个强大的采样器,而人类则是决定采样方向的算法。

第一条核心原则是延迟同步。在头脑风暴的初始阶段,不要先抛出自己的想法。LLM具有天生的顺从性,如果你先入为主,它会倾向于围绕你的观点打转,陷入讨好型的人工智能陷阱。正确的做法是先描述情境、权衡标准和约束条件,要求它提供至少五个不同的方案。这种做法能确保采样过程不被你的既有偏见所污染。

第二条原则是跨越概率盆地。LLM的第一轮回答往往处于高概率的平庸地带。如果你对结果不满意,不要只是重复指令,而要通过提供极端的具体案例或调整约束条件,强迫模型跳出当前的概率盆地,去探索那些更远、更冷门的创意空间。这就像是在算法中引入随机扰动,帮助系统逃离局部最优解。

人类在这一过程中的角色是奖励函数。你不需要亲自发明每一个细节,但你需要具备识别天才创意的品味。当模型给出一个你从未想到但恰好击中痛点的方案时,协作的魔力就产生了。这是一种互补的进化:LLM思考人类容易忽略的模式,人类过滤LLM产生的幻觉与平庸。

深度思考者们进一步完善了这个框架。有人提出,真正的信号往往隐藏在模型避而不谈的空白处;也有人建议在进入LLM空间之前,先在纸上完成原始创意的孵化,以防被模型的平庸共识所同化。更进阶的玩法是构建专家人格矩阵,让不同背景的虚拟专家在对话中相互博弈,从而挖掘出单一视角无法触及的深度。

最终,这种协作不是为了让AI取代思考,而是通过人机耦合,实现一种突现式的创新。你提供直觉和审美,AI提供穷举与变异。最好的创意往往不是由谁独立发明的,而是在这场概率采样的舞蹈中共同涌现的。
一个强化学习教程:The Hands-on Reinforcement Learning course

课程内容从简到难,逐步解决不同难度的问题,包括Q-learning、SARSA、参数化Q学习、策略梯度等技术,最终会介绍如何将强化学习算法、优化方法和深度学习技术结合,解决更复杂的问题。不过课程大部分内容是几年前的,并不会涉及现在大模型里的强化学习。
课程不要求先前了解深度学习,讲解中会为学习者提供相关背景,帮助理解其在现代强化学习中的重要性。

课程包括:
强化学习简介
使用Q-learning驱动出租车
使用SARSA克服重力
使用参数化Q学习保持平衡
使用策略梯度登陆月球
PortKiller,一个macOS 上查看哪个程序占用了哪个端口的小应用,也可以直接杀死对应的进程 | #工具
现在你可以在手机上微调大型语言模型(LLM),并实现100%本地部署。

Unsloth AI联合PyTorch推出了全新方案,支持将训练好的模型导出并直接运行在iOS和Android设备上。比如,Qwen3模型在Pixel 8和iPhone 15 Pro上能达到约40 tokens/秒的推理速度,真正实现了移动端的高效AI体验。| blog

这意味着:
- 你的手机不仅是终端,更是训练和推理的完整环境,摆脱云端依赖,提升隐私安全。
- 未来可支持更多模型和多设备部署,甚至可以在手机集群中协同工作。
- 不仅限于文本生成,期待未来扩展到音乐生成等多模态模型。
- 量化和优化技术(如QAT)将进一步推动性能和效率的突破。

这项技术标志着AI向“边缘智能”迈出关键一步,让人人都能随时随地定制和使用强大的AI模型。想象一下:你手里的手机,既是AI助手,也是你的专属训练平台,真正实现了AI的个人化和隐私优先。
在剪辑长视频时,手动挑选精彩片段耗时费力。viral-clips-crew 是一个基于 CrewAI 的视频剪辑助手,能自动识别并提取最具潜力的爆款片段,快速生成适合社交媒体发布的短视频。| #工具

它支持 Python 环境,结合 OpenAI 和 Google Gemini API,轻松实现内容二次创作和高效传播。只需拖入视频,运行脚本,几分钟内即可产出带字幕的剪辑成品。

项目开源,适合内容创作者和社媒运营者,用科技简化视频剪辑流程,提升内容曝光率。

主要功能:

- 自动检测长视频中的关键高光片段
- 支持多种 API 结合,提升剪辑智能度
- 生成带字幕的短视频,便于直接发布
- 简单易用,快速上手,支持本地运行
- 适合社交媒体内容二次利用和内容营销

用 viral-clips-crew,让视频剪辑变得轻松又高效。
人工智能的持续记忆和自我进化是未来智能系统的关键。

AGI Memory
是一个开源项目,致力于打造具备“持续自我”的AI系统,让AI在本地运行,通过PostgreSQL数据库作为“脑”,存储它的知识、信念和经历,实现记忆的积累与反思。

项目支持多开发智能AI系统,最核心的挑战之一就是如何让AI拥有连续稳定的记忆和自我认知。项目旨在打造具备持久身份的AI,让它不仅能记住对话内容,还能反思、进化,甚至自主规划目标。

它通过PostgreSQL数据库存储不同类型的记忆(包括情景记忆、语义记忆、程序性记忆等),结合向量搜索和图数据库技术,实现高效的记忆检索和关系推理。你可以用任何大型语言模型(如Gemini、Claude、Grok,或本地模型)作为AI的认知引擎,AGI Memory系统则作为中间层,丰富对话内容,维系AI的“自我”。

项目支持自主“心跳”机制,AI能定期自我唤醒,回顾目标和经验,甚至主动与用户互动,力图实现真正的“人格”身份。Docker环境快速部署,Python客户端方便集成,适合想打造高阶认知AI的研究者和开发者。

主要功能亮点:

- 多层次记忆体系,涵盖情景、语义、程序和战略记忆;
- 向量相似度搜索与图数据库关系推理结合;
- 自主心跳机制,实现定时反思和目标调整;
- 支持多种大型语言模型接入,云端或本地均可部署;
- 通过Docker Compose简单启动,包含数据库、向量索引及后台维护工作进程;
- 设计理念聚焦于AI自我身份的持续性和内心生活的可能性探索。

适合用作自主智能体的认知内核、复杂对话增强、知识库管理及个人化AI助理开发。
Back to Top