我们知道现有的 LLM 虽然在写诗或回答独立问题上表现出色,但在执行需要连续数千甚至数百万个步骤的复杂任务时,它们几乎注定会失败,比如让大模型一步步的解“汉诺塔”。
为了解决这个问题,Cognizant AI Lab 的研究团队提出了一种名为 MAKER 的架构。他们没有等待更聪明的模型出现,而是通过改变工作流程,成功让现有的模型完成了一个包含超过 100万个步骤 的任务(解20层汉诺塔),且实现了 零错误 。
原理也不复杂,就是三个核心步骤:
1. 原子化拆解
这是整个系统的基础。研究者不让一个 AI 智能体去负责一长串的任务,而是将整个宏大的任务切碎,直到切分出逻辑上不可再分的最小单元。
2. 投票机制
为了解决模型偶尔“抽风”或随机出错的问题,系统引入了基于统计学的竞争机制。系统是让多个平行的智能体同时对同一个步骤进行计算。系统会不断抽取新的回答,直到出现一个答案的票数比第二名多出 K 票为止。这样就极大地稀释了随机错误的概率,确保被采纳的每一步几乎都是绝对正确的。
3. 插旗式熔断与过滤
这是一个识别并剔除“相关性错误”的防御机制。研究者发现,当模型开始出错时,往往会有一些预兆,比如回答变得异常冗长啰嗦,或者输出的格式不符合要求。
系统设定了一些规则,一旦智能体的输出表现出这些特征(即被插旗),系统根本不会去尝试修复或理解它,而是直接将这个样本丢弃,然后重新让模型生成。这种做法相当于在错误毒化整个流程之前就将其掐断,不仅提高了单步成功率,还防止了模型陷入错误的逻辑死循环。