黑洞资源笔记
07:54 · Jun 12, 2025 · Thu
投稿:
佐治亚理工的研究者提出了一个Benchmark来证明
1. LLM 在缺少关键的上下文和条件时也倾向于直接回答,这带来了性能上的显著下降。
2. LLM在上下文缺失的情况下,可能会陷入一种特殊的幻觉(习惯性假设),从而导致完全错误的答案。
Blog地址:
https://sunset-jupiter-cf3.notion.site/LLM-Fail-to-Acquire-Context-20fb7e977237802ca126ed554ccb8083?pvs=74
Home
Powered by
BroadcastChannel
&
Sepia