AI的记忆力可能根本不是你想象的那样。
大模型有个藏不住的致命伤:它们分不清"新欢"和"旧爱"。
UVA和 NYU的研究人员刚发了篇论文,捅破了这层窗户纸。
给你举个例子:
病人刚入院,血压120。
十分钟后,血压128。
出院时,血压125。
你问 AI:"最后一次读数是多少?"
正常人都会说125。
但测试了 GPT-4o、Claude、DeepSeek等35个模型后,结果让人脊背发凉。
只要干扰信息一多,所有模型都会集体"断片"。
准确率不是缓慢下降,而是呈对数线性直接跌向零。
注意,是100%报错。
最讽刺的是,正确答案就摆在问题的正上方,连"搜索"都不用。
但模型就是死攥着旧数据不撒手。
在认知心理学里,这叫"前摄抑制",即旧记忆干扰新记忆。
人类的大脑能自动过滤杂音,但 AI不行。
它们没有所谓的"清理机制",只会让垃圾信息无限堆积。
现在全行业都在卷 Context Window(上下文长度),卖更贵的 Token。
这篇论文直接掀了桌子:抗干扰能力和上下文长度根本没关系。
128K的超长上下文,本质上只是一个 AI处理不了的巨大垃圾桶。
堆算力、加参数、搞提示词工程,通通没用。
这意味着什么?
如果你在用 AI跑金融时序、处理动态医疗数据或者构建长程 Agent,你正踩在一个随时会崩塌的地基上。
当旧数据积累到一定程度,哪怕正确答案就在眼皮底下,AI也会睁眼说瞎话。
这个硬伤不解决,AI永远无法真正理解"现在"。


















