评论 > 动态 > 正文

AI大模型有个藏不住的致命伤

作者:

AI的记忆力可能根本不是你想象的那样。

大模型有个藏不住的致命伤:它们分不清"新欢"和"旧爱"。

UVA和 NYU的研究人员刚发了篇论文,捅破了这层窗户纸。

给你举个例子:

病人刚入院,血压120。

十分钟后,血压128。

出院时,血压125。

你问 AI:"最后一次读数是多少?"

正常人都会说125。

但测试了 GPT-4o、Claude、DeepSeek等35个模型后,结果让人脊背发凉。

只要干扰信息一多,所有模型都会集体"断片"。

准确率不是缓慢下降,而是呈对数线性直接跌向零。

注意,是100%报错。

最讽刺的是,正确答案就摆在问题的正上方,连"搜索"都不用。

但模型就是死攥着旧数据不撒手。

在认知心理学里,这叫"前摄抑制",即旧记忆干扰新记忆。

人类的大脑能自动过滤杂音,但 AI不行。

它们没有所谓的"清理机制",只会让垃圾信息无限堆积。

现在全行业都在卷 Context Window(上下文长度),卖更贵的 Token。

这篇论文直接掀了桌子:抗干扰能力和上下文长度根本没关系。

128K的超长上下文,本质上只是一个 AI处理不了的巨大垃圾桶。

堆算力、加参数、搞提示词工程,通通没用。

这意味着什么?

如果你在用 AI跑金融时序、处理动态医疗数据或者构建长程 Agent,你正踩在一个随时会崩塌的地基上。

当旧数据积累到一定程度,哪怕正确答案就在眼皮底下,AI也会睁眼说瞎话。

这个硬伤不解决,AI永远无法真正理解"现在"。

责任编辑: 李广松  来源:墓碑科技X 转载请注明作者、出处並保持完整。

本文网址:https://www.aboluowang.com/2026/0314/2359595.html