MIT 新研究指出AI不懂“no”,逻辑推理缺陷导致否定词成“盲区”

IT 之家 5 月 22 日消息,麻省理工学院(MIT)最新研究表明,人工智能(AI)在理解 "no" 和 "not" 等否定词方面仍存在明显缺陷,在医疗等关键领域可能引发严重风险。

研究表明,AI 已快速发展,具备诊断疾病、创作诗歌甚至驾驶汽车等多项实用技能,但对 "no" 和 "not" 等否定词,却束手无策。

在博士生 Kumail Alhamoud 的带领下,MIT 团队联合 OpenAI 和牛津大学,发现包括 ChatGPT、Gemini 和 Llama 在内的当前主流模型,在处理否定语句时,常倾向于默认肯定关联,忽略否定语义。

研究报告认为,这种情况在医疗场景产生的潜在危害尤为明显。例如,AI 可能误解 "no fracture"(无骨折)或 "not enlarged"(未扩大),导致严重后果。

IT 之家援引博文介绍,问题的根源并非数据不足,而是 AI 的训练方式。斯坦福大学深度学习兼职教授 Kian Katanforoosh 指出,大多数语言模型依赖模式预测,而非逻辑推理。

这导致 AI 在面对 "not good"(不好)时,仍可能因 "good" 一词而误判为正面情绪。专家强调,若不赋予模型逻辑推理能力,类似细微却致命的错误将持续发生。

Lagrange Labs 首席研究工程师 Franklin Delehelle 也表示,AI 擅长模仿训练数据中的模式,但缺乏创新或处理训练数据之外情境的能力。

研究团队通过合成否定数据(synthetic negation data)尝试改进模型,取得初步成效,但细粒度的否定差异仍具挑战性。

Katanforoosh 警告,AI 对否定的误解不仅是一项技术缺陷,更可能在法律、医疗和人力资源等领域引发关键错误。他呼吁,解决之道不在于堆砌更多数据,而在于结合统计学习与结构化思维,提升模型的逻辑能力。