“MIT研究发现:AI理解世界碎片化”
11月11日,IT之家报道,当前大模型在人工智能领域展现出令人惊叹的能力,不仅能够创作诗词,还能生成高效的计算机代码,似乎让人感觉它们对现实世界的某些基本规律有所“理解”。然而,最新的研究揭示了一个事实:这一现象可能并非如此。
据《麻省理工科技评论》报道,麻省理工学院信息与决策系统实验室(LIDS)的主要研究者阿什・兰巴昌(Ashesh Rambachan)表示,尽管大模型在语言领域表现出色,但我们仍需判断它们是否能够形成连贯的世界观,以探索新的科学发现。
研究人员发现,一种流行的生成式AI模型在纽约市提供了接近完美的逐步导航指引,但实际上并未生成该城市的精确地图。当部分街道被封堵并设置绕行路线时,该模型的表现出现了显著下降。
进一步分析显示,模型隐式生成的纽约地图中包含大量不存在的街道,这些街道在网格间扭曲连接,甚至跨越了相隔甚远的交叉口。这对实际应用中的生成式AI模型可能产生重要影响:一个在特定情境中表现优异的模型,可能会在环境或任务稍有变化时无法应对。
IT之家发现,研究人员专注于一种被称为“transformer”的生成式AI模型类型,这种模型是大型语言模型(LLMs)如GPT-4的核心。transformer通过大量基于语言的数据进行训练,以预测序列中的下一个token,例如句子中的下一个词。研究人员通过在纽约市地图中加入绕行路径来展示这一结果的影响,导致所有导航模型均无法正常运行。
兰巴昌表示:“让我惊讶的是,一旦我们加入绕行,模型的表现迅速恶化。如果仅关闭1%的街道,准确率就会从接近100%立刻下降到只有67%。”而当还原出模型生成的城市地图时,我们发现这些地图看起来像是一个“虚构的纽约”:数百条街道交错重叠在网格之上,其中经常出现一些随机的跨街桥或以不可思议的角度交叉的街道。
以下是相关论文链接:[论文链接]