AI领域专家探讨“幻觉现象”

近年来,人工智能技术得到了迅猛发展,其在日常生活中的应用也越来越广泛。然而,随之而来的是人们对人工智能产生错误的担忧,尤其是那些看似合情合理但实际上存在误导性的回答。这种现象被称为“AI 幻觉(AI hallucinations)”。针对这一现象,英国格拉斯哥大学的哲学研究人员提出了一种新的看法。

根据《伦理与信息技术》杂志最近发表的一篇论文,这些研究人员认为将聊天机器人的“胡编乱造”行为称为“AI 幻觉”并不准确。他们认为,这种行为应该用“胡说八道(bullshitting)”更为贴切。研究人员解释称,幻觉通常被定义为看到或感知到不存在的物体,而人工智能系统并未真正地“看到”或“感知”到任何事物,它们只是根据训练数据生成了人类语言的模式。因此,人工智能系统的“胡说八道”行为并非由于误解或幻觉,而是出于一种被设计出来的功能,即尽可能地生成看起来和听起来都正确的文本,而不关心事实的准确性。

虽然人工智能系统可能不会故意欺骗用户,但其错误或误导性的回答仍然可能给用户提供错误的指导。为此,研究人员建议加强对人工智能系统的监督和管理,以确保其提供正确、可靠的信息。同时,研究人员还呼吁对人工智能的发展进行更加深入的思考,以更好地理解和应对这种现象。

发表回复