如何应对 AI“一本正经的胡说八道”?研究人员希望它会承认“我不知道”
2 月 13 日消息,《华尔街日报》当地时间 11 日发布文章,探讨了当前“AI 幻觉”的现象和潜在解法。该报记者 Ben Fritz 向多款全球最先进的 AI 聊天机器人询问“自己的配偶是谁”,得到的答案却令本人匪夷所思:一位自己并不认识的作家、一名来自爱荷华州的陌生女性,还有一名网球运动博主。
根据报道,尽管 AI 在解决复杂数学问题和模拟人类交流方面表现出色,但在基本事实上却常常出错。它们会捏造法律案件,混淆电影和书籍的情节,甚至“凭空”编造配偶。
图源 Pixabay注:上述错误往往被称作“幻觉”,因为 ChatGPT、Gemini 等 AI 即使在生成错误答案时也会表现得极其自信。
曾在 IBM、微软实习的德国 Hasso Plattner 研究所博士生 Roi Cohen 表示,这是当前 AI 研究最热门的方向之一。
AI 的工作原理是预测答案中最可能出现的下一个单词。从本质上看,这一过程更像是一种高级猜测。AI 往往会以坚定的语气给出最可能正确的答案,而不会表现出任何不确定性,这就像学生在多项选择题考试中作答,或是社交场合中随口应对问题的人一样。
西班牙瓦伦西亚人工智能研究所的教授 José Hernández-Orallo 解释道,“AI 之所以会产生幻觉,根本原因在于,如果它什么都不猜,就完全不可能答对。”
为了解决这个问题,研究人员正尝试“检索增强生成”(retrieval augmented generation)技术,让 AI 在回答问题时先从互联网或文档库中查找最新信息,而不是完全依赖已有的训练数据。
在去年 12 月的 NeurIPS AI 研究会议上,Cohen 和同校博士生 Konstantin Dobler 提出了一个简单但富有新意的想法:让 AI 也学会承认“我不知道”。
报道指出,当前 AI 的训练数据几乎不包含“我不知道”这样的表述,因此它们天生不会谦逊。Cohen 和 Dobler 通过调整 AI 训练过程,使其在可能出错时,至少一部分情况下会选择回答“我不知道”,从而提高整体准确性。
不过,如何平衡这一策略仍是个难题。有时候,AI 说“我不知道”,但其实答案就在它的训练数据里。
即便如此,对于那些依赖 AI 提供精准信息的领域,适当的“谦虚”可能更有价值。“关键是让 AI 具备实用性,而不是一味追求智能。”Dobler 说道。
虽然 AI 变得越来越强大,但美国公众对其的信任感却在下降。皮尤研究中心数据显示,2023 年 52% 的美国人对 AI 感到担忧,而 2021 年这一比例仅为 37%。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。