人工智能系统擅长模仿,但不擅长创新

人工智能(AI)系统经常被描绘成有生命的代理,它们的存在将使人类的智慧黯然失色。但加州大学伯克利分校的研究人员发现,人工智能缺乏人类至关重要的创新能力。

根据发表在《心理科学展望》(Perspectives on Psychological Science)上的研究结果,儿童和成人都能通过发现日常物品的新用途来解决问题,而人工智能系统往往缺乏以新方式看待工具的能力。

像 ChatGPT 这样的人工智能语言模型是在包含人类产生的数十亿词汇和图像的数据集上被动训练出来的。文章的合著者尤妮丝-姚(Eunice Yiu)在接受采访时解释说,这使得人工智能系统可以发挥类似于写作的 “文化技术 “的作用,对现有知识进行总结。她说,但与人类不同的是,人工智能系统在对这些想法进行创新时会遇到困难。

“即使是年幼的人类儿童也能对某些问题做出[语言学习模型]无法做出的智能回答,”Yiu 说。”与其把这些人工智能系统看作和我们一样的智能代理,我们可以把它们看作一种新形式的图书馆或搜索引擎。它们能有效地总结并向我们传达现有的文化和知识库”。

姚和伊丽莎-科索伊与他们的博士生导师、论文的资深作者、发展心理学家艾莉森-戈普尼克一起,测试了人工智能系统的模仿和创新能力与儿童和成人有何不同。他们向 42 名 3 至 7 岁的儿童和 30 名成人展示了日常物品的文字描述。

在实验的第一部分,88% 的儿童和 84% 的成人能够正确识别哪些物品与另一物品 “最配”。例如,他们将指南针与尺子配对,而不是与茶壶配对。

在下一阶段的实验中,85% 的儿童和 95% 的成人也能够在预期使用日常物品解决问题的基础上进行创新。例如,在一项任务中,参与者被问及如何在不使用圆规等典型工具的情况下画出一个圆。

在类似工具(如直尺)、不同工具(如圆底茶壶)和不相关工具(如炉子)之间,大多数参与者选择了茶壶,这是一种概念上不同的工具,但却能实现与指南针相同的功能,让他们描绘圆的形状。

当姚及其同事向五个大型语言模型提供相同的文字描述时,这些模型在模仿任务中的表现与人类相似,得分率从表现最差的模型的 59% 到表现最好的模型的 83% 不等。然而,人工智能对创新任务的回答却没有那么准确。表现最差的模型选择有效工具的比例为 8%,表现最好的模型为 75%。

“姚说:”孩子们可以想象出他们从未见过或听说过的物体的全新用途,比如用茶壶底部画圆。”大型模型就很难产生这样的反应”。

研究人员指出,在一项相关的实验中,儿童仅通过实验和探索就能发现新机器的工作原理。但当研究人员给几个大型语言模型提供关于孩子们产生的证据的文本描述时,他们却很难做出同样的推断,这很可能是因为答案没有明确包含在他们的训练数据中,姚及其同事写道。

姚及其同事写道,这些实验表明,人工智能仅仅依靠统计预测语言模式不足以发现世界的新信息。

“人工智能可以帮助传递已知信息,但它不是创新者,”姚 说。”这些模型可以总结传统智慧,但它们无法像年轻人那样扩展、创造、改变、放弃、评估和改进传统智慧”。

不过,人工智能的发展仍处于早期阶段,关于如何扩大人工智能的学习能力,还有很多东西需要学习,姚 说。她说,从儿童好奇、主动和内在动机的学习方法中汲取灵感,可以帮助研究人员设计出新的人工智能系统,为探索真实世界做好更充分的准备。

本文文字及图片出自 Artificial intelligence systems found to excel at imitation, but not innovation

余下全文(1/3)
分享这篇文章:

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注