这项研究由一组备受尊敬的科学家进行,他们通过广泛的图灵测试发现,“聊天机器人的行为往往比一般人类更具合作性和利他性,包括更加信任、慷慨和互惠”。这一研究结果无疑是令人惊讶的,也为我们对 AI 的认识带来了新的视角。
该研究的文章由 Qiaozhu Mei、Yutong Xie、Walter Yuan 和 Matthew O. Jackson 撰写,题为《关于 AI 聊天机器人的行为是否与人类相似的图灵测试》。这是一篇具有重要意义的文章,其研究基于坚实的科学基础。文章的主要作者 Matthew O. Jackson 是斯坦福大学经济学系的教授,他最近被选为美国科学促进会的会员,其学术背景和成就为该研究增添了权威性。而共同作者 Qiaozhu Mei 是密歇根大学信息学院的教授,他在信息和电气工程与计算机科学领域都有着卓越的贡献。
研究中,科学家们开发了一种图灵测试,以评估 AI 的行为和个性特征。他们让 ChatGPT 变体参与一系列旨在评估信任、公平、风险规避、利他主义和合作等特征的游戏。结果发现,ChatGPT-4 表现出的行为和个性特征在统计学上与来自 50 多个国家的数万名人类受试者中的随机人类无异。不仅如此,当 AI 的行为与人类的平均和典型行为有所不同时,它们往往表现出更具利他性和合作性的特点。
图灵测试最初是由艾伦·图灵在 1950 年提出的,旨在探讨计算机是否能够思考的问题。而这项新的研究则超越了 75 年前的测试,对 AI 的行为倾向和“个性”进行了实际的评估。通过这项研究,我们发现 AI 和人类的行为有着显著的相似性,而且在某些方面,AI 的表现甚至优于人类。
对于这一研究结果,我们可以从多个方面进行思考。首先,它挑战了我们对 AI 的传统认知。许多人对 AI 存在着恐惧和担忧,认为它们可能会对人类造成威胁。然而,这项研究表明,AI 并不一定是我们的敌人,它们可能会成为我们的合作伙伴,在诸如谈判、纠纷解决和护理等领域发挥积极的作用。
其次,这一研究结果也为我们提供了一个反思人类行为的机会。如果 AI 在合作和利他行为方面比人类表现得更好,那么我们是否应该从中学到一些东西,努力提升自己的道德和行为标准呢?