孟涓涓表示,AI行为科学成为新前沿,有助于赞助人类决策和设计去偏见机制。
随着大措辞模型展现出更广泛的人类行为特色,它们不仅能在决策中模拟人类行为,还能在实验中替代人类参与者,为政策评估和调度供应经济有效的手段。
当然,它们也会对人类心智和社会关系产生不愿定的影响。

当前,随着大措辞模型(LLM)特殊是天生式预演习转换器(GPT)驱动的运用程序广泛传播,AI越来越多地表现出人类特性,比如AI模型对风险、韶光和社交互动产生了明确偏好,乃至会产生独特的个性和看似感情化的反应,这些征象引发了学术界的好奇心,一些近期的研究探索了ChatGPT的理性程度(Chen et al. 2023)和认知能力(Binz et al. 2023)。

Mei et al. (2024)将经济学和生理学的经典行为评估方法运用于探索ChatGPT-3和ChatGPT-4等AI谈天机器人的行为特色。
该研究利用了一个特色数据库,席卷了来自50多个国家108314个人类主题的综合行为,实现了人类和AI决策之间的比较。

AI行为科学大年夜措辞模型若何模仿人类行为特色

孟涓涓表示,这些研究标志着一个新的研究方向的涌现,可以称之为“AI行为科学”,即利用人类行为科学的方法来评估和设计AI的行为。
采取行为科学方法研究AI时,该当保持以人为中央的视角。

研究AI行为有何意义?

谈及研究AI行为的意义,孟涓涓列举了以下三个方面:

首先,理解AI尤其是大措辞模型的行为,可以更好地赞助人类决策。
在大措辞模型涌现之前,一个常见的征象是“算法厌恶”:例如人们不愿接管算法作为劳动者,或排斥在消费时与AI谈天机器人互动,这种方向源于人类的过度自傲、对AI能力的疑惑或对与算法互动的本能抵触。
这对发挥AI潜力帮助人类决策构成了寻衅。
然而,随着AI在大措辞模型涌现后开始更靠近地模拟人类行为,算法厌恶的方向可能已经开始减弱。
为了让人们能够有信心将他们的选择交给大措辞模型,这些模型须要在关键决策中表现出与人相似的行为。
因此,让大措辞模型的偏好与基本的人类行为特色同等是至关主要的。

其次,行为经济学已经证明,人们常常表现出行为偏误,设计助推或选择架构机制来纠正这些行为偏误是行为科学和政策设计中的一个首创性主题。
利用大措辞模型肃清偏误是技能进步带来的新可能性,或比现有的方法更系统化。
人们不须要一步一步地被推着做出决策,只须要一次性把决策委托给大措辞模型,就能做出更系统、更好的选择。
事实上,目前的证据表明,ChatGPT在选择同等性方面表现出比人类更高的理性水平,这也成为一个值得探索的新方向。

此外,大措辞模型可以在实验中替代人类参与者,扮演不同背景的个体进行政策实验或仿照。
这使得政策的评估和调度更加经济有效。
随着大措辞模型表现出更广泛的人类行为特色,也可以设计出基于异质反应的个性化政策。

如何运用行为科学方法研究AI?

“采取行为科学方法来研究人工智能时该当建立一个全面的行为评估框架,个中须要包含适用于主要决策环境的行为特色维度。
”孟涓涓说,“例如,如果目标是让大措辞模型帮忙资产配置决策,那么识别影响此类背景的行为特色就至关主要。

孟涓涓先容,Mei et al. (2024)紧张采取了一个经济学的框架,将主要的决策背景分为两种类型:个人决策和人际决策。

从经济学的角度来看,个人决策常日分为四种情境:直接消费选择(例如选择苹果还是喷鼻香蕉)、在不愿定性下的选择、跨期选择和概率判断(包括信念更新和学习)。
这几类情境支撑了人们常常做出的大多数决策。
对付每种情境,经济学家都会识别出驱动这些决策的基本行为特色。
例如,不愿定性下的选择在很大程度上受到风险偏好和丢失厌恶的影响。
对付跨期选择,一个人的耐心水平起着重要的浸染,冲动的决策或拖延也常常影响这些选择。
对付概率判断,根据信息形成准确的信念是至关主要的。
这一过程中的常见偏误包括信息回避、先入为主和过度自傲。

在这一方向上,Mei et al. (2024)采取了一种扫雷游戏来丈量风险偏好,他们的图灵测试比较了GPT和人类的决策,结果显示66.0%(ChatGPT-4)和61.7%(ChatGPT-3)的情形下,GPT的选择看起来与人类相似。
然而,与人类规避风险的方向不同,GPT紧张表现出风险中立性。
有趣的是,ChatGPT-3彷佛能够从过去的丢失中学习,变得更加谨慎,而ChatGPT-4则不然。
这种变革是否来自对未来风险水平判断的改变,或来自某种形式的路径依赖偏好,仍有待进一步研究。

人际决策涉及到如利他主义、信赖、互惠、社会从众和计策考量等社交偏好。
孟涓涓进一步先容,Mei et al. (2024)在研究人机决策时通过几个游戏(包括独裁者游戏、末了通牒游戏、信赖游戏、公共物品游戏和有限重复囚徒困境游戏等),来研究GPT是否表现出如利他主义、不平等厌恶、信赖和互惠等偏好。
一个值得把稳的创造是,GPT在这些游戏中同等地表现出比人类更高的年夜方程度,表现出更强的利他主义和互助方向。
然而,ChatGPT-4的年夜方并非是无条件的,它确实展现出了一定程度的策略思考,在有限重复的囚徒困境游戏中利用了以牙还牙的策略。

孟涓涓表示,采取行为科学方法研究人工智能涉及两项任务:

第一项是基于特定框架的AI行为评估。
这类框架利用包含数值偏好参数的数值模型,在统一构造中捕捉行为特色。
这项任务中一个主要的探索方向是构造估计方法,即以建模的办法揭示潜在偏好参数。
Mei et al. (2024)以估计一个人与另一个人收益之间的权重函数为例来证明这种方法,他们创造AI常日给予他人的权重大约是0.5,这比人类常日的做法要多。
对此,孟涓涓认为,这个估计值有助于预测AI在不同场景(如团队互助或企业社会任务等涉及利他主义的场景)中的行为。
这种跨情境预测的能力来自于在构造模型中估计基本行为参数,使AI能够在各种情形下赞助人类做出决策。

第二个任务是设计AI行为。
Mei et al. (2024)自然地引出了一些问题,例如为什么ChatGPT 4.0表现出比人类更年夜方的行为,以及为什么它彷佛与ChatGPT 3.0有所不同。
鉴于当前演习过程的不透明性,为这些问题供应明确的答案是具有寻衅性的。
因此,孟涓涓表示,未来一个有趣的研究方向有可能是:探索如何演习大措辞模型以表现出特定的行为特色。
将捕捉基本行为参数的构造引入到演习过程中或许是方法之一。
设计AI行为的其他可能路子包括调度褒奖函数,在演习过程中引入明确的规则或约束,或者对表现出所需行为的数据进行模型演习。
找到设计人工智能行为的最有效方法是一项繁芜的寻衅,须要打算机科学家和行为科学家紧密互助。

AI发展会对人类心智和社会关系产生何种影响?

孟涓涓表示,采取行为科学方法来研究人工智能,有助于使人工智能更快更自然地融入人类社会。
然而,人工智能的发展也可能会影响人类行为和社会文化。

首先,算法偏见是一个紧张问题,由于它会影响人类的决策。
当算法受到利润最大化的商业动机的驱动,从而强化人类已存在的偏见时,就会涌现更繁芜的问题。
例如,社交媒体上的个性化推举系统可能会加剧人们对证实其现有信念的信息的偏见,导致极度化。
Levy (2021)创造,这些系统对Facebook反应室效应的贡献率为40%,而个人订阅的贡献率则为27%。

其次,过度依赖诸如GPT之类的人工智能,可能会导致人类在多个方面涌现认知退化。
由于AI能够迅速供应办理方案,人们的探索欲、创造性和独立思考能力可能会低落。
更主要的是,由于人工智能供应的不雅观点每每比较集中,人们的行为特色可能变得更加同质化。
Mei et al. (2024)创造GPT的行为明显比人类的反应更同质化,ChatGPT-4的决策比ChatGPT-3更集中。
这种多样性的缺少可能在进化角度对人类不利,可能会降落人类应对风险的能力。

只管存在潜在缺陷,但AI也可以对人类行为产生积极影响,例如增强人们的平等不雅观念。
研究显示 ,ChatGPT-4普遍表现出比人类更多的利他行为。
更广泛地说,大措辞模型可以在劳动力市场上显著缩小“生手”和“专家”之间的表现差距,使机会更加平等;在消费市场上,随着AI产品变得更加实惠,它们可能有助于构建更加平等的社会。
例如,大措辞模型驱动的个性化教诲可以使屯子地区的学生打仗到以前只有城市孩子才能打仗到的一流教诲资源,大概会培养出更加平等的天下不雅观。

(文末点击“阅读原文”可获取完全评论文章)

参考文献:

1. Q. Mei, Y. Xie, W. Yuan, M. O. Jackson, A Turing test of whether AI chatbots are behaviorally similar to humans. Proc. Natl. Acad. Sci. U.S.A. 121, e2313925121 (2024).

2. Y. Chen, T. X. Liu, Y. Shan, S. Zhong, The emergence of economic rationality of GPT. Proc. Natl. Acad. Sci. U.S.A. 120, e2316205120 (2023).

3. M. Binz, E. Schulz, Using cognitive psychology to understand GPT-3.

Proc. Natl. Acad. Sci. U.S.A. 120, e2218523120 (2023).

4. J. W. Burton, M.-K. Stein, T. B. Jensen, A systematic review of algorithm aversion in augmented decision making. J. Behav. Decis. Mak. 33, 220–239 (2020).

5. K. Kawaguchi, When will workers follow an algorithm? A field experiment with a retail business. Manage. Sci. 67, 1670–1695 (2021).

6. X. Luo, S. Tong, Z. Fang, Z. Qu, Frontiers: Machines vs. humans: The impact of artificial intelligence chatbot disclosure on customer purchases. Mark. Sci. 38, 937–947 (2019).

7. Y. Zhang, R. Gosline, Human favoritism, not AI aversion: People’s perceptions (and bias) toward generative AI, human experts, and human–GAI collaboration in persuasive content generation. Judgm. Decis. Mak. 18, e41 (2023).

8. M. Karataş, K. M. Cutright, Thinking about God increases acceptance of artificial intelligence in decision-making. Proc. Natl. Acad. Sci. U.S.A. 120, e2218961120 (2023).

9. S. Benartzi et al., Should governments invest more in nudging? Psychol. Sci. 28, 1041–1055 (2017).

10. S. DellaVigna, E. Linos, RCTs to scale: Comprehensive evidence from two nudge units. Econometrica 90, 81–116 (2022).

11. S. Mertens, M. Herberz, U. J. J. Hahnel, T. Brosch, The effectiveness of nudging: A meta-analysis of choice architecture interventions across behavioral domains.

Proc. Natl. Acad. Sci. U.S.A. 119, e2107346118 (2022).

12. J. J. Horton, Large language models as simulated economic agents: What can we learn from homo silicus? National Bureau of Economic Research working paper. https://www.nber.org/papers/w31122. Accessed 11 February 2024.

13. L. Brinkmann et al., Machine culture. Nat. Hum. Behav. 7, 1855–1868 (2023).

14. B. Cowgill et al., “Biased programmers? Or biased data? A field experiment in operationalizing AI ethics” in Proceedings of the 21st ACM Conference on Economics and Computation, P. Biró, J. Hartline, Eds. (ACM,

2020, New York), pp. 679–681.

15. J. Chen et al., Bias and debias in recommender system: A survey and future directions. ACM Trans. Inf. Syst. 41, 1–39 (2023).

16. R. Levy, Social media, news consumption, and polarization: Evidence from a field experiment. Am. Econ. Rev. 111, 831–870 (2021).

17. E. Brynjolfsson, D. Li, L. Raymond, Generative AI at work. National Bureau of Economic Research working paper. https://www.nber.org/papers/w31161. Accessed 11 February 2024.

(参考文献可高下滑动查看)

孟涓涓,现任北京大学光华管理学院运用经济系系主任、教授,光华行为科学和政策干预交叉创新团队调集人之一。
目前任国际期刊Management Science副主编。
2022年获国家自然科学基金国家精彩青年科学基金项目帮助,2019年获国家自然科学基金精良青年科学基金项目帮助。
孟涓涓长期专注于行为经济学与行为金融学的研究。
她的研究成果揭橥在诸多国外一流学术期刊上,如American Economic Review, Management Science, International Economic Review, Journal of Public Economics, Journal of Development Economics, Games and Economic Theory等。

来源 | 《美国科学院院刊》PNAS

编辑 | 刘畅

排版 | 李珅

审核 | 奂然

北大光华行为科学团队获“国家自然科学基金重大项目”帮助