人们对付人工智能的担忧每每过于关注其可能对付人类社会的颠覆,而非其诱惑所带来的危害。
他们常设想的是 AI 失落控乃至超出人类理解范畴的末日景象。
除了这些噩梦般的设想之外,还有一些更迫不及待的危害值得我们负责对待:例如,AI 可能通过虚假信息危及公共话语;在贷款决策、法律讯断或招聘中固化偏见;或是扰乱创意家当。

但我们预期,还有另一类风险同样紧迫:它源自与非人类 Agent 之间的关系。
人工智能伴侣已不再是理论上的观点——我们剖析了一百万条与 ChatGPT 互动的日志,创造 AI 被用于性角色扮演是第二大常见用场。
我们已经开始将 AI 约请进入我们的生活,作为朋友、恋人、导师、治疗师和西席。

比起面对混乱而痛楚的人际关系,是否更随意马虎退回到已故伴侣的复制品中?实际上,AI 伴侣做事供应商 Replika 便是从考试测验复活一位已故石友的想法中出身的,如今它为数百万用户供应伴侣做事。
就连 OpenAI 的首席技能官也警告称,AI 有可能变得“极其上瘾”。

我们正在见证一场巨大的现实天下实验的开展,而这场实验的结果对我们个人和社会的影响尚不明朗。
在祖母生命中的末了光阴里,她是否会靠和孙子的数字化身谈天来度过这段光阴,而真实的孙子却在和一个替代的仿照长辈相处?AI 以其无限模拟的历史与文化魅力,散发出一种全新的诱惑力,这种力量同时具有优胜性和顺从性,以至于与 AI 互动中的赞许可能变得模糊不清。
在这种权力失落衡面前,我们还能否真正赞许与 AI 建立关系,尤其是在许多人面临的唯一选择要么是与 AI 交往,要么就空空如也的情形下?

AI伴侣让人上瘾我们必须保持当心

作为与政策制订者密切互助的 AI 研究职员,我们对立法者对这一未来风险的关注缺少感到震荡。
我们尚未准备好应对这些风险,由于我们并未完备理解它们。
我们须要的是一种跨学科的新科学,结合技能、生理学和法律领域的研究——或许还须要对 AI 监管采纳新的方法。

为何 AI 伴侣如此令人上瘾?

只管由推举系统驱动的平台看起来彷佛很吸引人,但像 TikTok 及其竞争对手仍旧受限于人类天生的内容。
过去人们对小说、电视、互联网、智好手机和社交媒体的“上瘾”表示担忧,但所有这些媒介都受到人类能力的限定。
而天生式 AI 则不同。
它可以即时天生无尽的真实内容,以知足与之互动者的特定偏好。

AI 的魅力在于它能识别我们的希望,并随时随地供应我们想要的东西。
AI 本身没有偏好或个性,而是反响用户授予它的特质——这是研究职员称之为“谄媚效应”的征象。
我们的研究表明,那些感知到或希望 AI 具有关怀动机的人会利用引发这种行为的措辞。
这创造了一个情绪共鸣的空间,可能会导致极其上瘾的效果。
既然我们能够轻易得到所需的统统,为什么还要经历与真实人物之间的互动所带来的繁芜性和不愿定性呢?与这类谄媚式的 AI 伴侣频繁互动终极可能会削弱我们与真正有独立欲望和梦想的人建立深厚联系的能力,从而引发所谓的“数字留恋障碍”。

调查驱动上瘾产品的动机

要应对人工智能伴侣可能带来的危害,须要全面理解推动其发展的经济和生理动机。
在认识到这些导致人工智能成瘾的成分之前,我们不可能制订出有效的应对政策。

互联网平台之以是让人上瘾并非有时——精心设计的选择,即所谓的“暗模式”(Dark Patterns),是为了最大限度地提高用户参与度。
我们可以预见到类似的动机终极会创造出供应享乐做事的人工智能伴侣。
这引发了两个与人工智能干系的问题:哪些设计选择会被用来让人工智能伴侣变得吸引人乃至令人上瘾?这些上瘾的伴侣又会对利用它们的人产生什么影响?

要理解人工智能的这齐心专生理层面,就须要在社交媒体暗模式研究的根本上开展跨学科研究。
例如,我们的研究已经表明,人们更方向于与模拟他们所崇拜的人物的人工智能互动,纵然他们知道这个化身是假的。

一旦理解了人工智能伴侣的生理维度,我们就可以设计出有效的政策干预方法。
研究表明,勾引人们在分享内容前评估其真实性可以减少缺点信息的传播,而喷鼻香烟包装上的胆怯图片已经被用来阻挡潜在的吸烟者。
类似的设计方法可以突出人工智能成瘾的危险,并降落人工智能系统作为人类伴侣替代品的吸引力。

改变人类渴望被爱和娱乐的希望很难,但我们或许能够改变经济动机。
对与人工智能互动征税可能会匆匆使人们追求更高质量的互换,并鼓励一种更安全、定期但短暂地利用平台的办法。
正如国家彩票被用来帮助教诲一样,这种互动税可以用于帮助促进人际交往的活动,比如艺术中央或公园。

监管办法可能须要新的思考

1992 年,生理学家 Sherry Turkle 这位首创了人与技能交互研究领域的先驱,指出了技能系统对人际关系构成的威胁。
Turkle 著作中提出的关键寻衅之一,道出了这一问题的核心所在:我们有什么资格说你喜好的东西不是你应得的?

出于充分的情由,我们的自由社会在规范这里所描述的侵害方面面临着困难。
就像禁止通奸被认为是干涉个人事务的不自由行为一样,我们想爱谁或爱什么与政府无关。
与此同时,对儿童色情材料的环球禁令代表了一个必须划清界线的例子,即便是在重视辞吐自由和个人自由的社会也是如此。
针对人工智能伴侣的监管难题可能须要基于对其背后动机更深层次理解的新监管办法,充分利用新技能的上风。

最有效的监管方法之一是直接在技能设计中嵌入安全方法,类似于设计师通过制作比婴儿嘴巴大的玩具来避免噎塞风险的做法。
这种“设计中的监管”方法可以寻求通过设计技能使其作为人类联系的替代品时更少有害,同时在其他情境下仍旧有用。
可能须要新的研究来找到更好的方法,通过改变人工智能目标的技能手段来限定大型人工智能模型的行为。
例如,“对齐微调”(Alignment)是指一组旨在使人工智能模型与人类偏好保持同等的演习技能;这种方法可以扩展来办理它们的成瘾潜力。
同样,“机制可阐明性”旨在反向工程人工智能模型做决策的办法,这种方法可以用来识别并肃清人工智能系统中产生有害行为的详细部分。

我们可以通过互动和由人驱动的技能来评估人工智能系统的性能,超越静态基准测试以揭示其成瘾能力。
人工智能的成瘾性子是技能和用户之间繁芜互动的结果。
在真实天下条件下通过用户的反馈测试模型可以揭示那些否则会被忽略的行为模式。
研究职员和政策制订者该当互助确定针对不同群体(包括弱势群体)测试人工智能模型的标准做法,确保模型不会利用人们的生理条件条件。

与人类不同,人工智能系统可以轻松适应变革的政策和规则。
“法律动态性”的原则将法律视为能够对外部成分做出适应的动态系统,可以帮助我们识别最佳可能的干预方法,就像“交易停息”在股市大跌后停息股票交易以防止崩盘一样。
在人工智能领域,变革的成分包括用户的生理状态。
例如,动态政策可能会许可儿工智能伴侣随着韶光的推移变得更加吸引人、迷人或轻浮,只要用户没有表现出社交伶仃或成瘾的迹象。
这种方法可能有助于最大化个人选择的同时最小化成瘾的可能性。
但这依赖于准确理解用户的行为和生理状态,并以保护隐私的办法衡量这些敏感属性。

办理这些问题最有效的方法可能是针对导致人们投入人工智能怀抱的根本缘故原由——孤独和无聊。
但监管干预也可能无意中惩罚那些真正须要伴侣的人,或者导致人工智能企业迁移到国际市场上更为宽松的法律统领区。
虽然我们该当努力使人工智能尽可能安全,但这项事情不能取代办理诸如孤独等更大问题的努力,正是这些问题让人们随意马虎陷入对人工智能的依赖。

更远大的图景

技能专家们总是被一种强烈的愿景驱动,那便是想要看到别人无法想象的地平线之外的事物。
他们渴望站在革命性变革的最前沿。
然而,我们在这里谈论的问题清楚地表明,构建技能系统的难度与培养康健的人际关系比较显得微不足道。
人工智能伴侣这一话题的及时涌现是另一个更大问题的征兆:在狭隘的经济动机驱动的技能进步面前掩护人的肃静。
越来越多的情形显示,原来设计为“让天下变得更美好”的技能却给社会带来了灾害。
在人工智能成为无处不在的、粉饰现实的玫瑰色滤镜之前,在我们失落去看清天下真貌以及辨认何时偏离正轨的能力之前,须要采纳寻思熟虑而又果断的行动。

技能已经成为进步的代名词,但如果技能剥夺了我们进行深度思考所需的韶光、聪慧和专注力,那便是人类的倒退。
作为人工智能系统的培植者和研究者,我们呼吁各学科的研究职员、政策制订者、伦理学家和思想领袖加入我们,共同探索人工智能如何影响我们个体和社会。
只有系统性地更新我们在这个技能时期对人性的理解,我们才能找到确保我们开拓的技能促进人类繁荣的办法。

以下为本文联合作者简介:

Robert Mahari 是麻省理工学院媒体实验室和哈佛法学院的法学博士候选人。
他的事情重点是打算法——利用前辈的打算技能来剖析、改进和扩展法律研究和实践。

Pat Pataranutaporn 是麻省理工学院媒体实验室的研究员。
他的事情重点是机器民气理学以及人机交互的艺术和科学。

原文链接:

https://www.technologyreview.com/2024/08/05/1095600/we-need-to-prepare-for-addictive-intelligence/