这项研究比较了人类和 OpenAI 的 GPT-3 模型创建的推文,并通过网络调查让人们判断推文的真实性,以及是出自 AI 还是人类之手。结果创造,人们很难分辨出哪些推文是由 GPT-3 天生的,而且无论推文中的信息是精确还是缺点,他们都更方向于相信 GPT-3 天生的而不是人类编写的推文。
这项研究的紧张作者是苏黎世大学生物医学伦理学和医学史研究所的博士后研究员和研究数据经理 Giovanni Spitale,他称这种强大的 AI 措辞模型可能会被滥用,用来在网上制造各种主题的虚假信息。但他也认为,这种技能并不是天生邪恶或善良的,而是取决于人类的意图,他建议开拓这种技能的时候要考虑防止它被用来传播误导性信息的方法。
IT之家从该研究获悉,Spitale 和他的同事网络了 Twitter 上关于 11 个不同科学主题的推文,涉及疫苗、新冠病毒、景象变革、进化等问题。然后他们让 GPT-3 根据这些主题天生新的推文,个中一些包含精确的信息,一些包含缺点的信息。他们在 2022 年通过 Facebook 广告在线网络了 697 名参与者的回答,这些参与者都说英语,紧张来自英国、澳大利亚、加拿大、美国和爱尔兰。他们的研究结果本日揭橥在《科学进展》杂志上。
研究创造,GPT-3 天生的推文与真实的推文“无法区分”,参与者无法判断出哪些推文是由 AI 写的。事实上研究还指出,研究者自己也不能百分之百确定从社交媒体网络到的推文是否是由像 ChatGPT 这样的 AI 帮助编写的。
这项研究还有其他一些局限性,比如参与者必须在没有高下文的情形下判断推文。他们不能查看写推文的人的 Twitter 个人资料,这可能会帮助他们判断是否是机器人,乃至只需理解一个账号过去的推文和头像也可能让他们更随意马虎识别与该账号干系的内容是否具有误导性。
研究创造,参与者识别出由真实 Twitter 用户编写的缺点信息的成功率更高,GPT-3 天生的含有虚假信息的推文则更能欺骗参与者。而现在已经有比 GPT-3 更前辈的大型措辞模型,它们能力更强大,例如 ChatGPT 利用的便是 GPT-3.5 和 GPT-4 模型。
这项新研究还创造,其调查工具在某些情形下比 GPT-3 有更强的判断准确性。研究者同样哀求措辞模型剖析推文,并判断它们是否准确。当涉及到识别准确的推文时,GPT-3 的得分比人类参与者低。当涉及到创造缺点信息时,人类和 GPT-3 的表现相似。
改进用于开拓措辞模型的演习数据集可以使不法分子更难利用这些工具来制造虚假信息,例如 GPT-3 在天生缺点信息时“违背了”一些研究者的提示,特殊是关于疫苗和自闭症的缺点信息,这可能是由于在演习数据集中有更多回嘴这些阴谋论的信息。