【今日视点】

◎ 张佳欣

从客户做事到内容创作,人工智能(AI)影响了浩瀚领域的进展。
但是,一个日益严重的被称为“模型崩溃”的问题,可能会使AI的所有造诣功亏一篑。

“模型崩溃”是今年7月揭橥在英国《自然》杂志上的一篇研究论文指出的问题。
它是指用AI天生的数据集演习未来几代机器学习模型,可能会严重“污染”它们的输出。

AI模型崩溃风险需当心

多家外媒宣布称,这不仅是数据科学家须要担心的技能问题,如果不加掌握,“模型崩溃”可能会对企业、技能和全体数字生态系统产生深远影响。
天津大学自然措辞处理实验室卖力人熊德意教授在接管科技日报采访时,从专业角度对“模型崩溃”进行理解读。

“模型崩溃”是怎么回事

大多数AI模型,比如GPT-4,都是通过大量数据进行演习的,个中大部分数据来自互联网。
最初,这些数据是由人类天生的,反响了人类措辞、行为和文化的多样性和繁芜性。
AI从这些数据中学习,并用它来天生新内容。

然而,当AI在网络上搜索新数据来演习下一代模型时,AI很可能会接管一些自己天生的内容,从而形成反馈循环,个中一个AI的输出成为另一个AI的输入。
当天生式AI用自己的内容进行演习时,其输出也会偏离现实。
这就像多次复制一份文件,每个版本都会丢失一些原始细节,终极得到的是一个模糊的、不那么准确的结果。

美国《纽约时报》宣布称,当AI分开人类输入内容时,其输出的质量和多样性会低落。

熊德意解读称:“真实的人类措辞数据,其分布常日符合齐普夫定律,即词频与词的排序成反比关系。
齐普夫定律揭示了人类措辞数据存在长尾征象,即存在大量的低频且多样化的内容。

熊德意进一步阐明道,由于存在近似采样等缺点,在模型天生的数据中,真实分布的长尾征象逐渐消逝,模型天生数据的分布逐渐收敛至与真实分布不一致的分布,多样性降落,导致“模型崩溃”。

AI自我“蚕食”是坏事吗

对付“模型崩溃”,美国《The Week》杂志近日刊文评论称,这意味着AI正在自我“蚕食”。

熊德意认为,伴随着这一征象的涌现,模型天生数据在后续模型迭代演习中占比越高,后续模型丢失真实数据的信息就会越多,模型演习就更加困难。

乍一看,“模型崩溃”在当前彷佛还是一个仅须要AI研究职员在实验室中担心的小众问题,但其影响将是深远而长久的。

美国《大泰西月刊》刊文指出,为了开拓更前辈的AI产品,科技巨子可能不得不向程序供应合成数据,即AI系统天生的仿照数据。
然而,由于一些天生式AI的输出充斥着偏见、虚假信息和荒谬内容,这些会通报到AI模型的下一版本中。

美国《福布斯》杂志宣布称,“模型崩溃”还可能会加剧AI中的偏见和不平等问题。

不过,这并不虞味着所有合成数据都是不好的。
《纽约时报》表示,在某些情形下,合成数据可以帮助AI学习。
例如,当利用大型AI模型的输出演习较小的模型时,或者当可以验证精确答案时,比如数学问题的办理方案或国际象棋、围棋等游戏的最佳策略。

AI正在盘踞互联网吗

演习新AI模型的问题可能凸显出一个更大的寻衅。
《科学美国人》杂志表示,AI内容正在盘踞互联网,大型措辞模型天生的文本正充斥着数百个网站。
与人工创作的内容比较,AI内容的创作速率更快,数量也更大。

OpenAI首席实行官萨姆·奥特曼今年2月曾表示,该公司每天天生约1000亿个单词,相称于100万本小说的文本,个中有一大部分会流入互联网。

互联网上大量的AI内容,包括机器人发布的推文、荒谬的图片和虚假评论,引发了一种更为悲观的不雅观念。
《福布斯》杂志称,“去世亡互联网理论”认为,互联网上的大部分流量、帖子和用户都已被机器人和AI天生的内容所取代,人类不再能决定互联网的方向。
这一不雅观念最初只在网络论坛上流传,但最近却得到了更多关注。

幸运的是,专家们表示,“去世亡互联网理论”尚未成为现实。
《福布斯》杂志指出,绝大多数广为流传的帖子,包括一些深刻的不雅观点、锐利的措辞、敏锐的不雅观察,以及在新背景下对新生事物的定义等内容,都不是AI天生的。

不过,熊德意仍强调:“随着大模型的广泛运用,AI合成数据在互联网数据中的占比可能会越来越高,大量低质量的AI合成数据,不仅会使后续采取互联网数据演习的模型涌现一定程度的‘模型崩溃’,而且也会对社会形成负面影响,比如天生的缺点信息对部分人群形成误导等。
因此,AI天生内容不仅是一个技能问题,同时也是社会问题,须要从安全管理与AI技能双重角度进行有效应对。

来源: 科技日报