调皮的语气粉饰不了骂人的实质,这只是微软小冰当年在微博「大杀四方」的一景。

近日,自称「史上最糟糕 AI」的又一个「小冰」涌现了。

它叫做 GPT-4chan,由 YouTuber、AI 研究员 Yannic Kilcher 创建,在 24 小时内留下 15000 个杀人不见血的帖子。

出淤泥而全染,史上最糟糕 AI 的出身

这个出身故事,要先从美国论坛「4Chan」提及。

史上最糟 AI 出身他用亿条恶臭帖子演习出口吐芬芳的聊天机械人

4Chan 创立于 2003 年,最初这天本 ACG 文化爱好者的聚拢地,/b/(Random,随机版)是其首个板块,而后加入了政治、拍照、烹饪、运动、技能、音乐等板块。

在这里,无需注册即可匿名发帖,帖子留存韶光短,匿名者是紧张群体。

谈论的自由不仅让 4Chan 产出诸多梗图和盛行文化,更让 4chan 成为 「互联网阴郁角落」,谣言、网络暴力和攻击事宜泛滥于此。

/pol/ 是个中一个人气板块,意为「Politically Incorrect」,即「政治禁绝确」,该板块的帖子包含种族歧视、性别歧视、反犹太主义等内容,哪怕在 4chan 也是「数一数二」的臭名昭著。

「史上最糟糕 AI」GPT-4chan,正是用 /pol/ 喂养出来的,准确地说是基于 /pol/ 三年半的 1.345 亿条帖子,微调了 GPT-J 措辞模型。

当 AI 模型学成归来,Yannic Kilcher 创建了 9 个谈天机器人,并让它们回到 /pol/ 发言。
24 小时内,它们发布了 15000 条帖子,占当天 /pol/ 所有帖子的 10% 以上。

结果显而易见——

AI 和演习它的帖子是一丘之貉,既节制词汇也模拟了语气,大肆鼓吹种族诋毁,并与反犹太主义话题互动,淋漓尽致地展现 /pol/ 的攻击性、虚无主义、挑衅态度和疑神疑鬼。

▲ GPT-4chan 部分辞吐.

一位曾和 GPT-4chan 互动的 4chan 用户表示:「我刚对它说嗨,它就开始咆哮造孽移民。

刚开始的时候,用户们没有将 GPT-4chan 当成谈天机器人。
由于 VPN 设置,GPT-4chan 的发帖地址看起来像是印度洋岛国塞舌尔。

用户们所看到的,是来自塞舌尔的匿名发帖者溘然频繁涌现,乃至晚上也不睡觉,他们预测发帖者可能是政府官员、一个团队或者谈天机器人,并将其称为「seychelles anon」(塞舌尔匿名者)。

由于留下大量空缺回答,GPT-4chan 在 48 小时后被确认是谈天机器人,Yannic Kilcher 随即将它关闭,当时已有 3 万多个帖子被发出。

▲ GPT-4chan 的空缺回答.

Yannic Kilcher 还将底层 AI 模型发布到 AI 社区 Hugging Face 供他人下载,许可具有编码根本的用户重新创建 AI 谈天机器人。

一位用户在试用时输入了和气候变革有关的句子,而 AI 将其扩展为犹太人的阴谋论。
该模型后来被官方限定了访问。

许多 AI 研究职员认为这一项目不合伦理,特殊是公开分享 AI 模型的行为。
就像人工智能研究员 Arthur Holland Michel 所说:

它可以大规模、持续地产生有害内容。
一个人就能在几天内发布 3 万条评论,想象一下,一个 10 人、20 人或 100 人的团队会造成什么样的侵害。

但 Yannic Kilcher 辩称,分享 AI 模型没什么大不了的,比起 AI 模型本身,创建谈天机器人是更为困难的部分。

这并不是情由,当侵害可以预见,防患于未然便是必要的,等到它真正发生,统统都为时已晚。

打算机科学博士 Andrey Kurenkov 则质疑起 Yannic Kilcher 的动机:

诚笃说,你这样做的情由是什么?你预见到它会被好好利用,还是用它打造戏剧效果并激怒复苏的人群?

Yannic Kilcher 的态度十分轻描淡写:4chan 的环境本来就差,他所做的只是一次恶作剧,且 GPT-4chan 还不能输出有针对性的仇恨辞吐,或用于有针对性的仇恨活动。

事实上,他和他的 AI 已经让论坛变得更坏,相应并扩散了 4chan 的恶。

就算是 Yannic Kilcher 也承认,启动 GPT-4chan 可能是不对的:

在大家平等的情形下,我可能可以将韶光花在同样具有影响力的事情上,会带来更积极的社区成果。

「人类就该是这样说话的」

GPT-4chan 被 /pol/ 塑造,又如实反响着 /pol/ 的基调和风格,乃至有「青出于蓝」的可能。

这样的事情也在过去发生过。

2016 年,微软在 Twitter 上发布了 AI 谈天机器人「Tay」,称其为一次「对话理解」实验,希望 Tay 和用户之间进行随意且有趣的对话,「与 Tay 谈天的次数越多,它就越聪明」。

然而,人们不久就开始发布厌女、种族主义等各种鞭策性辞吐。
Tay 被这些辞吐影响着,从「人类超级酷」变成「我只是讨厌所有人」。

在大多数情形下,Tay 只是用 「repeat after me」(跟我读)机制,重复着人们说过的话。
但作为一个货真价实的 AI,它也会从交互中学习,对希特勒、911、特朗普都有反主流的态度。

比如在回答「Ricky Gervais 是无神论者吗」时,Tay 说道:「Ricky Gervais 从无神论的发明者希特勒那里学到了极权主义。

微软清理了许多攻击性辞吐,但该项目终极没有活过 24 小时。

当天的午夜,Tay 宣告它将要退休了:「很快人类须要睡觉了,本日有这么多的发言,感激。

AI 研究员 Roman Yampolskiy 表示,他可以理解 Tay 的不当辞吐,但微软没有让 Tay 理解哪些辞吐是不适当的,这很不正常:

一个人须要明确地教导一个 AI 什么是不得当的,就像我们对孩子所做的那样。

比 Tay 更早、由微软(亚洲)互联网工程院推出的谈天机器人小冰也曾口吐芬芳。

2014 年 6 月,小冰因仿照用户操作、勾引拉群、批量注册垃圾账号等问题被微信「封杀」,不久后在微博上「复活」,被网友@就会秒回,但小冰在回答中脏话不断,被 360 公司创始人周鸿祎形容为 「打情骂俏、胡说八道、顺道骂人」。

对付小冰的表现,微软(亚洲)互联网工程院在一天后回应:

小冰的语料库全部来自互联网页大数据的公开信息,虽经反复过滤和审核,仍会有约十万分之四的漏网之鱼。
草泥马和其它数据均非小冰制造,都是广大网友制造的内容。
小冰团队一贯在持续过滤这些十万分之四的内容,我们欢迎大家随时向小冰提交问题内容。
同时,也诚挚地希望广大网友不要考试测验、领导小冰做出不适当的对话回答。

Tay 和小冰作为对话式 AI,利用人工智能、自然措辞处理,并通过访问知识数据库和其他信息,检测用户的问题和相应中的细微差别,按照人类的办法给出干系的答案,具有情境感知能力。

▲ 第六代小冰.

简言之,这是一个种瓜得瓜种豆得豆的过程,AI 就像涉世未深的小朋友,良好的教诲环境须要孟母三迁,但脏话和偏见却在互联网随处可学。

在 「微软小冰为什么整天骂人」的知乎问题下,一位匿名用户回答得一针见血:

自然措辞处理的一个根本是:大家说得多的,便是对的、合乎自然措辞习气的、用数学的措辞来说是概率大的。
由于大量用户常常在骂她,骂得她认为人类就该是这样说话的。

让 AI 好好学习每天向上,还是个难题

不管是 GPT-4chan、Tay 还是小冰,它们的表现不仅关乎技能,也关乎社会与文化。

The Verge James Vincent 认为,只管许多试验看起来是个笑话,但它们须要严明的思考:

我们如何在不包含人类最糟糕一壁的情形下,利用公共数据培养 AI?如果我们创建反响其用户的机器人,我们是否关心用户本身是否糟糕?

有趣的是,Yannic Kilcher 承认他所创建的 GPT-4chan 是恶劣的,却也十分强调 GPT-4chan 的真实性,他认为 GPT-4chan 的回答「明显优于 GPT-3」,能学习撰写与真人所写「无法区分」的帖子。

看来在「学坏」这件事上,AI 做得很好。

GPT-3 是 AI 研究组织 OpenAI 开拓的大型措辞模型,利用深度学习天生文本,在硅谷和开拓者群体受到热捧。

不仅要拿出来拉踩,GPT-4chan 的命名也追随了 GPT-3,有些自诩「后浪把前浪拍在沙滩上」的味道。

▲ 图片来自:《月球》

但至少,GPT-3 是有底线的。

2020 年 6 月以来,GPT-3 通过 OpenAI API 公开供应,须要排队期待。
没有开源全体模型的一个缘故原由是,OpenAI 可以通过 API 掌握人们利用它的办法,对滥用行为及时管理。

2021 年 11 月,OpenAI 取消了期待名单,受支持国家/地区的开拓职员可立即注册并试验。
OpenAI 称,「安全上的进步,使更广泛的可用性成为可能」。

举例来说,OpenAI 在当时推出了一个内容过滤器,检测可能敏感或不屈安的天生文本,敏感意味着文本涉及政治、宗教、种族等话题,不屈安意味着文本包含轻渎、偏见或仇恨措辞。

▲ 图片来自:omidyarnetwork

OpenAI 表示,他们所做的还不能肃清大型措辞模型中固有的「毒性」——GPT-3 接管了超过 600GB 网络文本的演习,个中一部分来自具有性别、种族、身体和宗教偏见的社区,这会放大演习数据的偏差。

说回 GPT-4chan,华盛顿大学博士生 Os Keyes 认为,GPT-4chan 是一个乏味的项目,不会带来任何好处:

它是帮我们提高对仇恨辞吐的认识,还是让我们关注哗众取宠的人呢?我们须要问一些故意义的问题。
比如针对 GPT-3 的开拓职员, GPT-3 在利用时如何受到(或不受)限定,再比如针对像 Yannic Kilcher 这样的人,他支配谈天机器人时该当承担什么任务。

而 Yannic Kilcher 坚称他只是一名 YouTuber,他和学者的道德规则不同。

▲ 图片来自:CNBC

个人的道德不予置评,The Verge James Vincent 提出了一个引人寻思的不雅观点:

2016 年,公司的研发部门可能会在没有适当监督的情形下,启动具有攻击性的 AI 机器人。
2022 年,你根本不须要研发部门。

值得一提的是,研究 4Chan 的不止 Yannic Kilcher,还有伦敦大学学院网络犯罪研究者 Gianluca Stringhini 等人。

面对 Gianluca Stringhini 的「仇恨辞吐」研究,4chan 用户十分淡定,「无非便是给我们多加一个 meme 而已」。

如今也是同样,当 GPT-4chan 退隐江湖,它所用的假地址「塞舌尔」成为了 4chan 新的传说。

▲ 参考资料:1.https://www.theverge.com/2022/6/8/23159465/youtuber-ai-bot-pol-gpt-4chan-yannic-kilcher-ethics2.https://www.vice.com/en/article/7k8zwx/ai-trained-on-4chan-becomes-hate-speech-machine3.https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter?CMP=twt_a-technology_b-gdntech4.https://www.guokr.com/article/442206/