编译 | 程茜 陈骏达编辑 | Panken

智东西9月14日宣布,近日,美国著名女脱口秀主持人奥普拉·温弗瑞(Oprah Winfrey)录制了一档45分钟的AI特殊节目,主题为“AI与我们的未来”。
高朋包括OpenAI联合创始人兼CEO萨姆·阿尔特曼(Sam Altman)、微软联合创始人比尔·盖茨(Bill Gates)、YouTube有名科技博主马库斯·布朗利(Marques Brownlee,又称MKBHD)和现任FBI局长克里斯托弗·雷伊(Christopher Wray)等人。

这档节目也是OpenAI发布传说中“草莓”模型的部分预览版——OpenAI o1预览版后,阿尔特曼首次公开露面。
OpenAI o1拥有进化的推理能力,在物理、生物、化学问题的基准测试中准确度乃至超过了人类博士水平。
这些无一不引发人们对AI安全的担忧。

在对话中,作为目前这家最受瞩目的AI创企的CEO,阿尔特曼强调了对AI系统进行安全测试的主要性,并透露他每隔几天就会和政府官员就此碰面谈论。

OpenAI CEO对话脱口秀女王自称与政府往来密切宣扬AI全能

但同时,阿尔特曼也分享了AI能通过数据来学习并理解观点以及“AI将帮助我们办理统统问题”等极具争议性的不雅观点,并在奥普拉提及他面对的信赖危急时转移话题。

盖茨则强调,10年内AI会极大地改变教诲和医疗领域。
然而,他并未提及这些改变可能并非全都是正面的。
有研究显示,AI在医疗中的运用可能给诊断和治疗效果带来负面影响。

其它高朋则关注了深度假造造成的危害和“超级智能带来的全新风险”。

这档节目在发布前后引起轩然大波,许多网友和批评家质疑该节目在高朋选择上过于单一,阿尔特曼与盖茨都是从本场AI热潮中直接管益的利益干系方,他们对AI的不雅观点可能有所偏颇。
此外,部分高朋在节目中过度强调AI的远期危害,可能导致公众忽略AI目前已经对环境、社会造成的现实影响。

一、阿尔特曼再度开启“推销员”模式,称AI能办理“统统问题”

阿尔特曼是接管奥普拉采访的第一位高朋,他提出了一个颇具争议的不雅观点:当今的AI是通过演习数据来学习观点的。

在向节目不雅观众阐明AI的事理时,阿尔特曼说道:“我们向系统展示一千个单词的序列,并哀求它预测接下来的内容,反复重复这一过程,系统就能学会预测,进而学会背后的观点,这便是模型的底层逻辑。

许多专家并不同意这一说法。
最近,OpenAI发布了传说中“草莓”模型的部分预览版——OpenAI o1预览版。
此类系统和之前的GPT系列模型确实可以高效、准确地完成下一词预测的任务,但许多研究者认为这种模型只是统计机器——它们只是学习数据模式,没故意图,只是做出有根据的预测。

阿尔特曼称,AI对经济发展的影响程度之大是前所未有的,称到2035年,“AI能帮助我们办理统统问题”。
假设我们能让模型变得极为安全,但也无法改变AI融入经济的速率,他认为:“人们想要更多、更好(的AI),彷佛有某股强大的力量在推动其发展”。

不过,高盛和红杉在近期都曾指出AI领域存在投资和收益不匹配的问题。

二、阿尔特曼强调AI监管,避而不谈信赖危急

阿尔特曼可能浮夸了当今AI的能力,他也同时强调了对这些系统进行安全测试的主要性:“我们须要做的第一件事便是要让政府开始研究如何对这些系统进行安全测试,类似于飞机和药物那样的测试。

但他的重点可能是后半句话:“如果我们现在能研究清楚这些问题,就能在之后发展出适宜的监管框架。
”换言之,他可能并不肯望在当下就涌现完全的监管体系。

▲阿尔特曼接管采访(图源:ABC)

在过去的几年中,阿尔特曼常常以支持AI监管的形象示人,在本次采访中,他说到:“我个人可能每隔几天就会和政府里的某个人交谈一次。

不过,在面临欧洲和美国加州地方政府的实际监管政策时,阿尔特曼却选择反对。
OpenAI的强力竞争对手Anthropic一开始虽然反对加州AI安全法案的初稿,但积极参与了修订事情,OpenAI并未提出详细修正见地。

奥普拉还质问阿尔特曼,他作为OpenAI的“头目”(ringleader),之前曾被董事会以不信赖为由开除,人们为什么要连续相信他?阿尔特曼回避了这个问题,他只提到其公司正在努力逐渐建立信赖。

阿尔特曼曾在多个场合提到,人们不应该相信他或者任何一个人能确保AI造福天下。
不过,他不同意有些人称他为“天下上最有权势和最危险的人”,他称自己有机会和任务推动AI朝着对人类有利的方向发展。

三、深度假造技能风险激增,青少年景侵害工具

在节目中,奥普拉和MKBHD评论辩论了深度假造的话题。

为了证明合成内容的可信度,MKBHD将OpenAI的视频天生模型Sora的样本片段与几个月前AI系统天生的片段进行了比较。
Sora的视频效果遥遥领先,这表明该领域的进步非常迅速。
MKBHD还现场利用语音合成器天生了一段自己绕口令的音频。

▲YouTube科技博主MKBHD现场演示深度假造技能(图源:ABC)

奥普拉对这项技能感到担忧,但MKBHD认为就像之前的各类技能那样,在开始阶段总是会存在混乱,但人类终极总是能办理问题。

来自美国人性技能中央的崔斯坦·哈里斯(Tristan Harris)和阿扎·拉斯金(Aza Raskin)在节目中强调了“超级智能带来的全新风险”。
然而,过去已有AI界人士批评,过分强调迢遥的“超级智能”,可能会导致社会忽略近期的AI风险,如AI的环境影响。

美国FBI现任局长雷伊谈到AI诱骗日益盛行的情形。
美国网络安全公司ESET的数据显示,2022年至2023年间,性打单案件增加了178%,部分缘故原由是AI技能。

雷伊说:“有人伪装同龄人瞄准青少年群体,然后利用(AI天生的)的图片说服孩子发送真实照片作为回报。
一旦他们拿到这些照片,就将其用来威胁孩子们。
”雷伊还谈到了美国总统大选的虚假信息。
他认为“现在还不是惶恐的时候”,但强调了每个人都有任务加强对AI利用的关注和谨慎。

四、盖茨看好AI教诲、医疗运用,但偏见与滥用频发

奥普拉还采访了微软联合创始人比尔·盖茨(Bill Gates),他认为10年内AI会极大地改变教诲和医疗领域。

盖茨说:“AI就像是坐在就诊现场的第三人,记录诊断结果,并提出处方建议。
年夜夫不须要再面对电脑屏幕,而是可以与患者互动,让软件确保诊断结果得到完全记录。

▲盖茨在节目中评论辩论AI与医疗和教诲(图源:ABC)

然而,由于医疗、医药领域的样本常日为白人男性,用这些数据来演习AI可能造成偏见。
2023年发布在学术期刊《自然》子刊上的一项研究表明,AI系统在某些情形低落低了手术的效果,特殊是在涉及少数族裔的手术中。

在教诲领域,盖茨认为AI可以在教室上“随时待命”并且给任何水平的孩子供应勉励,但实际上许多教室里的情形并非如此。

英国安全互联网中央的调查显示,超过一半的孩子称曾看到同龄人以不当办法利用天生式AI,如创建看起来可信的虚假信息或搪突性的图像。

联合国教科文组织(UNESCO)去年底曾敦促各国政府规范天生式AI在教诲领域的利用,包括对用户履行年事限定以及对数据保护和用户隐私设置限定。

五、节目安排引发轩然大波,网友质疑奥普拉“拉偏架”

实在,在这档特殊节目发布之前,就有不少网友和批评家对其高朋安排和内容提出质疑。

部分网友认为,在AI界阿尔特曼等人显然算不上最威信的专家。
OpenAI前首席科学家伊尔亚·苏茨克维(Ilya Sutskever)可能更理解AI,而OpenAI的强力竞争对手Anthropic的创始人达里奥·阿莫蒂(Dario Amodei)也该当被约请,以表示对AI不同的意见。

▲网友吐槽奥普拉AI特殊节目的高朋人选(图源:X平台)

起诉Stability AI和Runway AI等公司、并让Runway AI于不久前“删库跑路”的艺术家卡拉·奥尔蒂斯(Karla Ortiz)认为,这档节目该当找一些“真正的专家”来参与谈论。

她还进一步剖析道,这档节目或许将会是许多人第一次得到与天生式AI干系的信息,然而参与这档节目的人大多是既得利益者,他们忽略了天生式AI对大众造成的现实影响。
她的系列帖子得到了大量阅读和点赞。

▲卡拉·奥尔蒂斯批评奥普拉的节目高朋选择(图源:X平台)

前《洛杉矶时报》科技专栏作家布莱恩·莫钦特(Brian Merchant)在X平台年夜将这场节目称之为天生式AI行业困局中的一次“发卖宣扬”。

结语:批评声浪减退但影响持续,或成部分不雅观众“AI第一课”

这档节目在发布后连续在社交媒体平台上引发谈论,反对的声浪并未如播出前般巨大。
有部分网友认为,这档节目实在是在面向“祖父母辈”群体先容AI,并不是十分深刻。
但也有网友认为这正是非技能职员所须要的内容。

▲Reddit论坛上的干系谈论(图源:Reddit)

相对较少的谈论并不虞味着这档节目的影响力有限。
奥普拉的不雅观众群体弘大,但可能并不是社交媒体的用户,他们十分乐意相信奥普拉和她的节目中其他高朋的不雅观点。

通不雅观这档45分钟的节目,奥普拉彷佛将重点放在了AI安全问题上,却又没有进行深入且实际的磋商,并呈现来自不同方面的不雅观点。
不论这些不雅观点是否精确,偏颇与否,彷佛已经成为了部分不雅观众的AI第一课。