编辑/ 王昕 孙妍

如果一台机器能够与人类进行互换,并且让人类无法区分它是机器,还是另一个人类,那么这台机器就可以说具有智能或者说通过了图灵测试,这是图灵测试的基本思想。

作为衡量机器智能的主要标准之一,最近加州大学圣地亚哥分校的科学家进行了一项实验,让500名人类与四种AI措辞模型进行了5分钟的对话,个中GPT-4在54%的韶光里被误认为是人类,已经远远超过图灵测试30%的标准,再次刷新人类对AI的认知,GPT-4彷佛也在上演着一场“真人秀”,展现出其独特的“人格魅力”。

美国笑剧演员乔·罗根曾将ChatGPT与科幻惊悚片《机器姬》中的艾娃相提并论,后者是一个拥有自主意识的人工智能,乃至沦为“邪恶的存在”。
虽然ChatGPT并非艾娃,但其展现出的聪慧同样令人震荡,未来的剧情或许将是一部扣民气弦的“悬疑剧”。

AI要骗过全人类了GPT4伪装成人类骗过了54的人

《机器姬》剧照

试想一下,当你与一位网友相谈甚欢,却在某个瞬间创造对方是一位AI谈天机器人时,会做何感想?这种突如其来的“穿帮”,更多的是让人感到不安,而这种不安正是当前AI技能发展所带来的隐忧之一。

比如,在加州大学圣地亚哥分校的这次实验中,GPT-4通过模拟人类的措辞和行为,成功让测试者产生错觉,难以分辨其真实身份。
如果类似的谈天机器人被大规模运用,且未能得到有效监管,势必会产生网络诱骗等一系列给人类社会带来危害的事宜。

现实生活中,AI模拟人类语音拨出的营销和客服电话已经变得越来越逼真。
口音、抑扬感、讲话节奏等都能以假乱真,许多人已经分辨不出电话那头到底是不是“人”?

当GPT-4让一大帮人类“傻傻分不清楚”的时候,另有一条传出:Facebook母公司Meta Platforms Inc.将推迟在欧洲推出Meta AI谈天机器人。
此前,该公司宣告,打算开始利用欧洲用户发布的公开帖子来培训名为Llama的大型措辞模型。
不过没过几天,该公司就更新了声明,称在爱尔兰数据保护委员会推迟了这一决定后,谈天机器人推出操持被无限期推迟。

这无疑为当前火热的AI谈天机器人泼了一盆冷水,Meta的初衷是希望通过网络欧洲用户的公开帖子来演习名为Llama的大型措辞模型,从而供应更加智能、个性化的做事。
然而,这一行为却触动了欧洲数据保护委员会的敏感神经。
在他们看来,这种行为可能陵犯了用户的隐私权和个人信息安全。

对此,有剖析人士指出,随着天生式人工智能技能的快速发展,数据隐私和安全问题日益受到关注。
Meta遭遇的监管障碍,预示着未来科技企业在利用用户数据进行人工智能演习时将面临更为严格的审查。

GPT-4通过图灵测试和Meta推迟推出AI谈天机器人,这两条看似独立的,却折射涌实际问题:一是随着技能的进步与寻衅,人类不得不正视数据隐私、算法偏见、滥用风险等各种寻衅,不断提升技能的安全性和可靠性;二是技能运用与社会任务的平衡,AI技能的发展和运用不仅关乎科技本身,更涉及社会、伦理、法律等多方面的成分。

在AI的天下里,不仅要玩得转技能,还得玩得转法律、深度理解伦理。
否则,就算AI再牛气冲天,也得乖乖地接管“整改”的命运。

每一次科技革命都伴随着争媾和变革,AI的“双刃剑”特性非常显性,那么问题来了:面对AI谈天机器人的逼真表现,我们究竟该如何是好?实在答案很大略——那便是既要充分利用AI技能的上风,又要时候保持当心和理性,这正是“中庸之道”。

首先不能因噎废食。
AI技能的发展给人类社会带来了诸多便利和机遇。
从智能家居到自动驾驶,从医疗诊断到金融剖析,AI正在以前所未有的速率改变着我们的生活,不能由于害怕未来可能带来的负面影响就否定其当下的代价。

其次,“科技应以人为本”,我们在关注如何利用科技造福人类的同时,也得给AI戴上“紧箍咒”,制订一套完善的法律法规和伦理规范。
这就像是给AI技能划定了一条明确的界线,让它只能在规定的范围内活动。
这样一来,就算AI技能再神通广大,也逃不过“如来佛的手掌”。

最主要的是要明确AI技能的道德边界,尊重人类的肃静和权柄,人类不能被AI所“绑架”,也不能被取代或支配。

就像风起云涌的“欧洲杯”,足球场上,精彩进球固然令人欢呼,但稳固的防守同样主要。
在这场科技与伦理的较劲中,人类要找到那个奇妙的平衡点,让AI技能在不触碰伦理红线的条件下,充分发挥其潜力,为人类带来更多福祉。

排版/ 季嘉颖

图片/ 《机器姬》 Meta 东方IC

来源/《IT时报》"大众年夜众号vittimes

E N D

请加「星标」不错过我们