撰文:约翰·麦奎德(John McQuaid) 翻译:施 怿
1、监控遍布的社会
在英国利物浦,正在进行着一场关于政府采购的有些乏味的会议。当时是2020年2月,会议的展厅里摆放着各种各样的陈设品。参会者在这些展品间四处走动,时而在某些展品前勾留,其他时候则直接绕过。与此同时,他们也被密切地“监视”着。全体楼层安置着24个不显眼的摄像机,用于追踪每个人的活动。人的表情变革是通过面部肌肉运动产生的,因此当参会者面对不同展品时,面部肌肉会发生不同程度的紧缩。只管这些变革很细微,但24个摄像机将以每秒5到10帧的速率进行拍摄。随后,拍摄好的照片会传送到打算机网络,利用AI算法评估每个人的性别和年事,并剖析他们的面部表情。终极,系统会从中找到表达“幸福”和“投入”的旗子暗记。
《环球科学》杂志社供图
只管利物浦的会议已经由去了一段韶光,帕诺斯·穆塔菲斯仍旧对“监视”的结果感到愉快。穆塔菲斯是一家名为“Zenus”公司的首席实行官。这家公司位于美国得克萨斯州奥斯汀,为会议上的面部表情剖析供应了AI技能。“在我见过的商用AI系统中,很少能达到这样的准确度。”他在视频通话中对我这样说道。他还向我展示了一张人群照片,人群中的一些脸用方框框了出来。为了使AI系统学会识别人的情绪,Zenus的工程师对系统进行了“培训”。他们选取了一个弘大的面部表情数据集,每一个表情还标注着对应的内心感想熏染,并用这个数据集演习AI系统识别情绪的能力。为了验证培训后的AI系统识别情绪的能力,Zenus的工程师考试测验过多种方法。个中包括现场测试,也便是在一个人说出当下感想熏染的同时,用摄像机拍下这个人的脸。穆塔菲斯说:“这种AI系统能在多种环境中识别人的情绪,例如在室内、在人们戴着口罩的条件下,或是在没有灯光时,又或者是在室外、当人们戴着帽子和太阳镜时。”
2、能识别情绪的机器
最近有一种被称作情绪AI(emotionAI)或情绪打算(affectivecomputing)的新兴技能,它将摄像机和基于AI程序的其他设备结合在一起,用来捕捉面部表情、肢体措辞、语调等线索。个中,Zenus开拓的AI系统便是这项技能的一个示例。值得一提的是,情绪AI的目的不但是为了辨认并辨别面部表情,更主要的是要揭示出此前技能无法察觉到的信息,例如照片中人的内心感想熏染、动机和态度。2019年曾写过一篇题为《机器人监视的黎明》报告的杰伊·斯坦利说:“现在摄像机变得越来越智能。它们正在觉醒——不再只是无声地记录人的活动,如今它们还能剖析所记录的信息。”
可想而知,情绪AI已经成为一种盛行的市场调研工具,但除此之外,情绪AI还被运用在了风险更高的领域。例如,有AI系统能读出与感想熏染、性情和意图干系的线索,而人们正在操持或已经将这些系统用于检测边疆检讨站的威胁、评估求职者的能力、监控是否有扰乱教室或打瞌睡儿的行为,以及识别攻击性驾驶行为的迹象。主流汽车制造商操持将这项技能运用于未来的汽车。科技公司则结合人脸识别技能,供应基于云打算的情绪AI做事,例如美国亚马逊、微软和谷歌。此外,数十家初创公司也推出了可以帮助企业招聘的运用程序。在韩国,利用AI招聘的做法已经十分普遍,因此职业培训师每每会让他们的客户练习如何通过AI口试。
《环球科学》杂志社供图
为了识别情绪和行为,AI系统须要利用多种类型的数据。除了面部表情、语调和肢体措辞,它们还能通过剖析口语或书面语的内容,获取个中包含的情绪和态度。还有一些运用程序网络数据,不是为了探究情绪,而是为了得到与情绪干系的信息。例如这个人具有什么样的人格,是否关心运用程序的内容,以及是否会对社会构成潜在威胁。
但批评人士警告称,情绪AI的潜在危险可能不是AI自身能掌握的。这是由于工程师在演习AI时,可能利用的是有种族、民族和性别偏见的数据集,这些偏见又会反过来影响算法的结果。
情绪AI背后的科学事理也存在争议。这要追溯到半个世纪前,生理学家保罗·埃克曼和华莱士·弗里森根据研究将一组面部表情与基本情绪对应在了一起,他们认为这些面部表情是通用的情绪措辞。个中6种基本情绪包括愤怒(anger)、厌恶(disgust)、恐怖(fear)、快乐(happiness)、悲哀(sadness)和惊异(surprise),随后,埃克曼经由研究创造唾弃(contempt)很有可能是第7种基本情绪。不过现在,埃克曼和弗里森的不雅观点受到了极大的争议。这是由于科学家创造面部表情可能具有显著的文化和个体差异。许多研究职员表示,至少目前在剖析不同个体的面部表情时,算法还不能用一套规则精确地识别出表情的细微差异,由于有时候不同个体的表情不能与范例的内在感想熏染对应起来。埃克曼对早期情绪识别技能的开拓作出了主要的贡献,值得一提的是,现在他认为这项技能会对隐私构成严重威胁,该当受到严格的监管。
情绪AI实在实质上并不坏。专家表示,如果能让机器学会可靠地解读情绪和行为,情绪AI将会在机器人、卫生保健和汽车等领域表现出巨大的潜力。不过现在,这一领域险些是一片“混战”,大概终极会有一种未履历证的技能霸占主导地位而变得无处不在。然而,未履历证的技能会对社会带来危害,到那时我们可能会对此措手不及。
3、用AI来招聘
2018年,时任美国爱塔梅尔(Airtame,开拓具有屏幕共享功能的设备)人力和商业运营副总裁的马克·格雷想要找到改进公司招聘流程的方法,包括改进招聘的效率。一方面是由于只管爱塔梅尔的规模不大,一共拥有约100名员工,但有时候公司会收到数百份申请市场营销或设计岗位的简历。另一方面是由于任命决策的主不雅观性。“有很多次,我都以为潜意识里有个人说‘噢,我很喜好这个人’,而不是‘这个人的能力很强’。事实上,招聘的天下里充满了无形的东西,因此我想弄清楚如何才能在招聘中加入有形的考量。”格雷阐明道。
美国爱塔梅尔与德国慕尼黑的Retorio公司达成了一项合约,个中Retorio开拓了一种能用在视频口试中的AI系统。视频口试的流程很快,应聘者只须要录制60秒的视频来回答2到3个问题。随后,用算法剖析应聘者的面部表情和声音,以及他们回答的内容。然后,根据“大五”人格模型(OCEAN,一种生理学中常用的人格构造模型),为每位应聘者天生基于5种人格特质的档案。这5种人格特质分别为开放性、任务心、外倾性、宜人性和神经质性。通过比较应聘者的档案和职位描述,系统会按照匹配度为应聘者排序,末了招聘职员就能得到一份应聘者的排名列表。
事实上,类似的软件已经开始改变商业决策的制订办法,以及组织与人的互动办法。它重塑了爱塔梅尔的招聘流程,使他们很快就选拔出了更适宜的应聘者。格雷说,这是由于天生的档案很有用。他分享了一张图表,图表显示了最近招聘的几名发卖职员中,事情表现与5种人格特质得分之间的关系,个中在任务心、宜人性和开放性方面得分较高的员工表现最好。
长期以来,能理解人类情绪的机器一贯是科幻小说的主题。但在打算机科学和工程领域,在很长一段韶光里,人类情绪都是一个陌生的观点。在20世纪90年代,“它是一个禁忌话题,并不受欢迎。”美国麻省理工学院(MIT)的罗莎琳德·皮卡德说。
皮卡德和其他研究职员开拓了能自动读取和相应生物特色信息的工具。个中,生物特色信息涵盖从面部表情到血液流动的范围,能用于指示情绪状态。不过,如今情绪AI运用处景的激增要追溯到2010年初,当时深度学习开始被广泛运用。深度学习是一种基于人工神经网络的强大的机器学习形式,个中人工神经网络的原型是生物神经网络。深度学习提高了AI算法的能力和准确度,使一些以前只有人类才能可靠完成的任务实现了自动化,例如驾驶、人脸识别以及医学影像剖析。
4、AI的算法偏见
然而,这样的AI系统还远远不足完美,而且情绪AI处理的是一项极其艰巨的任务。算法本来该当反响的是关于天下的原形,例如它们该当把苹果识别为苹果,而不是桃子。机器学习中的“学习”是反复比较原始数据和演习数据的过程。个中,原始数据常日是图像,也包括视频、音频等数据,不过这些原始数据没有独特的特色,而演习数据则标注了与智能任务干系的特色。这便是AI系统学习提取潜在共性的办法,例如从苹果的图像中提取“苹果感”,从而能从任意图像中识别出苹果。
但是,如果AI系统的任务是要识别人格或情绪等难以定义的特质时,就更难得到原形了。例如,“快乐”或“神经质”究竟是什么样的?情绪AI算法并不能凭直觉知道情绪、人格或意图,相反,它们是通过演习学会模拟人类对其他人做的判断。个中,工程师会通过众包(crowdsourcing)的办法采集数据,来构建用于演习AI的数据集。批评人士认为,演习AI的过程引入了太多主不雅观变量。美国南加利福尼亚大学的凯特·克劳福德表示:“这些算法做出的判断,与一个人的真实想法或情绪状态之间存在巨大差距。因此,‘让机器像人一样感知情绪’既是AI干系技能巨大的飞跃,也是有风险的一步。”
AI系统识别情绪等特质的过程是繁芜的,每一步都存在潜在的毛病。深度学习对大量数据的需求是出了名的,因此情绪AI也须要弘大的数据集。但这些数据集每每附加了数千乃至数十亿个人的判断。这可能会使算法在不经意间“学习”所有数据网络者的系统性偏见。算法会将这些系统性偏见集成在一起,形成“算法偏见”,这可能来自演习数据集的人口统计学偏差和数据标注者无意识的态度等。
即便是识别一个微笑也远非一项大略的任务。2020年,在德国GESIS-莱布尼茨社会科学研究所的一项研究中,卡斯滕·施韦默和同事利用亚马逊、微软和谷歌基于云打算的情绪识别运用程序,剖析了国会议员的照片。通过肉眼不雅观察,研究职员剖断照片中86%的男性和91%的女性在微笑,然而,运用程序的结果则更方向于认为女性在微笑。例如,谷歌云视觉为超过90%的女性照片标注了“微笑”,而在男性照片当中,这一比例不到25%。研究职员据此推测,演习数据集可能存在性别偏见。而且,在研究职员对这些图像进行判断时,“模糊”是很常见的,但这常常会被机器忽略。“许多面部表情的含义并没有那么明确。那真的是微笑吗?傻笑也算微笑吗?如果照片中的人露出了牙齿,但看起来并不愉快呢?”他们补充道。
事实上,大多数基于深度学习的人脸识别系统,因存在偏见而广受批评。
现在,许多公司都在强调,他们已经意识到了并正在试图办理“偏见”问题。德国Retorio公司的联合创始人克里斯托夫·霍恩贝格尔表示,他们已经在采纳方法,以肃清会使人格判断具有倾向性的各种偏见,例如人口统计学和文化偏见。但目前该行业还缺少监管机制。因此,大多数情形下,我们不得不相信公司的一壁之词,只管我们很难验证公司专有数据集的鲁棒性和公正性。HireVue是一家致力于视频口试的公司,他们利用算法剖析应聘者的说话内容和音调,以此帮忙制订任命决策。与此同时,这家公司还会请外部审计师来检讨算法是否存在偏见,但会这样做的公司还很少见。
5、关于科学事理的争议
美国北卡罗来纳大学的伊菲奥玛·阿琼瓦表示,情绪AI不仅引发了对算法偏见的担忧,背后的科学事理也开始受到科学家的强烈反对。情绪AI遵照的科学不雅观点认为,每个人的外在表现都能与可解读的内心情绪相匹配。而且,这种不雅观点要追溯至50多年前。那时,埃克曼和弗里森正在巴布亚新几内亚做野外调查。他们在这里的东南部高地找到了原住民福尔人,并研究了福尔人识别和理解面部表情的办法。研究职员选用了几组能分别表达6种基本情绪的表情图,并将图像展示给志愿者。结果创造,福尔人的反应与其他国家实验志愿者的险些完备相同,例如日本、巴西和美国。因此,研究职员认为他们成功证明面部表情是一种人类通用的情绪措辞。
埃克曼和弗里森还描述了一张包含数千种面部肌肉动作的“舆图”,经剖析得到了面部肌肉动作与表情之间的对应关系,从而创制出了面部行为编码系统(FACS)。值得一提的是,“舆图”和FACS共同构成了情绪AI的理论基石,如今已经被整合到了许多AI运用程序中。
对付埃克曼的理论,科学家提出过异议,认为它们存在漏洞。例如,2012年,一项揭橥于《美国科学院院刊》(PNAS)的研究表明面部表情在不同文化中存在很大的差异。2019年,在美国东北大学的生理学家丽莎·费尔德曼·巴雷特和同事剖析了1000多篇关于面部表情的科学论文后,创造只管认为外在面貌能反响内在感想熏染的不雅观点,已经拓展到了从技能到法律的多个领域,但险些没有确切的证据可以证明这种不雅观点是精确的。
巴雷特说,基本情绪是一种宽泛且刻板的分类办法。由于每时每刻,面部表情都在反响繁芜的内在状态——一个微笑可能是在掩饰笼罩痛楚,也可能是在传达同情。她认为,现在AI系统还不能同等、可靠地分辨人的内在状态,这是由于实质上AI系统的演习数据是由标注好的刻板印象组成的数据集。“它是先丈量某些特性,然后再推测其在生理上的意义,但这本来是两件截然不同的事。目前大肆宣扬的情绪识别技能常常将这两件事稠浊在一起。”巴雷特说。
克劳福德说,造成这个问题的缘故原由之一是,科技初创公司并不理解其他领域的科学辩论,而且这些公司被类似FACS的简约之美所吸引。“埃克曼的理论为什么会受到机器学习领域的青睐?”克劳福德问道。“这是由于埃克曼的理论很符合机器学习的特点。如果在一种理论中,表情的数量是有限的,而且表情可能对应的情绪数量也是被严格掌握的,这种理论就能用于构建机器学习模型。”事实上,除了埃克曼的研究结果和OCEAN人格特质模型,开拓情绪AI的公司还采取了其他理论体系。个中之一是已故生理学家罗伯特·普鲁奇克提出的“情绪之轮”。所有这些理论都将人类情绪的繁芜性转化为了大略直接的公式。
只管如此,研究职员认为,在理解情绪运用程序的局限性后,我们可以据此做出改进,从而使它们发挥浸染。阿亚娜·霍华德是美国俄亥俄州立大学工程学院院长,同时也是机器人专家。她利用微软面部表情识别软件的改良版,让机器人教自闭症儿童学习社会行为。例如,如果机器人检测到对话者涌现了“愤怒”的表情,它就会调度动作以平息局势。霍华德说,范例的面部表情可能并不总意味着完备相同的情绪,但它们仍旧是有用的。“的确,我们都是独一无二的。但事实上,人与人之间的差异也没有那么大。因此,对付广义的情绪来说,这些情绪AI的判断大概不总是精确的,但并不但是恰巧对了。与随机比较,它们精确的可能性要更大。”她说。
总体来说,能扫描和凑集许多人面部反应的算法将会更加准确,例如用来解读人群的算法。巴雷特说,这是由于在统计学上,随着群体规模的增加,“不可能”会变成“可能”,从而具有“比随机精确更大的概率”。但是评估个体是有风险的,由于任何准确率低于100%的事情都会造成对某些个体的歧视。
现在对付面部表情,许多打算机视觉专家更倾向于一种不可知论的态度,也便是说无法通过剖析面部表情得到确切的结果。而且越来越多的公司表示,他们不会直接用面部表情来描述情绪或内在状态。美国南加利福尼亚大学的乔纳森·格拉奇说:“随着这一领域的发展,人们越来越认识到,许多表情实在和情绪无关。表情就像对话中有含义的词语,表情或词语都不能直接传达此刻的感想熏染。”
6、潜在的隐私风险
随着越来越多的技能试图描述情绪、人格特质和行为,并考试测验将干系技能推向市场,我们的生活受到了更多的监视。在科技公司从网上行为中挖掘个人数据已经由去20年后,一个新的、更私密的领域准备做类似的事情,那便是采集人脸和肢体信息,以及它们所传达的旗子暗记。加拿大VSBLTY公司紧张发卖智能相机和用于扫描人群的软件,这些产品能为零售商剖析消费者的人口统计特色和对产品的反应。2020年12月,VSBLTY宣告与墨西哥啤酒制造商莫德罗集团建立互助伙伴关系,操持到2027年,要在莫德罗集团旗下的5万家莫德罗拉马便利店,和墨西哥以及其他拉丁美洲国家的社区酒店里,配置店内摄像头来获取数据。
这就提出了一个基本的法律和社会问题:来自你的脸和身体的数据属于你自己吗?如果把个人身份与这些数据分开,在世界上大多数地方,答案是否定的。美国辛辛那提大学法学院教授詹妮弗·巴德研究过这一问题,她表示:“如果你想知道公共场所中一些人的信息,对他们进行扫描来识别情绪彷佛并不受到限定。”
大多数在公共场所采集数据的情绪AI公司表示,他们网络的信息是匿名的,因此大众不必对此担忧。Zenus公司的穆塔菲斯指出,Zenus的运用程序不会上传相机捕捉的真实人脸图像,只会上传有关情绪和位置的元数据。在进行监视时,他们会在会场的屏幕上展示干系标识,以奉告会议中的人。穆塔菲斯表示:“在采集信息时奉告被采集者实在是非常好的做法。由于作为公司,我们该当在监视行为的区域内张贴标志,表示这里正在被监视。”不过运用程序的多样性意味着没有统一的标准。而且,一旦这种例行监控成为政治和政策上的问题,普通大众和宦海人士是否会接管它,还远没有一个明确的答案。
此前埃克曼曾与Emotient公司和苹果公司在情绪AI方面展开过互助,不过,现在他警告称,情绪AI会对隐私构成威胁,并表示公司有法律责任取得每位被扫描者的赞许。“不幸的是,这是一项可以在人们不知情的情形下利用的技能。情绪AI被用在人们身上,却并不是为了让他们更幸福。这项技能还会让人们购买原来不会购买的产品。不过,这可能是情绪AI最良性的非良性用场了。”埃克曼补充道。
除此之外,情绪AI也侵入了私人空间,私人空间储存着更丰富的行为数据。亚马逊的Alexa(亚马逊的情绪AI系统)会通过剖析用户的语调,探求沮丧的迹象并据此改进算法。到2023年,一些汽车制造商将推出基于AI的车载系统,这些系统将天生大量关于驾驶员和搭客的行为数据。汽车制造商将利用这些数据(可能会是匿名化的),改进系统相应和车内设计。情绪AI公司Eyeris的首席实行官莫达尔·阿拉维表示,用户或将可以选择激活系统中不同级别的功能,因此如果利用者不该用某些功能,系统就不会从这些地方网络数据。
亚历克斯·马丁内斯是美国俄亥俄州立大学和亚马逊的打算机视觉科学家。2019年,他与巴雷特互助撰写了一篇批评面部表情与情绪之间关联性的论文。他总是会展示一张照片,照片上一个男人的脸扭曲着,看起来就像是处于一种殽杂着愤怒和恐怖的情绪中。然后,他将全体画面展示出来,结果那是一名在进球后狂喜的足球运动员。他指出,面部表情和手势等旗子暗记不仅是身体和大脑的产物,而且与事情发生的情境有关,也与一个人周围环境中正在发生的事情有关。迄今为止,情绪AI面临的最大寻衅是如何解读模棱两可的情境。“除非我知道什么是足球,否则我将永久无法理解照片里发生了什么。因此,这些知识是根本,不过在解读情境方面,现在还没有任何AI系统能做得很好。”马丁内斯阐明道。
马丁内斯说,如果缩小任务的范围、拥有大略的环境,并采集到多样化的生物特色信息,情绪AI将会变得更加有效。不过,未来将多样化的生物特色信息整合起来的情绪AI,可能只会是社会还没有准备好欢迎的、更强大且更具侵入性的技能。
(本版图文由《环球科学》杂志社供稿)
《光明日报》( 2022年01月27日14版)
来源: 光明网-《光明日报》