科技日报11月27日宣布,人脸识别系统已经给我们的城市带来诸多方便。
然而,在许多国家,对人脸识别的抵抗声也在不断飞腾。
研究职员、公民自由倡导者和法律学者都受到人脸识别技能兴起的困扰。
他们正在跟踪其利用,戳穿其危害并开展运动以寻求保障乃至是彻底禁止技能的利用。
然而,技能发展的潮流浩浩荡荡,更多人认为该技能的存在是“不可避免的”,但是其背后存在的道德伦理问题值得我们寻思。

近期,《自然》杂志的一系列宣布对人脸识别系统背后的道德伦理学进行了磋商。
一些科学家正在剖析人脸识别技能固有的不准确和偏见,对其背后存在的歧视发出警告,并呼吁加强监管、提高技能透明度。

《自然》杂志对480位从事人脸识别、人工智能和打算机科学领域研究的研究职员的调查显示,人们对人脸识别研究的伦理学普遍存在担忧,但也存在不合。

有些未经赞许获取数据

史上最危险的发明美480位人脸识别专家争议道德伦理

为了使人脸识别算法正常事情,必须对大型图像数据集进行演习和测试,空想情形下,必须在不同的光照条件和不同的角度多次捕获这些图像。
过去,科学家普遍招募志愿者,只为网络各种角度的照片;但现在,大多数人未经容许即被网络人脸图像。

在《自然》杂志的480位受访者中,当被问及对运用面部识别方法从外表识别或预测个人特色(如性别、年事或种族)的研究有何意见时,约三分之二的人表示,此类研究只能在得到面部识别者知情赞许的情形下进行,或者在与可能受到影响的群体代表谈论后进行。

大多数人认为,利用人脸识别软件的研究应事先得到伦理审查机构(例如机构审查委员会)的批准。
他们认为,对付在学校、事情场所或由私人公司监视公共场所时利用人脸识别进行实时监视感到最不舒畅,但是他们常日会支持警察在刑事调查中利用人脸识别系统。

从法律上讲,目前尚不清楚欧洲的科学家是否可以未经人们的赞许而网络个人人脸的照片以进行生物识别研究。
欧盟的通用数据保护条例并没有为研究职员供应明显的法律依据。
在美国,一些州表示,商业公司未经其赞许利用个人的生物识别数据是非法的。

受访者强烈认为,该当有其他法规来规范公共机构利用人脸识别技能。
超过40%的人则希望禁止实时大规模监视。

存在性别和种族偏见征象

人脸识别系统常日是专有的并且保密,但是专家说,大多数系统涉及一个多阶段过程,该过程通过深度学习对大量数据进行大规模神经网络演习。

美国国家标准技能研究院(NIST)在去年年底发布的报告中称,人脸识别的准确率有了显著提高,深度神经网络在识别图像方面效果明显。
但NIST同时也证明,相对付有色人种或女性,大多数人脸识别对付白人男性面孔的准确性更高。
特殊是,在NIST的数据库中被归类为非裔美国人或亚裔的面孔被误认的可能性是那些被归类为白人的面孔的10—100倍。
与男性比较,女性误报的可能性更高。

领导NIST图像小组的电气工程师克雷格·沃森认为,这种不准确很可能反响了每家公司培训数据库构成的不平衡,一些公司可能已经开始办理这个问题。

有待严格立法和监管

致力于人脸识别或剖析技能的研究职员指出,人脸识别有很多用场,比如探求走失落的儿童,追踪罪犯,更方便地利用智好手机和自动取款机,通过识别机器人的身份和感情来帮助机器人与人类互动,在一些医学研究中,还可以帮助诊断或远程跟踪赞许的参与者。

人脸识别技能有好处,但这些好处须要根据风险进行评估,这便是为什么它须要得到适当和细致的监管。

目前,许多研究职员以及谷歌、亚马逊、IBM和微软等公司都呼吁在人脸识别系统方面出台更严格的监管方法。

马萨诸塞州波士顿东北大学研究面部监控的打算机科学家、法学教授伍德罗·哈特佐格说视人脸识别技能为“史上最危险的发明”,说如果美国立法者许可公司利用人脸识别,他们该当编写规则,从健身房到餐厅都应该禁止“面部指纹”的网络和储存,并禁止将人脸识别技能与自动化决策(如预测性警务、广告定位和就业)结合利用。

尚须谨慎研究和思考

密歇根州立大学东兰辛分校的打算机科学家阿尼尔·贾恩说:“在我们的社会中,我们须要大量正当而合法的人脸和生物识别运用。
”但一些科学家表示,研究职员也必须认识到,在人们不知情的情形下对人脸进行远程识别或分类的技能从根本上是危险的,该当努力抵制其被用来掌握人们的做法。

作为人工智能领域的紧张会议之一,神经信息处理系统会议是今年首次哀求进行这种道德考量,即提交有关人脸识别论文的科学家必须添加一份声明,解释他们的事情中存在的伦理问题和潜在的负面后果。

此外,《自然机器智能》杂志也在试图哀求一些机器学习论文的作者在文章中加入一项声明,考虑到更广泛的社会影响和伦理问题。

纽约伊萨卡市康奈尔大学从事技能伦理研究的社会学家凯伦·利维认为,研究人脸识别的学者意识到道德伦理问题,“觉得像是科学界真正的觉醒”。

来源:科技日报