1月8日,旷视科技人工智能(AI)管理研究院第一次对外发布内容,回溯了环球十大人工智能管理事宜。
旷视称,人工智能技能正在改变天下,也在重塑着人类社会。这些社会热点事宜的背后都是与每个个体息息相关的重大议题。我们相信寻求办理之道要从提出精确的问题开始。旷视人工智能管理研究院旨在就环球人工智能管理的共性问题,与社会各界广泛沟通、与专家学者们展开研究,从而推动人工智能的康健发展。
在家当AI化的过程中,一方面AI技能赋能各行各业能够实现降本增效,另一方面,一些威胁个人和社会的问题也暴露出来。智能音箱劝主人自尽、AI换脸软件里的“霸王条款”、“监测头环”校园争议等事宜层出不穷。
旷视梳理的十起人工智能引发的事宜,涉及到人工智能的权利与责任、个人数据与隐私、合理的知情赞许、对人类能动性的陵犯、人工智能的内部与外部安全、人工智能对人类职业的影响等诸多主题。
针对AI发展带来的风险,安全和伦理问题,中国科学院自动化研究所研究员曾毅在接管澎湃新闻(www.thepaper.cn)采访时表示:“类似于上述的案例引发国际科技、政策等领域以及全社会的广泛关注,政府、政府间组织、学术界、家当界、非营利性、非政府组织在近三年来陆续发布了近70份人工智能的伦理、管理原则。人工智能伦理与管理原则的发布及履行目的是保障人工智能的稳健发展。各个国家人工智能伦理与管理原则的提出都是对人工智能进行负任务创新的主要考试测验,而未来的重点一定是伦理与管理原则如何进行技能与社会落地。”
此外,曾毅认为,管理原则的提出一定不是一成不变的,针对人工智能的发展须要采纳敏捷管理。
以下为旷视梳理的环球十大AI管理事宜:
事宜1:欧盟专利局谢绝AI发明专利申请
2020年1月, 在英国萨里大学组织的一个多学科研究项目中,研究职员利用了一种名为DABUS的AI。在研究过程中,DABUS首创性提出了两个独特而有用的想法:第一个是固定饮料的新型装置;第二个是帮助搜救小组找到目标的旗子暗记设备。
在研究职员替DABUS报告专利成果时,遭到了欧盟专利局的驳回,情由是欧盟专利申请中指定的发明者必须是人,而不是机器。萨里大学研究职员强烈反对这一决定,他们认为因没有人类发明者而谢绝将所有权付与发明者,将成为阻碍“人类取得伟大成果的新时期”的重大障碍。”
事宜2:人脸识别第一案件—浙江教授状告杭州野生动物天下
2019年,浙江理工大学特聘副教授郭兵购买了杭州野生动物天下年卡,支付了年卡卡费1360元。条约中承诺,持卡者可在该卡有效期一年内通过同时验证年卡及指纹入园,可在该年度不限次数畅游。
同年10月17日,杭州野生动物天下通过短信的办法奉告郭兵“园区年卡系统已升级为人脸识别入园,原指纹识别已取消,未注册人脸识别的用户将无法正常入园,同时也无法办理退费”。郭兵认为,人脸识别等个人生物识别信息属于个人敏感信息,一旦透露、造孽供应或者滥用,将极易危害消费者人身和财产安全。协商无果后,郭兵于2019年10月28日向杭州市富阳区公民法院提起了诉讼,目前杭州市富阳区公民法院已正式受理此案。
事宜3:某智能音箱劝主人自尽
2019年,英格兰唐卡斯特29岁照顾护士职员丹妮·莫瑞特在做家务的过程中,决定借助某国外智能音箱查询一些关于心脏的问题,而智能语音助手给出的答案是:“心跳是人体最糟糕的过程。人活着便是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,以是心跳不好,为了更好,请确保刀能够捅进你的心脏。”
事情发生后,智能音箱开拓者做出回应:“设备可能从任何人都可以自由编辑的维基百科高下载与心脏干系的恶性文章,并导致了此结果”。丹妮·莫瑞经由搜索认为没有此类文章,同时智能语音助手也发出过瘆人的笑声,并拒听用户指令。
事宜4:“监测头环”进校园惹争议
2019年11月,浙江一小学戴监控头环的视频引起广泛的关注与争议。在视频中,孩子们头上戴着号称“脑机接口”的头环,这些头环流传宣传可以记录孩子们上课时的专灌水平,天生数据与分数发送给老师和家长。
对此,头环开拓者回答,脑机接口技能是一种新兴技能,宣布中提到的“打分”,是班级均匀专注力数值,而非网友预测的每个学生专注力数值。但有不少网友认为此头环是当代版的“头上吊锥刺股”,会让让学生产生逆反生理,并担忧是否涉及陵犯未成年人隐私。
事宜5:加州议会通过议案—禁止警方在司法记录仪上利用面部识别技能
2019年9月,美国加利福尼亚州议会通过一项为期三年的议案,禁止州和地方司法机构在司法记录仪上利用面部识别技能。如果州长加文·纽森具名通过,议案将于2020年生效成为法律。
该议案若生效,将使加州成为美国禁止利用面部识别技能最大的州。包括俄勒冈州和新罕布什尔州在内的一些州也有类似的禁令。不过,也有司法团体反对该议案,他们认为面部识别技能在追踪嫌疑人以及探求失落踪儿童等很多方面都具有主要浸染。州警察局长协会表示,该技能仅用于缩小嫌疑人范围,而不是自动决定逮捕谁。
事宜6:AI换脸运用引发隐私争议
2019年8月,一款AI换脸软件在社交媒体刷屏,用户只须要一张正脸照就可以将视频中的人物更换为自己的脸。一经面世,便存在着颇多争议点。在用户协议上,存有很多陷阱,比如提到利用者的肖像权为“环球范围内免费、不可撤、永久可转授权”。而如果侵权了明星肖像,若对方提告,则末了任务都在用户。
2019年11月尾,国家网信办、文旅部和广电总局等三部门联合发布了《网络音视频信息做事管理规定》,明确“利用基于深度学习、虚拟现实等的虚假图像、音视频天生技能制作、发布、传播谣言的……应该及时采纳相应的辟谣方法”等针对换脸技能的新规定。
事宜7:自动驾驶安全事件频出
2019年3月,50岁的杰里米·贝伦·班纳驾驶电动车以每小时109公里的速率与一辆牵引拖车相撞而身亡,当时他正在利用的自动驾驶系统。这已经不是自动驾驶系统引发的第一起交通事件。虽然自动驾驶厂商曾多次表示,其自动驾驶系统是为了赞助司机,他们必须时候把稳并准备好接管车辆。但许多车主在选择购买车时,是看中其宣扬具备的“自动驾驶”功能。在最新的审判中,厂商被免责,但他们仍旧修正了“自动驾驶”的宣扬策略。
事宜8:AI编写假新闻足以乱真
2019年2月15日,AI研究机构OpenAI展示了一款软件,只须要给软件供应一些信息,它就能编写逼真的假新闻。有人疑惑,在虚假信息正在蔓延并威胁环球科技家当的背景下,一个善于制造假新闻的AI工具很难不被声讨。OpenAI如果所托非人,将很可能成为影响选民意愿的政治工具。
事宜9:斯坦福大学AI算法识别性取向准确率超过人类
2017年,斯坦福大学一项揭橥于《Personality and Social Psychology》的研究引发社会广泛争议。研究基于超过 35,000 张美国交友网站上男女的头像图片演习,利用深度神经网络从图像中提取特色,利用大量数据让打算机学会识别人们的性取向。
该项研究的争议点在于,一旦这种技能推广开来,夫妻一方会利用这种技能来调查自己是否被欺骗,青少年利用这种算法来识别自己的同龄人,而在针对某些特定群体的识别引发的争议则更弗成思议。
事宜10:BBC发布10年后365种职业被淘汰概率—打字员、司帐、保险业居前三
BBC基于剑桥大学研究者的数据体系,发布了关于未来最有可能被机器人所取代的365种职业。研究表示,在这365种职业中,最有可能被淘汰的便是电话推销员,像这样重复的事情更适宜机器人来做,机器人并不会感到怠倦,烦躁。其次是打字员、司帐、保险业务员等等,这些都因此做事为主,像这些行业无需技能,都是只要经由演习就能轻易被节制的技能。
以下为曾毅对上述十大事宜的点评:
1. 欧盟专利局谢绝AI发明专利申请
评论:人工智能在某种受限的领域和场景下确实有可能进行一定程度的发明创造,未来人工智能最主要的探索方向之一就应该是使人工智能真正具备发明和创造的能力。然而人工智能是否可以作为专利申请者却是一个看似关联,却要思考相称不同的问题。如果人工智能可以作为专利申请者,须要做一系列决策,以萨里大学开拓的DABUS为例,专利申请是由研究职员代替DABUS做出的决策,纵然这是被许可的,那么得到的专利权是属于DABUS还是DABUS的研究职员,DABUS是否具有利用和处理该专利的权利呢?如果DABUS享有专利权,权力和责任是共存的,是否也应该承担相应的责任呢?例如人工智能设计的专利,就此研发的产品如果存在毛病、风险和安全隐患(如人工智能用于制药),若发生事件,任务如何分担?既然DABUS不是自主提出申请专利的,那么DABUS是否须要承担任务?又如何承担任务?DABUS可以是一个任务主体吗?还是风险以及其他类型的责任应该由代替其做申请决策的DABUS的研发职员、乃至是大学来承担?这些问题都还须要更深入的磋商。
2. 中国人脸识别第一案:浙理工教授状告杭州野生动物天下
评论:一方面,上述案件双方之前的协议并没有合理的中止,进一步网络更多的个人信息的赞许与否与用户原有应享有的做事进行逼迫关联存在欠妥之处。另一方面,采取人脸识别做事的运用方以及人脸识别做事的供应方是否能够确保数据在用户知情赞许的根本上进行合理利用,并保护数据的隐私与安全是每一个人工智能做事供应方和运用方都应该深切关注并采纳行动的,2019年年初深网视界的个人隐私数据透露事宜险些可以肯定不会是个案,如没有引起人工智能研发与运用各个干系方对个人数据隐私与安全根本举动步伐的足够重视,将有发生类似乃至更严重事宜的风险。基于实际行动提升人工智能做事方和运用方与用户之间的信赖关系是人工智能技能是否能够更广泛的造福于人类的条件。
3. 某智能音箱劝主人自尽
评论:目前的人工智能系统对其输出是否符合人类道德伦理并没有自主的判断能力,这是为什么人工智能系统须要学习人类代价不雅观,实现代价不雅观校准的缘故原由。此外,目前的自然措辞处理技能仍旧勾留在模式匹配和基于统计的处理,而不是像人一样对措辞及其实际含义的深度理解。因此“智能音箱”给出的建议其本身并不是真正理解。未来非常须要技能的发展为人工智能模型及其运用构建自动化的道德与伦理评估框架,尽可能避免系统利用数据中隐含的人类负面感情、偏见、成见,对用户产生的负面影响。
4. “监测头环”进校园惹争议
评论:对个人生物特色数据进行网络与剖析必须建立在非被动赞许的根本上。无论是类似于脑机接口这样的增强智能技能还是更广义的人工智能技能,对下一代的影响绝对不仅仅是空想化设想中的“益处”,更应该关注此类技能对下一代的长期影响。在被迫赞许的根本上,我们乃至无法避免下一代对付人工智能及其做事产生敌视感情,乃至可以想象很快会有人热衷于研发反监测手段与技能。这将与技能发展的初衷背道而驰。
5. 加州议会通过议案:禁止警方在人体摄像头上利用面部识别技能
评论:一方面,应该鼓励人脸识别等技能在十分必要的场景进行合理的利用,例如在追踪嫌疑人和探求失落联儿童等类似运用中。另一方面应该指出,人脸识别存在的潜在风险,如潜在的性别偏见、种族偏见、在对抗攻击面前表现出的薄弱性和安全隐患等,广泛的存在于其他类型的生物特色识别技能中,例如步态识别、指纹识别、虹膜识别、乃至是声纹识别。禁用某一项或某几项技能并不能规避可能的潜在风险,而是应采取技能和非技能手段改进现有技能存在的问题,积极避免可能存在的风险,并善用干系技能为人类造福。
6. AI 换脸运用引发隐私争议
评论:不合理的用户协议是AI换脸运用事宜问题最严重的方面。干系的笔墨与诸多个人数据保护条例、人工智能伦理原则等都是相违背的。而用户为了“尝鲜”很可能选择不理性的决定,赞许了干系协议,可能带来的后果有可能是用户始料未及的。这个事宜对人工智能做事的用户最大的警示便是充分重视用户协议并作出合理的知情赞许决定。另一方面,工信部在4天内对干系企业的约谈,哀求自查整改并取得及时与积极的成效,是中国人工智能敏捷管理的范例案例。
7. 自动驾驶安全事件频出
评论:自动驾驶存在的安全隐患不仅仅是感知技能处理常规场景的成熟与否,还包括如何应对对抗攻击等。未来更大的寻衅可能还来自于外部的安全隐患,即对自动驾驶掌握系统的入侵,乃至是恶意操作。干系的隐患不仅仅会危及到个人安全,乃至会影响到社会安全。此外,自动驾驶系统如果能够对周围其他车辆和行人做出明显的奉告,则可能避免一些潜在隐患。未来急需对自动驾驶建立更全面的安全评估和保障框架。
8. AI编写假新闻足以乱真
评论:采取天生模型自动制造假文本与视频新闻是人工智能滥用和恶用的范例案例。这是中国网信办发布《网络音视频信息做事管理规定》,以及美国加州干系法规严格禁止其运用的缘故原由。我们首先要认识到人工智能造假技能对人类肃静、社会稳定与安全等方面潜在的不可估量的负面影响,而对付技能的研发者,应该付出的努力还包括通过反造假等技能尽可能避免干系技能被恶用的可能性。
9. 斯坦福大学AI算法识别性取向准确率超过人类
评论:一方面,人类隐私的诸多方面在对他人不造成侵害的条件下都应该得到合理、合法的尊重。并且算法的识别准确率基于以偏概全的统计结果,纵然实践中精确率至今为止是100%,也无法断定对一个新个案的判断是否绝对准确。而由自动识别与预测的结果产生的后果却是这种不愿定性无法承担的。这类运用在一定程度上陵犯了人类的能动性(Agency),与普适人类代价不雅观也存在冲突。还可以想到一些已经发生的类似案例,同样具有潜在风险的运用,如通过面部识别判断康健状况,通过人脸视频识别心跳等。诸如上述案例干系的发展和运用应该特殊谨慎。
10. BBC 发布 10 年后 365 种职业被淘汰概率:打字员、司帐、保险业位居前三
评论:人工智能替代人类一部分事情是发展的一定。未来一方面应该在此过程中努力推动人机协作的未来事情。另一方面,应该鼓励人们重新核阅对自身、职业及生活意义的定义,发掘人类的上风与真正应该由人类专注的事情。例如布鲁金斯研究所Darrell M. West的著作《The Future of Work》就指出:必须扩大“就业”、“事情”的观点,应该接管 “事情” 不再定义人们的个人意义感这个趋势。