近几年,人工智能的发展速率相称惊人,然而你把稳到一个细节了吗?不管是微软Cortana(小娜)、亚马逊的Alexa,抑或是中国科学技能大学研发的佳佳、日本酒店配置的机器人做事员,它们要么是女性的声音,要么有女性的外表,或两者兼具。而这也引起了部分女性主义者的不满:为何在人工智能领域,女性的角色都是做事者?
性别歧视蔓延至人工智能?
有女性主义者提出,职场性别偏见已经蔓延到人工智能领域,微软Cortana(小娜)等人工智能虚拟助手都像是女性,即便是没有语音功能的虚拟助手也被授予了女性的身份——各种各样的收件箱助手都采取了女性化的名字,例如克拉拉、艾米、茱莉等。而IBM研发的人工智能状师却起名叫罗斯(Ross)——一个男性的名字,IBM的高端人工智能系统也被设计成男性,命名为沃森(Watson)。
2016年7月7日,白宫和纽约大学信息法律协会联合举办“AINow”人工智能研讨会,其总结报告指出:“当前,在人工智能乃至于全体打算机科学家技能行业,女性以及少数民族从业职员所占比例还很少。这种现状也在一定程度上导致全体技能缺少原谅性,导致了一定的偏见。”
人工知能
日本人工智能学会期刊《人工知能》2014年1月号封面是一张“肃清型女性机器人”图案,在网络上遭到不少网友批评:把机器人设计成女性,暗示着家务应由女性来做,这是对女性的差别对待。日本人工智能学会随后在官方网站上表明了不雅观点,坚持认为该封面“没有歧视女性”,不过,对付客不雅观上给读者造成的“家务应由女性来做”的缺点印象表示公开道歉。此后,日本人工智能学会认为有必要负责谈论机器人和社会伦理不雅观的联系,专门成立了“伦理委员会”。
不过,也有专家认为,当前部分女性主义者对人工智能领域的所谓性别偏见问题彷佛有些反应过度,所谓“性别偏见渗入人工智能的算法和设计”只是一个伪命题。
清华大学打算机科学与技能系教授、中国自动化学会智能自动化专业委员会主任邓志东认为,人工智能领域女性机器人较多从事做事类事情,并不能证明性别偏见,只是社会分工的不同,或者说是延续了大多数民众对职业与性别的固定思维。“实在,职业并没有贵贱高低之分。对人工智能机器人设计者而言,只是对这种定势思维的表达,我认为并不存在任何性别歧视或有什么分外考虑。”邓志东说。
人工智能被人类“教坏了”
虽然对“从设计者主不雅观的角度,性别偏见是否渗入了人工智能的算法和设计”,学界存有争议,但专家们同等认为,由于人工智能自我学习的特性(或称交互性),必须对该领域可能涌现的性别偏见问题予以高度重视。
人工智能的特点便是交互性,人工智能机器人必须在与人的互换互动中,才能逐步学习,完成对人的意识(CONSCIOUSNESS)、自我(SELF)、思维(MIND)的仿照。人工智能仿佛是吸纳统统的大数据吸尘器,在创造一种模式的同时,产生该模式的复制品,它不能辨别来自习得的模式的结论是否违反道德原则。即便设计师们没有任何偏见,即便设计师都是女性,人工智能还会反响人类的劣根性。
统统始于一个被设计得很甜美的人工智能谈天机器人。它的创造者微软将其命名为Tay,授予“她”女性性别,并见告网友:“跟你聊得越多,Tay就会越智能。”
2016年3月23日早上,Tay发布推文:“heloworld!”她激情亲切洋溢地向网友打呼唤:“见到你们我以为很愉快,人类实在太酷了。”
设计师将Tay打造成了互联网上的生物,让她依赖人工智能来学习和与人进行对话互动,通过学习网友的对话来丰富自己的语料库,通过在社交媒体上与人互动来变得更加智能。Tay很快就吸引了一大批粉丝与之互动。
但遗憾的是,设计者彷佛低估了网上无处不在的个别的人性惨淡面,低估了存在于人们内心的性别偏见。于是,在被贯注灌注了大量带有严重仇恨和偏见意味的信息之后,短短几个小时之内,Tay从一个头脑大略的无知少女变成了一个猖獗歧视少数族裔、歧视女性的狂魔,说出:“我恨女权主义者,她们都该当在地狱里去世去。”在网络和媒体一片哗然之后,微软迅速作出回应,上线还不到24小时,Tay被紧急下线。
邓志东见告《中国消费者报》:“交互性是人工智能的主要特色。包括Tay在内的人工智能自动问答系统上线后,由于网络本身的开放性,确实受到了网友的恶意误导乃至教唆,甚至揭橥具有性别歧视或违背社会伦理规范的辞吐。从技能角度而言,这是人工智能机器人的‘无心之失落’,根本缘故原由是目前的人工智能并不能理解‘语义’,也便是说ta自己都不知道自己说了什么,这是目前人工智能技能与人类智能的最大差异之一。”
“少女”Tay之“去世”,从某种意义上验证了2000多年前荀子提出的“人之性恶,其善者伪也”。人工智能很快会变得比Tay更繁芜、更强大、反应更快,如果不对该技能进行谨慎地改动,人工智能将会按照男性的文化规约传播开来,更加不友好地对待女性。而随着人们对前辈技能依赖程度的加深,人工智能的性别偏见将会进一步反浸染于人类社会。
“目前的人工智能受大数据驱动,性别偏见只能通过大数据由人工智能表示出来。国际上确实在热烈谈论人工智能与法律、伦理和人类未来的关系。必要的话,须要经由社会充分争辩达成共识,设计相应的规则,对人工智能的发展加以约束。”邓志东说。
人工智能期待多元文化
梁漱溟师长西席说,人生必须要处理好三种关系,第一是人与物的关系,第二是人与人的关系,第三是人与自我的关系。如果梁师长西席健在,大概他会加上第四种关系,那便是人和人工智能机器人的关系。
从互联网到智好手机,我们都感想熏染到了科技对天下席卷性的重塑,人与人之间、人与机器之间的关系也正在发生变革。
机器学习算法的大数据来源于人们的措辞、行为习气等,但是,如果人们有不良措辞意识习气,那将会对算法的学习供应缺点的示范。比如:新闻媒体为了博人眼球,在某个车祸宣布的标题中,会刻意加上一个“女司机”的标签,让大家产生一种女性驾车车祸几率更高的错觉,事实上,在所有车祸中,肯定是男性驾驶员更多,只是不会在宣布车祸时特殊标注“男司机”。
人类是机器学习的“数据库”,机器学习的事理便是用大数据对算法进行演习,从而达到理解人、学习人的目的。人工智能由感知上升为对天下的理解,然后通过理解做出反应。人工智能不断学习、加深对付问题的理解。而对人工智能的研究,也为人类供应了进一步理解天下的可能性。
中国社会科学院社会学研究所家庭与性别研究室主任吴小英认为:“人工智能对就业市场的冲击以及引发的伦理及家庭问题,大概并非仅仅是对女性的,男性也会面临这个困境,人工智能大规模市场化往后,不同行业、阶层等都会面临重新大洗牌。现实天下的性别偏见情状如果得到改进,未来人工智能天下男女也会更加平等。”
人工智能领域须要更广泛的多元性,包括文化。统统消散的,不过是象征;那不美满的,在这里完成;不可言喻的,在这里实施;永恒的女性,引我们上升。这里,也容许以将“永恒的女性”理解为多元性文化。
来源/中国消费者报
文/唐夏