欧莱雅、适口可乐、亚马逊……随着越来越多的大公司,将人工智能(AI)运用于HR事情,未来你找不找得到饭碗,保不保得住饭碗,恐怕都要看AI的神色。

欧莱雅2018MBA暑期精英项目招聘流程 第一关便是网申、Seedlink测试和口试

欧莱雅的AI口试官

欧莱雅,环球最大的扮装品公司,财富天下500强中排名392位,业务遍布150个国家和地区,旗下拥有34个环球品牌,82600名员工,让无数求职者如蚁附膻。

欧莱雅每年开放15000个新岗位,同时会收到100万人的申请,相称于66个人竞争一个岗位,怎么从浩瀚应聘者中招到得当的员工,深深困扰着欧莱雅的人力资源部门。

招聘解雇员工都是AI说了算 我要不要先把AI当兄弟

“对我们来说,人工智能办理方案,是应对这些寻衅的最佳办法。
”欧莱雅人力资源环球副总裁Eva Azoulay说。

欧莱雅的应对之策,是引进了两套专门针对招聘场景的AI系统——Mya和Seedlink。

Mya卖力初期筛选,通过学历、事情经历等硬性条件,验证求职者能否进入下一环节,同时,Mya也会回答一些关于公司文化、政策和福利等问题。

在Mya供应的仿照口试场景中,Mya的名字边上会标示出「机器人」,口试体验和即时通讯软件类似。
如果Mya碰着不懂的问题,口试官就会代替回答,而Mya也能够从口试官的回答中学习,如果再碰着同样的问题就不用口试官脱手。

Mya 在仿照练习中与 NASA 口试者的对话 图来自网络

如果求职者过了Mya这一关,将会碰着Seedlink,这套AI系统会给出一些开放性问题,根据求职者的回答进行评分。
听说它能够帮助招聘者找到更符合组织文化的人才,并拥有公司所需的技能,具有数据驱动的客不雅观性,不带任何偏见。

Seedlink技能总监Simon Blanchard曾阐明:“实质上来说,我们做的是提取一个人的自然措辞,可以是笔墨、语音或视频形式。
然后透过措辞去预测这个人的个性、胜任力、文化和职位匹配等等。

如果只看招聘效率,AI干得还不赖——过去七个月,有13000名求职者与Mya交谈,过去,筛选、安排、电话口试一个求职者须要花费HR45分钟,而Mya在4-5分钟内就能完成。
有统计称,短短半年,Mya为欧莱雅英国招聘团队节省了45个事情日。

AI招聘已成趋势

在中国,欧莱雅也早就将AI用于招聘。
去年年初,有位海内大学应届生通过欧莱雅口试后发出了履历分享帖,里面就提到了Seedlink,不过跟国外不同,海内应聘者第一关便是寻衅seedLink,进行三个开放问题的回答,之后才是人工视频口试等环节。

据这位应届生先容,AI的三个开放问题,分别是关于对产品和行业的熟习度、逻辑思维和组织措辞的能力、多任务处理能力以及与人互助的能力,“公司希望能找到一个符合欧莱雅代价不雅观的员工。

求职者口试成功后在论坛上发帖描述欧莱雅AI口试的情形

除了欧莱雅,适口可乐,达能等公司都已经在校招环节用上了AI。

联合利华在海内的校招也利用了AI系统,今年3月还有求职者在网上发帖讯问,联合利华网申是不是用AI审核,发帖者表示,“非人工的话,总觉得语音题会受客不雅观成分影响”。
随后联合利华的HR回帖称:“我们的稽核是结合人工和AI。

求职者在论坛讯问联合利华HR关于AI招聘的问题

换个角度理解一下,发帖者是不是在担心,AI不能很好地理解中文语境,毕竟中文博大精湛。

比如有时候对人说一句“意思一下,不成敬意”,对方会以为你很识礼数,但是AI说不定会以为,“你这是什么意思?”然后不明就里地给个差评pass掉了。

亚马逊AI“一键裁员”

除了用AI招聘,也有越来越多的企业开始用AI考察绩效,在这方面,亚马逊可以说是至高无上。

最近曝光的一份亚马逊内部文件显示,在亚马逊的仓库里,有一套强大的AI系统,可以深度自动化的跟踪员工事情状况。
如果员工的事情速率变慢,或者永劫光没有打仗包裹(如上厕所、喝水等情形),该系统会将这些情形视作偷

亚马逊中国APP截图

很多亚马逊员工坦言,由于害怕“摸鱼”韶光超过限定,他们乃至不敢在事情韶光上厕所。
在英国,有的仓库工人怕厕所间隔太远来回韶光太长,只好在过道或者车间格子里用塑料瓶办理渗出问题。

英国一家劳工保护组织的问卷调查显示,74%的亚马逊受访员工表示,上班韶光会只管即便避免利用厕所,由于他们担心自己错过生产目标进度乃至因此遭到开除。

这是由于,亚马逊不只利用AI算法督工,还利用AI算法“一键裁员”,比如有员工的生产率指标数次不达标,AI系统会自动天生警告,并且终极在线天生开除员工的指令,乃至都不须要主管或者HR来跟员工谈离职,在拥有2500名全职员工的巴尔的摩仓库中央,2017年8月至2018年9月间至少有300名员工,因未能达到生产率指标遭到开除。

AI并非尽善尽美

只管Mya、Seedlink等公司都几次再三强调,AI可以帮助HR肃清偏见,对求职者更加公正,但事实并非尽善尽美。

去年,亚马逊就被爆出招聘程序存在性别歧视,这款程序紧张是用AI通过检索简历中的关键词,评估应聘者的能力以及和申请职位的匹配度,然后给简历打分,帮HR分担压力。

结果,工程师们创造AI在打分时,给男性求职者的简历打分明显比给女性打分高,也便是说AI更偏爱男性求职者。

这紧张是由于AI学习的样本来自于亚马逊过去10年内收到的所有简历。
这些简历中,男性求职者和任命者居多,因此AI在学习过程中就有了认知,认为男性应聘者比女性更精良。

因此,AI在剖析简历时,会识别暗示应聘者性别的关键词,比如“女子学校”、“女子篮球队”等,通过这些关键词推断应聘者的性别,并降落女性应聘者简历的评分。

工程师们也搞不定这个问题,于是这个程序在运用一年后,被亚马逊高层宣告关停。

由此可见,如果学习样本存在局限,AI并不一定能够做到客不雅观中立。

本文由天下网商原创,未经授权,不得转载。