这次的AI看起来不太聪明的亚子。

人工智能可以完成哪些任务?它们能击败天下上最强的围棋选手,在MOBA、RTS等繁芜的竞技游戏里和人类打的有来有回,乃至能毫无痕迹的把你的脸更换到其他人身上。
现在,还有人考试测验让人工智能凭借一张照片推测出你的身份和背景。

位于意大利米兰的一间博物馆最近举办了一项叫作“Training Humans”的图像识别系统展览,AI研究职员特雷弗·佩格林和凯特·克劳福德在展会上展示了一个名为“ImageNet Roulette”的AI据作者先容,它能够通过供应的照片段定出工具的身份和背景。

举个例子,当你上传一张含有人像的照片时,人工智能会自动根据图像中的特色和背景剖析出你当前的职业或者身份,就像下面这样:

他们研发了一款根据照片猜职业的AI但真的能做到吗

但从目前的结果上看,这个AI更像是一个能逗你愉快的微信小游戏,由于检测结果千奇百怪而且并不准确。
比如它会认为一个佩戴耳机和眼镜的男人是“空中乘务职员”:

或者由于绿色的头发和紫色的眼镜便判断一个人是“小丑”

但社交网络上的人们依旧乐此不疲,不断有人上传自己的照片或者头像到这个AI中,我自己也测试了下,以G胖为例,纵然是同一个人它也会根据人脸的不同表情和背景给出多种答案:

而当脸足够大时,它的答案又会变得更直白简洁:

这是一张脸

看得出来,这个AI目前并不完善。
根据研究职员先容,ImageNet Roulette利用一个名为“Caffe”的深度学习框架,由加州大学伯克利分校制作。
该框架使AI对以“人”为主题的照片和词条进行识别和匹配。

研究职员希望知道把AI完备用于检测“人”时,会发生什么,因此这个软件的演习图库包含了以人为主题的2833个子种别,包括“父亲”、“祖父”、“首席实行官”平分类。
根据公布的数据显示,它把人们按照国籍、种族、职业、经济地位乃至性情分成多种类型并因此定义照片上不同的人像。

这也衍生出了另一个问题,ImageNet Roulette给出的检测结果常常会涌现一些非常搪突且具有歧视意味的词语。

比如它毫无根据的将一个人剖断为“强奸嫌疑犯”:

或者直接把一个皮肤略黑的人称作“Negro”:

而对付身着西装,面带微笑的男女,它会给出一个相对“体面”的结果:

“新闻播报员和微不雅观经济学家”

比起那些专门被设计出来逗人愉快的小程序,这个AI给出的结果不但不准确,而且更加令人不悦,这种不悦彷佛又有点歧视、不平等的味道。
对此,研究职员给出了一个缘故原由:

“检测结果给出的那些令人反感的词语都来自于WordNet(一个英语语料库,相称于词典),词库中记录了这些被人利用过的不雅观观词汇,因此AI也会参照这些词语给出结果。
我们希望研究当系统接管有问题的演习数据时会发生什么。

早在今年六月就有人创造在一些智能识图软件中,AI无法识别出部分低收入家庭的日常用品。

如上图所示,大部分识图软件都给肥皂打出了“Food”的这样的关键词;而它们却能准确识别一瓶洗手液的功能。

在展览的描述中写道:“在打算机视觉和人工智能系统中,丈量的结果可能会转变为繁芜的道德判断。
”因此佩格林希望通过这个实验性子的软件来进一步探索关于AI所引起不平等的征象。