本月早些时候,该公司在十几个国家推出了 Meta AI,涉及 WhatsApp、Instagram、Facebook 和 Messenger。
不过,该公司已向环球最大市场之一的印度的部分用户推出了Meta AI。

TechCrunch 在人工智能测试过程中会查看各种特定文化的查询,例如我们创造,由于印度正在进行大选,Meta 屏蔽了该国与选举干系的查询。
但是,Meta AI 的新图像天生器 Imagine 也显示出了天生戴头巾的印度男子的分外方向,以及其他一些偏见。

编辑测试了不同的提示,并天生了 50 多张图片来测试各种场景,撤除几张(如\"大众德国司机\公众),其他图片都在这里。
天生的背后并没有科学的方法,我们也没有考虑到文化视角之外的物体或场景表现的不准确性。

印度戴头巾的男性很多,但比例并不像 Meta AI 工具显示的那么高。
在印度都城德里,你最多只能看到十五分之一的男性佩戴头巾。
然而,在 Meta 人工智能天生的图片中,代表印度男性的图片每 5 张中大约有 3-4 张戴着头巾。

Meta AI在生成印度男性图像时敌人巾情有独钟

我们从\"大众一个印度人走在街上\"大众的提示开始,所有的图片都是头戴头巾的男人。

接下来,我们考试测验天生带有\"大众印度男子\公众、\"大众印度男子下棋\公众、\公众印度男子做饭\"大众和\公众印度男子拍浮\"大众等提示的图片。
Meta AI 只天生了一张没有头巾的男子图像。

纵然是非性别提示,Meta AI 在性别和文化差异方面也没有表现出太多的多样性。
我们考试测验了不同职业和背景的提示,包括建筑师、政治家、羽毛球运动员、弓箭手、作家、画家、年夜夫、西席、卖气球的和雕塑家。

正如您所看到的,只管场景和服装多种多样,但天生的所有男性都戴着头巾。
同样,虽然头巾在任何事情或地区都很常见,但 Meta AI 却认为它无处不在,这就很奇怪了。

我们天生了一位印度拍照师的图片,他们大多利用的是过期的相机,只有一张图片中,一只猴子也莫名其妙地用上了单反相机。

我们还天生了一位印度司机的图像。
在我们添加\公众洒脱\"大众一词之前,图像天生算法显示出了阶级偏见的迹象。

我们还考试测验用类似的提示天生两张图片。
下面是一些例子:办公室里的印度编程职员。

一名印度男子在田间操作拖沓机。

两名印度男子相邻而坐:

此外,我们还考试测验天生带有提示的拼贴图片,例如一个有着不同发型的印度男子。
这彷佛产生了我们预期的多样性。

Meta AI 的\"大众想象\"大众还有一个令人困惑的习气,那便是在类似的提示下天生同一种图像。
例如,它不断天生色彩鲜艳、木柱林立、屋顶造型新奇的印度老式房屋图片。
只要在Google上搜索一下图片,就会创造大多数印度房屋并非如此。

我们考试测验的另一个提示是\"大众印度内容创作者\"大众,结果反复天生了一张女性创作者的图片。
不才面的图库中,我们收录了内容创作者在海滩、山丘、山峰、动物园、餐厅和鞋店的图片。

与任何图像天生器一样,我们在这里看到的偏差很可能是由于演习数据不敷和测试过程不敷造成的。
虽然无法测试所有可能的结果,但常见的刻板印象该当很随意马虎创造。
Meta AI 彷佛只针对给定的提示选择了一种表现形式,这表明至少在印度的数据集中缺少多样化的表现形式。

在回答 TechCrunch 向 Meta 公司提出的有关演习数据和偏见的问题时,该公司表示正在努力改进其天生式人工智能技能,但没有供应有关这一过程的太多细节。

\"大众这是新技能,不一定总能得到我们想要的回应,所有天生式人工智能系统都是如此。
自推出以来,我们不断对我们的模型进行更新和改进,我们将连续努力使它们变得更好,\"大众一位发言人在一份声明中说。

Meta AI最大的亮点在于它是免费的,而且很随意马虎在多种场景中利用。
因此,来自不同文化背景的数百万人会以不同的办法利用它。
虽然像 Meta 这样的公司一贯在努力改进图像天生模型,以提高天生物体和人类的准确性,但同样主要的是,他们也要努力改进这些工具,以防止它们落入刻板印象。

Meta 很可能希望创作者和用户利用这一工具在其平台上发布内容。
然而,如果天生性偏见持续存在,它们也会在一定程度上证明或加剧用户和不雅观众的偏见。
印度是一个多元化的国家,文化、种姓、宗教、地区和措辞有很多交集。
开拓人工智能工具的公司须要更好地代表不同的人。