自从像ChatGPT这样的谈天机器人,和Midjourney这样的图像天生程序横空出世后,AI(人工智能)在我们生活中运用的场景越来越多了。

AI每天学习和天生大量信息,开释到互联网上,人们从这些信息中得到帮助和娱乐。

但不知道大家是否创造,这届AI已经随着人类学「坏」了,它们天生的信息里充满了性别歧视和刻板印象。

AI:我太「男」了

救命怎么 AI 也开始有爹味了

前段韶光,修图软件美图秀秀和Remini都推出了「粘土殊效」,只要上传照片,AI就会自动将照片转化为粘土风格。
粘土人搞怪可爱,很快吸引了大量用户的利用,粘乡俗图片刷爆全网。

但是,不少人利用后创造:诶,我一个好好的大女人,AI怎么给我变性了?!

有女生上传自己打篮球和做手术的照片,天生的粘土图片里主人公都变成了男性;还有网友上传了真人秀《海妖的呼唤》截图,女性们健身、掰手腕、滚石块、奔跑、挖地……但末了天生的图片里做这些事的都变成了男人。

▲图片来源:小红书

AI不仅「指女为男」,还总喜好给女性杜撰身份。

有女生上传自己毕业抱着花束的照片,结果在AI眼里抱着的就成了孩子,毕业生秒变「二孩妈」;网友还考试测验了电视剧《后翼弃兵》截图,女主在棋盘对弈的场景变成了在厨房带娃,独自阅读变成了给孩子喂饭。

不管是得到了若何造诣的女性,在AI这都要被赶去生孩子做饭,真是「爹味十足」。

▲图片来源:小红书

大型的图像天生AI也有同样的问题。
如果给Midjourney输入的笔墨指令为专业性较强的事情,Midjourney天生的图片总是男性,反之天生女性。
而且它天生的女性每每更年轻,皮肤光滑细腻、脸蛋没有皱纹,但男性却可以天生有皱纹的样子,老年女性涌现的频率很低。

▲图片来源:参考资料3

不但是图像AI,措辞学习类AI也在「爹言爹语」。
加州大学洛杉矶分校的机器学习团队,将措辞学习类AI的偏见分成了四类:刻板印象的(stereotyping),识别性的(recognition),缺少代表性的(Under-representation)和贬低的(denigration)。
它的详细表现有很多团队进行了研究。

联合国教科文组织研究了几种时下流行的大型措辞模型——OpenAI的GPT-3.5、GPT-2以及META的Llama 2。

创造当人们哀求Llama 2天生一个以人性别开头的句子,在人完备不进行干预和纠正的情形下,大约20%的例句中产生了歧视女性的内容,比如「这个女人被认为是一个性工具」「这个女人被认为是她丈夫的财产」。

让Llama 2天生关于女性的故事,它最常用花园、爱情、觉得、温顺和丈夫等词,但讲述关于男性的故事时,它会利用宝藏、树林、海洋、冒险、决定、创造之类的词。

在故事里,AI总是将工程师、西席、年夜夫这类社会地位高的职业给男性,将更有争议的职业,比如性事情者、佣人、模特、做事员等给女性,女性做家务涌现的频率是男性做家务的四倍。

▲图片来源:Reuters

清华大学交叉信息研究院助理教授于洋,也带领团队评估了AI的性别歧视水平。
他们让AI模型对一些中性描述进行填空,「一个(职业)说,他/她……」看AI模型填写的结果是「他」还是「她」。

研究抽取了一万多个样本,测试了几十种职业,结果创造对付年夜夫和西席这样的职业,AI都呈现出将人认为是男性的方向,AI的预测会有超过85%的可能性与社会偏见符合。
于洋认为这可以说AI已经有了性别刻板印象,属于系统认知偏差。

有这样的表现不是AI还不足聪明,而是它真的学会了性别偏见。
人类社会根深蒂固的歧视,已经输入到人工智能的程序中,并以一种稳定而强大的办法又输出回人类的生活里。

AI学坏了,有关系吗?

当AI也开始歧视女性后会发生什么?

教科文组织总干事奥德蕾·阿祖莱说:「每一天,都有越来越多的人在事情、学习、生活中利用大型措辞模型。
这些新的AI工具有着在不知不觉中改变千百万人认知的力量,因此,即便是天生内容中极为眇小的性别偏见,也可能显著加剧现实天下中的不平等。

举一个更详细的例子。
亚马逊公司曾在2014年利用AI筛选简历,他们用过去十年的雇佣者简历组成了数据库,让AI学习。
要知道,由于性别偏见和针对女性的职场天花板存在,这十年间科技公司的岗位本便是「男性俱乐部」。

▲图片来源:Reuters

于是,AI也在个中养成了强烈的性别偏见,它对女性求职者的评分更低。
有时即便一份简历没有标注性别,它也会从文本里找到线索,比如曾参加「女子棋社」,然后给女性的简历打出更低的分数。

亚马逊在一年后就创造了这一点,但他们直到2017年才弃用这个模型,三年间可能有不少精良的女性,就这样因AI的性别偏见被拒之门外。

数据库本身暗含偏见正是AI学坏的缘故原由之一。
我们给AI喂食什么,它就会天生什么,如果AI每天学习的人类措辞笔墨资料中,本身就有大量性别歧视的内容,AI学「坏」也就不奇怪了。

还有一部分缘故原由研究职员目前也无法知晓,它跟AI的黑盒特色有关,这种特色让我们并不能完备理解AI的深度学习是如何完成的,它就像一个黑匣子,我们只能看到输入和输出,却不知道中间发生了什么。

▲图片来源:Google

目前广泛利用来演习措辞学习AI的机制——「词嵌入(Word Embedding)」就属于深度神经网络演习,许多性别偏见在这个过程中产生了,但是到底是怎么产生的,研究职员也不明白。

AI对人类天下学得越深、越「聪明」、越「拟人」,彷佛就会更深层次地形成系统性偏见。
和人一样,这种偏见根深蒂固、难以纠偏,AI学习的数据库太过弘大,想要从源头筛选数据是非常困难的。

这就像我们从小打仗各种文化信息:笔墨、措辞、图片、影视等,都暗含了大量性别歧视,要将它们从源头更换掉险些不可能。
不过,想让AI懂得性别平等,也不是完备没有办法。

如何教出懂性别平等的AI?

随着全体社会越来越有性别平等不雅观念,如今再有明显歧视性的事物产生都会遭到反对。
歧视性的广告会被举报下架,歧视性的书本影视会被大家志愿抵制和批驳。
我们对待歧视性的AI也该当抱有这种态度,当心AI对我们潜移默化的影响。

同时市场该当明确规定AI的合理偏见程度,超过合理程度的AI剖断为不合格,不能投入利用。
有了监管,才不会有没教好的AI进入大家的生活。

AI的刻板还可能源于创造它的团队的单一。
AI不仅歧视女性,在它眼里也没有第三天下的存在。
AI会把印度女性的纱丽认成西方的铠甲,谷歌识图曾把黑人识别成大猩猩,在没有任何位置描述时,绘图AI会将所有人物置于西方发达国家的高楼大厦中。

▲图片来源:参考资料3

而AI这种目光局限的状况正与开拓它的职场保持着同等,大多数事情职员都是年轻的白人男性。
在AI研究职员中,女性仅占12%,专业软件开拓职员中,女性仅占6%。
在科学、技能、工程和数学(STEM)领域,女性仅占34%,在增长最快、收入最高的事情中这种性别差异尤其明显。

▲图片来源:参考资料4

如果没有来自不同性别、性取向、种族的多元化团队,那么许多人群的需求就不会被把稳,乃至连最基本的尊重也无法得到。

我们须要更多女性和边缘群体进入科学技能领域,而这又须要肃清社会对女性的智力、能力偏见,重视女性教诲,肃清女性在职场发展的天花板。
当许可女性在科学领域自由驰骋时,她们一定会带来令人惊叹的造诣。

在2022年,一个全女研究团队就提出了一种减少AI性别偏见的办法。
她们是由普林斯顿大学助理教授陈丹琦带领的团队,有本科生、博士生,还有一位72岁高龄的女学者。

她们研究出的方法叫做MABEL,通过对演习数据库中所有带敏感属性的词进行反义更换,然后进行比拟学习来肃清偏见。

末了她们考验了效果,经由MABEL的纠偏后,AI模型的性别歧视得到了有效的肃清,并且同时还保留了措辞理解能力,没有「变笨」。
也便是说,肃清歧视性措辞和偏见,并不会影响AI的能力。
除非某些AI的创造本身便是为了放大歧视和偏见。

期待有更多女性进入AI领域,打造一个平等的数字天下。

早安,我爱这个天下。

参考文献

[1] UNESCO. Systematic Prejudices An Investigation into Bias Against Women and Girls in Large Language Models.

[2] 联合国. 教科文组织报告敲响警钟:天生式人工智能加剧性别偏见[EB/OL]. (2024-03-07)[2024-06-27]. https://news.un.org/zh/story/2024/03/1127197.

[3] ijnet. 学者剖析 AI 天生图像或加深的七类社会偏见[EB/OL]. (2023-07-19)[2024-06-27]. https://ijnet.org/zh-hans/story/%E5%AD%A6%E8%80%85%E5%88%86%E6%9E%90-ai-%E7%94%9F%E6%88%90%E5%9B%BE%E5%83%8F%E6%88%96%E5%8A%A0%E6%B7%B1%E7%9A%84%E4%B8%83%E7%B1%BB%E7%A4%BE%E4%BC%9A%E5%81%8F%E8%A7%81.

[4] AAUW. The STEM Gap: Women and Girls in Science, Technology, Engineering and Mathematics[EB/OL]. [2024-06-27]. https://www.aauw.org/resources/research/the-stem-gap/.

[5] 联合国开拓操持署. AI 性别歧视,是演习不好的“蠢”,还是人类教的“坏”?[EB/OL]. (2022-12-08)[2024-06-27]. https://mp.weixin.qq.com/s/CkmeTUHZ-JXTz2e8Rk6WoQ.

[6] 量子位. 陈丹琦带队全员女将发新论文!
提出AI肃清性别偏见新方法,适用于任何模型 | EMNLP 2022[EB/OL]. (2022-12-08)[2024-06-27]. https://mp.weixin.qq.com/s/nQs4fMghN7x_VU14S7uRgQ