随着人工智能的运用越来越普遍,越来越多的IT领导者开始关注人工智能的道德含义。
事实上,由SnapLogic公司资助,由Vanson Bourne公司进行的2019年调查报告创造,在接管调查的1000名美国和英国IT决策者中, 94%的受访者认为人们该当更加关注人工智能开拓中的企业任务和道德规范。

人们为此感到担忧是有情由的。
一些著名的科技公司已经卷入干系丑闻,由于他们创建的人工智能系统没有按预期行事。
例如,在2015年,很多用户抱怨谷歌公司的图像识别软件将黑人标记为“大猩猩”,虽然这家科技巨子承诺要办理这个问题,但在三年之后,谷歌公司供应的唯一办理方案便是取消人工智能识别大猩猩的能力。
而微软公司的基于人工智能的Twitterbot-tay上在利用了几个小时后,就变成了种族主义者,这让微软公司不得不取消了这个业务。

此外据悉,旧金山日前成为美国第一个禁止市场机构利用面部识别软件的紧张城市,其部分缘故原由是该技能存在潜在的偏见。
几个规模较小的城市已经通过或正在考虑类似的禁令。

虽然有关人工智能失落误的宣布习认为常,但许多人担心,在没有"大众知识的情形下,更普遍、更凶险的人工智能犯罪可能发生在幕后。
客户可能永久不会知道他们是否由于道德上可疑的人工智能算法而被谢绝贷款或面临敲诈嫌疑。

提高人工智能道德水平的9个步骤你都理解吗

纽约大学的AI Now研究所和美国南部洗礼会派这样的组织都在呼吁开拓人工智能的公司让其技能变得更加透明,并赞许遵守相应的道德原则。
作为回应,包括谷歌公司和微软公司在内的一些企业已经发布了有关人工智能利用的内部指南。

然而,许多人认为这还远远不足。
相反,他们希望政府机构参与并颁布法规。
在Vanson Bourne公司的研究中,87%的商业IT领导者表示该当对人工智能开拓进行监管。

IT领导者具有这种欲望的部分缘故原由是,在缺少干系法律的情形下,企业没有办法知道他们是否做了足够的事情来确保其开拓的人工智能是合乎道德的。
监管法律可能使他们有能力向客户担保人工智能的运用,由于可以表示他们遵守了所有干系法律。
如果没有这些法律,得到和保持客户信赖可能会更加困难。

但纵然没有监管法律,企业也可以而且该当采纳方法确保他们利用人工智能是道德的。
以下供应了企业可以改进其在人工智能方面的道德态度采纳的9项方法:

1.遵守法规

组织至少须要确保其人工智能运用程序符合数据隐私法规。
大多数人工智能软件(尤其是机器学习)都依赖于大量的数据来进行操作,企业有任务确保他们对这些数据的处理符合干系法律。
在美国,组织可能须要遵守康健保险便携性和任务法案(HIPAA)、儿童在线隐私保护法案(COPPA)或其他联邦或州法律。

如果组织在欧洲拥有客户或员工,他们还必须遵守欧盟的通用数据保护法规(GDPR)。
除其他事变外,这项全面的立法哀求组织尽可能以最短的韶光存储数据,并为个人供应查看和删除其个人数据的方法。
就人工智能而言,最主要的是,GDPR法规还指出,“个人不应仅仅依据自动处理(例如算法)做出决定,而且具有法律约束力或对其产生重大影响。

2. 遵守数据科学最佳实践

除了遵守政府部门的规定外,组织还该当供应数据科学最佳实践。
Forrester公司在其名为“人工智能的伦理:如何避免有害的偏见和歧视” 报告中建议,“为了防止模型中的算法偏见,组织须要坚持数据挖掘的基本原则,确保组织培训数据代表其操持利用模型的人群。

还有一些人建议,数据科学家须要反复测试和验证他们的模型,并保持跟踪数据沿袭的方法。
虽然很少有企业高管理解机器学习的繁芜性,但他们有责任确保他们的数据科学家遵守行业最佳实践。

3.安全设计

几十年来,科幻作家一贯在警告人工智能可能具有天下末日的危险。
如今人工智能变得越来越普遍,主要的是不要忽略人工智能侵害人类的可能性,由于它不但是在书本和电影中涌现的事物。
自动驾驶汽车和基于人工智能的武器系统等干系运用显然会影响人类的安全,设计师应确保这些系统尽可能安全。
虽然其他机器学习系统可能不会直接影响人类的人身安全,但它们可能会对他们的隐私和在线安全产生重大影响。

4.使人工智能技能更加透明

企业在人工智能道德方面可以采纳的最主要步骤之一是确保他们完备理解利用的任何人工智能系统的运作。
人工智能供应商Kyndi公司首席实行官Ryan Welsh在一次采访中指出,“要发挥人工智能的全部潜力,信赖至关主要。
而信赖来自人们的理解,并且能够证明系统结论和结果背后的推理。
人工智能不可能是一个黑盒,由于它常常涌现。
要想让人工智能发达发展,就必须更加透明。

AI Now研究所表示,“为了实现故意义的问责制,我们须要更好地理解和跟踪人工智能系统的组成部分及其所依赖的完全供应链:这意味着要考虑培训数据、测试数据、模型的来源和利用、产品生命周期中的运用程序接口(API)和其他根本举动步伐组件。

5.清理数据

机器学习系统的行业与它们所依赖的数据一样好。
对付许多组织而言,数据质量仍旧是一个紧张问题。
在最坏的情形下,糟糕的数据可能导致组织做出不准确乃至道德上受到危害的决策。

另一方面,拥有准确、最新的数据会增加人工智能运用程序产生积极经济利益的可能性。
Information Builders数据管理卓越中央的国际主管James Cotton在一次采访中表示,“当剖析运用于管理良好的数据时,其回报要大得多。
可以清楚地理解组织拥有什么,来自何处以及如何利用它会带来更大的回报。

6.检讨模型是否存在偏差迹象

数据科学家不仅须要确保他们的数据是干净的,而且他们还须要确保他们的数据和数据模型不包含任何偏差。
这个问题可能会以几种不同的办法无意中进入到机器学习模型中。

首先,组织可能有不完全的演习数据。
例如,如果企业只利用欧洲面孔演习其面部识别系统,那么当系统难以识别非洲或亚洲面孔时,人们不应对此感到惊异。

其次,许多数据集包括历史偏差。
例如,一些职业(例如照顾护士或工程)在传统上一贯是由性别主导的。
如果组织根据这些历史数据演习基于人工智能的人力资源系统选择口试候选人,可能会意外地涌现偏见,乃至可能触犯反歧视法规。

7.监控调查结果和反馈

而数据科学家常日表示,没有数据模型是完美的。
他们所能期望最好的情形便是随着韶光的推移而改进。
这意味着人类须要监控系统来探求潜在的道德问题。
许多已发布人工智能指南的组织表示,所有人工智能技能都须要对人类卖力。
但一些人却表示,只是问责是不足的;人类监管者须要积极跟踪人工智能的行为和与人类的互动,并在必要时作出调度,以确保人工智能技能不会超过任何道德界线。

8.确保可以撤消人工智能所做的任何决定

在干系的解释中,组织须要能够撤消人工智能所做出的任何决定。
Forrester公司建议,组织开拓的人工智能系统从根本上须要是健全的、可评估的、原谅、可逆的,这意味须要设计可变动的人工智能系统,而且可能还须要为信贷决策等事变设立人工智能上诉委员会。

AI Now研究所进一步指出,“技能事情者的组织和抵制已经成为一种任务和道德决策的力量。
技能公司须要保护工人的组织能力、揭破信息的能力,并在他们从事的项目上做出道德选择。
这应包括明确的政策,以适应和保护有任务心的反对者,确保事情职员有权知道他们在做什么,并有能力在没有报复或惩罚的情形下放弃此类事情。

9.成立人工智能道德咨询委员会

包括谷歌公司在内的多家科技公司已成立人工智能道德咨询委员会,以帮助辅导他们利用人工智能。
虽然让一群局外人监督组织的人工智能事情可能有助于建立公众年夜众信赖,但也可能揠苗助长。
一些组织因任命人工智能道德委员会成员而受到批评,有些人对此表示反对。

虽然成立人工智能道德委员会可能存在一些问题,但在缺少监管法规或行业标准的情形下,它们可能是组织说服公众年夜众的最佳机会,即通过没有既得利益的职员监督人工智能的发展。

来源:企业网