对任何新兴技能都存在误解,但在人工智能方面,误解彷佛特殊明显。
大概这是由于人工智能潜在影响的范围已经产生了一定的神话地位。

“AI常日被误解,由于我们须要探索一个巨大的宇宙,探索未知可能会让人感到困惑和恐怖,” Very的工程副总裁Bill Brock说 。

对付试图在其组织中确定AI实际运用程序规模的IT领导者来说,这成为一个分外问题。

“虽然企业中的人工智能正变得越来越普遍,但对付其利用案例以及如何改进或更新过去的系统仍存在相称多的误解,”布洛克说。
“虽然我们可以将关于机器人成为我们同事的观点浪漫化,但有必要理解这些不同类型的技能如何有助于增强我们的系统并创造更有效的环境。

消除8个关于AI在商业中应用的缺点不雅观念

事实上,“浪漫化技能”是天空发卖推销的紧张内容,而非计策CIO通过人工智能实现的底线结果 。

并且实现了:哈佛商业评论剖析做事的新报告“ 实际人工智能实行指南”详细先容了技能高管如何在包括Adobe,7-Eleven,拜耳作物科学,凯撒娱乐在内的公司中记录人工智能得胜,Capital One,Discover,Equifax和Raytheon。

此外,浪漫化的现实每每会产生妨碍可行目标的各种神话和误解。
因此,我们请Brock和其他专家确定当今企业中关于人工智能的常见神话,以帮助IT领导者和其他商业人士将事实与虚构分开。

8个AI神话1. “人工智能和机器学习是一回事。

它们不是,并且理解两者之间的差异对付各种缘故原由至关主要,例如避免蛇油办理方案,以及建立人工智能操持以取得切实成功。
更科学的说,机器学习被认为是AI的特定子学科。

“在许多对话中,我创造这些术语之间没有什么差异,” SigOpt的研究科学家Michael McCourt说 。

“这可能会有问题。
如果一个公司的权力职员认为‘建立我的分类模型’等同于‘利用我们的数据来巩固我们的决策过程’,那么适当阐明模型的构造和含义的主要步骤是必要的。

未能认识到这一神话将导致公司在人工智能团队中投资不敷,或许还没有足够的职员在这些模型的开拓和解释中涉及更强大的业务环境,这可能会让AI团队失落败。

2. “人工智能和自动化是一回事。

人工智能和机器学习并不是引起困惑的唯一两个术语。
与机器学习类似,人工智能和自动化每每会稠浊,由于它们之间确实存在关系 – 这是一个主要的关系。

“随着人们越来越熟习人工智能,他们理解到人工智能是一种能够思考的机器 – 或者至少根据一系列预先定义的模型和算法做出明智的决策 – 而自动化只是在没有人为干预的情形下完成任务, “布罗克说。

“自动化并不一定意味着AI,但人工智能最具影响力的一些用例会以戏剧性的办法增强自动化。

3. “更多的培训数据可以带来更好的人工智能结果。

越来越常见(并且越来越成问题)的误解是人工智能成功的唯一真正先决条件是大量数据。
现在AI和机器学习团队的事情险些完备集中在策划和清理数据上。

“主要的不是培训数据的数量,而是质量,” LexisNexis Legal and Professional首席数据办公室的Rick McFarland说 。

“大量不良或不一致标记的演习数据并不能让您更靠近准确的结果。
它们实际上可以通过创建“精确”结果来欺骗建模器,由于方差公式与样今年夜小成反比。
简而言之,你会得到精确的不准确的结果。

我们将在这里采纳适度的方法并预测,简而言之,从早期AI故障中学到的最常见的履历之一将是:我们只是在其上投入了大量数据并假设它可行。
在早期阶段,更大的未必更好。

“这不能说得太多——质量数据是有效算法不可或缺的一部分,”来自Very的Brock说。

“人们常常会误认为人工智能的能力以及如何为成功做好准备。
无论你想要办理什么问题,不良数据都会产生糟糕的结果。

Brock补充说,人工智能和机器学习团队现在的事情险些完备集中在策划和清理数据上。
纵然您还没有达到这一点,也要始终优先考虑质量而不是数量。

“本日的最佳实践专注于利用构造化方法和偏差测试创建更好的演习数据集 ,”McFarland说。
“结果是建模职员实际上可以利用以较低本钱得到的较小数据集。

4. “人工智能将从支配的那一刻起通报代价。

这并不是说“更多数据”实质上是一件坏事; 事实上,随着韶光的推移它变得越来越必要。
但韶光是关键词:你须要它来使数量和质量同步。

一样平常来说,没有人会期望他们的人工智能操持立即得到投资回报率,但有时候这种技能的描述办法如下:只需打开它,不雅观察魔术的发生。

“AI和ML引擎须要经由培训,须要大量数据才能学习。
一些数据可以播种”,NetEnrich首席技能官Javed Sikander说。

“但是,大部分数据来自支配的域,以及AI / ML系统集中学习的地方。
因此,期望AI / ML系统从第1天开始提出建媾和见地是不合理的。
须要建立流程,并且须要在各种环境等分配资源,以便逐步实现这种学习。
只有那时才会发生魔力。

5. “人工智能和机器学习基本上只是软件开拓。

Algorithmia首席实行官迭戈·奥本海默(Diego Oppenheimer)认为,组织与其他任何软件开拓的办法相同,都在靠近AI和ML。

“AI / ML开拓只是软件开拓的一个神话,”奥本海默说。
“事实上,大多数ML项目都失落败了,一个很大的缘故原由是ML事情负载与传统软件的行为非常不同,须要一套不同的工具,根本架构和流程才能大规模支配和管理。

奥本海默指出了以下问题:

(1)异质性

有一个弘大的,不断增长的措辞和框架菜单可供浏览。
奥本海默说:“数据科学便是选择,它会在变小之前变大。

(2)可组合性

AI和ML常日涉及多个组件的同步管道,每个组件可能由不同的团队和不同的措辞构建。

Oppenheimer举例解释了一个别系,须要一个模型来选择目标图像,另一个须要从这些图像中提取文本,第三个是根据这些图像进行情绪剖析,第四个是根据该感情推举一个动作。

Oppenheimer表示,虽然传统的运用程序开拓可能会像微做事这样朝着这个方向发展,但与AI和ML的需求比较,它仍旧是相对单一的。
这须要对某些团队进行调度。

(3)开拓过程

“在传统的软件开拓中,输出是在受控环境中实行的代码,”Oppenheimer说。
“在机器学习中,输出是一个不断发展的生态系统——通过代码与实时数据的交互进行推理。
这须要一个非常不同的,更加迭代的循环。

(4)硬件/根本举动步伐

“[它]仍在不断发展:CPU,TPU,GPU,边缘打算以及任何数量的新选择 – 每个都有不同的上风和寻衅。

(5)性能指标

“基于ML的性能指标是多维的,并且对高下文非常敏感,”Oppenheimer指出。
这意味着没有适用于每个人乃至许多人的标准指标集。

“如果零售敲诈检测模型在误报方面出错,只要它能够足够快地返回结果,不会影响结账流程,那么零售敲诈检测模型的准确度可能达到75%,”他表示。
“法务司帐师利用的敲诈检测模型可能会以更高的准确性交易古迹。

6. “人工智能只是另一种须要考虑的技能。

有时,我们通过比较新旧来让令人生畏的东西看起来更随意马虎管理:就像在“我们以前来过这里 – 我们已经有了这个。

在这种情形下,这可能会导致IT团队将AI视为另一个技能采取周期。
但事实并非如此,AllCloud的数据和人工智能副总裁Guy Ernest说 。

“人工智能有可能更像人类的大脑或身体:你利用的越多,它变得越强大,越聪明。

“大多数技能都很薄弱,”欧内斯特说。
“你利用它们越多,它们变得越繁芜,就越随意马虎破碎。
人工智能有可能更像人脑或身体:你利用它越多,它变得越强大越聪明。

7. “人工智能真的只适宜科技公司。

不,AI不是每个业务问题的办理方案——至少现在还没有,SigOpt的McCourt指出。
但他补充说,那些认为人工智能实际上只是技能行业范围的企业面临危险的公司。

“最坏的情形是,一家公司可以选择退出人工智能革命,如果目前的趋势持续下去,可能会让公司跟随人群而不是领导它,”麦考特说。

“这个神话开始了,并且连续渗透到商业天下,由于AI的早期开拓者和采取者是技能最精明和最前辈的公司。
但每天都会产生新的文献和工具,这些文献和工具可以扩大公司的根本,这些公司可以开始制订人工智能决策。

8. “AI取代了对人类智能的需求。

人工智能的神秘地位部分来自于看到人工智能超越人类智能的地方。
但就在那时,“机器人霸主”的阐述开始进入高潮。

“机器可以像他们可以得到的数据以及他们编程采纳的行动一样聪明,”Sikander说。
“人工智能和机器学习可以帮助我们识别数据海洋中的模式,并自动实行所采纳的操作,险些不须要人工干预。
但是为构建打算这些决策和行动而构建的算法和模型必须由人类供应。

有一种干系的误解,即人工智能学习“就像人类一样。
”本日的情形并非如此,LexisNexis Legal&Professional首席数据官麦克法兰说。

“人类在学习或办理问题方面具有内在的上风——例如无聊,”麦克法兰说。
“AI模型永久不会感到无聊或看到他们的办法的屈曲。
他们从险些无限的可能性中寻求最佳答案。
乃至将它深深地追逐到一个众所周知的兔子洞——可能永久不会出来。
比较之下,人类会厌倦追求无限的可能性,停滞,重新考虑局势,并在不被奉告的情形下追求不同的道路。

作者:Kevin Casey;编译:CDA数据剖析师

本文由 @CDA数据剖析师 翻译发布于大家都是产品经理。
未经容许,禁止转载

题图来自Unsplash,基于CC0协议