关于这项技能如何深刻地改变我们事情、学习和生活办法的愿景,让我们不得不关注如何以及是否可以负任务地利用这些技能,并就此进行对话。当然,随之而来的还有多到令人窒息的头条新闻。
负任务的技能利用(Responsible technology use)并不是什么新鲜事。它涵盖了许多我们耳熟能详的关注点,从算法中可能隐蔽的偏见,到运用程序用户的数据隐私权,再到新事情办法对环境的影响。
技能咨询公司 Thoughtworks 的名誉首席技能官丽贝卡·帕森斯(Rebecca Parsons)在“构建公正技能未来”的愿景中试图应对所有这些担忧,即随着新技能的支配,其优点将与所有人平等共享。
她说:“随着技能在人们的生活中变得越来越主要,我们希望设想一个让技能适用于每个人的未来。”
帕森斯指出,技能的利用常常会涌现问题,“由于我们过于关注自己认为的好的东西,或者过于关注某一类特定受众,而不是更广泛的群体。”
这听起来就像是,一个运用程序开拓职员只为一个想象中的客户构建程序,这个客户来自与他相同的地区,拥有和他一样的教诲背景和富余程度。
或者是一个产品团队没有考虑恶意行为者,以及他们可能会对产品生态系统造成什么侵害。
“产品开拓者可能会天真地认为,人们会按照他设计的办法去利用产品,以他希望的办法去办理问题。”帕森斯说,“但在现实天下中,人们会创造情形并非如此。”
当然,人工智能也带来了一些独特的社会寻衅和道德寻衅。个中一些寻衅是固有的,这源自于人工智能的事情办法:它的事情办法是基于统计学的,缺少确定性。
它从过去的数据中识别和延续模式(规律),但这强化了现有的偏见,而且它对它不知道的东西缺少认识,这会导致幻觉的涌现。
人工智能面临的一些寻衅源于技能的创造者和用户自己不知道的事情:人工智能模型利用的未经检讨的演习数据、它输出内容的有限可阐明性,以及它如何让人们误以为它具备类似人类的推理能力。
然而,帕森斯认为,人工智能并没有改变“负任务技能”这一感念,而是重新定义了个中的一些问题。
例如,知识产权的观点可以追溯到数百年前,但大型措辞模型(LLM,large language models)的兴起带来了新的问题。当机器可以被演习来模拟作家的笔触或艺术家的风格时,哪些利用属于合理的范畴?
她阐明说:“如果你陵犯了某人的知识产权,那就不是负任务的技能,但在我们拥有大模型之后,这个问题变得繁芜多了。”
(来源:AI 天生)
在过去的几十年里,关于负任务的技能的研究制订了一系列原则,它们在本日的转变过程中仍旧具有现实意义。
透明度、隐私和安全、寻思熟虑的监管、对社会和环境影响的关注以及通过提升多样性和可访问性实现更广泛的参与度,这些仍旧是让技能造福于人类的关键成分。
《麻省理工科技评论》Insights 与 Thoughtworks 联合发布的 2023 年《负任务技能现状》报告指出,企业高管们正在负责对待这些成分。
例如,73% 的受访企业领导者认为,在做出技能决策时,负任务的技能利用与业务和财务考量同样主要。
然而,这个“人工智能时候”可能代表着独特的机会,可以战胜此前阻碍负任务技能事情的障碍。
如今,缺少高等管理意识(52% 的受访者认为这是采取负任务实践的最大障碍)不再是一个问题。
精明的管理职员很快就能闇练节制人工智能这项新技能,并不断被提醒把稳其潜在的后果、失落败和社会危害。
其他紧张障碍是组织对变革的抵制(46%)和内部其他优先事变(46%)。那些已根据人工智能计策重新调度了自己并理解其改变行业潜力的组织,也可能能够战胜这种惰性和柔嫩寡断的态度。
在这个颠覆性的独特时候,当人工智能供应工具和动力来重新设计我们的事情和生活办法时,如果我们乐意,就可以将负任务的技能原则融入到这种转变中。
就帕森斯而言,她对人类利用人工智能从事善事的能力深感乐不雅观,同时她也相信人类可以用知识性辅导方针、精心设计的流程和安全护栏来办理人工智能的局限性。
“作为技能专家,我们非常专注于我们试图办理的问题,以及我们如何办理它。”她说,“负任务技能的真正意义在于,抬开始环顾四周,看看天下上还有谁和我在做同样的事情。”
支持:Ren
运营/排版:何晨龙