该辅导方针呼吁技能的培植者如 OpenAI,和合成内容的创造者和分销商如 BBC 和 TikTok,以更透明的态度指出技能能做什么和不能做什么,并且当人们可能在与合成内容互动的时候提醒他们。
这些志愿性子的建议是由非营利性人工智能研究机构 Partnership on AI(PAI)与 50 多个组织协商后提出的。PAI 的互助伙伴包括大型科技公司、学术机构、民间社会组织和媒体机构。最初承诺接管辅导方针的 10 家公司是 Adobe、BBC、CBC(加拿大广播公司)、Bumble、OpenAI、TikTok、Witness 和合成媒体初创公司 Synthesia、D-ID 和 Respeecher。
PAI 的人工智能和媒体诚信部门的卖力人克莱尔·莱博维茨(Claire Leibowicz)说:“我们希望确保合成媒体不会被用来侵害他人或剥夺他人的正当权力,而是用来支持创造力、知识分享和评论。”
(来源:STEPHANIE ARNETT/MITTR | GETTY, ENVATO)
该指南最主要的一点是,这些公司达成了一项协议,他们将动手研究如何见告用户他们正在与人工智能天生的东西互动。这可能包括添加水印、标注免责声明、或在人工智能模型的演习数据或元数据中的加入可追踪元素。
面对天生式人工智能可能带来的潜在危害,干系的管控和监管方法仍旧滞后。欧盟正试图将天生式人工智能纳入其即将出台的人工智能法案(AI Act),个中可能包括对深度假造等技能的表露,以及哀求公司知足某些透明度哀求。
天生式人工智能目前仍处于野蛮成长的期间,参与制订了辅导方针的天生式人工智能专家亨利·阿杰德(Henry Ajder)表示,他希望公司将该技能纳入业务时,可以从辅导方针中找到他们须要关注的要点。
加州大学伯克利分校研究合成媒体和深度造假技能的教授哈尼·法里德(Hany Farid)说,提高人们的认知并开始谈论以负任务的办法来思考合成媒体是很主要的。
但他补充说,“志愿性的辅导方针和原则很少起浸染。”
虽然像OpenAI 这样的公司可以考试测验为他们创造的技能,比如给 ChatGPT 和 DALL-E 设置保护方法,但其他尚未加入协议的参与者,比如 Stability AI(它创建了有名的开源图像天生人工智能模型 Stable Diffusion),仍可以让人们天生不恰当的图像和深度假造内容。
法里德说:“如果我们真的想办理这些问题,我们就必须负责对待他们。”他希望云做事供应商和运用商店,如亚马逊、微软、谷歌和苹果运营的运用商店,都参与到 PAI 中,禁止人们利用深度假造技能去创建未经授权的图片。他认为,在所有人工智能天生的内容上利用水印该当是逼迫性的,而不是志愿的。
英特尔的高等研究科学家伊尔克·德米尔(Ilke Demir)认为,现在缺失落的主要一点是,人工智能系统本身将如何变得更卖力。他领导着天生式人工智能的负任务开拓事情。这可能包括更多关于人工智能模型如何演习的细节,个中包括利用哪些数据,以及天生人工智能模型是否有任何偏见。
该辅导方针并未提到确保天生式人工智能模型的数据集中是否存在有毒内容。数字权利组织 Access Now 的高等政策剖析师丹尼尔·卢弗(Daniel Leufer)说:“有毒内容是让这些系统造成最严重侵害的办法之一。”
这些辅导方针包括了一系列这些公司想要阻挡的危害,如敲诈、骚扰和虚假信息。但德米尔补充说,一个总是在创造白人的天生式人工智能模型也会造成侵害,而且目前还没有被明确提及。
法里德提出了一个更基本的问题。既然这些公司都承认这项技能可能会导致一些严重的危害,并供应了减轻这些危害的方法,“为什么他们不想一想,或许我们一开始就不应该这样做呢?”
支持:Ren
原文:
https://www.technologyreview.com/2023/02/27/1069166/how-to-create-release-and-share-generative-ai-responsibly/