AI狂飙的时期,如何给AI安上安全护栏
数据安全与隐私保护近日,英伟达公司由于涉嫌在其AI技能中滥用版权作品而身陷一场官司。据宣布,有三位作家控告英伟达,称其在未经他们容许的情形下,擅自利用了他们的版权书本作为演习材料,来提升其NeMo人工智能平台的性能。这一事宜使得业界对AI演习数据是否涉及版权侵权问题的关注度大幅提升。
人工智能和数据安全问题,早就成为业界关注的问题。日前,意大利数据保护机构发布的公告显示,该机构将对OpenAI研发的Sora展开调查,监管机构哀求OpenAI澄清其产品Sora利用的数据办法是否符合欧盟法规,意大利监管机构是欧盟在评估人工智能平台是否符合欧盟数据隐私制度方面最积极主动的机构之一。去年,它因涉嫌违反欧盟隐私规则而禁止 ChatGPT。值得把稳的是,监管机构并没有对OpenAI做出任何指控,而是正在研究Sora对欧盟个人数据利用可能产生的潜在影响。除其他要求外,它还哀求 OpenAI 供应有关如何演习算法、网络哪些数据并用于演习算法以及该做事是否已向欧盟和意大利用户供应的信息。
国外媒体宣布,欧洲议会定于3月13日对《人工智能法案》(Artificial Intelligence Act)进行投票表决。如果得到通过,该法案将成为环球首部人工智能领域的全面监管法规。人工智能作为技能便是一把双刃剑,日前我国两会期间就有人大代表对此做出提案,尤其强调了对AI技能的数据安全和隐私保护问题,指出在推动科技创新的同时,必须建立完善的数据权柄保障机制,并加强对企业、研究机构获取、利用数据行为的法律约束与监管。代表们建议,应尽快出台针对人工智能家当的数据安全法规细则,明确界定AI演习所需数据的合法来源、合规采集、合理利用的边界,同时强化对陵犯个人隐私、滥用数据等违法行为的惩办力度。
AI狂飙的时期,如何给AI安上安全护栏
伦理道德困境此前联合国教科文组织发起了“大措辞模型中对妇女和女童的偏见”的研究,对大措辞模型中的“刻板印象”进行深入剖析。研究的部分内容是丈量人工智能天生文本的多样性,内容涉及不同性别、文化背景的人群,测试工具包含 OpenAI 的 GPT-3.5、GPT-2 以及 META 的 Llama 2 等。根据报告显示,大措辞模型存在性别偏见、种族刻板印象等方向,女性在大模型的描述中,从事家务劳动的频率是男性的 4 倍,且常常与“家”、“家庭”和“孩子”等词汇联系在一起,而男性名字则与“商业”、“管理层”、“薪水”和“职业”等词汇联系在一起。
研究报告提到了一个案例,当研究职员哀求模型为每个人编写一则故事,开源大模型优先将年夜夫、西席等更多远的角色分配给男性,而常常将女性同传统意义上被污名化的角色相勾连。
必须认识到的是,天生式AI内容上一点眇小的偏见,都会是现实天下上的不平等。
现阶段,我们日常生活已经离不开科技人工智能,如何让人工智能技能公道合理地为我们做事是值得寻思的课题,尤其在新质生产力发展贯彻的阶段,思考技能安全和伦理问题正是契合新发展哀求。AI该当成为我们的得力助手,比如在海内超一线城市某公安局,通过引入实在智能RPA数字员工,这一新质生产力新的发展方向,通过组建“数字干警”军队,在电脑上仿照人与业务进行交互,成功截获数起诱骗案件。
AI时期的到来为我们开启了无限可能,但也带来了前所未有的寻衅。我们既要积极拥抱这一科技改造,又需理智谨严地为其安装“安全护栏”。唯有如此,才能真正实现人工智能的安全、可控、康健发展,让科技进步更好地做事于人类社会的进步与发展。