浙江大学教授潘恩荣指出,天生式人工智能(以下简称“AIGC”)对人类经济社会发展带来巨大的不雅观念冲击,“宜疏不宜堵”。
一方面,必须战胜各种恐怖和臆想,克制“堵”的冲动;另一方面,要在实践中小步快跑地迭代出各种“疏”的办法。

复旦大学教授张谧认为,科技行业该当负任务地发展AI,兼顾AI发展和风险管控。
张谧说:“现在环球范围内有AI竞赛的氛围,看重安全反而可能造成技能掉队,为了盘踞先机便不得不搁置安全。
各方该当立足长远,携手营造有序竞争,把风险掌握在防护能力的上界之内,保障AI发展处于安全区域。

张谧对AI大模型未来的安全前景持乐不雅观态度,她援引前沿不雅观点指出,随着评测、管理技能的成熟,以及管理体系的完善,人类供应一整套安全规则,AI就能根据规则实现“用模型监督模型”;而更长远地看,AI大模型有可能自主对齐人类代价不雅观、主动向善发展。
“只要我们负任务地对待AI,就能构建‘爱人类’的AI。
”张谧说。

会上,阿里巴巴集团与中国电子技能标准化研究院联合发布《AIGC管理与实践白皮书》(以下简称《AIGC白皮书》),这是海内首部系统剖析大模型和AIGC紧张风险,并从运用角度提出针对性管理建媾和可操作性实践方案的专业论著。

AIGC治理与实践白皮书宣告AI成长要防火墙天花板双管齐下

《AIGC白皮书》先容了环球AIGC技能与运用的最新进展,梳理了各界对这项新技能的疑虑和担忧,阐发了天下各国管理AIGC的不同模式。
阿里巴巴科技伦理管理委员会委员、阿里巴巴安全部研究员薛晖表示:“关于AI,我们不知道的比知道的多,弗成思议的比可以预测的多。
AIGC带来前所未有的寻衅,须要我们前瞻性地应对。
AI的发展和管理,仅凭一家企业、一所高校、一个机构无法独立完成,必须‘多元协同、开放共治’。
阿里巴巴正在一边筑牢防火墙,一边打破天花板,与社会各界一道,用AI破解更多社会难题,推动AI惠及更多人。

文/北京青年报 温婧

编辑/樊宏伟