【环球时报宣布 马俊】伴随着人工智能(AI)技能的高速发展,包括OpenAI公司CEO山姆·奥特曼在内的业内人士都开始担心,它将被能源问题“卡脖子”,由于AI当前面临的现实难题之一便是能源和智能的转化效率。
被称为“硅谷钢铁侠”的特斯拉CEO马斯克近日也警告称,“AI算力瓶颈是可以预见的”,未来可能没有足够的电力能知足AI对算力的需求。
有没有办法缓解AI发展与算力花费海量资源之间的抵牾?《环球时报》就此采访了业内专家。

演习AI为何会花费海量资源

随着OpenAI公司发布的谈天机器人ChatGPT的爆红,各国都加快了AI大模型的演习,须要的算力也连忙增加。
马斯克最近在公开采访中表示,现在AI对算力的需求差不多每半年就会增加10倍,AI算力的瓶颈是可以预见的:“一年前,短缺的是芯片。
然后下一个短缺的将是电力。
当芯片短缺缓解之后,明年可能就会涌现电力将不敷以运转这些芯片。

AI与人争资源。
本版配图由AI合成

科技不雅观察AI与人争本钱怎么破解

为何演习AI对付电力的花费如此弘大?这是由于大措辞模型的规模实在太大。
OpenAI的大措辞模型GPT-3拥有1750亿参数,而GPT-4拥有2万亿参数。
要演习这种规模的模型,须要在大规模数据集上反复迭代,每次都须要打算和调度个中数百亿乃至数千亿个参数。
为完成如此弘大的打算,须要动用由大量做事器组成的数据中央
例如GPT-4完成一次演习须要约3个月,利用约2.5万块英伟达A100图形处理器(GPU)。
以每块GPU的功耗400瓦打算,GPT-4一次演习就要耗费2.4亿度电。

据《环球时报》理解,数据中央通过网络供应高效的数据打算和存储做事,是承载算力的根本举动步伐。
随着传统科学与工程打算对算力的需求持续增长以及人工智能运用对算力需求的急剧上升,估量未来5年内智能算力规模的复合增长率将高达52.3%。
据统计,2022年中国数据中央耗电量达2700亿度,占全社会用电量约3%。
估量到2025年,全国数据中央用电量占全社会用电量的5%。
2030年全国数据中央耗电量靠近4000亿度。

除了芯片运算时的耗电量外,数据中央运行时还须要耗费大量淡水用于冷却做事器产生的热能。
益企研究院创始人张广彬见告《环球时报》,数据中央花费的水,紧张用于散热(冷却)环节。
便是通过水的蒸发,换取数据中央内部温度的降落。
美国科罗拉多大学的研究表明,每当ChatGPT回答20-50个问题,就须要花费500毫升水资源用于冷却打算设备和为数据中央供电的发电厂。
OpenAI公司今年年初发布的“文生视频”大模型Sora以惊人的视觉冲击力令环球瞩目,但干系评估认为,为此花费的算力约是天生笔墨对话的千倍以上,它在峰值运算时花费的电力和水资源更是天文数字。

对付AI与人争夺资源的担忧正在快速增加。
谷歌发布的2023年环境报告显示,该公司2022年耗水量高达2545万立方米,相称于8500个标准拍浮池。
到2027年,环球范围内的AI需求可能须要花费66亿立方米的水资源,险些相称于美国华盛顿州整年的打水量。
美国AI企业的数据中央从科罗拉多河打水操持遭到当地民众的抵制。
谷歌在乌拉圭南部建立数据中央、微软在智利建立数据中央等外洋项目也引发了当地人的抗议。

降落散热能耗,有多条技能路线

业内常用PUE值作为评价数据中央能源效率的指标,它是数据中央花费的所有能源与IT设备能耗的比值,PUE值越靠近1,解释能效水平越好。
传统风冷数据中央PUE值在1.5旁边,意味着IT设备自身能耗占比约为六成,以制冷为主的其他能耗约四成。
因此降落散热能耗,不但是数据中央最直接的节能方向,还可节省大量用于散热的水资源。

脸书、谷歌等公司纷纭选择在北极圈附近建筑大型数据中央,借助低温的自然环境,可节省大量的冷却电力。
中国近年推动的“东数西算”计策,在贵州、青海、内蒙古等地建筑数据中央,在很大程度上也考虑了这方面的成分。
在海底数据中央方面,微软早在2015年就将试验性的数据中央建在苏格兰周边的北海海疆水下,但没有大规模推广。

中国海南海底数据中央于2022年12月成功将环球首个海底数据中央核心装备“海底数据舱”放入海底,开启了环球商业海底数据中央运营的先河。
业内人士先容说,“以陆地1万个机柜为例,同等算力的海底数据中央,每年能节省用电总量1.75亿度、节省淡水15万吨。
数据舱内恒压恒湿无氧无尘的环境还会让做事器的可靠性大幅提升。

但这些方案受到自然环境、网络技能等约束较大,而且会让数据中央阔别主干网络,影响运维的便捷性。
对付常规地面数据中央而言,更可行的方案是将风冷模式转为液冷模式,即用特制液体取代空气作为冷媒为发热部件进行散热,紧张包括冷板式“非打仗液冷”以及浸没式和喷淋式“打仗液冷”技能。

曙光数创株式会社董事长任京暘接管《环球时报》采访时表示,国家干系部门多次出台有关政策,推动数据中央等举动步伐的节能减排,如明确哀求到2025年,全国新建大型、超大型数据中央PUE值降到1.3以下。
从曙光实践来看,最前辈且成熟度最高的液冷技能是“浸没式相变液冷方案”,能让数据中央PUE值最低降至1.04,这一结果在世界范围来看,是处在第一梯队的。
它在完备开释打算设备性能的同时,可极大提高设备稳定性。
但最显著的一点还是可极大降落数据中央设备的散热能耗,且不受地域、环境等影响。

张广彬表示,液冷技能是当前数据中央节能的热门方向。
他透露,液冷技能还有一个光看PUE值表示不明显的上风。
在IT设备能耗中,包括了做事器风扇的用电和电源模块转换的损耗,个中风扇的用电是大头,能占到做事器总用电的10%乃至更多。
而浸没式液冷理论上可以完备不用风扇,冷板式液冷的风扇只须要卖力20%-30%的散热量。
以是采取液冷技能的数据中央PUE值可能没有很明显低落,但实际更省电了。

任京暘还先容说,在节水方面,曙光最新研发的“液冷节水型室外机”,采取离心雾化等新型散热技能,在西北限水、缺水地区支配,比较传统闭式冷却塔设备可节水70%-80%。
该方案通用于风冷、液冷等多模式数据中央,可最大程度支持我国西北缺水地区培植中大型节水数据中央。

超算互联网是未来方向之一

张广彬认为,数据中央根本举动步伐层面节能减排的传统手段,随着PUE值逐渐逼近1,已快趋近极限了。
“采取各种节能方法,把供电损耗、制冷开销等环节的摧残浪费蹂躏掌握在很低的水平之后,剩下的便是必需的业务需求了。
不能纯挚责怪数据中央耗能,这该当是信息社会的必需开销。
总不能通过减少真实的运用需求,来达到节能的目标。
”他认为,未来数据中央节省耗能仍旧大有可为,包括对上层软件和运用进行优化,减少不必要的算力利用量。
“如果通过优化大模型,让60亿参数的模型能达到原来130亿参数模型的效果,那就可以减少GPU和做事器的利用量,终极降落数据中央层面的用电量”。

技能的进步也能在一定程度上缓解外界对付AI能耗的担忧。
英伟达首席实行官黄仁勋6月2日宣告,新一代AI芯片架构在性能提升30倍的同时,能耗只有上一代产品的1/25。
美国波士顿大学工程教授科斯昆认为,在AI巨子完成大模型的测试后,AI能耗问题可能就没有那么突出了。
届时将确定哪些领域须要繁芜模型,哪些领域只要大略模型就够了。
“人们开始思考这个问题:‘我是否真的须要用大锤子敲击这个小钉子,大概只用一把螺丝刀就够了?’”

接管《环球时报》采访的专家表示,当前盛行的通用大模型演习高度花费算力,从长远来看,只有少数有条件有根本有能力的机构能持续推进。
考虑到技能和经济性,未来更合理的发展方向是针对领域运用问题,基于通用大模型开拓领域模型和推理系统。
在这方面,美国安腾超级打算机供应了很好的例子。
它采取专用超级打算机体系构造用于生物系统的分子动力学仿照,在由专用高速互联网紧耦合连接的分子动力学打算ASIC芯片上实行海量并行打算,所花费的能源只有同期最快GPU的1/10。

海内方面,今年4月正式上线的国家超算互联网,也有望在减少未来AI演习能耗方面发挥主要浸染。
国家超算互联网因此互联网思维运营超算中央,依托一体化的算力调度、数据传输、生态协作体系,实现算力供给、软件开拓、数据交易、模型做事等家当链干系各方的紧密链接,构建市场化、互联网化、标准化的前辈打算做事环境。
国家高性能打算机工程技能研究中央副主任曹振南见告《环球时报》,未来国家超算互联网所连接的各个算力中央会扮演不同的角色,“类似医院会分为专科医院和综合医院,未来算力中央可能也会分解为专科算力中央和综合算力中央,个中专注于大模型演习的专科算力中央,所利用的能耗、性价比肯定要超过通用算力中央。
”其次,国家超算互联网可优化算力的调度和做事,在供应同样算力情形下,进一步降落能耗。

中国正在推进的“东数西算”计策是考虑到东部电力紧张,西部新能源丰富,在西部合理布局培植数据中央,承接东部的算力需求。
曹振南表示,通过超算互联网打造的算力网络在“东数西算”中节省的能源也是相称可不雅观的。