这一新型类脑打算方法,可改进传统模型通过向外拓展规模带来的打算资源花费问题,也为有效利用神经科学发展人工智能供应了示例。
干系成果论文近日在国际专业学术期刊《自然-打算科学》(Nature Computational Science)揭橥。

互助团队先容说,构建更加通用的人工智能,让模型具有更加广泛和通用的认知能力,是当古人工智能领域发展的主要目标。
目前盛行的大模型路径是基于“尺度定律”(Scaling Law)去构建更大、更深和更宽的神经网络,可称之为“基于外生繁芜性”的通用智能实现方法,但这一起径面临着打算资源及能源花费难以为继、可阐明性不敷等问题。

在本项研究中,互助团队首先展示脉冲神经网络神经元LIF模型和HH模型在动力学特性上存在等效性,进一步从理论上证明HH神经元可以和4个具有特定连接构造的时变参数LIF神经元(tv-LIF)动力学特性等效。

基于这种等效性,团队通过设计微架构提升打算单元的内生繁芜性,使HH网络模型能够仿照更大规模LIF网络模型的动力学特性,在更小的网络架构上实现与之相似的打算功能。
随后,团队进一步将由4个tv-LIF神经元构建的“HH模型”(tv-LIF2HH)简化为s-LIF2HH模型,并通过仿真实验验证这种简化模型在捕捉繁芜动力学行为方面的有效性。

人工智能研究新进展 中国团队提出基于内生复杂性类脑计算方法

这次研究的实验结果表明,HH网络模型和s-LIF2HH网络模型在表示能力和鲁棒性上具有相似的性能,验证了内生繁芜性模型在处理繁芜任务时的有效性和可靠性。
同时,研究还创造,HH网络模型在打算资源花费上更为高效,显著减少内存和打算韶光的利用,从而提高了整体的运算效率。

互助团队通过信息瓶颈理论对他们的研究结果进行阐明认为,本项研究为将神经科学的繁芜动力学特性融入人工智能供应新的方法和理论支持,为实际运用中的人工智能模型优化和性能提升供应可行的办理方案。

据透露,互助团队目前已开展对更大规模HH网络,以及具备更大内生繁芜性的多分支多房室神经元的研究,有望进一步提升大模型打算效率与任务处理能力,实现在实际运用处景中的快速落地。
(完)