跳至正文

中科院与清北共建类脑网络:AI与神经科学融合

中科院自动化所与清华北大合作提出基于内生复杂性的类脑神经元模型构建方法

近日,中国科学院自动化研究所(简称:自动所)的李国齐、徐波研究团队联合清华大学、北京大学等多家机构,针对神经科学的复杂动力学特性,提出了一种名为“基于内生复杂性”的类脑神经元模型构建方法。这一方法改进了传统模型通过向外拓展规模所带来的计算资源消耗问题,为有效利用神经科学发展人工智能提供了新的思路。相关研究成果已经在线发表在《自然・计算科学》(Nature Computational Science)杂志上。

研究团队首先展示了脉冲神经网络神经元 LIF(Leaky Integrate and Fire)模型和 HH(Hodgkin-Huxley)模型在动力学特性上的等效性。通过理论分析,他们证明了 HH 神经元可以和具有特定连接结构的时变参数 LIF 神经元(tv-LIF)的动力学特性等效。基于这种等效性,研究团队通过设计微架构来提高计算单元的内生复杂性,使得 HH 网络模型能够在较小的网络架构上实现与较大规模的 LIF 网络模型相似的计算功能。

此外,研究团队还将由四个 tv-LIF 神经元构建的“HH 模型”(tv-LIF2HH)简化为 s-LIF2HH 模型,并通过仿真实验验证了其捕捉复杂动力学行为的有效性。实验结果显示,HH 网络模型和 s-LIF2HH 网络模型在表示能力和鲁棒性方面具有相似的性能,证实了内生复杂性模型在处理复杂任务时的有效性和可靠性。同时,HH 网络模型在计算资源消耗上表现出更高的效率,显著降低了内存和计算时间的使用,从而提高了整体的运算效率。

研究人员通过对信息瓶颈理论对上述研究结果进行解释,认为该研究为将神经科学的复杂动力学特性融入人工智能提供了一种新的方法和理论支持,为人工智能模型的优化和性能提升提供了可行的解决方案。

目前,研究团队正在对更大规模的 HH 网络以及具备更大内生复杂性的多分支多房室神经元进行研究,以期进一步提高大规模模型的计算效率和任务处理能力,推动这一技术在实际应用场景中的快速落地。

发表回复