构建更加通用的人工智能,让模型具有更加广泛和通用的认知能力,是当前人工智能领域发展的重要目标。目前流行的大模型路径是基于尺度定律去构建更大、更深和更宽的神经网络,但这一路径面临着计算资源及能源消耗难以为继、可解释性不足等问题。
8月16日,北京大学深圳研究生院教授田永鸿团队联合中国科学院自动化研究所研究员李国齐、徐波团队等的合作成果发表于《自然—计算科学》。
研究团队借鉴大脑神经元复杂动力学特性,提出了“基于内生复杂性”的类脑神经元模型构建方法,改善了传统模型通过向外拓展规模带来的计算资源消耗问题,为有效利用神经科学发展人工智能提供了示例。该研究工作为推动自然智能与人工智能差距的弥合、降低AI碳足迹等科学领域提供了工具和框架。
《自然》同期发表的观点文章对该研究评价道:“AI 研究更加贴近工程与应用,而神经科学的研究更加具有探索性。研究团队挑战了这一传统观点,并表明更详细且生物学上更真实的神经元模型可以推动深度学习取得更大进展。”
在类脑计算研究中,脉冲神经网络占据核心地位,是最具有生物意义、最类似大脑运行机制的神经网络模型,被认为是新一代的神经网络。该研究首先展示了脉冲神经网络神经元LIF模型和HH模型在动力学特性上存在等效性,进一步从理论上证明了HH神经元可以和四个具有特定连接结构的时变参数LIF神经元动力学特性等效。
基于这种等效性,团队通过设计微架构提升计算单元的内生复杂性,使HH网络模型能够模拟更大规模LIF网络模型的动力学特性,在更小的网络架构上实现与之相似的计算功能,并通过构建简化模型验证了其在捕捉复杂动力学行为方面的有效性。
该研究为将神经科学的复杂动力学特性融入人工智能,为构筑人工智能与神经科学的桥梁提供了新的方法和理论支持,为实际应用中的AI模型优化和性能提升提供了可行的解决方案。目前,研究团队已开展对更大规模HH网络,以及具备更大内生复杂性的多分支多房室神经元的研究,有望进一步提升大模型的计算效率与任务处理能力,实现在实际应用场景中的快速落地。
(责编:赵珊)