中国科学院自动化研究所曾毅研究团队将大脑中基于好奇学习的规则与更具生物合理性的脉冲神经网络(Spiking Neural Networks, SNNs)相结合,在达到同等正确率的情况下,极大降低计算能耗。与该课题组由张铁林副研究员、曾毅研究员等人的前期工作,领域内领先的纯生物合理的脉冲神经网络VPSNN(电压驱动的以塑性为中心的SNN)(发表于AAAI 2018)相比,在MNIST手写数字识别问题上达到同等正确率的情况下,只用其54.95%的计算代价。与此同时,在Iris、NETtalk、Fashion-MNIST和CIFAR-10等视觉与语音数据集上也可以得到相近甚至效果更好的结论(如在Fashion-MNIST上仅消耗VPSNN的18.35%的计算代价)。这为SNN的实时应用提供可能。相关论文发表在国际期刊Frontiers in Computational Neuroscience上。
曾毅研究员表示,学习可以是主动的也可以是被动的,而有动机的主动学习往往更加高效。好奇(curiosity)是促进大脑进行主动探索和学习的重要认知功能和机制之一,正是由于好奇的存在,人类和其他动物得以在纷繁复杂的信息输入的情况下高效而准确地学习并获取新的知识与技能。
传统的学习方法通常从固定批次中获取训练数据的表征,很少考虑随着时间的推移,信息会增量式地变得可用。神经生物学的研究表明,当大脑在面临新颖的刺激或者学习全新的知识时,会激发中脑边缘通路(即奖赏通路)的响应,与此相关的脑区在多巴胺等神经递质的调控下产生动机、注意、学习、记忆调用和存储等行为。因此,基于好奇心的学习机制一定程度上弥补了传统人工神经网络训练中面临的问题。
算法的主要贡献者硕士研究生史梦婷介绍,SNN近年来在许多图像和语音任务中已经在正确率方面逐步具有了良好的表现。然而,神经元层面的耗时计算和复杂的优化方法限制了其实时应用。受基于好奇的学习机制启发,课题组提出了一个基于好奇心的SNN(CBSNN)模型,该模型包含四个主要的学习过程:(1)利用基于生物可塑性的规则对网络进行训练,同时获得所有样本的新颖性估计;(2)CBSNN开始对新颖性估计值超过阈值的样本进行重复学习,并根据每个阶段的学习结果动态更新样本的新颖性估计;(3)为了避免对新颖样本的过拟合和对已学习样本的遗忘,CBSNN对所有样本进行了一次重复训练;(4)周期性地进行第二步和第三步,直到网络收敛。进一步的实验和分析证明,这种基于好奇心的学习方法有助于提高SNNs的效率。据悉,这是好奇机制和SNN的第一次实际结合,这些改进将使SNN在冯诺伊曼框架下的实际应用更为可行。
对于未来的研究工作,曾毅研究员介绍到,这个工作是团队在基于好奇心的类脑神经网络系列工作的一个开端,仍然很初步。在这个工作中为了更明确地探索好奇机制对于网络的作用,尽可能减少其他因素的干扰,团队集中在浅层网络的构建和应用上,未来的工作很显然要探索在更为深层的网络上的意义。此外,这里是对好奇机制的非常初步的应用,更关键的是团队正在进行的研究工作,即构建好奇的多脑区协同计算模型,深刻融合神经科学的发现与计算建模的作用,从而揭示好奇的本质,并进一步启发新一代类脑自主学习的人工智能模型。
原文链接:
https://www.frontiersin.org/articles/10.3389/fncom.2020.00007/full