新研究发现,通过在大脑网络模拟中调整单个细胞的电特性,网络比使用相同细胞的模拟学习得更快。
他们还发现,网络需要更少的调整单元来获得相同的结果,并且该方法比具有相同单元的模型能耗更低。
作者说,他们的发现可以告诉我们为什么我们的大脑如此擅长学习,也可能帮助我们构建更好的人工智能系统,例如可以识别语音和面部的数字助理,或自动驾驶汽车技术。
第一作者、伦敦帝国理工学院电气与电子工程系博士生 Nicolas Perez 说:“大脑需要节能,同时仍然能够擅长解决复杂的任务。我们的工作表明,大脑中的神经元具有多样性。大脑和人工智能系统都满足这些要求,可以促进学习。”
该研究发表在《自然通讯》上。
为什么神经元像雪花?
大脑由数十亿个称为神经元的细胞组成,这些细胞通过巨大的“神经网络”连接起来,使我们能够了解世界。神经元就像雪花:从远处看它们是一样的,但进一步观察很明显,没有两个是完全相同的。
相比之下,人工神经网络(人工智能所基于的技术)中的每个细胞都是相同的,只是它们的连接性不同。尽管人工智能技术的发展速度很快,但他们的神经网络学习的准确性或速度不如人脑——研究人员想知道他们缺乏细胞变异性是否可能是罪魁祸首。
他们着手研究通过改变神经网络细胞特性来模拟大脑是否可以促进人工智能的学习。他们发现细胞的变异性提高了他们的学习能力并降低了能量消耗。
第一作者、帝国理工学院电气与电子工程系的 Dan Goodman 博士说:“进化赋予了我们难以置信的大脑功能——其中大部分我们才刚刚开始理解。我们的研究表明,我们可以从我们自己的身上吸取重要的教训。生物学让人工智能更好地为我们工作。”
调整时间
为了进行这项研究,研究人员专注于调整“时间常数”——也就是说,每个细胞根据与其相连的细胞正在做什么来决定它想要做什么的速度。有些细胞会很快做出决定,只看连接的细胞刚刚做了什么。其他细胞的反应会较慢,它们的决定基于其他细胞一段时间以来一直在做什么。
在改变细胞的时间常数后,他们让网络执行一些基准机器学习任务:对衣服和手写数字的图像进行分类;识别人类手势;并识别口语数字和命令。
结果表明,通过允许网络结合慢速和快速信息,它能够更好地解决更复杂的现实世界中的任务。
当他们改变模拟网络中的变异量时,他们发现表现最好的网络与大脑中看到的变异量相匹配,这表明大脑可能已经进化为具有最佳学习所需的恰到好处的变异量。
Nicolas 补充道:“我们证明,通过模拟某些大脑特性,人工智能可以更接近我们大脑的工作方式。然而,目前的人工智能系统远未达到我们在生物系统中发现的能源效率水平。
“接下来,我们将研究如何降低这些网络的能耗,让 AI 网络更接近于像大脑一样高效地运行。”
本研究由工程与物理科学研究委员会和帝国理工学院校长博士奖学金资助