首页>>健康 >>内容

随着Python代码库跨越重要里程碑论文提供了对类脑人工智能未来的展望

发布时间:2023-11-17 09:27:41编辑:可爱的眼神来源:

四年前,加州大学圣克鲁斯分校的Jason Eshraghian 开发了一个 Python 库,它将神经科学与人工智能相结合,创建脉冲神经网络,这是一种机器学习方法,其灵感来自于大脑高效处理数据的能力。现在,他的 开源代码库“snnTorch”的下载量已超过 100,000 次,并用于各种项目,从 NASA 卫星跟踪工作到优化 AI 芯片的半导体公司。

随着Python代码库跨越重要里程碑论文提供了对类脑人工智能未来的展望

《Proceedings of the IEEE》杂志上发表的一篇 新论文 记录了编码库,但也旨在为学生和任何其他有兴趣学习类脑人工智能的程序员提供坦诚的教育资源。

“这很令人兴奋,因为它表明人们对大脑感兴趣,并且人们已经发现神经网络与大脑相比确实效率低下,”电气和计算机工程助理教授埃什拉吉安说。“人们担心神经网络和大型语言模型[昂贵的电力需求]对环境的影响,因此这是一个非常合理的前进方向。”

构建 snnTorch

Spiking 神经网络模拟大脑和生物系统,以更有效地处理信息。大脑的神经元处于静止状态,直到有一条信息需要它们处理,这会导致它们的活动激增。同样,尖峰神经网络仅在系统有输入时才开始处理数据,而不是像传统神经网络那样不断处理数据。

埃什拉吉安说:“我们希望充分利用大脑及其功效的所有优势,并将其融入人工智能的功能中,从而实现两全​​其美。”

在疫情期间,Eshraghian 开始用 Python 构建脉冲神经网络代码,作为一个充满激情的项目,某种程度上也是一种自学 Python 编码语言的方法。作为一名训练有素的芯片设计师,当他考虑到可以通过共同设计软件和硬件来优化计算芯片的功效以确保它们最好地相互补充时,他对学习编码产生了兴趣。

现在,snnTorch 被世界各地成千上万的程序员用于各种项目,支持从 NASA 的卫星跟踪项目到 Graphcore 等主要芯片设计商的一切。

在构建 Python 库的同时,Eshraghian 创建了代码文档和教育材料,这在他自学编码语言的过程中是很自然的事情。他后来制作的文档、教程和交互式编码笔记本在社区中引起了轰动,并成为许多人学习神经形态工程和尖峰神经网络主题的第一个切入点,他认为这是他的图书馆的主要原因之一变得如此受欢迎。

诚实的资源

Eshraghian 知道这些教育材料对于不断增长的计算机科学家群体以及对该领域感兴趣的其他人来说非常有价值,因此开始将他的大量文档汇编成一篇论文,该论文现已发表在 IEEE 会议录上,领先的计算期刊。

这篇论文是 snnTorch 代码库的姊妹篇,其结构类似于教程,而且是一篇固执己见的教程,讨论了受大脑启发的深度学习研究人员的不确定性,并提供了对该领域未来的看法。Eshraghian 表示,这篇论文有意向读者坦白,神经拟态计算领域正在不断发展和不稳定,目的是为了让学生避免在尝试寻找研究界甚至不理解的代码决策理论基础时遇到的挫败感。 。

“这篇论文非常诚实,因为学生应得的,”埃什拉吉安说。“我们在深度学习中做了很多事情,但我们只是不知道它们为什么起作用。很多时候,我们想声称我们是故意做的,我们发表论文是因为我们经过了一系列严格的实验,但在这里我们只是说:这是最好的方法,我们不知道为什么。”

该论文包含代码块,这是典型研究论文不常见的格式。这些代码块有时会附带一些解释,说明某些领域可能非常不稳定,但可以深入了解为什么研究人员认为某些方法可能会成功。Eshraghian 表示,他看到了社区对这种诚实方法的积极接受,甚至被告知该论文正在神经形态硬件初创公司的入职材料中使用。

“我不希望我的研究让人们经历我所经历的同样的痛苦,”他说。

从大脑中学习以及关于大脑的学习

这篇论文提供了一个视角,说明该领域的研究人员如何克服受大脑启发的深度学习的一些局限性,这些局限性源于这样一个事实:总的来说,我们对大脑如何运作和处理信息的理解相当有限。 。

埃什拉吉安说,人工智能研究人员若要为他们的深度学习模型转向更类似于大脑的学习机制,他们需要确定深度学习和生物学之间的相关性和差异。这些关键区别之一是,大脑无法像那样调查他们输入的所有数据,而是专注于传入的实时数据,这可能为增强能量提供机会效率。

“大脑不是时间机器,它们无法倒退——当你体验世界时,你的所有记忆都会被推进,因此训练和处理是耦合在一起的,”埃什拉吉安说。“我在论文中重点关注的一件事是我们如何实时应用学习。”

论文探索的另一个领域是神经科学中的一个基本概念,即一起放电的神经元是连接在一起的——这意味着当两个神经元被触发同时发出信号时,两个神经元之间的通路就会得到加强。然而,大脑在整个器官范围内学习的方式仍然是个谜。

“火在一起,连在一起”的概念传统上被视为与深度学习的模型训练方法(称为反向传播)相对立,但 Eshraghian 认为这些过程可能是互补的,从而为该领域开辟了新的探索领域。Eshraghian 也很

兴奋关于使用大脑类器官(干细胞生长的脑组织模型)来了解更多有关大脑如何处理信息的信息。他目前正在与 UCSC 基因组研究所 Braingeneers 小组的生物分子工程研究人员合作,利用类器官模型探索这些 问题 。对于加州大学圣克鲁斯分校的工程师来说,这是一个独特的机会,可以将“湿件”(一个指计算研究的生物模型的术语)融入到该领域流行的软件/硬件协同设计范式中。snnTorch 代码甚至可以提供一个平台模拟类器官,这在实验室中很难维护。

“[Braingeneers] 正在构建生物仪器和工具,我们可以用它们来更好地了解学习是如何发生的,以及如何转化为深入学习学习更有效率,”Eshraghian 说。