AI模型新革命来了?大脑记忆是旋转的?过去未来竟是「正交」空间

新闻 人工智能
人脑是怎么区分过去和现在的记忆的呢?最近科研人员发现人脑是通过「旋转」正交来防止记忆冲突,这会是最终答案吗?

 每次醒来的时候,人类和其他动物都要整理过去的记忆,并准备好迎接新的记忆。

我们必须吸收关于我们周围世界的新的感官信息,同时保留对早期观察或事件的短期记忆。我们了解周围环境,学习,行动和思考的能力都取决于感知和记忆之间持续不断的交互。

但是要做到这一点,大脑必须使过去和记忆保持分离,否则新传入的数据流可能会干扰先前的记忆,并导致我们覆盖或误解重要的上下文信息。

[[397533]]

大量研究表明,大脑不会将短期记忆功能整齐地分配到诸如前额叶皮层等更高的认知区域,表示经历的感觉区域和其他下皮质中心也可以编码和存储记忆。

但是,这些回忆不能干扰我们对当下的看法,或者被新的经历覆盖掉。

最近在《自然神经科学》上发表的一篇论文「可能」最终解释了大脑的保护性缓冲液是如何工作的。

研究人员认为,为了在不相互干扰的情况下同时表示当前和过去的刺激,大脑本质上是「旋转」感觉信息以将其编码为记忆。

如果用数学方法解释,从重叠的神经活动中得出两个正交的表示,那么他们就不会互相干扰。这个机制有助于解决有关记忆处理的争论。

为了弄清楚大脑如何防止新信息和短期记忆模糊在一起,普林斯顿大学的神经科学家Timothy Buschman和他实验室的研究生Alexandra Libby决定专注于小鼠的听觉感知。他们让小鼠们一遍又一遍地听四个和弦的音序,这就是Buschman所说的「史上最烂的音乐会」。

这场「音乐会」让小鼠可以在某些和弦之间建立关联,因此当他们听到一个初始和弦与另一个和弦时,他们可以预测会发出什么样的声音。

[[397534]]

同时,研究人员还训练了机器学习分类器,以分析在这些听觉过程中从啮齿动物的听觉皮层记录的神经活动,用来确定每个神经元如何集体代表序列中的每个刺激。

Buschman和Libby观察了这些模式在老鼠建立联系时是如何变化的,他们发现,随着时间的流逝,相关和弦的神经表示开始逐渐接近。

但是他们还观察到,新的感觉输入(例如不熟悉的和弦序列)可能会通过覆盖其先前输入的表示来干扰小鼠对所听到声音的表示。

神经元递归地改变其对过去刺激的编码,以匹配与后来刺激相关的动物,即使那是错误的。研究人员想确定大脑如何纠正这种干扰来保持准确的记忆。

因此,他们训练了另一个分类器,以识别和区分和弦记忆的神经模式。例如,一个未知的和已知的和弦对神经元的发射方式影响。

分类器的确从听过的和弦记忆中找到了完整的活动模式,而不是迭代地写出错误的「更正」来维持较早的关联,但是这些记忆的编码看起来与感觉的表达方式大不相同。

记忆表示是按照神经科学家描述为感觉表示的「正交」维度来组织的,所有这些都在相同的神经元群体内。

Buschman做了一个比喻,想象你在一张纸上做手写笔记,您将纸张旋转90度并开始在页边空白处书写,这基本上就是大脑在做的事情。它获得了第一个感觉输入,然后将其写在纸上,然后将其旋转90度,以便可以在不干扰或字面覆盖的情况下以新的感觉输入进行书写。

换句话说,感觉数据通过神经元放电模式的改变而转变为记忆。

以前已经见过使用正交编码来分离和保护大脑中的信息。例如,当猴子准备运动时,运动皮层中的神经活动代表了潜在的运动,但正交地这样做是为了避免干扰将实际命令传递给肌肉的信号。

尽管如此,通常还不清楚神经活动如何以这种方式转化。布希曼和利比想回答这个问题,以了解他们在小鼠的听觉皮层中观察到了什么。利比说:“当我刚开始在实验室工作时,我很难想象这样的事情会随着神经激发活动而发生。” 她想“打开神经网络为创建这种正交性所做的工作的黑匣子”。

令研究人员惊讶的是,稳定和转换神经元的这种结合足以旋转感觉信息并将其转化为记忆。

实际上,他和利比(Libby)使用计算建模方法来证明,这种机制是构建感觉和记忆的正交表示的最有效方法:与其他方法相比,它需要更少的神经元和更少的能量。

Buschman和Libby的发现推动了神经科学的新兴趋势:即使是在较低的感觉区域,神经元的群体也比以前认为的参与了更丰富的动态编码。萨塞克斯大学的神经科学家Miguel Maravall表示,食物链中较低的皮质部分也具有非常有趣的动态,也许直到现在我们还没有真正欣赏到它。

这项工作可能有助于调和正在进行的辩论的两个方面,即关于短期记忆是通过恒定的,持久的表示还是通过随时间变化的动态神经代码来保持。Buschman认为他们的研究成果表明他们基本上证明了这种想法是对的,正交旋转有助于防止干扰。

Buschman和Libby的研究可能与感官表征之外的背景相关。他们和其他研究人员希望在其他过程中寻找这种正交旋转的机制:大脑如何立即跟踪多个想法或目标;在处理干扰的同时如何完成任务;它如何代表内部状态;如何控制认知,包括注意力过程。

Libby认为他们的结果对人工智能研究的意义重大,特别是对必须执行多任务的AI网络有用的体系结构的设计。

责任编辑:张燕妮 来源: 新智元
相关推荐

2018-08-09 20:41:29

人工智能AI神经网络

2020-10-13 18:51:11

自动驾驶人工智能技术

2023-03-06 16:12:59

ChatGPT人工智能

2013-05-10 10:02:45

微芯片记忆植入

2021-05-11 14:53:02

AI 数据人工智能

2022-09-30 15:26:57

人工智能技术

2016-01-08 15:52:32

2018-10-31 17:22:25

AI人工智能芯片

2017-08-08 15:40:26

OpenStack转型基金会

2016-08-28 15:55:04

Hadoop大数据

2012-02-16 09:10:31

JavaScript

2020-09-27 14:23:36

AI

2023-07-04 09:48:10

AI模型

2009-06-10 09:56:17

2022-10-08 15:13:48

AI芯片

2024-07-18 19:30:58

2023-09-07 23:10:36

AI生成式 AI

2012-06-25 14:57:27

HTML5

2020-05-26 11:17:34

区块链金融技术
点赞
收藏

51CTO技术栈公众号