Pine 发自 凹非寺
量子位 | 公众号 QbitAI
(相关资料图)
现在很多AI应用模型,都不得不提到一个模型结构:
Transformer 。
它抛弃了传统的CNN和RNN,完全由Attention机制组成。
Transformer不仅赋予了各种AI应用模型 写文作诗 的功能,而且在 多模态 方面也大放异彩。
尤其是ViT (Vision Transformer) 出来之后,CV和NLP之间的模型壁垒被打破,仅使用Transformer一个模型就能够处理多模态的任务。
(谁看完不得感叹一句它的强大啊)
虽然一开始Transformer是为语言任务而设计的,但它在 模仿大脑 方面也有着很大的潜力。
这不,有位科学作家写了篇博客,就是关于Transformer是如何进行大脑建模的。
来康康他是怎么说的?
首先,还得梳理一下它的演变过程。
Transformer机制在5年前首次出现,它能够有这么强大的表现,很大程度上归功于其 Self-attention机制 。
至于Transformer是如何模仿大脑的,继续往下看。
在2020年,奥地利计算机科学家Sepp Hochreiter的研究团队利用Transformer重组了 Hopfield神经网络 (一种记忆检索模型,HNN) 。
其实,Hopfield神经网络在40年前就已经被提出,而研究团队之所以时隔数十年选择重组这个模型原因如下:
其一,这个网络遵循一个普遍的规律: 同时活跃的神经元之间彼此会建立很强的联系 。
其二,Hopfield神经网络在检索记忆的过程中与Transformer执行Self-attention机制时有一定的相似之处。
所以研究团队便将HNN进行重组,让 各个神经元之间建立更好的联系 ,以便存储和检索更多的记忆。
重组的过程,简单来说,就是把 Transformer的注意力机制融合进HNN ,使原来不连续的HNN变为可连续态。
重组之后的Hopfield网络可以作为层集成到深度学习架构中,以允许存储和访问原始输入数据、中间结果等。
因此,Hopfield本人和麻省理工学院沃森人工智能实验室的Dmitry Krotov都称:
基于Transformer的Hopfield神经网络在生物学上是合理的。
虽说这在一定程度上与大脑的工作原理相像,但在某些方面还不够准确。
因此,计算神经科学家Whittington和Behrens调整了Hochreiter的方法,对重组后的Hopfield网络做出了一些修正,进一步提高了该模型在神经科学任务中 (复制大脑中的神经放电模式) 的表现。
简单来说,就是在编码-解码时,模型不再把记忆编码为线性序列,而是将其编码为 高维空间中的坐标 。
具体而言,就是在模型中引入了TEM (Tolman-Eichenbaum Machine) 。 TEM是为了模仿海马体的空间导航作用而构建的一个 关联记忆系统 。
它能够概括 空间和非空间的结构知识 ,预测在空间和关联记忆任务中观察到的 神经元表现 ,并解释在海马和内嗅皮层中的 重新映射现象 。
将拥有这么多功能的TEM与Transformer合并,组成TEM-transformer (TEM-t) 。
然后,再让TEM-t模型在 多个不同的空间环境中 进行训练,环境的结构如下图所示。
在TEM-t中,它依旧拥有Transformer的Self-attention机制。这样一来,模型的学习成果便能迁移到新环境中,用于预测新的空间结构。
研究也显示,相较于TEM,TEM-t在进行神经科学任务时效率更高,而且它也能在更少学习样本的情况下处理更多的问题。
Transformer在模仿大脑模式的道路上越来越深入,其实换句话说,Transformer模式的发展也在不断促进我们理解大脑功能的运作原理。
不仅如此,在某些方面,Transformer还能 提高 我们对大脑其他功能的理解。
比如说,在去年,计算神经科学家Martin Schrimpf分析了 43种 不同的神经网络模型,以观察它们对人类神经活动测量结果:功能磁共振成像 (fMRI) 和皮层脑电图 (EEG) 报告的预测能力。
其中,Transformer模型 几乎可以预测成像中发现的所有变化 。
倒推一下,或许我们也可以从Transformer模型中预见大脑对应功能的运作。
除此之外,最近计算机科学家Yujin Tang和 David Ha设计了一个模型,可以通过Transformer模型以 随机、无序的方式 有意识地发送大量数据,模拟人体如何向大脑传输感官观察结果。
这个Transformer就像人类的大脑一样,能够成功地 处理无序的信息流 。
虽然Transformer模型在不断进步,但也只是朝着精确大脑模型迈出的一小步,到达终点还需要更深入的研究。
如果想详细了解Transformer是如何模仿人脑的,可以戳下方链接~
参考链接: [1]https://www.quantamagazine.org/how-ai-transformers-mimic-parts-of-the-brain-20220912/ [2]https://www.pnas.org/doi/10.1073/pnas.2105646118 [3]https://openreview.net/forum?id=B8DVo9B1YE0
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态
Pine发自凹非寺量子位|公众号QbitAI现在很多AI应用模型,都不得不提到一个模型结构:Transformer。它抛弃了传统的CNN和RNN,完全由Attention机
每年的巴黎时装周都是时尚圈的各位达人必看的一场秀,今年的巴黎时装周的各个品牌更是拿出了看家本领,今年各个品牌竞争力还是比较强的,不过
一方在婚前按揭贷款购房,登记在自己名下的,离婚时,司法实践中将该房屋认定为个人财产,而夫妻共同还贷支付的款项以及房屋相对应的财产增值
新型冠状病毒传播性强,不侥幸,不冒险,情谊常在,聚会不急一时。01月27日06时湖南衡阳昨日疫情新增0例、累计报告阳性感染者确诊83例具体详情
形容人灵活的句子必备105句1 凭自己的良心做人,靠自己的努力做事。2 古今中外,凡成就事业,对人类有作为的无一不是脚踏实地、艰苦攀登的结果
总票房已破50亿!今年春节档可谓厮杀激烈,话题不断!无论是《满江红》与《流浪地球2》你追我赶的票房胶着战,动画赛道里《熊出没:伴我“熊芯
戴维斯今日若复出出场时间将会被限制,安东尼·戴维斯,湖人,战马
弈士们好:【天选福星】限时玩法已于1月12日正式上线。打开游戏玩什么还用多说吗?福星人,福星魂!这个玩法的快乐源泉首先来源于这个会掉战利
央视网消息:在祖国西南疆海拔4520米的高山云顶,西藏军区某边防团无名湖边防连长期担负着艰巨的戍边任务,春节前,总台《新春走基层》记者来
1月25日,生意社维生素C基准价为27 67元 公斤,与1月1日(27 33元 公斤)相比,上涨了1 24%。维生素C年度统计(2022-01-25--20