DIFFERENT TYPES OF CRYPTO COINS
在23与24年交替之际,本站正式建立!在踏入计算机领域后,我一直想拥有一个自己的网站,在互联网上留下属于我的独一无二的足迹。然而,对前途的迷茫和彷徨使我的想法一拖再拖,直到此刻…..
立足当下,回顾过去,展望未来。
Loading
在23与24年交替之际,本站正式建立!在踏入计算机领域后,我一直想拥有一个自己的网站,在互联网上留下属于我的独一无二的足迹。然而,对前途的迷茫和彷徨使我的想法一拖再拖,直到此刻…..
立足当下,回顾过去,展望未来。
设计了一个基于注意力机制的即插即用的脉冲编码模块
主要对比对象为直接编码方案
相比之前的网络,在CIFAR100提升了正确率,并降低了时延与能耗
将静态数据编码为具有时序特征的脉冲集合,目前常见的编码方案包括:
时间编码(temporal coding) 将具体的数据编码为脉冲发放的具体时刻
相位编码(Phase coding) [1] 有权脉冲
频率编码(rating coding) 将数值编码为脉冲发放率,但其需要较长的模拟时间以确保高的分辨率
直接编码(direct coding) 具体数值直接输入网络,其编码由第一层[Conv-BN-LIF]完成。其需要在每个时间步重复这个操作,因此回产生周期性的相同输出,从而未充分利用后续SNN架构的时空提取能力,增加了神经形态硬件的能耗
注意力机制最初是为了提升sequence-to-sequence任务的性能,通过有效地过滤掉分散注意力的噪声,该机制有助于更高效的进行数据处理,从而提高性能。然而,由于神经形态硬件的核心特征之一为使用稀疏加法降低计算功耗,这给注意力块集成到SNN架构中带来了挑战,因为它需要在后续层中创建大量乘法块来动态计算注意力得分。 本文将注意力机制限制在编码层,后续的SNN结构仍然可以保持spike-driven特性。这种方法有望在神经形态硬件上实现更可行的SNN,因为它缓解了整个体系结构中动态注意力机制引起的不兼容性。
本文采用的为经典的迭代LIF模型:
输入数据维度为
Temporal Attention
建立SNN输入之间的时间关系,在后三维进行最大以及平均池化,并使用共享的
Spatial Channel Attention
在 每个时间步使用共享的卷积核获取空间通道矩阵
Gating
为了提取SNN的输入的时空信道动态特征,首先将时间向量
其中
编码过程:
训练采用STBP,最后一层充当解码层(对于每一个时间步求和取平均)
文章使用了大量的篇幅争对
Spiking-ResNet:膜电位和脉冲之间的shortcut [2]
Spike-Element-Wise (SEW) ReNet:不同层输出spike之间的shortcut [3]
Membrane Shortcut (MS) ResNet:不同层神经元膜电位之间的shortcut [4]
[1] J. Kim, H. Kim, S. Huh, J. Lee, and K. Choi, “Deep neural networks with weighted spikes,” Neurocomputing, vol. 311, pp. 373–386, 2018.
[1] J. Kim, H. Kim, S. Huh, J. Lee, and K. Choi, “Deep neural networks with weighted spikes,” Neurocomputing, vol. 311, pp. 373–386, 2018.
[2] Y. Hu, H. Tang and G. Pan, “Spiking Deep Residual Networks,” in IEEE Transactions on Neural Networks and Learning Systems, vol. 34, no. 8, pp. 5200-5205, Aug. 2023, doi: 10.1109/TNNLS.2021.3119238.
[3] W. Fang, Z. Yu, Y. Chen, T. Huang, T. Masquelier, and Y. Tian, “Deep residual learning in Spiking Neural Networks,” arXiv [cs.NE], 2021.
[4] Y. Hu, L. Deng, Y. Wu, M. Yao, and G. Li, “Advancing spiking neural networks towards deep residual learning,” arXiv [cs.NE], 2021.
目前训练高性能SNN的方案主要有两个:
如果需要训练深层SNN,则需要解决两个问题:梯度消失/爆炸问题 和 神经元阈值与输入的平衡(不发放或过度发放)问题
本文的创新点: