Sum

Loading

DIFFERENT TYPES OF CRYPTO COINS

在23与24年交替之际,本站正式建立!在踏入计算机领域后,我一直想拥有一个自己的网站,在互联网上留下属于我的独一无二的足迹。然而,对前途的迷茫和彷徨使我的想法一拖再拖,直到此刻…..

立足当下,回顾过去,展望未来。

INURL:COINBASE-SUPPORT

GAU

原文传送门

CRYPTO TAXES CALCULATOR

  • 设计了一个基于注意力机制的即插即用的脉冲编码模块

  • 主要对比对象为直接编码方案

  • 相比之前的网络,在CIFAR100提升了正确率,并降低了时延与能耗

CRYPTO FRAUD CASES

将静态数据编码为具有时序特征的脉冲集合,目前常见的编码方案包括:

  • 时间编码(temporal coding) 将具体的数据编码为脉冲发放的具体时刻

  • 相位编码(Phase coding) [1] 有权脉冲

  • 频率编码(rating coding) 将数值编码为脉冲发放率,但其需要较长的模拟时间以确保高的分辨率

  • 直接编码(direct coding) 具体数值直接输入网络,其编码由第一层[Conv-BN-LIF]完成。其需要在每个时间步重复这个操作,因此回产生周期性的相同输出,从而未充分利用后续SNN架构的时空提取能力,增加了神经形态硬件的能耗

ADS CRYPTO

注意力机制最初是为了提升sequence-to-sequence任务的性能,通过有效地过滤掉分散注意力的噪声,该机制有助于更高效的进行数据处理,从而提高性能。然而,由于神经形态硬件的核心特征之一为使用稀疏加法降低计算功耗,这给注意力块集成到SNN架构中带来了挑战,因为它需要在后续层中创建大量乘法块来动态计算注意力得分。 本文将注意力机制限制在编码层,后续的SNN结构仍然可以保持spike-driven特性。这种方法有望在神经形态硬件上实现更可行的SNN,因为它缓解了整个体系结构中动态注意力机制引起的不兼容性。

CRYPTO TRADING FUND

MICA CRYPTO

本文采用的为经典的迭代LIF模型:

HEX CRYPTO PRICE PREDICTION

输入数据维度为 [T,C,H,W],模块主要分为三个部分:

  • Temporal Attention 建立SNN输入之间的时间关系,在后三维进行最大以及平均池化,并使用共享的WnRTr×TWmRT×Tr提取特征,得到一个T维的向量 M. 其中 r 是管理其计算开销的缩减因子

  • Spatial Channel Attention

    在 每个时间步使用共享的卷积核获取空间通道矩阵 NN=[NN1,NN2,...,NNt]RT×C×H×W

  • Gating

    为了提取SNN的输入的时空信道动态特征,首先将时间向量MM广播到RT×1×1×1,并对上述结果进行门控:

    FG(XX)=σ(MMNN)

    其中 σ 为Sigmoid function, 为Hadamard积

SIA CRYPTO

编码过程:

OO=FG(fk×k(XX))LIF(fk×k(XX))

f 是一个共享权重的卷积操作,GAU可以融合时空信道信息,以获得更好的编码特征表达能力;值得注意的是,这里的描述与图片不对应

 

CRYPTO.COM SAFE

训练采用STBP,最后一层充当解码层(对于每一个时间步求和取平均)

CRYPTO ARENA LOS ANGELES

文章使用了大量的篇幅争对GAC和直接编码进行了理论证明,简单来说,作者的核心观点为:GAC拥有更长的动态时间。这里的动态时间是指一段时间内,编码得到值互不相同,如下图,对于直接编码,在第3个时间步已经出现相同的编码图像,因此其动态时间为2。

file

CRYPTO VIDEO

COINBASE SITE IS DOWN

  • Spiking-ResNet:膜电位和脉冲之间的shortcut [2]

  • Spike-Element-Wise (SEW) ReNet:不同层输出spike之间的shortcut [3]

  • Membrane Shortcut (MS) ResNet:不同层神经元膜电位之间的shortcut [4]

 

 

[1] J. Kim, H. Kim, S. Huh, J. Lee, and K. Choi, “Deep neural networks with weighted spikes,” Neurocomputing, vol. 311, pp. 373–386, 2018.

[1] J. Kim, H. Kim, S. Huh, J. Lee, and K. Choi, “Deep neural networks with weighted spikes,” Neurocomputing, vol. 311, pp. 373–386, 2018.

[2] Y. Hu, H. Tang and G. Pan, “Spiking Deep Residual Networks,” in IEEE Transactions on Neural Networks and Learning Systems, vol. 34, no. 8, pp. 5200-5205, Aug. 2023, doi: 10.1109/TNNLS.2021.3119238.

[3] W. Fang, Z. Yu, Y. Chen, T. Huang, T. Masquelier, and Y. Tian, “Deep residual learning in Spiking Neural Networks,” arXiv [cs.NE], 2021.

[4] Y. Hu, L. Deng, Y. Wu, M. Yao, and G. Li, “Advancing spiking neural networks towards deep residual learning,” arXiv [cs.NE], 2021.

DAILY TRADING CRYPTO REDDIT

AAAI 2021

DOES COINBASE SUPPORT BEP20

目前训练高性能SNN的方案主要有两个:

  • 对已经训练好的ANN进行转化。这种方式能得到和ANN大致相同的精度,但是需要数百个时间步长进行模拟。大量的时间会增加延迟和计算量,这是一个比较致命的缺陷。
  • 另一个则是基于梯度下降的直接训练。受BPTT算法的启发,STBP被提出用于直接训练SNN。但是由于反向传播中时间维度和空间维度的大幅度展开,会造成严重的梯度消失/爆炸(vanishing or explosion)问题,因此其适用于浅层网络。这也是本文想要解决的问题。

如果需要训练深层SNN,则需要解决两个问题:梯度消失/爆炸问题神经元阈值与输入的平衡(不发放或过度发放)问题

本文的创新点:

  • 一种新的归一化方案(依赖于阈值)
  • 调整残差网络结构以适应SNN