您现在的位置是:首页 > 编程 > 

大改Yolo框架

2025-07-22 13:16:53
大改Yolo框架 计算机视觉研究院专栏使用常规深度神经网络到脉冲神经网络转换方法应用于脉冲神经网络域时,性能下降的很多,深入分析后提出了可能的解释:一是来自逐层归一化的效率低,二是用于leaky-ReLU函数的负激活缺乏表示。1.前言在过去的十年中,深度神经网络(Ds)在各种应用中表现出显著的性能。当我们试图解决更艰难和最新的问题时,对计算和电力资源的需求增加已经成为不可避免的。Spiking

大改Yolo框架

计算机视觉研究院专栏

使用常规深度神经网络到脉冲神经网络转换方法应用于脉冲神经网络域时,性能下降的很多,深入分析后提出了可能的解释:一是来自逐层归一化的效率低,二是用于leaky-ReLU函数的负激活缺乏表示。

1.前言

在过去的十年中,深度神经网络(Ds)在各种应用中表现出显著的性能。当我们试图解决更艰难和最新的问题时,对计算和电力资源的需求增加已经成为不可避免的。

Spiking neural networks(Ss)作为第三代神经网络,由于其事件驱动(event-driven)和低功率特性,引起了广泛的兴趣。

然而,S很难训练,主要是因为它们的神经元复杂的动力学和不可微的尖峰操作。此外,它们的应用仅限于相对简单的任务,如图像分类。

在今天的分享中,作者研究了S在一个更具挑战性的回归问题(即对象检测)。通过深入分析,引入了两种新的方法:channel-wise normalizationsigned neuron with imbalanced threshold,这两种方法都为深度S提供了快速的信息传输。因此,提出了第一个基于尖峰的目标检测模型,称为Spiking-YOLO

2.新框架贡献

尽管S有很多好处,但目前仅能处理相对简单的任务,由于神经元复杂的动态性以及不可导的操作,暂时没有一个可扩展的训练方法。D-to-S是近期广泛的S训练方法,该方法将目标D转化成S的中间D网络进行训练,然后转成S并复用其训练的参数,在小数据集分类上能达到不错的性能,但是在大数据集上分类结果不太理想 论文打算使用D-to-S转化方法将S应用到更复杂的目标检测领域中,图片分类只需要选择分类就好,而目标检测则需要神经网络进行高度准确的数字预测,难很多。在深入分析后,论文实现YOLO的转换主要面临以下两个问题:

  • 常用的S归一化方法过于低效,导致脉冲发射频率过低。由于S需要设定阈值进行脉冲发射,所以要对权值进行归一化,这样有利于阈值的设定,而常用的S归一化方法在目标检测中显得过于低效,后面会详细阐述
  • 在S领域,没有高效leaky-ReLU的实现,因为要将YOLO转换为S,YOLO中包含大量leaky-ReLU,这是很重要的结构,但目前还没有高效的转换方法

来自韩国的比较冷门或者前沿一点的文章,研究方向是脉冲神经网络(Spiking eural etworks)YOLO算法的融合,发现韩国人特别擅长对YOLO,SSD等算法进行魔改啊。

  • 提出一种在深度S中能够进行快速精确信息传输的Spiking-YOLO算法。这是第一次将深度S成功应用于目标检测任务的工作;
  • 为深度S开发了一种成为逐通道归一化的精细归一化技术。所提出的方法使得在多个神经元中更高的发射率成为可能,这促成了快速并且精确的信息传输;
  • 提出了一种新颖的方法,其特点在于具有不平衡阈值的带符号神经元,这些神经元让Ss中的leakyReLU得以实现。这给深度S应用于各种模型和应用创造了机会。

.新框架

Channel-wise data-based normalization

在S中,根据输入的幅度产生脉冲序列进行无损的内容传递是极为重要的。但在固定时间,激活过度或激活不足的神经元内将可能导致内容损失,这和临界电压

的设置有关。设置过高,神经元需要累积很长时间的电压才能发射脉冲,相反则会过多地发射脉冲。发射频率通常定义为

个timestep的脉冲发射总数,最大的发射率为100%,即每个timestep都发射脉冲:

为了防止神经元的激活过度和激活不足,权值和临界电压都需要精心地选择。为此,很多研究提出了归一化的方法,比如常用的Layer-wise normalization(layer-norm)。该方法通过该层的最大化激活值来归一化层的权值,如上公式,

为权重,

为输出特征图最大值。

经过归一化后,神经元的输出就归一到

,方便设定临界电压。由于最大激活值

从训练集得到的,所以测试集和训练集需要有相同的分布,但论文实验发现这种常规的归一化方法在目标检测任务上会导致明显的性能下降。

基于数据的逐通道归一化

传统的脉冲神经网络中,需要确保神经元根据其输入大小产生脉冲序列,其中权值和阈值电压分别负责神经元激活的充足度和平衡度,这会导致要么欠激活要么过激活,从而使信息丢失和性能不佳。

作者深入分析并证明了细粒度的通道正则化可以通过极小的激活来提高神经元的发射率。换句话说,非常小的激活被正确归一化,将在更短的时间内准确地传输信息。文章认为通道正则化的应用可以带来更快更准确的深度S,这将使深度S应用于更高级机器学习问题成为可能。

上图展示了通过layer-norm后的各层每个channel的最大激活值,蓝和红的线分别为每层的平均激活值和最小激活值。可以看到每层的归一化后的激活值偏差较大,总体而言,layer-norm使得神经元的channel偏向激活不足,这在仅需选择分类的图片分类任务是不被察觉的,但对于需要预测准确值的检测任务的回归则不一样。比如传递0.7,则需要在10个timestep脉冲7次,0.007则需要在1000timestep脉冲7次。当tempstep本身就很少时,过低的发射率可能会因发射不到足够的脉冲而导致信息丢失。

Proposed normalization method

整个流程如下:

具体的逻辑如上图和算法,channel-wise的归一化方法能够消除激活值特别小的问题,即得到更高但合适的发射频率,在短时间内也能准确地传递信息。

Signed neuron featuring imbalanced threshold

具有不平衡阈值特征的带符号神经元

引入了一种具有不平衡阈值(即IBT)的带符号神经元,它不仅可以对正负激活进行解释,还可以对leakyReLU负激活值区域的渗漏项进行补偿。如下图所示,作者增加了另外一个Vth负责对负激活响应。

其中,具有IBT的带符号神经元的基本动力学公式如下所示。

通过使用上述具有IBT的带符号神经元,可以在S中使用leakyReLU,从而将各种D模型转换为广泛应用的S。

4.实验结果与评估

作者使用Tiny YOLO的实时目标检测模型,在脉冲神经网络中实现最大池化层和B层。模型在PASCAL VOC2007和2012上训练,在PASCAL VOC2007上测试。所有代码基于Tensorflow Eager框架,在V100的GPU上进行实验。

文章通过实验的设计验证并分析了使用通道正则化和有符号神经元的IBT存在的用处。如下图所示,当通道正则化和有符号神经元都使用时,脉冲-YOLO能够达到51.61%的mAP,这个性能比较高了。

此外,逐层正则化的mAP仅仅46.98%,而通道正则化优势明显,收敛速度也更快。如果不使用本文提出的这两种方法,Spiking-YOLO无法检测目标,如果仅仅使用有符号神经元的话,mAP仅仅7.%,这表明有符号神经元可以补偿leakyReLU的不足项,并且在解决深度S中这种高数值精度问题中起着关键作用。

在上图中,作者还在两种输出编码方案上进行了额外的对比实验,一种基于累计Vth,一种基于脉冲数量。实验结果表明基于Vth的输出编码方案在解释尖峰序列时将更精确,也体现出收敛更快的特点。

实验的目的是无损地将Tiny-YOLO的转移为S,结果如上图所示,使用channel-norm和IBT能有效地提升性能,且使用的timestep更少。

作者尝试了不同的解码方式,分别为膜电压

和脉冲数

,由于脉冲数的余数要舍弃,这会带来误差和信息损失,所以基于膜电压进行解压会更准确。

5.总结

在今天分享中,作者提出了Spiking-YOLO,第一个S模型,通过在non-trivial datasets、PASCALVOC和MSCO上获得与原始D相似的结果来成功地执行目标检测。

我认为,这项研究代表了解决深度S中更高级的机器学习问题的第一步。

本文参与 腾讯云自媒体同步曝光计划,分享自。原始发表:2025-01-12,如有侵权请联系 cloudcommunity@tencent 删除yolo框架论文性能神经网络

#感谢您对电脑配置推荐网 - 最新i3 i5 i7组装电脑配置单推荐报价格的认可,转载请说明来源于"电脑配置推荐网 - 最新i3 i5 i7组装电脑配置单推荐报价格

本文地址:http://www.dnpztj.cn/biancheng/1184340.html

相关标签:无
上传时间: 2025-07-22 08:29:40
留言与评论(共有 11 条评论)
本站网友 ssdb
15分钟前 发表
1.前言在过去的十年中
本站网友 上海肛肠医院
6分钟前 发表
所以基于膜电压进行解压会更准确
本站网友 成都荷花池搬迁
11分钟前 发表
这在仅需选择分类的图片分类任务是不被察觉的
本站网友 产前检查时间表
17分钟前 发表
这将使深度S应用于更高级机器学习问题成为可能
本站网友 东大二手房
13分钟前 发表
1.前言在过去的十年中
本站网友 贵州茅台机场
16分钟前 发表
当tempstep本身就很少时
本站网友 雅然
15分钟前 发表
在小数据集分类上能达到不错的性能
本站网友 unlocked
30分钟前 发表
相反则会过多地发射脉冲
本站网友 北京韩国整形医院
30分钟前 发表
二是用于leaky-ReLU函数的负激活缺乏表示
本站网友 如何激光祛斑
12分钟前 发表
深入分析后提出了可能的解释:一是来自逐层归一化的效率低