一文看尽深度学习的20种卷积(二)

频道:生活应用 日期: 浏览:57

代码:

这个网址指向一个GitHub上的Python文件,文件名为Asymmetric Convolution.py,属于Convolution项目,由CVHuber创建和维护。

背景

构建针对特定用途的卷积神经网络模型往往需要耗费大量人工精力,或者需要漫长的GPU计算周期,产业界也在探索如何让卷积神经网络结构更容易融入现有的成熟框架,以此增强它们在具体工作场景中的表现能力。因此,不对称卷积模块的设计初衷是为了借助现有成熟组件,打造性能更优的网络架构,并且在不耗费更多资源的前提下,实现模型识别能力的增强。

Octave Convolution_Asymmetric Convolution_卷积在生活应用

原理

非对称卷积的基本思路是,把原始卷积拆分成几部分,分别使用正方形核、水平核和垂直核进行卷积,然后把这三个分支的输出结果加在一起。这样做,既能够保持结果的精确度,又能减少参数和计算量,实际上运用了前面所说的空间可分离卷积的方法。

特性无缝衔接

非对称卷积仅需少量调节参数,就能轻易与其他构造方式融合,无需进行细致调整,它凸显了增强标注卷积核在特征展现方面的强大能力。

无损提精

运用非对称式卷积,无需增添更多推演时间或运算负担,能够显著提升网络准确度,并且加强模型面对旋转变形物体时的稳定表现。

改进

原作者于2021年CVPR大会上又推出了ACN v2版本,其中设计了一种名为Diverse Branch Block的单元,该单元创新性地融合了Inception模型的多分支、多粒度处理理念与过参数化技术,是一种能够增强CNNs效能且不增加推理时间的通用构造单元。

OctaveConv

坡国立大学与奇虎360的科研人员合作完成的一篇论文,题目为《降一个八度:通过八度卷积减少卷积神经网络的空间冗余》,该文已获ICCV 2019会议录用,并发表于该会议的论文集中

代码:

该网址指向一个名为 Convolution 的 Python 文件,位于 GitHub 上的 CVHuber 组织中,具体路径包含 Octave Convolution 字样

讲解:

那个网址是个微信公众号文章链接,内容比较长,需要耐心看,里面提到了很多信息,值得仔细研究,特别是对某些话题的解读,很有启发性,如果时间允许的话,可以慢慢品味,绝对不虚此行

背景

自然图像里的信息通过不同频段传送,高频部分往往承载着细微纹理特征,低频部分则体现整体构造特点。类似地,卷积神经网络的输出特征图,实际上也是多种频率信息叠加融合的结果。这项研究中,研究者建议将复合特征依据其频度进行拆分,并构思了一种创新性八度卷积机制,用以保存和运算空间细节度较低且空间差异较缓的图像信息,借此削减了存储和运算开销。与当前多层级技术有所区别,OctConv被构建成一个独立、通用、可即换的卷积构造,能够直接替代常规卷积,且无需对网络构造实施任何修正。Octave原本意指八度音程,在音乐领域象征着音高频率减半的概念,因此命名为Octave卷积,其设计初衷是为了通过将数据中的低频部分缩小一半,从而提升卷积运算的效率。

卷积在生活应用_Asymmetric Convolution_Octave Convolution

原理

Octave Convolution_卷积在生活应用_Asymmetric Convolution

常规卷积运算中,输入与输出特征图的空间分辨率保持一致。但相关研究指出,自然图像能够分解为反映整体布局和粗略结构的低频信号,以及捕捉精细细节的高频信号。相应地,卷积运算产生的特征图也应包含一个映射子集,该子集能够捕捉空间低频变化,并且含有空间冗余信息。为了降低空间上的多余信息,采用了Octave特征表达方式,这种表达方式明确地将特征映射张量拆分成代表低频成分和代表高频成分的几部分,尺度空间理论为我们提供了建立空间分辨率等级体系的一种基本思路,按照这种思路可以界定低频和高频空间,具体做法是使低频特征图的空间清晰度下降一个Octave

特性提高效率

低频特征图里混入了大量无用背景信息,所以可以把它空间分辨率降到原本的一半,以此削减多余的空间数据,这也表示网络运算负担会随之减轻,最终能提升网络运算速度。

提高精度

压缩低频分辨率实质上使感受野增加了一倍,这对每个OctConv层捕捉更远距离的上下文数据大有裨益,进而有助于提升识别准确度。不仅如此,作者在更新频段信息的同时,还针对高低频特征实施了各自的升缩处理,借此促成不同频段间的信息交换,从而在一定程度上有助于增强模型性能。总体而言,OctConv借助更为精炼的特征编码来保存和运算网络内所有数据,以此获得更优的运作效能与工作成果。

HetConv

该论文题目为《HetConv:面向深度卷积神经网络的异构核卷积》已被CVPR 2019会议录用

代码:

这个网址指向一个名为Heterogeneous Convolution的Python文件,它位于Convolution的仓库中,该仓库由CVHuber维护,托管在GitHub平台上

讲解:

那个链接是个微信公众号文章地址,内容比较长,需要拆分成多个小分句来阅读,比较麻烦,但是信息量很大,值得一看,可以学到很多东西,适合对相关话题感兴趣的人。

背景

提升卷积神经网络的准确率最常见的方法是构建更宽阔或更复杂的网络结构,不过这种做法会显著增加运算负担。为了有效控制运算开销,当前领域普遍采用三种滤波技术,分别是按层卷积、逐点卷积和分组卷积。尽管这些技术能够帮助降低成本,但开发全新网络体系需要投入大量研究精力,目的是筛选出最优的滤波器搭配方案,最终实现运算负担的最小化。采用模型压缩手段也能有效优化模型性能,具体措施包括连接去除、过滤器精简以及数值压缩,目的是显著降低运算开销。与此类方法不同,异构卷积的核心思路是研发新型卷积核,以此在维持高精度的前提下,大幅削减计算负担,并且确保响应时间足够短。

卷积在生活应用_Asymmetric Convolution_Octave Convolution

原理

如图所见,异构卷积的构造方式较为简便,具体为部分输入特征图的通道采用k×k的滤波器,其他通道则使用1×1的滤波器,P值用于调节k×k滤波器的占比。

特性

卷积在生活应用_Octave Convolution_Asymmetric Convolution

图中对比了各种卷积方法的延时表现,可以看出第一种和第二种都属于两阶段卷积,仅含一个延时环节,并且也是当前轻量级卷积普遍采用的方案。新方法同传统卷积一样具有零延时特性。因此,从构造角度来看开元ky888棋牌官网版,新方法相较于主流轻量级卷积的计算开销要小。

CondConv

该论文题目为《CondConv:一种条件参数化卷积方法以实现高效推理》,已被2019年神经信息处理系统大会接收

代码:

在GitHub上有一个名为Convolution的仓库,里面有个文件叫Conditionally Parameterized Convolutions.py

讲解:

那个网址是一篇微信公众号文章的链接,它分享了一些关于个人成长和职场发展的内容,文章中提到了如何通过不断学习和提升自己,来获得更好的职业机会,同时也强调了心态调整和人际交往的重要性,对于想要在职场上有所突破的人来说,这些观点具有一定的参考价值

背景

常规卷积对每一个样本都使用一致的卷积核设置,这就造成为了增强模型的表现力,就必须扩充模型的参数规模。所以,加深网络层次,提升特征通道数量是一种普遍采用的方法,但这会使得模型运算负担更加沉重,给实际应用带来更显著的困难。因此研发了CondConv方法,该方案为每个批次里的单个数据实例生成专属的滤波装置,在增强网络参数规模的同时依然维持了快速的运算效能。

卷积在生活应用_Octave Convolution_Asymmetric Convolution

原理

常规卷积里,卷积核参数一旦训练完成就固定不变,任何测试样本都会用这组固定参数来提取特征信息。但CondConv不同,它的卷积核参数能根据输入样本实时调整变化。另外,普通卷积要增加模型能力,必须通过增大卷积核面积和增加输入通道数量来实现。在CondConv方法里,只要在实施卷积运算之前,便能让好几个专家针对输入数据计算带权重的卷积核,这样就能完成操作。本质层面,CondConv跟多个固定卷积的相加组合没什么区别。

特性

CondConv借助扩充核心生成函数的体量与构造,借助数据样本间的内在联系,优化了模型的运作效能,它为在扩充模型存储容量的同时确保高效运算,开拓了新的途径。因为新增的复杂程度仅在于一个权重向量用以表现卷积核的线性整合,所以比起增设其他卷积或是扩展既有卷积,其增加的负担要小得多。CondConv层能够替换网络里的任何卷积层,以此提升网络表现,并且具备即插即用的特性。此外,该层也很容易推广至网络中其它线性运算上,比如全连接层里的线性运算,为改进方法带来新启示。

DynamicConv

文章《动态卷积:卷积核上的注意力机制》已被CVPR 2020录用

代码:

这个网址指向一个名为动态卷积的 Python 脚本文件,它位于 GitHub 上的 CVHuber 组织的 Convolution 仓库中

讲解:

链接地址为https://mp.weixin.qq.com/s/zyhZvQXBoadA1m762s2B9g

背景

小型卷积网络在减少运算需求的同时,也降低了模型的运作效能和解析能力。因此,研发了可变卷积技术,这种技术不同于常规的固定卷积(每层仅使用一个卷积核),它依据注意力机制动态组合多个卷积核,不仅大幅增强了模型的解析性能,其增加的运算负担也很轻微,所以特别适合高效的卷积网络,并且能够方便地融入现有的卷积网络设计中。

Octave Convolution_卷积在生活应用_Asymmetric Convolution

原理

动态卷积的运作方式是依据输入的图像,灵活地改变卷积的参数设定。比如图中展示,固定的卷积核对各类输入都执行相同操作,动态的卷积核则会根据输入的差异,精准地选用不同的卷积核,并匹配适宜的卷积参数来完成特征提取的任务。

特性权重自适应

动态卷积借助注意力机制来动态地组合多个并行的卷积核功能。首先对输入执行注意力运算,随后得到各个卷积核的对应系数,再将这些系数施加到不同的卷积核上,从而完成卷积核的动态筛选过程。

Asymmetric Convolution_Octave Convolution_卷积在生活应用

背景

动态卷积的训练过程中存在一个挑战,那就是当网络层数增加时开yun体育app入口登录,如何让不同的卷积核和注意力机制能够同步进步。研究者发现,要降低注意力模块的学习难度,就必须控制其输出值的范围,确保各项权重的总和恒等于一个。其次,在训练初始阶段,让注意力较为平均地散开,能帮助不同的卷积核一起进步,因此设计了用温度退火的方法,来提高模型的精确度。

Octave Convolution_卷积在生活应用_Asymmetric Convolution

内存计算开销

动态卷积涉及两大主要成本,即注意力运算和卷积核组合。注意力部分由全局平均池化和两个全连接层构成,其运算负担较轻。多个卷积核叠加时,因为它们尺寸不大,运算复杂度同样不高。综合来看,动态卷积仅增加了轻微的计算负担,却大幅提升了特征提取能力。但是,因为运用了众多卷积核同时工作,内存的消耗会大幅度增加。

Ghost Block

文章《GhostNet:通过廉价运算获取更多特征》被CVPR 2020录用

代码:

这段代码来自一个名为CVHuber的GitHub用户上传的Convolution仓库中,具体文件名为Ghost Convolution.py

讲解:

链接地址在此,请查阅,内容值得一读,信息量丰富,值得分享,希望对您有帮助。

背景

大家普遍认为,叠加多个卷积层能够获取大量特征数据,这些数据中混杂着不必要的重复内容,这有助于网络更透彻地分析信息。所以,可以用标准的卷积方法提取核心特征,对于那些重复的特征,则借助成本更低的线性变换技术来处理,这种方式不仅能够显著减少模型运行时所需的计算能力,而且构造简单、方便应用,能够直接集成到现有系统中。

卷积在生活应用_Asymmetric Convolution_Octave Convolution

原理

幻影卷积的主要理念在于借助基础的线性转换来达成所需特征图的等效生成,无需借助额外的滤波器实现,以此提升网络的运算效能。

特性

卷积神经网络里,核心的参数消耗和运算负担集中在卷积构造上,通过卷积能够形成新的特征图,不过并非所有特征图都存在显著差异。借助可视化手段可以发现,众多特征图之间展现出高度相似性,这类特征图完全无需借助卷积产生,转而采用基础的线性运算即可实现替代,以此在维持相近准确率的前提下,大幅降低参数和运算的需求。Ghost模块采用分组卷积实现成本更低的线性转换,这种卷积方法能够切断不同通道间的相互联系,让每个通道的特征只与其自身存在关联,既模仿了冗余特征的产生途径,又大幅降低了参数数量和运算负担。

SCConv

该论文题目为《通过自校准卷积改进卷积网络》,已被CVPR 2020会议录用

代码:

这个网址指向一个名为Self-Calibrated Convolution的Python文件,它位于GitHub上的CVHuber的Convolution仓库中

背景

深度学习网络的最新发展着重于构建更为精密的构造,旨在提升其特征捕捉能力。一种自适应的卷积方法能够在不改变整体网络布局的前提下,优化标准卷积操作,借助内部信息传递开元棋官方正版下载,大幅拓宽了每个卷积单元的作用范围,进而增强了最终结果的多样性。尤其,与常规卷积通过小卷积核合并空间及通道维度信息不同,自校准卷积能在每个空间点自适应构建长距离空间与通道依赖性的校准机制。所以,它借助明确整合更详尽信息,可有效辅助CNN生成更具判别力的表征。

卷积在生活应用_Asymmetric Convolution_Octave Convolution

原理

自校正卷积的主要理念是在不改变网络结构的前提下优化卷积神经网络的特征提取流程。这种技术本质上是一种分组卷积,专门用于多尺度特征获取,将输入通道平均分成两个部分。一个分支执行标准的卷积运算来提取信息,另一个分支则通过降采样方法来扩大网络的感受区域。最后让所有位置点都能借助整合两个不同尺度空间的信息来完成自我校正的过程。

特性增强特征表达能力

自校正卷积与常规卷积不同,后者会合并空间维度和通道维度数据,前者则借助自校正机制,能够自适应地构建空间位置间的长距离空间联系以及通道间的依赖性,借此产生更具区分度的特征,并获取更充裕的上下文细节。

即插即用

这种自校准卷积方法构造简单,适用性广,能够方便地置入各种卷积神经网络模型里,用以提升卷积层分析图像特征的功效,并且不会增加新的参数数量,不过其缺点是无法避免地会导致整个网络运算负担加重。

DO-Conv

网友留言(0)

评论

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。