卷积

卷积(Convolution)是一种数学运算,常用于信号处理和图像处理领域,也在深度学习中的卷积神经网络(CNN)中发挥着关键作用。简单来说,卷积是通过在两个函数之间滑动并在每个位置上计算它们的积分来生成一个新的函数。

在图像处理中,卷积通常用于图像的特征提取。

卷积及卷积的性质与应用

卷积有一种模糊(粗粒度)的效果,这种模糊化(忽视掉一些不必要的细节,在加上 maxpooling 的存在,又会去捕捉最显著的特征,这种忽略次要目标,突出重要目标)。也就是 CNN 天然具有的性质,当其应用在 Text(文本处理)时,比如 fraud detection,欺诈检测,一个人抄袭别人的答案,但又机智地做了一些修改的动作(会被 conv,忽视),但一些核心的东西,两人之间一样的内容(执行 maxpooling 时),会被检测出来。

卷积的物理意义

卷积这个东东是“信号与系统”中论述系统对输入信号的响应而提出的。因为是对模拟信号论述的,所以常常带有繁琐的算术推倒,很简单的问题的本质常常就被一大堆公式淹没了,那么卷积究竟物理意义怎么样呢?

卷积神经网络的卷积核大小、个数,卷积层数如何确定呢?

卷积神经网络的卷积核大小、卷积层数、每层map个数都是如何确定下来的呢?看到有些答案是刚开始随机初始化卷积核大小,卷积层数和map个数是根据经验来设定的,但这个里面应该是有深层次原因吧?

如何理解卷积神经网络中的1*1卷积

我们都知道,卷积核的作用在于特征的抽取,越是大的卷积核尺寸就意味着更大的感受野,当然随之而来的是更多的参数。早在1998年,LeCun大神发布的LetNet-5模型中就会出,图像空域内具有局部相关性,卷积的过程是对局部相关性的一种抽取。 但是在学习卷积神经网络的过程中,我们常常会看到一股清流般的存在—1*1的卷积!

彻底搞懂CNN中的卷积和反卷积

卷积和反卷积在CNN中经常被用到,想要彻底搞懂并不是那么容易。本文主要分三个部分来讲解卷积和反卷积,分别包括概念、工作过程、代码示例,其中代码实践部分主结合TensorFlow框架来进行实践。给大家介绍一个卷积过程的可视化工具,这个项目是github上面的一个开源项目。