什么是转置卷积(反卷积)?
转置卷积(Transposed Convolution)又称为反卷积(Deconvolution)。在PyTorch中可以使用torch.nn.ConvTranspose2d()来调用,在Caffe中也有对应的层deconv_layer。
转置卷积常常用于CNN中对特征图进行上采样,比如语义分割和超分辨率任务中。之所以叫转置卷积是因为,它其实是把我们平时所用普通卷积操作中的卷积核做一个转置,然后把普通卷积的输出作为转置卷积的输入,而转置卷积的输出,就是普通卷积的输入。这样说可能有点绕,我们可以参照CNN中的反向传播过程来理解,转置卷积形式上就和一个卷积层的反向梯度计算相同。
既然是输入输出对调,那么就有两个很重要的特性:
① 转置的卷积核变为了普通卷积核的转置;
② 如果把由输入特征图到输出特征图的计算过程画成一个计算图,那么输入输出元素的连接关系是不变的
关于第二点,也就是说,在普通卷积中,若元素a和元素1有连接(元素1由a计算得到),那么在相应的转置卷积中,元素1和元素a依然是有连接的(元素a由元素1计算得到)。
下面就基于此讨论一下我对转置卷积计算过程的一个理解。这并不是一个严格的推导,只是为了形象地帮助理解为什么要这样计算,或者说这个计算过程是怎么来的。然后再总结一下转置卷积输出特征图大小的计算。由于是自己的个人见解,难免有疏漏或理解不准确的地方,这里总结出来,希望大家一起来讨论。
普通卷积的计算过程
如下图:
这是一个卷积核大小为3x3,步长为2,padding为1的普通卷积。卷积核在红框位置时输出元素1,在绿色位置时输出元素2。我们可以发现,输入元素a仅和一个输出元素有运算关系,也就是元素1,而输入元素b和输出元素1, 2均有关系。同理c只和一个元素2有关,而d和1,2,3,4四个元素都有关。那么在进行转置卷积时,依然应该保持这个连接关系不变。
转置卷积(反卷积)的计算过程
根据前面的分析,我们需要将上图中绿色的特征图作为输入,蓝色的特征图作为输出,并且保证连接关系不变。也就是说,a只和1有关,b和1,2两个元素有关,其它类推。怎么才能达到这个效果呢?我们可以先用0给绿色特征图做插值,插值的个数就是使相邻两个绿色元素的间隔为卷积的步长,同时边缘也需要进行与插值数量相等的补0。
如下图:
注意,这时候卷积核的滑动步长就不是2了,而是1,步长体现在了插值补0的过程中。
一般在CNN中,转置卷积用于对特征图进行上采样,比如我们想要将特征图扩大2倍,那么就可以使用步长为2的转置卷积。但是且慢!为什么我们这里2x2的输入,只得到了3x3的输出呢?说好的扩大2倍呢?不应该是4x4么?
别急,我们来算一算为什么是3x3。
我们将2x2的特征图插空并在边缘补0后,边长变成了 2x2+1=5,使用3x3的卷积核做滑动步长为1的卷积,得到的特征图边长为(5-3+1)/1=3。所以我们只得到了3x3而非4x4的输出。那么在一般情况下,输出特征图的大小要怎么计算呢?
下面我们来总结一下。
输出特征图的尺寸计算
假设我们做转置卷积的输入特征图大小为 n×n ,卷积核大小为 k×k ,后面为了表示方便,我们直接使用边长来表示大小。
步长stride为 s ,那么转置卷积需要在四周每个边缘补0的数量为 s−1 ,边缘和内部插空补0后输入特征图大小变为
s×n+s−1;
使用大小为 k 的卷积核进行卷积(滑动步长为1),得到的输出特征图大小为:
(s×n+s−1−k+1)/1=s×n+(s−k)
可以看到,转置卷积并不是严格将输入特征图变为了s倍,而是还相差了个 s − k 。
这和PyTorch中的torch.nn.ConvTranspose2d()得到的结果是一致的。
版权声明:本文为CSDN博主「isMarvellous」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文地址:https://blog.csdn.net/isMarvellous/article/details/80087705,转载请注明出处。