OMSCS-DL课程笔记06-Convolutional Neural Network Architectures

 

这个系列是Gatech OMSCS 深度学习课程(CS 7643: Deep Learning)的同步课程笔记。课程内容涉及深度学习的基本理论方法以及它在计算机视觉、自然语言处理以及决策理论等领域中的应用,本节主要介绍卷积神经网络的结构。

Backwards Pass for Convolution Layer

在上一节中我们介绍过卷积层的定义以及前向传播过程,而对于神经网络来说只知道前向传播是不够的,我们还需要了解卷积层的反向传播过程。首先我们来回忆一下卷积的前向传播,对于输出特征图上的每一点$y[r, c]$我们提取输入图像上的窗口$x[r:r+k_1, c:c+k_2]$然后和卷积核$k$进行内积计算作为卷积的输出值。

因此对于输出特征图上的每一点$y[r, c]$它只包含线性运算。当我们已知损失函数对于输出层的导数$\frac{\partial L}{\partial y}$时,就可以利用线性运算的反向传播公式来计算损失函数$L$关于输入$x$和卷积核$k$的导数。

Gradient for Convolution Layer

首先来考虑输出特征图关于卷积核的导数。由于特征图$y$上每一个像素都是使用同一个卷积核$k$进行计算得到,我们需要计算$y$上每个像素关于卷积核的导数$\frac{\partial y[r, c]}{\partial k}$并把它们加起来作为卷积核的导数。

具体来说,损失函数关于卷积核的导数$\frac{\partial L}{\partial k}$可通过上游的导数$\frac{\partial L}{\partial y[r, c]}$以及局部导数$\frac{\partial y[r, c]}{\partial k}$相乘来获得。由于卷积核$k$参与了$y$上所有像素值的计算,我们还需要再对$y$上的所有像素求和才能得到最终的导数。

由于卷积是线性变换,我们可以进一步把局部导数$\frac{\partial y[r, c]}{\partial k}$代换为输入图像对应位置的像素值。这样不难发现损失函数关于卷积核的导数等于上游导数与输入图像的卷积(相关)。

接下来考虑输出特征图关于输入特征图的导数。类似于计算卷积核导数的过程,我们同样需要对输出特征图上的导数进行求和,不过对于输入特征图上的像素$x[r, c]$我们只需要考虑它的邻域即可。

我们同样对求和公式进行变形,可以发现损失函数关于输入特征图的导数等于上游导数与卷积核的卷积。

Simple Convolutional Neural Networks

Combining Convolution & Pooling Layers

我们把卷积层和池化层也加进神经网络中就得到了卷积神经网络(convolutional neural networks, CNN)

典型的CNN通常还包括全连接层(fully connected layers)作为最终的分类器,这样整个网络可以理解为将图像输入到卷积层中提取特征然后利用全连接层对提取到的特征进行分类。

CNN中一个常见的概念是感受野(receptive fields)。随着卷积层和池化层的增加特征图的长和宽尺寸会不但减少,因此特征图上每一个像素对应输入图像的区域会不断增加。这个对应的区域称为”感受野”。

LeNet Architecture

这样的网络结构可以追溯到80年代的LeNet,当时研究人员就提出了这种结构的CNN来进行手写数字和字母的识别。

由于CNN具有平移不变性和一定程度的旋转不变性,LeNet对于输入图片的几何变换都有比较好的适应性。

Advanced Convolutional Networks

AlexNet

现代CNN的流行始于2012年,当时AlexNet以巨大优势击败了传统人工特征+分类器的图像识别方法,从此基于CNN的模型成为了计算机视觉和图像识别领域的主流方法。

整体来看AlexNet与LeNet在结构上的差异不大,但AlexNet使用了更加先进的激活函数以及一些现代的正则化方法,同时在大规模训练数据以及数据增强技术的加持下AlexNet超越了所有的传统图像识别方法。

VGG

在AlexNet基础上人们还提出了各种各样的网络结构,比较经典的是VGG网络。和AlexNet相比,VGG包含更多的层数也因此有着更好的性能。

Inception Architecture

同时人们还发现一味增加网络深度有时并不会提高模型的性能,因此在GoogLeNet中提出了inception module这样的单元来提取图像特征。inception module的核心是在一个层中包含多个不同尺寸的卷积核,这样就可以提取到同一输入下不同尺度上的特征并加以融合。

Residual Blocks and Skip Connections

为了解决训练深层网络十分困难的问题,人们提出了残差连接这样的结构形式。它的核心是在卷积后将输出特征图像与输入特征图像相加,这样使得输入特征总是可以得到来自输出特征的导数,从而避免了梯度消失的问题。

Evolving Architectures and AutoML

近年来还涌现了一些基于进化算法以及强化学习的自动化网络设计方法,一些研究指出这类自动化网络设计方法可以超越以往的人工设计网络。除了寻找性能更好的网络结构外,一些研究还试图在保证性能的基础上减少模型的复杂度从而得到更高效的网络结构形式。

Transfer Learning & Generalization

Generalization

模型的泛化能力(generalization)是机器学习最关心的指标。当我们训练好模型并应用在使用真实的数据上时误差的来源包括一下三个部分:

  • optimization error: 模型的训练过程中可能无法保证完全没有误差
  • estimation error: 即使模型在训练数据上完全没有误差,模型可能会发生过拟合
  • modeling error: 模型学习到的假设可能不适用于真实的数据

对于比较简单的模型,optimization error和estimation error一般都会比较小;但此时模型的表达能力有限可能无法学习到合适的假设,进而导致比较大的modeling error。

而对于更加复杂的模型,充分训练后往往可以学习到足够好的假设使得modeling error会比较小;但相对地模型的训练会更加困难,也更容易发生过拟合的现象。

Transfer Learning

很多现实中的机器学习任务都没有大量标注的数据,在这样的情况下可以考虑使用迁移学习(transfer learning)的方式来训练模型。迁移学习的基本思想是使用在大规模数据集上训练好的模型来进行初始化,然后在给定的数据集上进行微调从而加速模型的训练过程。常用的迁移学习方法是使用预训练的模型参数,然后将网络的最后一层换成一个新的全连接层,最后在训练模型时对模型进行微调或是固定卷积层的参数只对最后的全连接层进行更新。

目前已经有大量的实践证明了这种预训练模型的有效性,而且人们还发现这样预训练出来的模型参数不仅可以提升图像识别的效率,对于一些其它的视觉任务也有很大的帮助。

当然这种迁移学习的方法也不是万能的。如果训练数据集和预训练的数据集相差太多迁移学习的效果就不会很好,而如果训练数据集上有足够多的数据迁移学习则可以加速模型的收敛过程。

目前深度学习中还有很多相关的领域去研究如何解决缺少数据标注的问题。