DenseNet(Facebook, CVPR, 2017)

  21 Oct 2017


论文: Huang G, Liu Z, Weinberger K Q, et al. Densely Connected Convolutional Networks[J]. 2016.

Github: https://github.com/liuzhuang13/DenseNet

论文算法概述

   文中提出一网络结构,DenseNet,其设计依据是网络越深则准确率越高,与靠近输入的层和靠近输出的层之间的连接越短则训练越高效。传统的L层卷积网络在层与层之间共有L个连接,而DenseNet(对于一个Dense Block)则会有L(L+1)/2个。其中每一层网络都以前面所有层的特征图进行concat拼接后作为输入,而该层所拥有的特征图都会作为随后所有网络层的输入,则每层都会直接连接到input和loss函数,由loss函数直接对input求偏导,这样设计有很多好处:1、减缓了梯度弥散的问题;2、加强了特征的反向传播过程;3、有助于特征重复利用;4、减少参数数量。

Dense connectivity

  1. 在ResNet中,残差结构的输入输出可以表示为。而DenseNet中则定义为,其中Hl(.)由BN + ReLU + conv3x3组成。

  2. 一个完整的网络由多个Dense Block组成,如figure2所示,每个block之间用被称为Transition layer的层进行衔接,内包含有conv和Pooling,在衔接的同时可改变特征图的大小.

  3. Bottleneck layers,Block内以前面所有层特征图concat后作为输入,则要防止网络变得太宽,需要对每层输出特征图个数进行限制。

  4. 将conv1x1作为bottleneck层放在每个conv3x3前面,以减少输入特征图个数。

  5. 进一步压缩,如一个dense block输出m个特征图,则令随后的transition layer输出Theta m个,其中0 < Theta <= 1。如Theta == 1时,则特征图个数不变。

  6. 有4中Bottleneck layers这样操作的为DenseNet-B;而有5中,Theta<1的网络称为DenseNet-C。二者都有的称为DenseNet-BC。

Experiments