CNN学习笔记-局部连接&权值共享

CNN学习笔记-局部连接&权值共享

局部连接

局部连接(Sparse Connectivity)是CNN的一个重要特征。
输出feature map中的每一个结点对应的不是前一层的全局信息,而是局部信息,这是通过CNN中的kernel滑动窗口实现,这个窗口也叫做感知野(receptive field)
因此CNN中低层网络识别的是低级局部特征,通过中层和高层网络再将局部特征逐步整合成全局特征。
局部连接启发于生物识别系统,这是因为对外界的感知是从局部到全局。
局部连接不仅有利于特征的整合,也大大减少了参数量。

CNN学习笔记-过拟合&局部最优

CNN学习笔记-过拟合&局部最优

过拟合问题

过拟合问题是由于样本集太小等种种原因,使得模型过度的学习,以至于不仅无法学习到新的特征,反而把某些图片特有的特征当作共性,从而导致整个模型的准确率下降甚至崩溃。例如在识别树叶的过程中,如果存在过拟合问题,可能会把某一片具有锯齿形的叶子过度学习,从而得出只有锯齿形的才是叶子,显然这是错误的。模型过分的拟合了某些数据,使得整个模型的识别能力下降。
过拟合通常通过数据增强,L1,L2正则化,交叉验证方式,适当的时间终止模型训练, dropout等诸多方法解决。

论文阅读笔记-Spatially Variant Linear Representation Models for Joint Filtering

Spatially Variant Linear Representation Models for Joint Filtering

针对联合滤波的空间变化线性表征模型

预备知识

高低频信号

在图像处理中,高频信号往往指的是频率变化范围较大的信号,指图像中的边缘信息或者噪声信息。而低频信号指的是图像的图像的轮廓和背景信息等
所以如果要进行图像模糊处理,那么应该使用低通滤波,去除图像中的高频信息,因此会抑制图像的边缘信息。
如果要进行图像增强,那么应当提取图像中的高频信息从而增强图像的边缘效果。

CNN学习笔记-模型衡量参数

CNN学习笔记-模型衡量参数

计算量

CNN的计算量通常用乘加数(Multi-Add)来表示,与输入输出图尺寸有关,通常卷积层的占比最大。

卷积层

假设kernel-size为\(k \times k \times C_{in}\),数量为\(C_{out}\)。输入feature map尺寸为\(H_{in} \times W_{in} \times C_{in}\),输出feature map尺寸为\(H_{out} \times W_{out} \times C_{out}\)
那么Multi-Add为\((k \times k \times C_{in} + k \times k \times C_{in}-1) \times (H_{out} \times W_{out} \times C_{out}) = (2 \times k \times k \times C_{in} -1) \times (H_{out} \times W_{out} \times C_{out})\)    (不考虑bias的情况)
若考虑bias,则Multi-Add为\((k \times k \times C_{in} + k \times k \times C_{in}) \times (H_{out} \times W_{out} \times C_{out}) = (2 \times k \times k \times C_{in}) \times (H_{out} \times W_{out} \times C_{out})\)

CNN学习笔记-批标准化

CNN学习笔记-批正则化(Batch Normalization)

批标准化(Batch Normalization)

解决Internal Covariate Shift问题

IID:独立同分布(independently identically distribution),指的是随机变量服从同一分布,并且互相独立,那么这些随机变量是独立同分布。
然而网络层数的增加,每一层的输入分布就会改变,从而不符合IID假设,网络也很难学习到稳定的科学规律,因为每一层针对的都是新的数据分布,只能通过很小的学习速率和精调的初始化参数来解决这个问题。
由于现在的CNN通常包含很多的隐藏层,在训练过程中每一层的分布都会发现变化,因此CNN中的每一层网络都会发生协变量偏移(Covariate Shift)问题。由于是对中间隐藏层的分析,所以叫做内部协变量偏移(Internal Covariate Shift)
为了使每一层的输入分布固定下来,提出了Batch Normalization

|