深度学习—常见问题总结(调优方法)
demi 在 周四, 11/15/2018 - 09:26 提交
1、为什么要用神经网络?
对于非线性分类问题,如果用多元线性回归进行分类,需要构造许多高次项,导致特征特多,学习参数过多,从而复杂度太高 。
在神经网络中引入激活函数一个重要的原因就是为了引入非线性。
2、CNN基本问题
层级结构:输入层->卷积层->激活层->池化层->卷积层->激活层->池化层->全连接层····
(1)输入层数据预处理:去均值;归一化;PCA/白化;
去均值:即0均值化,CNN常用,训练集所有像素值减去均值,把输入数据各个维度中心化到0,测试集也减相同的均值;
目的:(1)数据有过大的均值可能导致参数的梯度过大,在梯度回传时会有一些影响;(2)如果有后续的处理,可能要求数据0均值,比如PCA。
归一化:幅度归一化到同样的范围;
目的:为了让不同维度的数据具有相同的分布规模,方便操作,图像一般不需要。
PCA/白化:降维,白化是对PCA降维后的数据每个特征轴上的幅度归一化;