Batch Normalization 深度学习

Batch Normalization

卷积神经网络训练过程中,参数都会发生变化。为了使饱和的非线性激活函数能够训练,则要求使用较低的学习率和合适的参数初始化,这样就降低了训练的速度。这种现象也称为内部协变量转移。将批量标准化引入模型训练,...
阅读全文