深度学习 Batch Normalization 卷积神经网络训练过程中,参数都会发生变化。为了使饱和的非线性激活函数能够训练,则要求使用较低的学习率和合适的参数初始化,这样就降低了训练的速度。这种现象也称为内部协变量转移。将批量标准化引入模型训练,... qlmx 54文章 2评论 更多 02月08日 480 评论 阅读全文
评论