反向传播

反向传播算法最全解读,机器学习进阶必看!arrow-up-right

Lwj=\frac {\partial L} {\partial w_j} =

efficient backprop

efficient backproparrow-up-right

initializing weights

一般激活函数是tanh或其他sigmoid函数, 若输出值在两端很平缓的部分,反向求导时导数非常小,使得weights的更新量很小,导致很难训练。所以尽量让sigmoid的输出在中间陡峭的地方。 之前看到的神经网络都是用tanh+最后一种。

三十分钟理解计算图上的微积分:Backpropagation,反向微分arrow-up-right

神经网络训练中的Tricks之高效BP(反向传播算法)arrow-up-right 反向传导算法arrow-up-right A Step by Step Backpropagation Examplearrow-up-right 深度学习方法(六):神经网络weight参数怎么初始化arrow-up-right

详解反向传播算法(上)arrow-up-right

离散优化代替反向传播:Pedro Domingos提出深度学习新方向arrow-up-right

Last updated

Was this helpful?