深度学习中暂时没明白的地方
Backprop中利用下一层的误差计算前一层的误差,原理是?
利用微分的链式法则,具体推导先略过。Backprop计算出每一层的误差之后,如何对参数进行修正?
或者说,Backprop只是用来计算cost function errors of each layer?
cost function是由最后一层的组成的,但是为什么Backprop需要计算每一层的误差来得到误差矩阵呢?
Bagging data sets
Compared with using the whole data set, the source data set of bagging is the same, so why it works?