Softmax Vs Softmax loss
本文最后更新于:2021年1月8日 晚上
Softmax-loss layer:输出 loss 值
$L=-\sum{j} y{j} \log p_{j}$
layer {
name: "loss"
type: "SoftmaxWithLoss"
bottom: "ip1"
bottom: "label"
top: "loss"
}
Softmax layer: 输出似然值
$p{j}=\frac{e{j}^{o}}{\sum{k} e^{o{k}}}$
layers {
bottom: "cls3_fc"
top: "prob"
name: "prob"
type: “Softmax"
}
本博客所有文章除特别声明外,均采用 CC BY-SA 4.0 协议 ,转载请注明出处!