转载自:https://blog.csdn.net/genous110/article/details/89456323,本文只做个人记录学习使用,版权归原作者所有。
nn.CrossEntropyLoss()是nn.logSoftmax()和nn.NLLLoss()的整合,可以直接使用它来替换网络中的两个操作。
所以可以得到下面的结论:
下面解释一下上面的第一个公式,loss(x,class)= …, 这个公式。
pytorch损失函数之nn.BCELoss()(为什么用交叉熵作为损失函数)(转)