Bootstrap

【Pytorch学习笔记】交叉熵损失函数CrossEntropyLoss的案例使用


前言

分类问题常用的损失函数为交叉熵(Cross Entropy Loss)。
交叉熵描述了两个概率分布之间的距离,交叉熵越小说明两者之间越接近
熵是信息量的期望值,它是一个随机变量的确定性的度量。
熵越大,变量的取值越不确定;反之,熵越小,变量取值就越确定。
本文将使用交叉熵损失函数用作一个简单案例,代码仅供参考学习!


提示:以下是本篇文章正文内容,下面案例可供参考

一、案例代码

1.引入库

代码如下(示例):

import torch
import torch.nn as nn
import numpy 
;