本文主要介绍了当前机器学习模型中广泛应用的交叉熵损失函数与softmax激励函数。
这个损失函数主要应用于多分类问题,用于衡量预测值与实际值之间的相似程度。
交叉熵损失函数定义如下: L C E ( y ^ , y ∗ ) = − ∑ i = 1 N c l a s s e s y i ∗ l o g ( y i ^ ) L_{CE}(\hat{y}, y^*) = - \sum_{i=1}^{Nclasses} y_i^*log(\hat{y_i}) LCE(y^,y∗)=−i=1∑
本文主要介绍了当前机器学习模型中广泛应用的交叉熵损失函数与softmax激励函数。
这个损失函数主要应用于多分类问题,用于衡量预测值与实际值之间的相似程度。
交叉熵损失函数定义如下: L C E ( y ^ , y ∗ ) = − ∑ i = 1 N c l a s s e s y i ∗ l o g ( y i ^ ) L_{CE}(\hat{y}, y^*) = - \sum_{i=1}^{Nclasses} y_i^*log(\hat{y_i}) LCE(y^,y∗)=−i=1∑
道可道,非常道;名可名,非常名。 无名,天地之始,有名,万物之母。 故常无欲,以观其妙,常有欲,以观其徼。 此两者,同出而异名,同谓之玄,玄之又玄,众妙之门。