今天是打卡的第七天,今天学习了函数式微分的概念,然后学习MindSpore中提供的方法,函数与计算图(根据计算图构造计算函数和神经网络),微分函数与梯度计算、Auxiliary data、Stop Gradient、神经网络梯度计算。
今天学两课,另一篇是模型训练的四个步骤:构建数据集;定义神经网络模型;定义超参、损失函数及优化器;输入数据集进行训练及优化器。
函数式自动微分
模型训练
今天是打卡的第七天,今天学习了函数式微分的概念,然后学习MindSpore中提供的方法,函数与计算图(根据计算图构造计算函数和神经网络),微分函数与梯度计算、Auxiliary data、Stop Gradient、神经网络梯度计算。
今天学两课,另一篇是模型训练的四个步骤:构建数据集;定义神经网络模型;定义超参、损失函数及优化器;输入数据集进行训练及优化器。
函数式自动微分
模型训练
道可道,非常道;名可名,非常名。 无名,天地之始,有名,万物之母。 故常无欲,以观其妙,常有欲,以观其徼。 此两者,同出而异名,同谓之玄,玄之又玄,众妙之门。