Bootstrap

pytorch使用-自动微分


一、自动微分

在整个Pytorch框架中,所有的神经网络本质上都是一个autograd package(自动求导工具包),autograd package提供了一个对Tensors上所有的操作进行自动微分的功能.

以前的pytorch使用Variable来作为自动求导的类型。但是较新版本将tensor和variable合并了,Tensor的数据结构如下:
在这里插入图片描述
Tensor 主要包含三个属性:
.
data:保存Tensor数据。
grad:保存data对应的梯度,grad也是个Tensor,它和data的形状一样。
grad_fn:指向一个Function对象,这个Function用来反向传播计算输入的梯度,

二、Tensor自动微分

当 requires_grad 设置为True,为Tensor 增加梯度:

x = torch.ones(2, 2)
print(x)

y = torch.ones(2, 2, requires_grad=True)
print(y)

在这里插入图片描述
当进行运算时,grad_fn会记录当前操作:

x = torch.ones(2, 2, requires_grad=True)
print(x)

y = x + 2
print(y)

在这里插入图片描述

.requires_grad_ () 原地增加梯度

y = torch.full([2, 2], 3, dtype=torch.float32)

# y 增加梯度
y.requires_grad_(True)
print(y)

z = y * y * 3
out = z.mean()
print(z)
print(out)

在这里插入图片描述

三、backward 反向传播

a = torch.randn(2, 3, requires_grad=True)  # 创建一个张量
b = 3 * a
print(b)

# 给 loss.backward() 指定传递给后向的参数维度:torch.ones_like(b)
b.backward(torch.ones_like(b))  # 自动计算所有梯度
print(a.grad)

在这里插入图片描述

with torch.no_grad(): 关闭梯度更新

with torch.no_grad():
    a = torch.randn(2, 3, requires_grad=True)  # 创建一个张量
    b = 3 * a
    print(b.requires_grad)

    # 给 loss.backward() 指定传递给后向的参数维度:torch.ones_like(b)
    b.backward(torch.ones_like(b))  # 自动计算所有梯度
    # print(a.grad)

在这里插入图片描述
.detach() 删除单个tensor的梯度

a = torch.randn(2, 3, requires_grad=True)  # 创建一个张量
b = 3 * a
print(b)

c = b.detach()
print(c)

在这里插入图片描述

;