自动微分
自动微分是由autograd
包提供支持的。PyTorch的自动微分功能可以根据张量的变换记录自动进行微分的求解。在创建张量时可以通过设置参数requires_grad
为True
来启用自动微分的支持。
对张量进行变换后,就可以调用.backward()
进行自动微分操作,导数\( \frac{d(out)}{dx} \)(梯度)就可以使用.grad
属性进行获取。
如果在操作过程中需要关闭自动微分功能,可以使用with torch.no_grad():
关闭。
自动微分是由autograd
包提供支持的。PyTorch的自动微分功能可以根据张量的变换记录自动进行微分的求解。在创建张量时可以通过设置参数requires_grad
为True
来启用自动微分的支持。
对张量进行变换后,就可以调用.backward()
进行自动微分操作,导数\( \frac{d(out)}{dx} \)(梯度)就可以使用.grad
属性进行获取。
如果在操作过程中需要关闭自动微分功能,可以使用with torch.no_grad():
关闭。