相关文章推荐
千杯不醉的绿茶  ·  python selenium 清空文本 ...·  1 年前    · 
挂过科的海龟  ·  知乎CTO李大海兼任面壁智能CEO,加速大模 ...·  1 年前    · 
坚韧的啤酒  ·  深度解密 TCP ...·  1 年前    · 
慈祥的热水瓶  ·  如何利用Microsoft ...·  2 年前    · 
小胡子的煎饼果子  ·  web安全——CORS跨域资源共享漏洞_mo ...·  2 年前    · 
Code  ›  PyTorch中的model.zero_grad() vs optimizer.zero_grad()开发者社区
https://cloud.tencent.com/developer/article/1710864
呐喊的猴子
2 年前
作者头像
Tyan
0 篇文章

PyTorch中的model.zero_grad() vs optimizer.zero_grad()

前往专栏
腾讯云
开发者社区
文档 意见反馈 控制台
首页
学习
活动
专区
工具
TVP
文章/答案/技术大牛
发布
首页
学习
活动
专区
工具
TVP
返回腾讯云官网
社区首页 > 专栏 > SnailTyan > PyTorch中的model.zero_grad() vs optimizer.zero_grad()

PyTorch中的model.zero_grad() vs optimizer.zero_grad()

作者头像
Tyan
发布 于 2020-10-10 14:26:47
5.2K 0
发布 于 2020-10-10 14:26:47
举报

文章作者:Tyan 博客: noahsnail.com | CSDN | 简书

1. 引言

在PyTorch中,对模型参数的梯度置0时通常使用两种方式: model.zero_grad() 和 optimizer.zero_grad() 。二者在训练代码都很常见,那么二者的区别在哪里呢?

2. model.zero_grad()

model.zero_grad() 的作用是将所有模型参数的梯度置为0。其源码如下:

for p in self.parameters():
    if p.grad is not None:
        p.grad.detach_()
        p.grad.zero_()

3. optimizer.zero_grad()

optimizer.zero_grad() 的作用是清除所有优化的 torch.Tensor 的梯度。其源码如下:

for group in self.param_groups:
    for p in group['params']:
        if p.grad is not None:
            p.grad.detach_()
            p.grad.zero_()

4. 总结

  • 当使用 optimizer = optim.Optimizer(net.parameters()) 设置优化器时,此时优化器中的 param_groups 等于模型中的 parameters() ,此时,二者是等效的,从二者的源码中也可以看出来。
  • 当多个模型使用同一个优化器时,二者是不同的,此时需要根据实际情况选择梯度的清除方式。
  • 当一个模型使用多个优化器时,二者是不同的,此时需要根据实际情况选择梯度的清除方式。
 
推荐文章
千杯不醉的绿茶  ·  python selenium 清空文本 selenium删除元素_ghpsyn的技术博客_51CTO博客
1 年前
挂过科的海龟  ·  知乎CTO李大海兼任面壁智能CEO,加速大模型研发进程
1 年前
坚韧的啤酒  ·  深度解密 TCP 协议(三次握手、四次挥手、拥塞控制、性能优化) - 古明地盆 - 博客园
1 年前
慈祥的热水瓶  ·  如何利用Microsoft Lists+Power Platform搭建图书管理系统_power bi microsoft list-CSDN博客
2 年前
小胡子的煎饼果子  ·  web安全——CORS跨域资源共享漏洞_mob6047570191d0的技术博客_51CTO博客
2 年前
今天看啥   ·   Py中国   ·   codingpro   ·   小百科   ·   link之家   ·   卧龙AI搜索
删除内容请联系邮箱 2879853325@qq.com
Code - 代码工具平台
© 2024 ~ 沪ICP备11025650号