avatar
文章
2976
标签
100
分类
63
首页
时间轴
标签
分类
知识库
关于
友链
LogoEstom的博客86 API-torch.autograd 返回首页
搜索
首页
时间轴
标签
分类
知识库
关于
友链

86 API-torch.autograd

发表于2021-05-09|更新于2021-05-09|pytorch
|总字数:0|阅读时长:1分钟|浏览量:
文章作者: Estom
文章链接: https://estom.github.io/2021/05/08/pytorch/%E5%AE%98%E6%96%B9%E6%95%99%E7%A8%8B/86%20API-torch.autograd/
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 Estom的博客!
cover of previous post
上一篇
88 API-torch.optim
torch.optim1 使用优化器构造优化器要构造一个,Optimizer您必须为其提供一个包含参数的可迭代项(所有参数都应为Variables)以进行优化。然后,您可以指定优化器特定的选项,例如学习率,权重衰减等。 12optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9)optimizer = optim.Adam([var1, var2], lr=0.0001) 使用优化器所有优化器都实现一种step()更新参数的方法。它可以以两种方式使用:optimizer.step() 这是大多数优化程序支持的简化版本。一旦使用例如来计算梯度,就可以调用该函数 backward()。 123456for input, target in dataset: optimizer.zero_grad() output = model(input) loss = loss_fn(output, target) loss.backward() optimizer.step() 2 优化器...
cover of next post
下一篇
87 API-torch.linalg
线性代数运算库
avatar
Estom
也许那年在绿色的麦浪中奔跑的时候,就注定了我此生的繁华与悲叹
文章
2976
标签
100
分类
63
关注
公告
欢迎参观Estom的小屋
最新文章
自引用泛型概述
自引用泛型概述2025-12-21
02 集合底层结构
02 集合底层结构2025-12-18
11 Arrays和Collections
11 Arrays和Collections2025-12-18
06 JUC并发容器
06 JUC并发容器2025-12-18
30 问题排查和性能优化指南
30 问题排查和性能优化指南2025-09-14
© 2025 - 2026 By Estom框架 Hexo 8.1.1|主题 Butterfly 5.5.3
搜索
数据加载中