文章
2976
标签
100
分类
63
首页
时间轴
标签
分类
知识库
关于
友链
Estom的博客
86 API-torch.autograd
返回首页
搜索
首页
时间轴
标签
分类
知识库
关于
友链
86 API-torch.autograd
发表于
2021-05-09
|
更新于
2021-05-09
|
pytorch
|
总字数:
0
|
阅读时长:
1分钟
|
浏览量:
文章作者:
Estom
文章链接:
https://estom.github.io/2021/05/08/pytorch/%E5%AE%98%E6%96%B9%E6%95%99%E7%A8%8B/86%20API-torch.autograd/
版权声明:
本博客所有文章除特别声明外,均采用
CC BY-NC-SA 4.0
许可协议。转载请注明来源
Estom的博客
!
上一篇
88 API-torch.optim
torch.optim1 使用优化器构造优化器要构造一个,Optimizer您必须为其提供一个包含参数的可迭代项(所有参数都应为Variables)以进行优化。然后,您可以指定优化器特定的选项,例如学习率,权重衰减等。 12optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9)optimizer = optim.Adam([var1, var2], lr=0.0001) 使用优化器所有优化器都实现一种step()更新参数的方法。它可以以两种方式使用:optimizer.step() 这是大多数优化程序支持的简化版本。一旦使用例如来计算梯度,就可以调用该函数 backward()。 123456for input, target in dataset: optimizer.zero_grad() output = model(input) loss = loss_fn(output, target) loss.backward() optimizer.step() 2 优化器...
下一篇
87 API-torch.linalg
线性代数运算库
Estom
也许那年在绿色的麦浪中奔跑的时候,就注定了我此生的繁华与悲叹
文章
2976
标签
100
分类
63
关注
公告
欢迎参观Estom的小屋
最新文章
自引用泛型概述
2025-12-21
02 集合底层结构
2025-12-18
11 Arrays和Collections
2025-12-18
06 JUC并发容器
2025-12-18
30 问题排查和性能优化指南
2025-09-14
搜索
数据加载中