文章
2976
标签
100
分类
63
首页
时间轴
标签
分类
知识库
关于
友链
Estom的博客
08
返回首页
搜索
首页
时间轴
标签
分类
知识库
关于
友链
08
发表于
2021-03-20
|
更新于
2021-04-22
|
pytorch
|
总字数:
9
|
阅读时长:
1分钟
|
浏览量:
建造第一个神经网络
文章作者:
Estom
文章链接:
https://estom.github.io/2021/03/20/pytorch/%E5%85%B6%E4%BB%96%E6%95%99%E7%A8%8B/08/
版权声明:
本博客所有文章除特别声明外,均采用
CC BY-NC-SA 4.0
许可协议。转载请注明来源
Estom的博客
!
上一篇
11
3.3 – 快速搭建回归神经网络Torch 中提供了很多方便的途径, 同样是神经网络, 能快则快, 我们看看如何用更简单的方式搭建同样的回归神经网络. 快速搭建我们先看看之前写神经网络时用到的步骤. 我们用 net1 代表这种方式搭建的神经网络. 123456789101112class Net(torch.nn.Module): def __init__(self, n_feature, n_hidden, n_output): super(Net, self).__init__() self.hidden = torch.nn.Linear(n_feature, n_hidden) self.predict = torch.nn.Linear(n_hidden, n_output) def forward(self, x): x = F.relu(self.hidden(x)) x = self.predict(x) return xnet1 = Net(1, 10, 1) ...
下一篇
07
2.3 – 激励函数 (Activation)什么是 Activation一句话概括 Activation: 就是让神经网络可以描述非线性问题的步骤, 是神经网络变得更强大. 如果还不是特别了解, 我有制作一个动画短片(如下), 浅显易懂的阐述了激励函数的作用. 包懂. Torch 中的激励函数Torch 中的激励函数有很多, 不过我们平时要用到的就这几个. relu, sigmoid, tanh, softplus . 那我们就看看他们各自长什么样啦. 1234567import torchimport torch.nn.functional as F # 激励函数都在这from torch.autograd import Variable# 做一些假数据来观看图像x = torch.linspace(-5, 5, 200) # x data (tensor), shape=(100, 1)x = Variable(x) 接着就是做生成不同的激励函数数据: 12345678x_np = x.data.numpy() # 换成 numpy array, 出图时用...
Estom
也许那年在绿色的麦浪中奔跑的时候,就注定了我此生的繁华与悲叹
文章
2976
标签
100
分类
63
关注
公告
欢迎参观Estom的小屋
目录
1.
建造第一个神经网络
最新文章
自引用泛型概述
2025-12-21
02 集合底层结构
2025-12-18
11 Arrays和Collections
2025-12-18
06 JUC并发容器
2025-12-18
30 问题排查和性能优化指南
2025-09-14
搜索
数据加载中