如何用Pytorch详细步骤构建一个神经网络模型?
- 内容介绍
- 文章标签
- 相关推荐
本文共计2647个文字,预计阅读时间需要11分钟。
原本是只用TensorFlow的,但因为TensorFlow存在一些Numpy特性不支持,比如对数组使用列表进行切片,所以只能转向PyTorch了(PyTorch是支持的)。PyTorch相比来说上手更容易,几乎完美复制了Numpy的特性。
本来是只用Tenorflow的,但是因为TF有些Numpy特性并不支持,比如对数组使用列表进行切片,所以只能转战Pytorch了(pytorch是支持的)。还好Pytorch比较容易上手,几乎完美复制了Numpy的特性(但还有一些特性不支持),怪不得热度上升得这么快。
1模型定义
和TF很像,Pytorch也通过继承父类来搭建自定义模型,同样也是实现两个方法。在TF中是__init__()和call(),在Pytorch中则是__init__()和forward()。功能类似,都分别是初始化模型内部结构和进行推理。其它功能比如计算loss和训练函数,你也可以继承在里面,当然这是可选的。
本文共计2647个文字,预计阅读时间需要11分钟。
原本是只用TensorFlow的,但因为TensorFlow存在一些Numpy特性不支持,比如对数组使用列表进行切片,所以只能转向PyTorch了(PyTorch是支持的)。PyTorch相比来说上手更容易,几乎完美复制了Numpy的特性。
本来是只用Tenorflow的,但是因为TF有些Numpy特性并不支持,比如对数组使用列表进行切片,所以只能转战Pytorch了(pytorch是支持的)。还好Pytorch比较容易上手,几乎完美复制了Numpy的特性(但还有一些特性不支持),怪不得热度上升得这么快。
1模型定义
和TF很像,Pytorch也通过继承父类来搭建自定义模型,同样也是实现两个方法。在TF中是__init__()和call(),在Pytorch中则是__init__()和forward()。功能类似,都分别是初始化模型内部结构和进行推理。其它功能比如计算loss和训练函数,你也可以继承在里面,当然这是可选的。

