PyTorch中如何区分拷贝与就地操作,详细解析?
- 内容介绍
- 文章标签
- 相关推荐
本文共计2085个文字,预计阅读时间需要9分钟。
前言:PyTorch中我们经常使用Numpy进行数据的处理,然后再转换到Tensor。但是,关系到数据的更新时,我们应注意方法是否是共享地址,这关系到整个网络的更新。本篇主要介绍In-place操作和复制操作。
前言
PyTroch中我们经常使用到Numpy进行数据的处理,然后再转为Tensor,但是关系到数据的更改时我们要注意方法是否是共享地址,这关系到整个网络的更新。本篇就In-palce操作,拷贝操作中的注意点进行总结。
In-place操作
pytorch中原地操作的后缀为_,如.add_()或.scatter_(),就地操作是直接更改给定Tensor的内容而不进行复制的操作,即不会为变量分配新的内存。Python操作类似+=或*=也是就地操作。
本文共计2085个文字,预计阅读时间需要9分钟。
前言:PyTorch中我们经常使用Numpy进行数据的处理,然后再转换到Tensor。但是,关系到数据的更新时,我们应注意方法是否是共享地址,这关系到整个网络的更新。本篇主要介绍In-place操作和复制操作。
前言
PyTroch中我们经常使用到Numpy进行数据的处理,然后再转为Tensor,但是关系到数据的更改时我们要注意方法是否是共享地址,这关系到整个网络的更新。本篇就In-palce操作,拷贝操作中的注意点进行总结。
In-place操作
pytorch中原地操作的后缀为_,如.add_()或.scatter_(),就地操作是直接更改给定Tensor的内容而不进行复制的操作,即不会为变量分配新的内存。Python操作类似+=或*=也是就地操作。

