Pytorch显存动态分配机制是怎样的?
- 内容介绍
- 文章标签
- 相关推荐
本文共计1240个文字,预计阅读时间需要5分钟。
通过实验探索Pytorch分配显存的方式。实验显示,显存分配到主存。使用VSCode的jupyter进行实验,首先导入pytorch,代码如下:
pythonimport torch
打开任务管理器查看主存与显存情况。情况分别如下:
下面通过实验来探索Pytorch分配显存的方式。
实验显存到主存
我使用VSCode的jupyter来进行实验,首先只导入pytorch,代码如下:
import torch
打开任务管理器查看主存与显存情况。情况分别如下:
在显存中创建1GB的张量,赋值给a,代码如下:
a = torch.zeros([256,1024,1024],device= 'cpu')
查看主存与显存情况:
可以看到主存与显存都变大了,而且显存不止变大了1G,多出来的内存是pytorch运行所需的一些配置变量,我们这里忽略。
本文共计1240个文字,预计阅读时间需要5分钟。
通过实验探索Pytorch分配显存的方式。实验显示,显存分配到主存。使用VSCode的jupyter进行实验,首先导入pytorch,代码如下:
pythonimport torch
打开任务管理器查看主存与显存情况。情况分别如下:
下面通过实验来探索Pytorch分配显存的方式。
实验显存到主存
我使用VSCode的jupyter来进行实验,首先只导入pytorch,代码如下:
import torch
打开任务管理器查看主存与显存情况。情况分别如下:
在显存中创建1GB的张量,赋值给a,代码如下:
a = torch.zeros([256,1024,1024],device= 'cpu')
查看主存与显存情况:
可以看到主存与显存都变大了,而且显存不止变大了1G,多出来的内存是pytorch运行所需的一些配置变量,我们这里忽略。

