Pytorch显存动态分配机制是怎样的?

2026-05-05 12:350阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐

本文共计1240个文字,预计阅读时间需要5分钟。

Pytorch显存动态分配机制是怎样的?

通过实验探索Pytorch分配显存的方式。实验显示,显存分配到主存。使用VSCode的jupyter进行实验,首先导入pytorch,代码如下:

pythonimport torch

打开任务管理器查看主存与显存情况。情况分别如下:

  下面通过实验来探索Pytorch分配显存的方式。

实验显存到主存

  我使用VSCode的jupyter来进行实验,首先只导入pytorch,代码如下:

import torch

  打开任务管理器查看主存与显存情况。情况分别如下:

  在显存中创建1GB的张量,赋值给a,代码如下:

a = torch.zeros([256,1024,1024],device= 'cpu')

Pytorch显存动态分配机制是怎样的?

  查看主存与显存情况:

  可以看到主存与显存都变大了,而且显存不止变大了1G,多出来的内存是pytorch运行所需的一些配置变量,我们这里忽略。

阅读全文

本文共计1240个文字,预计阅读时间需要5分钟。

Pytorch显存动态分配机制是怎样的?

通过实验探索Pytorch分配显存的方式。实验显示,显存分配到主存。使用VSCode的jupyter进行实验,首先导入pytorch,代码如下:

pythonimport torch

打开任务管理器查看主存与显存情况。情况分别如下:

  下面通过实验来探索Pytorch分配显存的方式。

实验显存到主存

  我使用VSCode的jupyter来进行实验,首先只导入pytorch,代码如下:

import torch

  打开任务管理器查看主存与显存情况。情况分别如下:

  在显存中创建1GB的张量,赋值给a,代码如下:

a = torch.zeros([256,1024,1024],device= 'cpu')

Pytorch显存动态分配机制是怎样的?

  查看主存与显存情况:

  可以看到主存与显存都变大了,而且显存不止变大了1G,多出来的内存是pytorch运行所需的一些配置变量,我们这里忽略。

阅读全文