如何使用TensorFlow精确指定GPU进行模型训练?
- 内容介绍
- 文章标签
- 相关推荐
本文共计491个文字,预计阅读时间需要2分钟。
目录 + 如何指示GPU训练模型 + 以一个例子子 + 如果需要指定多块GPU + 如何指示GPU训练模型 + Linux + 查看当前服务器GPU的占用情况 + 可以使用nvidia-smi命令,如下所示: + nvidia-smi + 关于nvidia-smi命令的输出
目录
- 如何指定GPU训练模型
- 举个例子
- 如果要指定多块 GPU
如何指定GPU训练模型
Linux 查看当前服务器 GPU 的占用情况可以使用 nvidia-smi 命令,如下所示:
nvidia-smi
关于 nvidia-smi 命令输出的详细解释,可参考笔者的另外一篇文章:GPU状态监测 nvidia-smi 命令详解。
在此不再赘述,本文主要分享一下在用 TensorFlow 训练模型时如何指定 GPU。
在用 TensorFlow 训练深度学习模型的时候,若无手动指定,默认是选用第0块来训练,而且其他几块 GPU 也会被显示占用。
本文共计491个文字,预计阅读时间需要2分钟。
目录 + 如何指示GPU训练模型 + 以一个例子子 + 如果需要指定多块GPU + 如何指示GPU训练模型 + Linux + 查看当前服务器GPU的占用情况 + 可以使用nvidia-smi命令,如下所示: + nvidia-smi + 关于nvidia-smi命令的输出
目录
- 如何指定GPU训练模型
- 举个例子
- 如果要指定多块 GPU
如何指定GPU训练模型
Linux 查看当前服务器 GPU 的占用情况可以使用 nvidia-smi 命令,如下所示:
nvidia-smi
关于 nvidia-smi 命令输出的详细解释,可参考笔者的另外一篇文章:GPU状态监测 nvidia-smi 命令详解。
在此不再赘述,本文主要分享一下在用 TensorFlow 训练模型时如何指定 GPU。
在用 TensorFlow 训练深度学习模型的时候,若无手动指定,默认是选用第0块来训练,而且其他几块 GPU 也会被显示占用。

