前言,在pytorch中,当服务器上的gpu被占用时,很多时候我们想先用cpu调试下代码,那么就需要进行gpu和cpu的切换。
把 device 作为一个可变参数,推荐使用argparse进行加载:
使用gpu时:
device='cuda' x.to(device) # x是一个tensor,传到cuda上去
使用cpu时:
device='cpu' x.to(device)
很多贴子中说,使用x.cuda() 和x.to('cuda') 虽然是等效的,但是x.cuda() 的缺点是无法动态切换cpu。然而,其实配合命令行参数CUDA_VISIBLE_DEVICES 是可以进行切换的。
在服务器上创建一个python脚本 t.py:
import torch print(torch.cuda.device_count()) # 可用gpu数量 print(torch.cuda.is_available()) # 是否可用gpu
首先先看一下,正常运行的情况:
2
True
如果想要只使用某一块gpu,只需要在执行前加一个参数:
1
True
下面,如果我们想使用cpu呢?
0
False
因此,回归正题,当我们使用x.cuda()进行分配gpu时,只需要使用torch.cuda.is_available()加一个判断即可,当想使用cpu的时候在执行程序的命令行参数进行控制:
if torch.cuda.is_available(): x= x.cuda()
到此这篇关于Pytorch如何切换 cpu和gpu的使用详解的文章就介绍到这了,更多相关Pytorch切换cpu和gpu内容请搜索呐喊教程以前的文章或继续浏览下面的相关文章希望大家以后多多支持呐喊教程!
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:notice#nhooo.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。