pytorch多gpu训练报错:RuntimeError: Caught RuntimeError in replica 0 on device 0.
在进行图卷积多gpu训练的时候,报了这样的错误。最开始版本的代码使用的是:nn.DataParallel 来进行多gpu训练。但是其缺点也很明显,对于其维护较差,优点就是只用一行代码。首先为什么会产生这样的错误,在于gcn对于weight和bias使用了parameter 关键词,在parallel中,无法做到对parameter的并行,导致了一些问题。后来痛定思痛,决定替换DataParalle
在进行图卷积多gpu训练的时候,报了这样的错误。
最开始版本的代码使用的是:nn.DataParallel 来进行多gpu训练。
但是其缺点也很明显,对于其维护较差,优点就是只用一行代码。
首先为什么会产生这样的错误,在于gcn对于weight和bias使用了parameter 关键词,在parallel中,无法做到对parameter的并行,导致了一些问题。
后来痛定思痛,决定替换DataParallel 为DistributedDataParallel,可参考下面链接1。
然而,没有那么顺利,替换了之后,还接着出错,发现default gpu负载较为严重,产生原因是在于torch.load的时候,自动加载到了default gpu上,可以将其改为
map_location=torch.device('cpu')
除此之外,可以加上这两句,来减少显存的使用。
torch.backends.cudnn.benchmark = True
torch.backends.cudnn.enabled = True
参考链接
1. PyTorch Parallel Training(单机多卡并行、混合精度、同步BN训练指南文档) - 知乎
2. PyTorch 有哪些坑/bug? - 知乎用户Nr7C35的回答 - 知乎 https://www.zhihu.com/question/67209417/answer/866488638
3. pytorch多个显卡并行训练 RuntimeError: Caught RuntimeError in replica 0 on device 0._liu_yuan_kai的博客-CSDN博客
更多推荐
所有评论(0)