在进行图卷积多gpu训练的时候,报了这样的错误。

最开始版本的代码使用的是:nn.DataParallel 来进行多gpu训练。

但是其缺点也很明显,对于其维护较差,优点就是只用一行代码。

首先为什么会产生这样的错误,在于gcn对于weight和bias使用了parameter 关键词,在parallel中,无法做到对parameter的并行,导致了一些问题。

后来痛定思痛,决定替换DataParallel 为DistributedDataParallel,可参考下面链接1。

然而,没有那么顺利,替换了之后,还接着出错,发现default gpu负载较为严重,产生原因是在于torch.load的时候,自动加载到了default gpu上,可以将其改为

map_location=torch.device('cpu')

除此之外,可以加上这两句,来减少显存的使用。

torch.backends.cudnn.benchmark = True
torch.backends.cudnn.enabled = True

参考链接

1.  PyTorch Parallel Training(单机多卡并行、混合精度、同步BN训练指南文档) - 知乎

2. PyTorch 有哪些坑/bug? - 知乎用户Nr7C35的回答 - 知乎 https://www.zhihu.com/question/67209417/answer/866488638

3. pytorch多个显卡并行训练 RuntimeError: Caught RuntimeError in replica 0 on device 0._liu_yuan_kai的博客-CSDN博客

Logo

为开发者提供学习成长、分享交流、生态实践、资源工具等服务,帮助开发者快速成长。

更多推荐