本文适合多GPU的机器,并且每个用户需要单独使用GPU训练。 虽然pytorch提供了指定gpu的几种方式,但是使用不当的话会遇到out of memory的问题,主要是因为pytorch会在第0块gpu上初始化,并且会占用一定空间的显存。这种情况下,经常会出现指定的gpu明明是空
本文适合多GPU的机器,并且每个用户需要单独使用GPU训练。
这句话表示只有第1块gpu可见,其他gpu不可用,此时要注意第1块gpu已经变成第0块,因此代码里应该使用编号0来指定gpu。如果依然使用cuda:1会报invalid device ordinal。 当然也可以在代码里使用os模块达到同样效果:
注意这种情况下gpu编号也会改变 关于这个问题的讨论,感兴趣的也可以去这里查看cuda out of memory error when GPU0 memory is fully utilized -[-/a> |
2019-06-18
2019-07-04
2021-05-23
2021-05-27
2021-05-27