训练时
在训练时,检测 “out of memory” 的error并通过torch.cuda.empty_cache()处理
如:
try:
outputs = net(inputs)
except RuntimeError as exception:
if "out of memory" in str(exception):
print('WARNING: out of memory, will pass this')
torch.cuda.empty_cache()
continue
else:
raise exception
测试时
在测试时,避免忘记设置 torch.no_grad()
如:文章来源:https://www.toymoban.com/news/detail-509395.html
with torch.no_grad():
inputs = None
outputs = model(inputs)
参考文献
Pytroch - 显存释放问题文章来源地址https://www.toymoban.com/news/detail-509395.html
到了这里,关于【pytorch】随着epoch增加,显存逐渐增加?解决pytorch显存释放问题的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!