报错文章来源:https://www.toymoban.com/news/detail-743496.html
torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 330.00 MiB (GPU 0; 2.00 GiB total capacity; 1006.56 MiB already allocated; 144.51 MiB free; 1.02 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
做深度学习相关的实验,可以看到我的显卡内存很小(哭了,不过我有时候是在别的电脑上做的,那个电脑比这个好用),网上搜到的说的 max_split_size_mb:128 这个方法我贴到我代码上之后没有效果。
因为我在这个电脑上做的是主实验后面的一些对比实验,也就是代码中很多张量很多数据是不需要的。
所以抖了个机灵,把不需要的数据全都注释掉,代码正常运行,对比实验数据跑出来了耶!文章来源地址https://www.toymoban.com/news/detail-743496.html
到了这里,关于Pycharm报错torch.cuda.OutOfMemoryError: CUDA out of memory.的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!