报错定位到的位置是在:
self.bias = self.bias.cuda()
意为将把bias转到gpu上报错;
网上查询了很多问题都没解决,受到这篇博客的启发;pytorch 手动设置参数变量 并转到cuda上_XiaoPangJix1的博客-CSDN博客
原因可能是:bias是torch.nn.Parameter(),转移到cuda上失败,提示此报错;
其实根本原因比较简单,就是在model定义的时候没有将model转移到cuda上,因此修改代码为如下即可:
a = torch.Tensor(1,1,256,256)
if torch.cuda.is_available():
a=a.cuda()
EE_Block = EdgeEnhanceREC().cuda() #实例化并转移到cuda
else:
EE_Block = EdgeEnhanceREC() #只进行实例化,保持tensor和model在同一个设备上就行
b = EE_Block(a)
print(b.shape) #不改变size,[1,1,256,256]->[1,1,256,256]
甚至可用改变原来代码中很多“if torch.cuda.is_available():”无用的判别;文章来源:https://www.toymoban.com/news/detail-597681.html
大道至简,被这个简单的问题困扰了好几天。文章来源地址https://www.toymoban.com/news/detail-597681.html
到了这里,关于TypeError: cannot assign ‘torch.cuda.FloatTensor‘ as parameter ‘bias‘ (torch.nn.Parameter or None ex的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!