RuntimeError: FlashAttention is only supported on CUDA 11 and above

这篇具有很好参考价值的文章主要介绍了RuntimeError: FlashAttention is only supported on CUDA 11 and above。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

问题描述

RuntimeError: FlashAttention is only supported on CUDA 11 and above
RuntimeError: FlashAttention is only supported on CUDA 11 and above,霸哥(BUG)日记,深度学习,python,人工智能

解决方案

此错误的原因可能是 nvcc 的 CUDA 版本(通过键入“nvcc -V”获得,可能 < 11.0)与 torch (11.7) 的 CUDA 版本不匹配。

类似问题在这里解决:
https://stackoverflow.com/questions/40517083/multiple-cuda-versions-on-machine-nvcc-v-confusion
我解决了这个问题通过:
首先:

vim ~/.bashrc

在最后一行加上:

export PATH=/usr/local/cuda-11.7/bin:$PATH

然后:

source ~/.bashrc

注意这里的cuda-11.7需要依据自己电脑或者服务器上面的版本来改,找到/usr/local目录下来看。改成自己需要的版本。
RuntimeError: FlashAttention is only supported on CUDA 11 and above,霸哥(BUG)日记,深度学习,python,人工智能
感谢:
参考1
haoychen3的帮助。文章来源地址https://www.toymoban.com/news/detail-729892.html

到了这里,关于RuntimeError: FlashAttention is only supported on CUDA 11 and above的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包