成功解决RuntimeError: Failed to import transformers.models.llama.tokenization_llama_fast because of the

这篇具有很好参考价值的文章主要介绍了成功解决RuntimeError: Failed to import transformers.models.llama.tokenization_llama_fast because of the。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

成功解决RuntimeError: Failed to import transformers.models.llama.tokenization_llama_fast because of the following error (look up to see its traceback): tokenizers>=0.13.3 is required for a normal functioning of this module, but found tokenizers==0.12.1

目录

解决问题

解决思路

解决方法

T1、pip命令

T2、conda命令


解决问题

RuntimeError: Failed to import transformers.models.llama.tokenization_llama_fast because of the following error (look up to see its traceback): tokenizers>=0.13.3 is required for a normal functioning of this module, but found tokenizers==0.12.1.

成功解决RuntimeError: Failed to import transformers.models.llama.tokenization_llama_fast because of the

 

解决思路

运行时错误:导入transformer .models.llama失败。Tokenization_llama_fast,因为以下错误(查找查看其追溯):tokenizers>=0.13.3是该模块正常运行所必需的,但发现tokenizers==0.12.1。

解决方法

你使用的transformers库版本与所需的tokenizers版本不匹配导致的。根据错误消息,你的transformers版本要求tokenizers版本至少为0.13.3,但你安装的是0.12.1版本。

T1、pip命令

pip install --upgrade tokenizers

成功解决RuntimeError: Failed to import transformers.models.llama.tokenization_llama_fast because of the

 

T2、conda命令

可以运行以下命令文章来源地址https://www.toymoban.com/news/detail-507630.html

conda install -c huggingface tokenizers

到了这里,关于成功解决RuntimeError: Failed to import transformers.models.llama.tokenization_llama_fast because of the的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包