TrainingArguments 报错,降低transformers版本即可解决

这篇具有很好参考价值的文章主要介绍了TrainingArguments 报错,降低transformers版本即可解决。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

from transformers import TrainingArguments

training_args = TrainingArguments("test-trainer")

TrainingArguments 报错,报错信息如下

ImportError Traceback (most recent call last)

in <cell line: 3>()
1 from transformers import TrainingArguments
2
----> 3 training_args = TrainingArguments(“test-trainer”)

4 frames

/usr/local/lib/python3.10/dist-packages/transformers/training_args.py in init(self, output_dir, overwrite_output_dir, do_train, do_eval, do_predict, evaluation_strategy, prediction_loss_only, per_device_train_batch_size, per_device_eval_batch_size, per_gpu_train_batch_size, per_gpu_eval_batch_size, gradient_accumulation_steps, eval_accumulation_steps, eval_delay, learning_rate, weight_decay, adam_beta1, adam_beta2, adam_epsilon, max_grad_norm, num_train_epochs, max_steps, lr_scheduler_type, warmup_ratio, warmup_steps, log_level, log_level_replica, log_on_each_node, logging_dir, logging_strategy, logging_first_step, logging_steps, logging_nan_inf_filter, save_strategy, save_steps, save_total_limit, save_safetensors, save_on_each_node, no_cuda, use_mps_device, seed, data_seed, jit_mode_eval, use_ipex, bf16, fp16, fp16_opt_level, half_precision_backend, bf16_full_eval, fp16_full_eval, tf32, local_rank, ddp_backend, tpu_num_cores, tpu_metrics_debug, debug, dataloader_drop_last, eval_steps, dataloader_num_workers, past_index, run_name, disable_tqdm, remove_unused_columns, label_names, load_best_model_at_end, metric_for_best_model, greater_is_better, ignore_data_skip, sharded_ddp, fsdp, fsdp_min_num_params, fsdp_config, fsdp_transformer_layer_cls_to_wrap, deepspeed, label_smoothing_factor, optim, optim_args, adafactor, group_by_length, length_column_name, report_to, ddp_find_unused_parameters, ddp_bucket_cap_mb, dataloader_pin_memory, skip_memory_met…

/usr/local/lib/python3.10/dist-packages/transformers/training_args.py in post_init(self)
1338 self.framework == “pt”
1339 and is_torch_available()
-> 1340 and (self.device.type != “cuda”)
1341 and (get_xla_device_type(self.device) != “GPU”)
1342 and (self.fp16 or self.fp16_full_eval)

/usr/local/lib/python3.10/dist-packages/transformers/training_args.py in device(self)
1762 “”"
1763 requires_backends(self, [“torch”])
-> 1764 return self._setup_devices
1765
1766 @property

/usr/local/lib/python3.10/dist-packages/transformers/utils/generic.py in get(self, obj, objtype)
52 cached = getattr(obj, attr, None)
53 if cached is None:
—> 54 cached = self.fget(obj)
55 setattr(obj, attr, cached)
56 return cached

/usr/local/lib/python3.10/dist-packages/transformers/training_args.py in _setup_devices(self)
1670 if not is_sagemaker_mp_enabled():
1671 if not is_accelerate_available(min_version=“0.20.1”):
-> 1672 raise ImportError(
1673 “Using the Trainer with PyTorch requires accelerate>=0.20.1: Please run pip install transformers[torch] or pip install accelerate -U
1674 )

ImportError: Using the Trainer with PyTorch requires accelerate>=0.20.1: Please run pip install transformers[torch] or pip install accelerate -U

解决方式

降低transformers的版本文章来源地址https://www.toymoban.com/news/detail-482842.html

pip install transformers==4.24.0

到了这里,关于TrainingArguments 报错,降低transformers版本即可解决的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 详细搭建tensorflow、keras步骤与匹配版本(降低tensorflow版本)

    这几天自己搭建环境后的总结。 主要顺序:创建环境-python3.6-tensorflow2.0.0-keras2.3.1-numpy1.19.5-scipy1.5.4-matplotlib3.3.4-scikit-learn,这是我下载的版本,版本匹配可以搜一下。 重点注意!!!版本一定要匹配!!!不然后面很多大坑,下载顺序也很重要!!! 主要是因为运行代码时

    2024年02月06日
    浏览(35)
  • Ubuntu20.04 如何降低内核版本?

    前言: 客户有时在不小心安装新内核之后,会出现之前的驱动无法使用的现象,如PCM-26D2CA,此种模块为CAN卡模块,使用时需要 安装对应的驱动,否则无法使用,但是此驱动在低版本的内核上可以编译安装,但是一旦被客户不经意间更新了新的内核后,驱动 便无法使用了。解决

    2024年02月08日
    浏览(54)
  • Python 如何降低版本?从 Python3.9降低到 3.8, /anaconda/虚拟环境等.

    以 Win10 为例. 查看当前版本命令: 安装后查看一下版本是否降级成功. 打开 cmd 当然,前提是你的环境变量指向的是 anaconda 的路径. 如果长时间下载不成功,可能是镜像不在国内,可以更改为国内的清华镜像: Anaconda 的python 是被管理起来的,要降级很容易,但是自己安装的 python 就不容

    2024年02月08日
    浏览(36)
  • Ubuntu降低使用的内核到指定的版本

    ubuntu-20.04.2-desktop-amd64下载连接 这里是笔者已经切换了之后的内核版本,切换之前的版本为 5.15.0-88-generic 然后我们输入以下命令查看我们安装号的内核版本 然后重新启动系统 不过笔者进入以后仍然没有成功更新内核,故在重启的过程中一致按Esc来进入Ubuntu的高级选项,然后

    2024年04月22日
    浏览(35)
  • 指定或降低Rust 工具链的版本

    要更改 Rust 工具链的版本,您可以使用以下命令之一: rustup default stable:使用 stable 版本的 Rust 工具链作为默认版本。 rustup default beta:使用 beta 版本的 Rust 工具链作为默认版本。 rustup default nightly:使用 nightly 版本的 Rust 工具链作为默认版本。 除了 default 命令,还有其他一

    2024年02月12日
    浏览(20)
  • 【Flutter】Dart/Flutter SDK如何降低版本、回退到指定版本

    因为dart3.0以后不再支持 no-sound-null-safety;但是有些项目不得以切换到dart3.0以前继续使用运行项目 方法1: 通过 命令,将flutter降级为当前通道的上一个活动版本; 如果没有存在老版本则会提示 flutter downgrade There is no previously recorded version for channel “stable”. 这样的话则可以通

    2024年02月16日
    浏览(27)
  • TrainingArguments 参数

    截至我所知的信息(2021年9月),\\\"TrainingArguments\\\"是Hugging Face的Transformers库中的一个类,用于配置和管理模型训练的参数。以下是一些常见的\\\"TrainingArguments\\\"类的参数: output_dir :模型训练输出的目录,包括保存模型和其他训练输出。 overwrite_output_dir :如果设置为True,将覆盖输

    2024年02月14日
    浏览(16)
  • 百度语音识别(语音转文字)vue版本 前端(后端需要做个请求转发即可)

    这个项目需要用到语音识别,最后选择的是百度语音识别。原因第一是项目中用到的地方不大,属于微型和小型功能点,第二就是属于临时增加的需求,没有太多的时间去开发,第三就是后端对于自主开发语音识别觉得较为困难,浪费时间。 加载语音识别的文件 下载recorde

    2024年02月12日
    浏览(39)
  • chatgpt赋能Python-anaconda降低python版本

    作为一个有10年Python编程经验的工程师,我经常会发现自己需要降低Pyhton的版本以便与我要使用的库兼容。为了解决这个问题,Anaconda是一个非常有用的工具,可以管理不同版本的Python和相关的库。 Anaconda是由Continuum Analytics公司开发的一个Python发行版。 它旨在为数据科学家和

    2024年02月05日
    浏览(26)
  • Ubuntu20.04降低linux版本到5.4.0-26-generic

    试用ubuntu20.04安装昇腾的驱动和cann的时,出现如下问题: 大概率是内核版本不对导致。目前昇腾的底层驱动和应用程序的配套如下图所示: 不满足5.4.0-26-generic的要求,如果强行安装驱动,会出现第一步的报错问题。 首先使用如下命令安装内核: 使用命令: dpkg --get-selecti

    2024年02月02日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包