python_谷歌开源BERT模型文本分类出现的相关报错记录

这篇具有很好参考价值的文章主要介绍了python_谷歌开源BERT模型文本分类出现的相关报错记录。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、pycharm加载包列表时出错: unknown protocol: e

解决方案1:

网络的问题。加载不了软件包列表多数是网络连接异常导致。
1、首先打开电脑检查网络。
2、其次打开pycharm软件进行测试网络连接是否异常。
3、最后点击重新连接网络后重新登录该软件即可。

结果:不成功。网络无问题,且pycharm更新到最新

解决方案2:

转到Settings/Appearance and Behavior/System Settings/HTTP Proxy并检查Auto-detect proxy settings并且它有效。

结果:不成功。

解决方案3:

尝试使用HTTP选项,但是它不起作用,然后我打开了管理存储库,并删除了https://pypi.python.org/simple以外的所有文件,并且它起作用了。

结果:成功!!!

2、tensorflow和python版本不对应

安装python + tensorflow 参考博文:https://blog.csdn.net/SparklingStar1/article/details/105353940?

ops_request_misc=%257B%2522request%255Fid%2522%253A%2522167405789616800182730134%2522%252C%2522scm%2522%253A%252220140713.130102334…%2522%257D&request_id=167405789616800182730134&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2allsobaiduend~default-2-105353940-null-null.142v71one_line,201v4add_ask&utm_term=pycharm%E5%AE%89%E8%A3%85tensorflow1.9&spm=1018.2226.3001.4187

解决方案:https://tensorflow.google.cn/install/source_windows#cpu 官网查看对应版本

python3.6 tensorflow1.9

安装tensorflow时报错

C:\Users\Felix>pip install --user tensorflow1.9.0 -i https://pypi.doubanio.com/simple/
Collecting tensorflow
1.9.0
Downloading https://pypi.doubanio.com/packages/e7/88/417f18ca7eed5ba9bebd51650d04a4af929f96c10a10fbb3302196f8d098/tensorflow-1.9.0-cp36-cp36m-win_amd64.whl (37.1MB)
100% |████████████████████████████████| 37.1MB 39kB/s
Collecting numpy>=1.13.3 (from tensorflow1.9.0)
Downloading https://pypi.doubanio.com/packages/ea/bc/da526221bc111857c7ef39c3af670bbcf5e69c247b0d22e51986f6d0c5c2/numpy-1.19.5-cp36-cp36m-win_amd64.whl (13.2MB)
100% |████████████████████████████████| 13.2MB 109kB/s
Collecting protobuf>=3.4.0 (from tensorflow
1.9.0)
Downloading https://pypi.doubanio.com/packages/6c/be/4e32d02bf08b8f76bf6e59f2a531690c1e4264530404501f3489ca975d9a/protobuf-4.21.0-py2.py3-none-any.whl (164kB)
100% |████████████████████████████████| 174kB 3.2MB/s
protobuf requires Python ‘>=3.7’ but the running Python is 3.6.5
You are using pip version 9.0.3, however version 22.3.1 is available.
You should consider upgrading via the ‘python -m pip install --upgrade pip’ command.

无法导入tensorflow

解决办法:更新protobuf

参考博文:https://blog.csdn.net/qq_39343904/article/details/85048483

结果:成功!!!

3、PyCharm导入tensorflow包

pycharm -> 文件 -> 设置 -> 项目:pycharmproject -> python解释器 -> 齿轮图标 -> 添加 -> conda环境 -> 现有环境

解释器:python安装路径下的python.exe文件

conda可执行文件:conda.exe文件

解释:

若是你也遇到这个问题,说明你也没有理解tensorflow到底在哪里。

当安装了anaconda3.6后,在PyCharm中设置interpreter,这个解释器决定了你在PyCharm环境中写的代码采用什么方式去执行。

若是你的设置是anaconda下的python.exe。就会发现在PyCharm中写入import tensorflwo as tf 时,就会报错,提示没有tensorflow模块,这是因为anaconda文件下的python.exe是3.6版本的,而你创建的conda环境是在anaconda下,而你安装的tensorflow在了conda环境下,不是在anaconda环境下,因此若是你要导入tensorflow,则需要把解释器选择为conda环境下的python.exe。

当你的解释器选择如下图的红色框中,选择的interpreter是anaconda下的python.exe时,在PyCharm环境中导入tensorflow时,就会提示没有找到tensorflow模块。

若是你想使用tensorflow,则解释器应该选择,如下图路径(anaconda->envs->tenfowflow->python.exe)下的python.exe

解释器正确的选择如图所示,单击下图箭头所指的设置按钮,选择Add local,,选择上图显示的路径的python.exe,而不是anaconda下的python.exe,选择conda环境下的python.exe后,则会显示下图红色框中显示的设置。

4、

报错:absl.flags._exceptions.IllegalFlagValueError: flag --data_dir=None: Flag --data_dir must have a value other than None.
flag --task_name=None: Flag --task_name must have a value other than None.
flag --vocab_file=None: Flag --vocab_file must have a value other than None.
flag --bert_config_file=None: Flag --bert_config_file must have a value other than None.
flag --output_dir=None: Flag --output_dir must have a value other than None.

报错原因:

#这是配置运行参数时parameters项内容,这样写会报错

–task_name=MRPC \
–do_train=true \
–do_eval=true \
–data_dir=…/glue/glue_data/MRPC \
–vocab_file=…/glue/BERT_MODEL_DIR/uncased_L-12_H-768_A-12/vocab.txt \
–bert_config_file=…/glue/BERT_MODEL_DIR/uncased_L-12_H-768_A-12/bert_config.json \
–init_checkpoint=…/glue/BERT_MODEL_DIR/uncased_L-12_H-768_A-12/bert_model.ckpt \
–max_seq_length=128 \
–train_batch_size=8 \
–learning_rate=2e-5 \
–num_train_epochs=1.0 \
–output_dir=…/glue/outputs

解决方法:参数改成下方代码

–task_name=MRPC
–do_train=true
–do_eval=true
–data_dir=…/GLUE/glue_data/MRPC
–vocab_file=…/GLUE/BERT_MODEL_DIR/chinese_L-12_H-768_A-12/vocab.txt
–bert_config_file=…/GLUE/BERT_MODEL_DIR/chinese_L-12_H-768_A-12/bert_config.json
–init_checkpoint=…/GLUE/BERT_MODEL_DIR/chinese_L-12_H-768_A-12/bert_model.ckpt
–max_seq_length=128
–train_batch_size=8
–learning_rate=2e-5
–num_train_epochs=1.0
–output_dir=…/GLUE/output

结果:没有成功运行,并且生成另外报错

tensorflow.python.framework.errors_impl.NotFoundError: NewRandomAccessFile failed to Create/Open: …/GLUE/BERT_MODEL_DIR/chinese_L-12_H-768_A-12/bert_config.json : ϵͳ\udcd5Ҳ\udcbb\udcb5\udcbdָ\udcb6\udca8\udcb5\udcc4·\udcbe\udcb6\udca1\udca3
; No such process

解决方法:其实这是个傻瓜错误,因为路径给错了,修改运行配置参数中的路径

–task_name=MRPC

–do_train=true

–do_eval=true

–data_dir=…/GLUE/glue_data/MRPC
–vocab_file=…/GLUE/BERT_BASE_DIR/uncased_L-12_H-768_A-12/vocab.txt

–bert_config_file=…/GLUE/BERT_BASE_DIR/uncased_L-12_H-768_A-12/bert_config.json

–init_checkpoint=…/GLUE/BERT_BASE_DIR/uncased_L-12_H-768_A-12/bert_model.ckpt

–max_seq_length=128

–train_batch_size=2

–learning_rate=2e-5

–num_train_epochs=1.0

–output_dir=…/GLUE/output

结果:成功!!!

5、FutureWarning: Passing (type, 1) or ‘1type‘ as a synonym of type is deprecated

问题描述
在使用BERT进行中文长文本分类用TensorFlow的过程中PyCharm控制台出现:FutureWarning: Passing (type, 1) or ‘1type’ as a synonym of type is deprecate

如下图python_谷歌开源BERT模型文本分类出现的相关报错记录
解决方案:
numpy的版本过高,降低版本:
python_谷歌开源BERT模型文本分类出现的相关报错记录
结果:成功!!!

6、AttributeError: module ‘tensorflow._api.v2.train‘ has no attribute ‘Optimizer‘

python_谷歌开源BERT模型文本分类出现的相关报错记录
解决方案:先检查 tensorflow 的版本,python版本与tensorflow版本是否匹配。

结果:成功!!!

7、Traceback (most recent call last):
File “C:/Users/Felix/PycharmProjects/CSDN/bert-master/run_classifier.py”, line 1029, in
tf.app.run()
File “C:\Users\Felix\AppData\Roaming\Python\Python36\site-packages\tensorflow\python\platform\app.py”, line 125, in run
_sys.exit(main(argv))
File “C:/Users/Felix/PycharmProjects/CSDN/bert-master/run_classifier.py”, line 890, in main
train_examples = processor.get_train_examples(FLAGS.data_dir)
File “C:/Users/Felix/PycharmProjects/CSDN/bert-master/run_classifier.py”, line 351, in get_train_examples
raise train_data
TypeError: exceptions must derive from BaseException文章来源地址https://www.toymoban.com/news/detail-446651.html

到了这里,关于python_谷歌开源BERT模型文本分类出现的相关报错记录的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Bert + 架构解决文本分类任务

    ![在这里插入图片描述] 一般任务 = 预训练 + 架构 + 应用 在本文中,我们将用 BERT + 架构去实现文本分类 任务 未使用BERT架构,使用基本的模型架构解决文本分类任务的可见这篇文章 中文文本分类,基本模型的pytoch实现 - 影子的文章 - 知乎 https://zhuanlan.zhihu.com/p/577121058 BERT 最

    2023年04月13日
    浏览(41)
  • NLP之Bert实现文本分类

    首先,概述一下代码的主要目的和流程。 主要目的 : 此代码的主要目的是使用BERT模型进行序列分类。具体来说,它似乎是在处理某种情感分析任务,因为代码中读取了标签和文本,并试图用BERT模型来进行分类(假设为正面或负面情感,因为 num_labels=2 )。 整体流程 : 导入

    2024年02月05日
    浏览(45)
  • 使用 BERT 进行文本分类 (01/3)

    摄影:Max Chen on Unsplash         这是使用 BERT 语言模型的一系列文本分类演示的第一部分。以文本的分类作为例,演示它们的调用过程。

    2024年02月12日
    浏览(44)
  • 使用 BERT 进行文本分类 (03/3)

            在使用BERT(2)进行文本分类时,我们讨论了什么是PyTorch以及如何预处理我们的数据,以便可以使用BERT模型对其进行分析。在这篇文章中,我将向您展示如何训练分类器并对其进行评估。         上次,我们使用train_test_split将数据拆分为测试和验证数据。接

    2024年02月10日
    浏览(40)
  • 使用 BERT 进行文本分类 (02/3)

    ​         在使用BERT(1)进行文本分类中,我向您展示了一个BERT如何标记文本的示例。在下面的文章中,让我们更深入地研究是否可以使用 BERT 来预测文本是使用 PyTorch 传达积极还是消极的情绪。首先,我们需要准备数据,以便使用 PyTorch 框架进行分析。         

    2024年02月12日
    浏览(48)
  • 用pytorch进行BERT文本分类

    BERT 是一个强大的语言模型,至少有两个原因: 它使用从 BooksCorpus (有 8 亿字)和 Wikipedia(有 25 亿字)中提取的未标记数据进行预训练。 顾名思义,它是通过利用编码器堆栈的双向特性进行预训练的。这意味着 BERT 不仅从左到右,而且从右到左从单词序列中学习信息。 B

    2024年02月11日
    浏览(47)
  • [oneAPI] 使用Bert进行中文文本分类

    比赛:https://marketing.csdn.net/p/f3e44fbfe46c465f4d9d6c23e38e0517 Intel® DevCloud for oneAPI:https://devcloud.intel.com/oneapi/get_started/aiAnalyticsToolkitSamples/ 在本次实验中,我们利用PyTorch和Intel® Optimization for PyTorch的强大功能,对PyTorch进行了精心的优化和扩展。这些优化举措极大地增强了PyTorch在各

    2024年02月12日
    浏览(44)
  • 使用Bert,ERNIE,进行中文文本分类

    GitHub - 649453932/Bert-Chinese-Text-Classification-Pytorch: 使用Bert,ERNIE,进行中文文本分类 使用Bert,ERNIE,进行中文文本分类. Contribute to 649453932/Bert-Chinese-Text-Classification-Pytorch development by creating an account on GitHub. https://github.com/649453932/Bert-Chinese-Text-Classification-Pytorch   gayhub上有一个项目

    2024年02月12日
    浏览(90)
  • 3 文本分类入门finetune:bert-base-chinese

    项目实战:         `bert-base-chinese` 是一种预训练的语言模型,基于 BERT(Bidirectional Encoder Representations from Transformers)架构,专门用于中文自然语言处理任务。BERT 是由 Google 在 2018 年提出的一种革命性的预训练模型,通过大规模的无监督训练,能够学习到丰富的语言表示

    2024年02月04日
    浏览(45)
  • Python数据分析案例33——新闻文本主题多分类(Transformer, 组合模型) 模型保存

    对于海量的新闻,我们可能需要进行文本的分类。模型构建很重要,现在对于自然语言处理基本都是神经网络的方法了。 本次这里正好有一组质量特别高的新闻数据,涉及  \\\'教育\\\' \\\'科技\\\' \\\'社会\\\' \\\'时政\\\' \\\'财经\\\' \\\'房产\\\' \\\'家居\\\'  七大主题,基本涵盖了所有的常见的新闻类型。每个

    2024年01月17日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包