[linux] huggingface transformers 如何下载模型至本地 & git lfs install 报错

这篇具有很好参考价值的文章主要介绍了[linux] huggingface transformers 如何下载模型至本地 & git lfs install 报错。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

bert-base-uncased at main

一、官方给出的命令:

# Make sure you have git-lfs installed (https://git-lfs.com)
git lfs install
git clone https://huggingface.co/bert-base-uncased



# if you want to clone without large files – just their pointers
# prepend your git clone with the following env var:
GIT_LFS_SKIP_SMUDGE=1

但是 git lfs install 的时候报错。

于是查了一下。。。。安装lfs是要这样: 

二、安装 lfs

You can't directly use

git lfs install

Instead of that, you can use these commands to download and install (you have to download it before installing).

# for linux
# 如果报错,则用 sudo apt-get update
sudo apt-get install git-lfs
git-lfs install
# for mac
brew install git-lfs
#用git-lfs install检查是否正确安装
git-lfs install

网络不好mac报错:重新安了一下brew install git-lfs。。

[linux] huggingface transformers 如何下载模型至本地 & git lfs install 报错,linux,linux,git,github

三、 再用官方的命令下载。

如果失败,则。。。可能是网络太差。。。。

最终,我还是给 from_pretrained 套了循环,来解决的。。。。。。。

如果不套循环,会报错 " requests.exceptions.ConnectionError: ('Connection aborted.', ConnectionResetError(104, 'Connection reset by peer'))" 。。。。。。。。。。。。。。。。。。。。。文章来源地址https://www.toymoban.com/news/detail-688167.html

class Trainer(object):
    def __init__(self, args, train_dataset=None, dev_dataset=None, test_dataset=None):
        self.args = args
        self.train_dataset = train_dataset
        self.dev_dataset = dev_dataset
        self.test_dataset = test_dataset

        self.intent_label_lst = get_intent_labels(args)
        self.slot_label_lst = get_slot_labels(args)
        # Use cross entropy ignore index as padding label id so that only real label ids contribute to the loss later
        self.pad_token_label_id = args.ignore_index

        self.config_class, self.model_class, _ = MODEL_CLASSES[args.model_type]
        #self.config = self.config_class.from_pretrained(args.model_name_or_path, finetuning_task=args.task, output_hidden_states=args.output_hidden_states)
        self.config = self.config_class.from_pretrained(args.model_name_or_path, finetuning_task=args.task)
        ################## [O.O]这是一个循环,解决下不下来模型的问题 #################
        nb_tries = 20
        while nb_tries>0:
            nb_tries -= 1
            try:
                self.model = self.model_class.from_pretrained(args.model_name_or_path,
                                                      config=self.config,
                                                      args=args,
                                                      intent_label_lst=self.intent_label_lst,
                                                      slot_label_lst=self.slot_label_lst)
                break
            except:
                time.sleep(0.1)
        #########################################################################
        # GPU or CPU
        self.device = "cuda" if torch.cuda.is_available() else "cpu"
        # self.device = "cuda" if torch.cuda.is_available() and not args.no_cuda else "cpu"
        self.model.to(self.device)

到了这里,关于[linux] huggingface transformers 如何下载模型至本地 & git lfs install 报错的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • 【工程实践】使用git clone 批量下载huggingface模型文件

    【工程实践】使用git clone 批量下载huggingface模型文件

            经常需要下载模型到服务器,使用git clone方法可以快速实现模型下载。         以下载moka-ai/m3e-base为例,切换到Files and versions。         如上图所示,当前要下载模型网页的url为:         只需要将url中的/tree/main改为git即可,更改后的命令如下所示:      

    2024年02月08日
    浏览(9)
  • huggingface学习 | 云服务器使用git-lfs下载huggingface上的模型文件

    huggingface学习 | 云服务器使用git-lfs下载huggingface上的模型文件

    huggingface官网链接:https://huggingface.co/ 以stable-diffusion-inpant为例:模型链接为stable-diffusion-inpant 点击clone repository,可以发现提供了两种下载方式,方式一为HTTPS,代码如下,然而国内使用代理访问的时候采用这种方式会报错:Failed to connect to huggingface.co port 443 after 127293 ms: Cou

    2024年01月19日
    浏览(13)
  • centOs安装git-lfs并下载huggingface模型

    hf模型都是用git-lfs托管的,可以直接git下载的,天才第一步: 1、安装git-lfs 2、直接git clone 3、测试模型opt-1.3b

    2024年02月12日
    浏览(11)
  • 如何从huggingface官网下载模型

    如何从huggingface官网下载模型

    何从huggingface官网下载模型 操作步骤: 首先打开huggingface官网:https://huggingface.co/ 进入官网之后,点击“Models\\\",如下图:   如果想要下载数据集,则同样的操作方法,点击”Datasets“. 进入”Models“,之后,在搜索框,输入想要download的模型名称。本文示例是:bert-base-cased   找

    2024年02月11日
    浏览(9)
  • 【AI之路】使用Jan.ai在本地部署大模型开启AI对话(含通过huggingface下载大模型,实现大模型自由)

    【AI之路】使用Jan.ai在本地部署大模型开启AI对话(含通过huggingface下载大模型,实现大模型自由)

    2023年是AIGC元年。以后,每个人多少都会接触到GPT带来的变化。别人都在用,我们也不能落下。ChatGPT咱用不了,可以用国内的各种大模型。另外,我们还可以把大模型放到本地电脑上运行,不信?咱往下看! 使用Jan.ai在本地调用大模型进行对话 下面就让我们的主角登场。

    2024年02月02日
    浏览(11)
  • 通过clone的方式,下载huggingface中的大模型(git lfs install)

    通过clone的方式,下载huggingface中的大模型(git lfs install)

    1、如图:可以手动一个个文件下载,但是那样太慢了,此时,可以点击下图圈起来的地方。 2、点击【Clone repository】,在命令行中,输入【git lfs install】(安装了这个,才会下载大文件,不然图中的.bin文件都是不会被下载的) 3、再git clone https://huggingface.co/THUDM/chatglm2-6b,在

    2024年02月10日
    浏览(8)
  • 如何优雅地下载huggingface上模型,以llama2模型下载为例

    如何优雅地下载huggingface上模型,以llama2模型下载为例

    由于llama2模型的下载需要经过官方的授权,这就需要登陆hugging face的,对模型页面进行申请。等待审核通过后,才能够下载。如果在单纯用 git lfs 的方式进行下载,需要输入账号和密码。为了更快速地进行下载,既能够设置密码、也能够设置代理,采用脚本的方式会更加合适

    2024年02月16日
    浏览(6)
  • huggingface transformers loadset 导入本地文件

    点击查看 Huggingface详细入门介绍之dataset库 json : 表示导入的本地文件是 json文件

    2024年02月11日
    浏览(5)
  • 【Linux】【chatGLM-6B】如何从huggingface上下载chatGLM-6B模型于centos系统

    【Linux】【chatGLM-6B】如何从huggingface上下载chatGLM-6B模型于centos系统

    从 https://github.com/git-lfs/git-lfs/releases 这个网址上选择以下框框中的内容进行下载 tar -zxvf git-lfs-linux-amd64-v2.12.1.tar.gz sudo ./install.sh 输入如下代码开始下载: git lfs clone https://huggingface.co/chatglm-6b 直接git clone下载的文件都特别小,不像是完整版的

    2024年02月12日
    浏览(9)
  • huggingface.co下载模型

    huggingface.co下载模型

    1、在测试clip-interrogator 发现BLIP CLIP模型需要离线加载,以下手工下载并指定路径。 并运行TRANSFORMERS_OFFLINE=1 python run.py, run.py如下 其他huggingface的模型处理方法可参考。 2、BLIP模型 根据Readme指引下载,存,指定路径即可。 BLIP//pretrained/model_base_caption_capfilt_large.pth  BLIP//pretrai

    2024年02月04日
    浏览(7)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包