上传、下载huggingface仓库文件(模型、数据等)

这篇具有很好参考价值的文章主要介绍了上传、下载huggingface仓库文件(模型、数据等)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

下载

例如,想要从huggingface hub下载llama-13b模型文件到本地:
上传、下载huggingface仓库文件(模型、数据等),深度学习,git,深度学习,llama

可以用如下命令,local_dir就是你想要下载到的本地文件夹:

from huggingface_hub import snapshot_download
snapshot_download(repo_id="decapoda-research/llama-13b-hf",cache_dir="./cache", local_dir="./model_weights/llama-13b-hf")

上述命令等价于git clone,更多参数, 例如过滤、指定文件,建立符号链接等,详见官网教程:

  • Download files from the Hub

上传

想要上传文件,例如模型权重的话,首先得找到自己huggingface hub的access code
上传、下载huggingface仓库文件(模型、数据等),深度学习,git,深度学习,llama

然后将自己的access code设置到自己的机器上:

pip install huggingface_hub  ## 如果没有安装huggingface_hub库
python -c "from huggingface_hub.hf_api import HfFolder; HfFolder.save_token('MY_HUGGINGFACE_TOKEN_HERE')"

最后用如下命令,把相关文件(模型、tokenizer)上传就行(等价于git push)。

pt_model.push_to_hub("my-awesome-model")  # 这里的my-awesome-model就是你仓库的名字(用户名+仓库名),例如“Reza8848/MUFFIN-T5-3B”
tokenizer.push_to_hub("my-awesome-model")

注意,如果遇到类似于TypeError: create_repo() got an unexpected keyword argument 'organization'的报错,需要把huggingface hub的版本更新

pip install transformers==4.24.0
pip install --upgrade huggingface_hub  # 确保更新huggingface hub到最新版本
python -c "from huggingface_hub.hf_api import HfFolder; HfFolder.save_token('MY_HUGGINGFACE_TOKEN_HERE')" # 记得重新再设置一次access token

之后再上传模型。


参考:文章来源地址https://www.toymoban.com/news/detail-522166.html

  • https://stackoverflow.com/questions/75385142/tokenizer-push-to-hubrepo-name-is-not-working
  • https://discuss.huggingface.co/t/how-to-login-to-huggingface-hub-with-access-token/22498

到了这里,关于上传、下载huggingface仓库文件(模型、数据等)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 通过git clone批量下载huggingface模型和数据集

    想要下载huggingface的模型,却发现只能一个个文件下载非常不方便,又或者官方提供的api不好用或者下载不下来,这里提供一个通过git clone一次性下载整个数据集/模型下来的高效方法。 如果不使用代理clone非常慢,可以选择先配置git全局代理。在terminal中执行如下命令: 或在

    2024年02月11日
    浏览(61)
  • huggingface.co下载模型

    1、在测试clip-interrogator 发现BLIP CLIP模型需要离线加载,以下手工下载并指定路径。 并运行TRANSFORMERS_OFFLINE=1 python run.py, run.py如下 其他huggingface的模型处理方法可参考。 2、BLIP模型 根据Readme指引下载,存,指定路径即可。 BLIP//pretrained/model_base_caption_capfilt_large.pth  BLIP//pretrai

    2024年02月04日
    浏览(25)
  • huggingface如何使用ssh命令,下载数据集或者模型 比如:git clone git@hf.co:openchat/openchat_8192

    今天抽空整理了一下笔记。 #linux服务器中,使用ssh下载huggingface模型或者数据集 1.访问huggingface个人主页(profile)里的settings https://huggingface.co/settings/profile 2.点击左侧:SSH AND GPG keys 先开始准备工作: 准备工作:https://huggingface.co/docs/hub/security-git-ssh#generating-a-new-ssh-keypair 准备

    2024年02月12日
    浏览(24)
  • 下载huggingface上模型的正确姿势

    更多、更及时内容欢迎留意 微信公众号 : 小窗幽记机器学习 之前下载huggingface上模型的时候,要么是用类似如下脚本的方式下载: 要么是在 Files and versions 中点击目标文件逐一下载: 那么是否有更方便的方式,一行命令直接下载整个模型文件?有的,使用 git lfs 即可。 L

    2024年02月11日
    浏览(26)
  • 如何从huggingface官网下载模型

    何从huggingface官网下载模型 操作步骤: 首先打开huggingface官网:https://huggingface.co/ 进入官网之后,点击“Models\\\",如下图:   如果想要下载数据集,则同样的操作方法,点击”Datasets“. 进入”Models“,之后,在搜索框,输入想要download的模型名称。本文示例是:bert-base-cased   找

    2024年02月11日
    浏览(24)
  • Huggingface镜像网站下载语言模型方法

    通常通过镜像网站下载https://hf-mirror.com/。 在链接页面有介绍方法,对于不大的模型可以直接下载。这里介绍比较常用且方便的下载方法。 安装(huggingface_hub、hf_transfer安装可以使用-i命令从镜像网站下载) 基本命令(每次打开远程链接都要输入) 下载模型(下载NousResearch

    2024年02月21日
    浏览(67)
  • 从服务器上直接下载huggingface模型,解决huggingface无法连接问题

    在服务器上使用huggingface模型时,如果直接指定模型名称,用AutoTokenizer.from_pretrained(“model_name”),可能会由于网络原因会报错 Failed to connect to huggingface.co port 443 after 75018 ms: Operation time out 因此我们需要下载模型到服务器上,得到模型本地的路径model_dir,再通过AutoTokenizer.fro

    2024年02月04日
    浏览(82)
  • 【tips】huggingface下载模型权重的方法

    方法1:直接在Huggingface上下载,但是要fanqiang,可以git clone或者在代码中: 方法2:使用modelscope: 方法3:使用hf的镜像网站,https://hf-mirror.com/baichuan-inc 代码还是使用的huggingface那坨,但是在terminal运行代码时加上 HF_ENDPOINT=https://hf-mirror.com : 注:huggingface的镜像网站下载llam

    2024年02月08日
    浏览(40)
  • 如何优雅地下载huggingface上模型,以llama2模型下载为例

    由于llama2模型的下载需要经过官方的授权,这就需要登陆hugging face的,对模型页面进行申请。等待审核通过后,才能够下载。如果在单纯用 git lfs 的方式进行下载,需要输入账号和密码。为了更快速地进行下载,既能够设置密码、也能够设置代理,采用脚本的方式会更加合适

    2024年02月16日
    浏览(37)
  • 【AI之路】使用huggingface_hub优雅解决huggingface大模型下载问题

    Hugging face 资源很不错,可是国内下载速度很慢,动则GB的大模型,下载很容易超时,经常下载不成功。很是影响玩AI的信心。(有人说用迅雷啊,试试就知道有无奈。) 经过多次测试,终于搞定了下载,即使超时也可以继续下载。真正实现下载无忧!究竟如何实现?且看本文

    2024年02月09日
    浏览(21)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包