LLama大模型初体验——Linux服务器部署LLama注意事项

这篇具有很好参考价值的文章主要介绍了LLama大模型初体验——Linux服务器部署LLama注意事项。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

LLama大模型初体验——Linux服务器部署LLama注意事项

一、基本步骤

基本步骤可以参考这个链接:超详细Llama2部署教程——个人gpt体验攻略!

llama开源仓库:https://github.com/facebookresearch/llama

二、注意事项

这里提一些教程链接中没有提及的注意点。

1、Request access to the next version of Llama

在“Request access to the next version of Llama”网页中,Country选择China的话会显示“Sorry, the download is not available in your region”,选择其他选项即可。

2、安装Llama2运行依赖

# 国内环境可以使用清华源加速
 pip install -e . -i https://pypi.tuna.tsinghua.edu.cn/simple

使用这条命令,下载速度更快。

3、下载模型权重

bash download.sh

教程链接中,这条命令有两个“bash”,在linux里面写一个“bash”即可。

我选择下载的是7B-chat,大小约12G,下载耗时大约50min。

下载进度到达99%时,可能报错(大概意思是download.sh文件最后一行运行出错)。重新运行此命令即可(重新运行此命令不会耗费很长时间)。

4、运行模型前,检查torch是否可用

检查方法:进入python环境,依次输入如下命令:

>> import torch
>> torch.cuda.is_available()

如果返回为True,表示torch可用;

如果返回为False,做如下步骤:

①检查安装的pytorch版本与cuda版本是否匹配(可在官网或搜索引擎查找与服务器配置的cuda版本对应的pytorch版本进行下载);

通过nvidia-smi查看cuda版本;通过python中torch.__version__查看pytorch版本

②确认pytorch版本与cuda版本匹配情况下返回仍为False时,使用conda list命令检查安装的pytorch是否为cpu版本。如果是,使用conda uninstall pytorch命令卸载pytorch,然后根据官网提供的安装命令重新安装gpu版本。

参考:torch.cuda.is_available函数总返回False

5、运行模型demo的参数配置

在llama文件夹里有2个py文件,分别用于展示Llama的文本补充(example-text-completion.py)和对话能力(example_chat_completion.py)。

在运行命令的时候,一些参数的配置需要注意,直接按照教程链接的写法会报一些错。

(1)运行example-text-completion.py

可运行的命令:

torchrun --nproc_per_node 1 example_text_completion.py --ckpt_dir llama-2-7b-chat/ --tokenizer_path tokenizer.model --temperature 0.6 --top_p 0.9 --max_gen_len 64 --max_seq_len 128 --max_batch_size 4

--nproc_per_node 1表示每个训练节点只使用1个GPU;

example_text_completion.py表示运行的py文件;

--ckpt_dir表示使用的模型的路径。注意:需要根据自己下载、使用的模型进行更改。如果打算使用的是7B模型,那么ckpt_dir参数是llama-2-7b/;如果打算使用的是7B-chat模型,那么ckpt_dir参数是llama-2-7b-chat/;其他模型同理。

--tokenizer_path表示使用的tokenizer的路径;

--temperature--top_p--max_gen_len--max_seq_len--max_batch_size都是需要配置的参数。此处的参数取值参考了仓库中generation.py中generate()函数的参数默认值。

教程中只配置了--max_seq_len--max_batch_size这两个参数,是会报错的。

运行成功后,虽然没有交互功能,但是会直接显示写在该py文件中的一些prompt的输出:
sorry, the download is not available in your region. llama,服务器,llama,linux

如果想要获取其他问题的输出,可以修改该py文件中的prompts变量。

因为有限制max_seq_len,所以输出长度有限,部分回答看起来并不完整。文章来源地址https://www.toymoban.com/news/detail-767596.html

(2)运行example-chat-completion.py

可运行的命令:

torchrun --nproc_per_node 1 example_chat_completion.py --ckpt_dir llama-2-7b-chat/ --tokenizer_path tokenizer.model --temperature 0.6 --top_p 0.9 --max_seq_len 512 --max_batch_size 4

参数解释同上。

教程中只配置了--max_seq_len--max_batch_size这两个参数,是会报错的。

另外,直接运行此命令可能会在assert bsz <= params.max_batch_size, (bsz, params.max_batch_size)这里报错。max_batch_size经人为设置为4,而bsz对应的是该py文件中dialogs这个列表变量的长度,在文件未被改动的情况下是6,所以会报错。

有两种解决方法:

①调大max_batch_size,大于6即可。但是这种做法可能面临CUDA out of memory.的问题而运行失败;

②删减dialogs列表元素,使其元素剩余个数小于4。

运行成功后,虽然没有交互功能,但是会直接显示写在该py文件中的一些dialogs的输出:
sorry, the download is not available in your region. llama,服务器,llama,linux

如果想要获取其他问题的输出,可以修改该py文件中的dialogs变量。

因为有限制max_seq_len,所以输出长度有限,部分回答看起来并不完整。

到了这里,关于LLama大模型初体验——Linux服务器部署LLama注意事项的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 云服务器免费领用,体验PAI-EAS 5分钟部署Stable Diffusion webUI

    最近发现大家都在体验AIGC的Stable Diffusion 文生图模型,很多博主也分享了详细的本地部署保姆级教程。 为什么选择本地部署Stable Diffusion 因为没有生成数量的限制,不用花钱,不用被NSFW约束,生成时间快,不用排队,自由度高,插件丰富,功能众多,可以调试和个性化的地方

    2024年02月16日
    浏览(40)
  • [最新搭建教程]0基础Linux CentOS7系统服务器本地安装部署ChatGPT模型服务搭建/免费域名绑定网页Https访问/调用open AI的API/GPT3/GPT3.5/GPT4模型接口

    一、关于此文 本文介绍了如何克隆一个开源的项目,通过请求调用OpenAI ChatGPT模型接口,以使用ChatGPT的强大功能。相比于直接登录ChatGPT官网对话,此方法对话过程更为流畅,不会频频出现限流导致对话中断或网络异常;此外,部署完成后无需魔法即可访问,可分享给亲朋好

    2024年02月10日
    浏览(36)
  • Linux-帆软 服务器部署

    (一)下载安装帆软 (1)部署包部署 1、下载已经打包好的 帆软-tomcat安装包,因为该安装包已经把所需要的环境都打包了,下载启动tomcat后就可以用了 具体步骤参考官网:https://help.fanruan.com/finereport/doc-view-2919.html 2、下载的方式可以不采用官网的本地下载再上传的方式,可

    2024年02月09日
    浏览(37)
  • 深度学习模型部署——Flask框架轻量级部署+阿里云服务器

    ​因为参加一个比赛,需要把训练好的深度学习模型部署到web端,第一次做,在网上也搜索了很多教程,基本上没有适合自己的,只有一个b站up主讲的还不错 https://www.bilibili.com/video/BV1Qv41117SR/?spm_id_from=333.999.0.0vd_source=6ca6a313467efae52a28428a64104c10 https://www.bilibili.com/video/BV1Qv41117

    2024年02月07日
    浏览(61)
  • Linux服务器部署ElasticSearch

    服务器部署需要openjdk-8u41-b04-linux-x64-14_jan_2020(jdk1.8 64bit) elasticsearch-7.4.0-linux-x86_64.tar.gz、kibana-7.4.0-linux-x86_64.tar.gz 1、cd /usr/local/src 2、上传openjdk-8u41-b04-linux-x64-14_jan_2020.tar.gz 3、解压tar包 tar -zxvf openjdk-8u41-b04-linux-x64-14_jan_2020.tar.gz 4、配置JAVA_HOME vim /etc/profile 在下方加上如下配置

    2023年04月08日
    浏览(30)
  • GitLab服务器迁移备份及注意事项

    备份时需要保证两个gitlab的版本号一致,例如我的gitlab版本号都为8.8.5。 然后使用以下命令进行备份,注意gitlab需要保持正常运行的状态 备份结束后进入 “ /var/opt/gitlab/backups ” 目录下查看备份文件,备份文件名格式一般为 “ 时间戳_gitlab_backup.tar ”(例如:1675114514_gitlab_b

    2024年02月11日
    浏览(38)
  • 服务器租用和托管有哪些注意事项?

    一:主机托管的注意事项 A:服务器必须在您本地有一定时间的测试运行(3-4天),只有测试过几天的服务器才可以说是稳定的。有一些客户新安装服务器后(甚至还没配置好)就立刻送过来,有可能会导致问题,这样反而耽搁您的时间。安装WINDOWS系统需要打完所有的修改包,包括

    2024年01月21日
    浏览(42)
  • 小程序配置服务器域名:步骤与注意事项

    随着移动互联网的普及,小程序已成为许多企业和开发者的首选应用形式。为了确保小程序的正常运行和最佳用户体验,服务器域名的配置至关重要。本文将详细介绍小程序配置服务器域名的步骤及注意事项。 一、为什么要配置服务器域名? 小程序运行需要后端服务器的支

    2024年02月21日
    浏览(43)
  • 使用物理机服务器应该注意的事项

    使用物理机服务器应该注意的事项 如今云计算的发展已经遍布各大领域,尽管现在的云服务器火遍全网,但是仍有一些大型企业依旧选择使用独立物理服务器,你知道这是为什么吗?壹基比小鑫来告诉你吧。 独立物理服务器托管业务适合大中型企业及新兴网络业务如网络视

    2024年02月09日
    浏览(40)
  • Linux服务器部署若依(ruoyi-vue),从购买服务器到部署完成保姆级教程

    Huawei Cloud EulerOS 还是 centos7,纠结了一段时间,了解到EulerOS是对centos8的延续版本,相当于官方不对centos8继续维护了, 最后还是选 CentOS 7.9 64bit,网上可查找的工具更多且官方还在持续维护。 这里简单购买了一个月先试用一下 点击远程登录 第一步先重置密码 一定在适当的地

    2024年04月14日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包