使用LLM插件从命令行访问Llama 2

这篇具有很好参考价值的文章主要介绍了使用LLM插件从命令行访问Llama 2。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

大家好,最近的一个大新闻是Meta AI推出了新的开源授权的大型语言模型Llama 2,这是一项非常重要的进展。Facebook最初的LLaMA模型于今年2月发布,掀起了开源LLM领域的创新浪潮——从微调变体到从零开始的再创造。

如果在Llama 2版本发布之日,由被许可人或被许可人的附属机构提供的产品或服务的月活跃用户在前一个日历月超过7亿,则必须向Meta申请许可,Meta可自行决定是否授予许可,这使得它仍然可以适用于大多数商业用途。

使用LLM访问Llama 2

LLM工具可以通过命令行访问各种语言模型,既可以通过网络应用程序接口访问,也可以在自己的机器上自行托管。添加插件支持以扩展它对新模型的支持,现在一个独立发布的插件可以为现有的CLI工具添加对新模型的支持。

全新的llm-replicate插件提供了对Replicate上托管的模型的CLI访问,a16z-infra发布了a16z-infra/llama13b-v2-chat,该插件提供了对新的Llama 2 13B聊天模型的Replicate API访问,需要一个Replicate API密钥。

使用如下命令安装LLM:

pip install llm

如果没有安装pip,但可以使用Homebrew:

brew install simonw/llm/llm

运行llm--version确认已安装成功。

接下来,安装llm-replicate插件:

llm install llm-replicate

该插件添加了一组新的llm replicate命令——可以使用llm --help查看。

配置Replicate API密钥,以便插件能与API通信:

llm keys set replicate
Enter key: <paste key here>

在插件中注册新的a16z-infra/llama13b-v2-chat模型:

llm replicate add a16z-infra/llama13b-v2-chat \
  --chat --alias llama2

这就告诉插件它是一个“chat”模型,这意味着用户可以与它进行持续对话,而不仅仅是发送单个提示。

现在,可以使用在这里配置的llama2别名发送提示信息:

llm -m llama2 "Ten great names for a pet pelican"

得到的输出如下所示:

当然!以下是十个适合作为宠物鹈鹕的好名字:

  1. 花生(Peanut):一个可爱而活泼的小鹈鹕的名字。

  2. 水洼(Puddles):一个有趣而傻气的名字,适用于喜欢在水中嬉戏的鹈鹕。

  3. 皮特(Pete):一个经典的名字,适合友好外向的鹈鹕。

  4. 彭洛丽(Penelope):一个漂亮而优雅的名字,适合雌性鹈鹕。

  5. 佩西(Percy):一个迷人而精致的名字,适合雄性鹈鹕。

  6. 皮皮(Pippy):一个活泼而亲爱的名字,适合个性活跃的鹈鹕。

  7. 佩尔蒂(Pelty):一个有趣而古怪的名字,适合个性独特的鹈鹕。

  8. 皮普(Pip):一个甜美而讨人喜欢的名字,适合小鹈鹕。

  9. 勇敢(Plucky):一个勇敢而冒险的名字,适合个性鲜明的鹈鹕。

  10. 波比(Poppy):一个可爱而娇嫩的名字,适合性情温和的雌性鹈鹕。

希望这些建议能帮助你为宠物鹈鹕找到一个完美的名字!

由于是聊天模型,可以在同一对话中发送后续提示:

llm -c "Five more and make them more nautical"

Ahoy!这里有五个更具海洋气息的名字,适合你的宠物鹈鹕:

  1. 海鸟(Seabird):适合喜欢海洋及其奇观的鹈鹕的名字。

  2. 船长胡克(Captain Hook):适合勇敢无畏的鹈鹕的英勇名字。

  3. 锚(Anchor):适合始终稳定可靠的鹈鹕的坚固名字。

  4. 芬利(Finley):适合热爱海洋及其生物的鹈鹕的有关鱼的名字。

  5. 轻快(Buoyant):适合心情轻松愉快的鹈鹕的活泼愉快名字。

希望这些建议能让你满意,伙计!

LLM会将通过它发送的每个提示和响应记录到SQLite数据库中,在这里使用--truncate来缩短输出,将输出截断以便在本文中显示:

llm logs --truncate
[
  {
    "id": "01h5n5b3q6s54e03wtvqe90w2g",
    "model": "replicate-a16z-infra-llama13b-v2-chat",
    "prompt": "Five more and make them more nautical",
    "system": null,
    "response": "Ahoy matey! Here be five more nautical-themed names for yer pet pelican:\n\n1. Captain Hook\n2. Anch...",
    "response_json": null,
    "conversation_id": "01h5n5atsqfg4bhxc53j3ymnx2",
    "duration_ms": 7364,
    "datetime_utc": "2023-07-18T18:48:51.999944",
    "conversation_name": "Ten great names for a pet pelic\u2026",
    "conversation_model": "replicate-a16z-infra-llama13b-v2-chat"
  },
  {
    "id": "01h5n5atss6k9zsr5qs5hb2wzd",
    "model": "replicate-a16z-infra-llama13b-v2-chat",
    "prompt": "Ten great names for a pet pelican",
    "system": null,
    "response": "Sure, here are ten great names for a pet pelican:\n\n1. Pelty\n2. Peanut\n3. Puddles\n4. Nibbles\n5. Fu...",
    "response_json": null,
    "conversation_id": "01h5n5atsqfg4bhxc53j3ymnx2",
    "duration_ms": 7873,
    "datetime_utc": "2023-07-18T18:48:42.356413",
    "conversation_name": "Ten great names for a pet pelic\u2026",
    "conversation_model": "replicate-a16z-infra-llama13b-v2-chat"
  }
]

或运行llm logs path命令查看SQLite数据库文件的路径,如果已经安装了Datasette,可以使用以下命令打开日志数据库:

datasette "$(llm logs path)"

或使用Datasette Desktop:

open "$(llm logs path)"

结语

预计随着模型权重的逐步推出,用户将开始看到在其基础上的各种创新。

特别期待以下内容:

  • 微调模型。Alpaca、Vicuna等人在原始LLaMA模型的基础上进行微调,取得了惊人的成就。预计在接下来的几周内,我们将看到数十个微调模型。

  • 实现reAct和Toolformer模式,这将使Llama 2能够以类似于OpenAI Functions的方式驱动外部工具。Llama 2的论文已经提到了针对Toolformer提示的测试,因此希望这不会太困难。

希望能记录什么类型的提示语能与Llama 2效果良好地配合使用,因为预计这一模型在未来一段时间内将成为生态系统中颇具影响力的一部分。文章来源地址https://www.toymoban.com/news/detail-629262.html

到了这里,关于使用LLM插件从命令行访问Llama 2的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • LLM之RAG实战(十六)| 使用Llama-2、PgVector和LlamaIndex构建LLM Rag Pipeline

           近年来,大型语言模型(LLM)取得了显著的进步,然而大模型缺点之一是幻觉问题,即“一本正经的胡说八道”。其中RAG(Retrieval Augmented Generation,检索增强生成)是解决幻觉比较有效的方法。本文,我们将深入研究使用 transformer库 、 Llama-2模型 、 PgVector数据库 和

    2024年01月21日
    浏览(45)
  • LLM大模型推理加速实战:vllm、fastllm与llama.cpp使用指南

    随着人工智能技术的飞速发展,大型语言模型(LLM)在诸如自然语言处理、智能问答、文本生成等领域的应用越来越广泛。然而,LLM模型往往具有庞大的参数规模,导致推理过程计算量大、耗时长,成为了制约其实际应用的关键因素。为了解决这个问题,一系列大模型推理加

    2024年04月13日
    浏览(38)
  • 【LLM系列之LLaMA2】LLaMA 2技术细节详细介绍!

    Llama 2 发布! Meta 刚刚发布了 LLaMa 2,它是 LLaMA 的下一代版本,具有商业友好的许可证。🤯😍 LLaMA 2 有 3 种不同的尺寸:7B、13B 和 70B。 7B 13B 使用与 LLaMA 1 相同的架构,并且是商业用途的 1 对 1 替代🔥 🧮 7B、13B 70B 参数版本 🧠 70B模型采用分组查询注意力(GQA) 🛠 聊天模

    2024年02月16日
    浏览(56)
  • 使用Python访问和操作Llama的方法

    使用Python访问和操作Llama的方法 Llama是一个流行的Python库,用于处理和操作数据集。它提供了丰富的功能和工具,使我们能够轻松地对数据进行处理、转换和分析。本文将介绍如何使用Python来访问和使用Llama库,并提供相应的示例代码。 安装Llama库 首先,我们需要安装Llama库。

    2024年04月12日
    浏览(19)
  • LLM实践-在Colab上使用免费T4 GPU进行Chinese-Llama-2-7b-4bit推理

    一、配置环境 1、打开colab,创建一个空白notebook,在[修改运行时环境]中选择15GB显存的T4 GPU. 2、pip安装依赖python包 注意此时,安装完accelerate后需要重启notebook,不然报如下错误: ImportError: Using low_cpu_mem_usage=True or a device_map requires Accelerate: pip install accelerate 注:参考文章内容

    2024年02月04日
    浏览(50)
  • llama.cpp LLM模型 windows cpu安装部署;运行LLaMA-7B模型测试

    参考: https://www.listera.top/ji-xu-zhe-teng-xia-chinese-llama-alpaca/ https://blog.csdn.net/qq_38238956/article/details/130113599 cmake windows安装参考:https://blog.csdn.net/weixin_42357472/article/details/131314105 1、下载: 2、编译 3、测试运行 参考: https://zhuanlan.zhihu.com/p/638427280 模型下载: https://huggingface.co/nya

    2024年02月15日
    浏览(52)
  • 【LLM系列之LLaMA】LLaMA: Open and Efficient Foundation Language Models

    LLaMA 是 Meta AI 发布的包含 7B、13B、33B 和 65B 四种参数规模的基础语言模型集合,LLaMA-13B 仅以 1/10 规模的参数在多数的 benchmarks 上性能优于 GPT-3(175B),LLaMA-65B 与业内最好的模型 Chinchilla-70B 和 PaLM-540B 比较也具有竞争力。 主要贡献: 开源一系列语言模型,可以与SOTA模型竞争

    2024年02月10日
    浏览(90)
  • llama.cpp LLM模型 windows cpu安装部署;运行LLaMA2模型测试

    参考: https://www.listera.top/ji-xu-zhe-teng-xia-chinese-llama-alpaca/ https://blog.csdn.net/qq_38238956/article/details/130113599 cmake windows安装参考:https://blog.csdn.net/weixin_42357472/article/details/131314105 1、下载: 2、编译 3、测试运行 参考: https://zhuanlan.zhihu.com/p/638427280 模型下载: https://huggingface.co/nya

    2024年02月16日
    浏览(41)
  • LLM__llama-7B模型试验

    llama模型已经开源很久了,所以拿做小的模型做了个简单尝试 因为做简单尝试并不打算长期持有,所以以便宜、够用、好退货为主要参考依据购买阿里云服务器、 我看7B的模型权重大小就13GB,所以先购入一个 32GB内存的虚拟机 CPU内存: 4核(vCPU) 32 GiB ~ 操作系统: Alibaba Cloud Lin

    2024年02月09日
    浏览(41)
  • LLM微调(四)| 微调Llama 2实现Text-to-SQL,并使用LlamaIndex在数据库上进行推理

            Llama 2是开源LLM发展的一个巨大里程碑。最大模型及其经过微调的变体位居Hugging Face Open LLM排行榜(https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard)前列。多个基准测试表明,就性能而言,它正在接近GPT-3.5(在某些情况下甚至超过它)。所有这些都意味着,对于从

    2024年02月03日
    浏览(54)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包