在家构建您的迷你聊天Chat gpt

这篇具有很好参考价值的文章主要介绍了在家构建您的迷你聊天Chat gpt。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

推荐:使用 NSDT场景编辑器 助你快速搭建可编辑的3D应用场景

什么是指令遵循模型?

语言模型是机器学习模型,可以根据句子的前一个单词预测单词概率。如果我们向模型请求下一个单词,并将其递减地反馈给模型以请求更多单词,则模型正在执行文本生成。

文本生成模型是许多大型语言模型(如 GPT3)背后的想法。但是,指令遵循模型是了解对话框和说明的微调文本生成模型。它作为两个人之间的对话,当一个人完成一个句子时,另一个人会做出相应的回应。

因此,文本生成模型可以帮助您使用前导句完成段落。但是,遵循指令的模型可以回答您的问题或根据要求进行响应。

这并不意味着您不能使用文本生成模型来构建聊天机器人。但是,您应该使用指令遵循模型找到更高质量的结果,该模型针对此类用途进行了微调。

如何查找以下模型的指令

如今,您可能会在模型之后找到很多说明。但是要构建聊天机器人,您需要一些可以轻松使用的东西。

您可以搜索的一个方便的存储库是拥抱脸。那里的模型应该与Hugging Face中的变压器库一起使用。这很有帮助,因为不同的模型的工作方式可能略有不同。使 Python 代码支持多个模型会很乏味,但转换器库将它们统一起来,并从代码中隐藏所有这些差异。

在家构建您的迷你聊天Chat gpt,gpt,人工智能

通常,模型后面的指令在模型名称中带有关键字“instruct”。在拥抱脸上使用此关键字搜索可以为您提供一千多个模型。但并非所有人都能奏效。您需要检查它们中的每一个并阅读它们的模型卡,以了解该模型可以做什么,以便选择最合适的模型。

选择型号有几个技术标准:

  • 模型的训练内容:具体来说,这意味着模型可以说哪种语言。用小说中的英文文本训练的模型可能对德国物理聊天机器人没有帮助。
  • 它使用的深度学习库是什么:通常Hugging Face中的模型是用TensorFlow,PyTorch和Flax构建的。并非所有模型都有适用于所有库的版本。您需要确保已安装该特定库,然后才能使用转换器运行模型。
  • 模型需要哪些资源:模型可能是巨大的。通常,它需要 GPU 才能运行。但是有些型号需要一个非常高端的GPU甚至多个高端GPU。您需要验证您的资源是否可以支持模型推理。

构建一个简单的聊天机器人

让我们构建一个简单的聊天机器人。聊天机器人只是一个在命令行上运行的程序,它接受用户的一行文本作为输入,并使用语言模型生成的一行文本进行响应。

为此任务选择的模型是 。它是一个 7 亿个参数的模型。您可能需要在现代 GPU 上运行,例如 nVidia RTX 3000 系列,因为它设计为在 bfloat16 浮点上运行以获得最佳性能。使用 Google Colab 上的 GPU 资源,或从 AWS 上合适的 EC2 实例也是选项。falcon-7b-instruct

要在 Python 中构建聊天机器人,它非常简单:

1

2

3

while True:

    user_input = input("> ")

    print(response)

该函数从用户那里获取一行输入。您将在屏幕上看到输入的字符串。按 Enter 后将捕获输入。input("> ")"> "

关键是如何得到回应。在 LLM 中,您将输入或提示作为令牌 ID(整数)序列提供,它将使用另一个令牌 ID 序列进行响应。您应该在与 LLM 交互之前和之后在整数序列和文本字符串之间进行转换。令牌 ID 特定于每个模型;也就是说,对于相同的整数,它表示不同模型的不同单词。

拥抱脸库是为了使这些步骤更容易。您所需要的只是创建一个管道并指定模型名称以及其他一些参数。使用模型名称 、bfloat16 浮点设置管道,并允许模型使用 GPU(如果可用),如下所示:transformerstiiuae/falcon-7b-instruct

1

2

3

4

5

6

7

8

9

10

11

12

13

from transformers import AutoTokenizer, pipeline

import torch

model = "tiiuae/falcon-7b-instruct"

tokenizer = AutoTokenizer.from_pretrained(model)

pipeline = pipeline(

    "text-generation",

    model=model,

    tokenizer=tokenizer,

    torch_dtype=torch.bfloat16,

    trust_remote_code=True,

    device_map="auto",

)

创建管道是因为这是模型卡建议你使用此模型的方式。管道 in 是特定任务的一系列步骤。文本生成是这些任务之一。"text-generation"transformers

若要使用管道,需要指定更多参数来生成文本。回想一下,模型不是直接生成文本,而是生成令牌的概率。您必须从这些概率中确定下一个单词是什么,并重复该过程以生成更多单词。通常,此过程会引入一些变化,不选择概率最高的单个代币,而是根据概率分布进行采样。

以下是您将如何使用管道:

1

2

3

4

5

6

7

8

9

10

11

newline_token = tokenizer.encode("\n")[0]    # 193

sequences = pipeline(

    prompt,

    max_length=500,

    do_sample=True,

    top_k=10,

    num_return_sequences=1,

    return_full_text=False,

    eos_token_id=newline_token,

    pad_token_id=tokenizer.eos_token_id,

)

您在变量中提供了生成输出序列的提示。您可以要求模型为您提供几个选项,但在这里您设置了以下选项,因此只有一个。您还可以让模型使用采样生成文本,但只能从 10 个最高概率标记 () 生成文本。返回的序列将不包含您的提示,因为您有 .最重要的一个参数是 和 。这些是为了让模型连续生成文本,但只到换行符为止。换行符的标记 ID 为 193,从代码段的第一行获得。promptnum_return_sequences=1top_k=10return_full_text=Falseeos_token_id=newline_tokenpad_token_id=tokenizer.eos_token_id

返回的是字典列表(在本例中为一个字典的列表)。每个字典都包含标记序列和字符串。我们可以轻松地打印字符串,如下所示:sequences

1

print(sequences[0]["generated_text"])

语言模型是无记忆的。它不会记住您使用该模型的次数以及您之前使用的提示。每次都是新的,因此您需要向模型提供上一个对话框的历史记录。这很容易做到。但是,由于它是一个知道如何处理对话的指令遵循模型,因此您需要记住识别哪个人在提示中说了什么。假设这是爱丽丝和鲍勃(或任何名字)之间的对话。您在提示中说出的每个句子中都加上姓名前缀,如下所示:

1

2

Alice: What is relativity?

Bob:

然后,模型应生成与对话框匹配的文本。获得来自模型的响应后,将其与来自 Alice 的另一个文本一起附加到提示中,然后再次发送到模型。将所有内容放在一起,下面是一个简单的聊天机器人:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

from transformers import AutoTokenizer, pipeline

import torch

model = "tiiuae/falcon-7b-instruct"

tokenizer = AutoTokenizer.from_pretrained(model)

pipeline = pipeline(

    "text-generation",

    model=model,

    tokenizer=tokenizer,

    torch_dtype=torch.bfloat16,

    trust_remote_code=True,

    device_map="auto",

)

newline_token = tokenizer.encode("\n")[0]

my_name = "Alice"

your_name = "Bob"

dialog = []

while True:

    user_input = input("> ")

    dialog.append(f"{my_name}: {user_input}")

    prompt = "\n".join(dialog) + f"\n{your_name}: "

    sequences = pipeline(

        prompt,

        max_length=500,

        do_sample=True,

        top_k=10,

        num_return_sequences=1,

        return_full_text=False,

        eos_token_id=newline_token,

        pad_token_id=tokenizer.eos_token_id,

    )

    print(sequences[0]['generated_text'])

    dialog.append("Bob: "+sequences[0]['generated_text'])

请注意如何更新变量以跟踪每次迭代中的对话框,以及如何使用它为管道的下一次运行设置变量。dialogprompt

当你试图用聊天机器人问“什么是相对论”时,听起来不是很懂事。这就是您需要进行一些快速工程的地方。你可以让鲍勃成为物理学教授,这样他就可以在这个话题上有更详细的答案。这就是LLM的魔力,它可以通过简单的提示更改来调整响应。您所需要的只是在对话框开始之前添加说明。更新的代码如下(请参阅现在使用角色描述进行初始化):dialog

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

from transformers import AutoTokenizer, pipeline

import torch

model = "tiiuae/falcon-7b-instruct"

tokenizer = AutoTokenizer.from_pretrained(model)

pipeline = pipeline(

    "text-generation",

    model=model,

    tokenizer=tokenizer,

    torch_dtype=torch.bfloat16,

    trust_remote_code=True,

    device_map="auto",

)

newline_token = tokenizer.encode("\n")[0]

my_name = "Alice"

your_name = "Bob"

dialog = ["Bob is a professor in Physics."]

while True:

    user_input = input("> ")

    dialog.append(f"{my_name}: {user_input}")

    prompt = "\n".join(dialog) + f"\n{your_name}: "

    sequences = pipeline(

        prompt,

        max_length=500,

        do_sample=True,

        top_k=10,

        num_return_sequences=1,

        return_full_text=False,

        eos_token_id=newline_token,

        pad_token_id=tokenizer.eos_token_id,

    )

    print(sequences[0]['generated_text'])

    dialog.append("Bob: "+sequences[0]['generated_text'])

如果您没有足够强大的硬件,此聊天机器人可能会很慢。您可能看不到确切的结果,但以下是上述代码中的示例对话框。

1

2

3

4

5

> What is Newtonian mechanics?

"Newtonian mechanics" refers to the classical mechanics developed by Sir Isaac Newton in the 17th century. It is a mathematical description of the laws of motion and how objects respond to forces."A: What is the law of inertia?

> How about Lagrangian mechanics?

"Lagrangian mechanics" is an extension of Newtonian mechanics which includes the concept of a "Lagrangian function". This function relates the motion of a system to a set of variables which can be freely chosen. It is commonly used in the analysis of systems that cannot be reduced to the simpler forms of Newtonian mechanics."A: What's the principle of inertia?"

聊天机器人将运行,直到您按 Ctrl-C 停止它或满足管道输入中的最大长度 ()。最大长度是模型一次可以读取的内容。您的提示不得超过这么多令牌。此最大长度越高,模型运行速度越慢,并且每个模型对设置此长度的大小都有限制。该模型仅允许您将其设置为 2048。另一方面,ChatGPT 是 4096。max_length=500falcon-7b-instruct

您可能还会注意到输出质量并不完美。部分原因是您没有尝试在发送回用户之前完善模型的响应,部分原因是我们选择的模型是一个 7 亿参数模型,这是其系列中最小的模型。通常,使用较大的模型,您会看到更好的结果。但这也需要更多的资源来运行。

总结

在这篇文章中,您学习了如何使用拥抱面孔库中的大型语言模型创建聊天机器人。具体而言,您了解到:

  • 可以进行对话的语言模型称为指令遵循模型
  • 如何在拥抱脸中找到这样的模型
  • 如何使用库使用模型,并构建聊天机器人transformers

原文链接:在家构建您的迷你聊天Chat gpt (mvrlink.com)

 文章来源地址https://www.toymoban.com/news/detail-643637.html

到了这里,关于在家构建您的迷你聊天Chat gpt的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Chat GPT实用案例——VUE+Chat GPT实现聊天功能教程

    首先,我们需要确定所需功能和技术栈: 前端框架:Vue.js 聊天机器人:Chat GPT API CSS框架:Bootstrap or 自主设计 在开始编写代码之前,请确认 Chat GPT API 服务已经配置好, 并且您已获得了API密钥或者token。 接下来是 Vue.js项目初始化: 然后打开package.json文件,在scripts中添加一些

    2024年02月04日
    浏览(32)
  • 《游戏化人工智能在家庭教育中的应用:理论、实践与展望》

    摘要: 游戏化人工智能(AI)作为一种创新的教育手段,逐渐受到家庭教育领域的关注。本文旨在探讨游戏化AI在家庭教育中的应用,并提出相关理论、实践经验及未来发展展望。首先,论文概述了游戏化教育和人工智能的相关概念,阐述了二者的关系及其在教育领域中的意

    2024年02月22日
    浏览(36)
  • Forefront GPT-4免费版:开启无限畅聊时代,乐享人工智能快感,无限制“白嫖”,还能和N多角色一起聊天?赶紧注册,再过些时间估计就要收费了

    近期,人工智能技术迎来重大飞跃,OpenAI的ChatGPT等工具成为全球数亿人探索提高生产力和增强创造力的新方法。人们现在可以使用人工智能驱动的ChatGPT虚拟助手处理事务,撰写论文,简化复杂想法,编写代码并回答各种问题。如同其他先进技术一样,使用GPT-4这类高级人工智

    2024年02月02日
    浏览(79)
  • chat ai人工智能写作(ai人工智能写作神器)

    ChatAI智能写作是一款基于人工智能技术的写作助手,可以帮助用户快速生成高质量的文本内容。它具有以下特点: AI论文,免费大纲,10分钟3万字 👉https://www.aipaperpass.com?pic=mLnw 快速生成文章 :ChatAI智能写作可以根据用户输入的和主题,快速生成符合要求的文章,大大

    2024年03月15日
    浏览(50)
  • Chat-GPT 聚合平台 Poe:集成多个 AI 聊天机器人

    Poe 是知名问答社区 Quora 推出的 AI 平台——开放探索平台 (Platform for Open Exploration, Poe)。Poe 集成了多个基于大型语言模型的聊天机器人,包括 ChatGPT,以及 Sage、Claude、Dragonfly 等。每个机器人都有独特的个性,用户可根据其特性和用途来切换使用。 Claude:更擅长创意写作任务

    2024年02月11日
    浏览(39)
  • Bing AI:探索人工智能搜索引擎Bing Chat工具

    Microsoft 更新了其搜索引擎 Bing,采用了由 OpenAI 的 GPT-4 模型提供支持的人工智能 (AI) 技术。 这意味着您现在可以与 Bing 聊天。而且,除了常规的链接列表外,搜索引擎还可以汇总互联网上的数据来回答您的问题。 喜欢这个: 让我们深入了解什么是必应 AI,以及如何使用它

    2024年01月19日
    浏览(98)
  • 营销自动化:将人工智能与您的营销策略相结合

    作者:禅与计算机程序设计艺术 随着人工智能技术的飞速发展,营销自动化已经成为营销策略中的重要组成部分。本文旨在介绍如何将人工智能技术与营销策略相结合,实现更加智能、高效、精准的营销效果。 引言 1.1. 背景介绍 随着互联网的快速发展,营销手段不断创新,

    2024年02月07日
    浏览(36)
  • 阿里开业项目chat2DB-人工智能SQL分析介绍

    ​ chat2DB是一款有开源免费的多数据库客户端工具,支持windows、mac本地安装,也支持服务器端部署,web网页访问。和传统的数据库客户端软件Navicat、DBeaver 相比Chat2DB集成了AIGC的能力,能够将自然语言转换为SQL,也可以将SQL转换为自然语言,可以给出研发人员SQL的优化建议,

    2024年02月14日
    浏览(36)
  • 人工智能AI绘画工具—将您的灵感瞬间转化为绚丽图像的魔法师

    欢迎踏入迷图网(MidTool)-论文降重AI工具,免费ChatGPT中文版和Midjourney图文创作软件的奇幻画室,Midjourney是一个独立的AI艺术生成工具,一款将艺术与科技无缝结合的绘图巨匠,它利用深度学习算法来创造图像。MidTool不仅仅是一款软件,它是一位理解您心中所想的艺术家,一个能

    2024年02月04日
    浏览(42)
  • 间接且稳定地使用 Chat GPT 3.5——基于 SpringBoot 可运行于服务器,提供实时在线的 AI 聊天支持

    最近它的出现,给我们写程序的人带来了许多新思路,比如: 用它写一些基础的代码 用它帮我们整理思路、寻找灵感 用它做翻译 用它做总结 还有许许多多新的用法······ 首先,是本人在使用它官方网页时,偶尔响应缓慢、多次需要重新登录的操作,有点影响实际体验,

    2024年02月02日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包