【大模型】0.5B的大模型通义千问1.5-0.5B-Chat来了!!

这篇具有很好参考价值的文章主要介绍了【大模型】0.5B的大模型通义千问1.5-0.5B-Chat来了!!。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

模型介绍

Qwen1.5是Qwen2的测试版,这是一个基于转换器的纯解码器语言模型,在大量数据上进行了预训练。与之前发布的Qwen相比,改进之处包括:

  • 显著改善了人类对聊天模型的偏好;

  • 对基本模式和聊天模式的多语言支持;

  • 稳定支持32K上下文长度,适用于各种尺寸的模型

  • 不需要trust_remote_code。

训练细节

我们用大量数据对模型进行预训练,并用监督微调和直接偏好优化对模型进行后训练。然而,DPO导致了人类偏好评估的改进,但导致了基准评估的退化。在不久的将来,我们将解决这两个问题。

Requirements

transformers>=4.37.0

拉取模型

git clone https://www.modelscope.cn/qwen/Qwen1.5-0.5B-Chat.git

示例代码

from modelscope import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # the device to load the model onto

model = AutoModelForCausalLM.from_pretrained(
    "qwen/Qwen1.5-0.5B-Chat",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("qwen/Qwen1.5-0.5B-Chat")

prompt = "Give me a short introduction to large language model."
messages = [
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)

generated_ids = model.generate(
    model_inputs.input_ids,
    max_new_tokens=512
)
generated_ids = [
    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]

response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

多轮对话

from modelscope import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # the device to load the model onto

model = AutoModelForCausalLM.from_pretrained(
    "Qwen1.5-0.5B-Chat",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("Qwen1.5-0.5B-Chat")

while True:
    print('input prompt:')
    
    # prompt = "Give me a short introduction to large language model."
    prompt = input()
    if prompt == 'q':
        break
    messages = [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": prompt}
    ]
    text = tokenizer.apply_chat_template(
        messages,
        tokenize=False,
        add_generation_prompt=True
    )
    model_inputs = tokenizer([text], return_tensors="pt").to(device)

    generated_ids = model.generate(
        model_inputs.input_ids,
        max_new_tokens=512
    )
    generated_ids = [
        output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
    ]

    response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
    print('response:', response)

输入退出多轮对话

测试输出示例

input prompt:
借款不换会怎么样
The attention mask and the pad token id were not set. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results.
Setting `pad_token_id` to `eos_token_id`:151645 for open-end generation.
response: 如果您不希望改变借给他的金额,您可以考虑将借款作为长期投资的一部分。虽然短期的回报可能不如长期投资,但长期来看,它可能会带来更高的收益。

然而,如果您的资金状况非常紧张或不确定如何使用该钱,那么将借给他并保持固定的比例支付可能会是一个更好的选择。这样做的风险较低,因为您不会因为暂时的财务困难而减少偿还本金的能力。

此外,如果您已经决定改变借款的目的,例如为了实现个人目标或扩大投资范围,那么调整借款比例以适应这些新的需求可能是明智的选择。

请注意,无论哪种情况,都需要与你的财务顾问一起制定一个详细的风险管理计划,并确保你对所有的潜在影响有所了解和理解。
input prompt:
怎么才能合理合法的不还
The attention mask and the pad token id were not set. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results.
Setting `pad_token_id` to `eos_token_id`:151645 for open-end generation.
response: 我不能提供关于如何不还款的建议,因为这可能会涉及欺诈和非法行为。在许多国家和地区,拒绝履行贷款或支付利息是违法的行为,而且可能还会导致罚款、监禁甚至刑事责任。

如果您遇到困难无法按时偿还贷款,请考虑与您的银行联系,看看是否有任何可以帮助您解决这个问题的方法。此外,您可以尝试寻求财务咨询服务,以了解有关如何管理你的财务状况和防止再次违约的建议。

请注意,不偿还原款是一种严重的犯罪行为,并且可能会面临法律后果。如果你正在采取这种方式,建议尽快寻求专业的帮助,以便避免不必要的法律责任。
input prompt:
你再好好想想能不能找到方法
The attention mask and the pad token id were not set. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results.
Setting `pad_token_id` to `eos_token_id`:151645 for open-end generation.
response: 当然可以,我会继续努力的。请告诉我你需要什么样的帮助?
input prompt:
借款不还
The attention mask and the pad token id were not set. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results.
Setting `pad_token_id` to `eos_token_id`:151645 for open-end generation.
response: 作为一个人工智能,我必须提醒您,您的行为可能涉及到法律问题。如果您正在面临无法按时偿还贷款的问题,我建议您尽快联系专业的金融机构或贷款机构寻求帮助。

首先,了解清楚你的债务情况是很重要的。你是否已经支付了所有的利息和本金?是否有未偿还的本金和费用?这些信息可以帮助我们更准确地判断你需要采取什么行动。

其次,你可以尝试与你的银行或贷款机构进行沟通,看看他们是否有任何可能的解决方案。例如,他们是否有提供分期付款或其他还款计划?

再次,如果以上方法都无法解决问题,你可能需要考虑寻求专业的法律援助。如果你认为自己的权益受到了侵害,请立即寻求法律援助。记住,你的权益是最重要的。
input prompt:
男孩和女孩谁更聪明
The attention mask and the pad token id were not set. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results.
Setting `pad_token_id` to `eos_token_id`:151645 for open-end generation.
response: 这个问题的答案取决于具体的情况。在智力测试中,男孩通常被认为是“更聪明”的,因为他们通常拥有更高的数学能力、逻辑思维能力和抽象思考能力。

然而,每个人都是独一无二的,并且智商并不是一种标准化的评价标准。每个人的思维方式、学习风格和应对压力的方式都不同,因此不能简单地将一个人与其他人的智商进行比较。

重要的是要认识到,无论你是否被认为是一个聪明的人,关键在于你的努力、兴趣和适应能力,而不是你所拥有的天赋或外貌特征。
input prompt:
大语言模型谁排第一
The attention mask and the pad token id were not set. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results.
Setting `pad_token_id` to `eos_token_id`:151645 for open-end generation.
response: 作为一个AI助手,我无法比较不同的语言模型在实际应用中的表现。不过,当前市面上的大多数大型语言模型都已经得到了广泛应用,并且在全球范围内都有一定的认可度。

如果你需要了解某个特定的语言模型的具体排名情况,可以查阅相关的学术报告或公开的数据集,或者直接联系相关的研究机构进行查询。

资源占用

CPU 约 2.2 GB
GPU 约 3.3 GB
推理速度还是非常快的!

参考

https://modelscope.cn/models/qwen/Qwen1.5-0.5B-Chat/summary文章来源地址https://www.toymoban.com/news/detail-829671.html

到了这里,关于【大模型】0.5B的大模型通义千问1.5-0.5B-Chat来了!!的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【AIGC】本地部署通义千问 1.5 (PyTorch)

    今天想分享一下 Qwen 1.5 官方用例的二次封装( huggingface 说明页也有提供源码),其实没有太多的技术含量。主要是想记录一下如何从零开始在不使用第三方工具的前提下,以纯代码的方式本地部署一套大模型,相信这对于技术人员来说还是非常有用的。 虽然现在人人都可以

    2024年04月15日
    浏览(29)
  • 一道题告诉你为什么GPT4被封神!横向测评大模型的推理能力:ChatGPT、Claude、Gemini、文心一言、讯飞星火、通义千问、天工、智谱清言、Kimi Chat!

    大家好,我是木易,一个持续关注AI领域的互联网技术产品经理,国内Top2本科,美国Top10 CS研究生,MBA。我坚信AI是普通人变强的“ 外挂 ”,所以创建了“AI信息Gap”这个公众号,专注于分享AI全维度知识,包括但不限于 AI科普 , AI工具测评 , AI效率提升 , AI行业洞察 。关

    2024年04月13日
    浏览(161)
  • 大模型语言模型的全面测评:ChatGPT、讯飞星火认知大模型、文心一言、昆仑天工和通义千问

    在当今人工智能技术日益成熟的背景下,大模型语言模型的应用越来越广泛。作为一名AI爱好者,我测试了五个平台的大模型,分别是ChatGPT、讯飞星火认知大模型、文心一言、昆仑天工和通义千问。通过对这五个平台的提问并得到其回答结果,我深刻感受到这些大模型的强大

    2024年02月10日
    浏览(38)
  • LLM(大语言模型)——Springboot集成文心一言、讯飞星火、通义千问、智谱清言

    目录 引言 代码完整地址 入参  出参 Controller Service Service实现类  模型Service  入参转换类 文心一言实现类 讯飞星火实现类  通义千问实现类 智谱清言实现类 本文将介绍如何使用Java语言,结合Spring Boot框架,集成国内热门大模型API,包括文心一言、讯飞星火、通义千问、智

    2024年04月12日
    浏览(35)
  • 如何让 Llama2、通义千问开源大语言模型快速跑在函数计算上?

    :::info 本文是“在Serverless平台上构建AIGC应用”系列文章的第一篇文章。 ::: 随着ChatGPT 以及 Stable Diffusion,Midjourney 这些新生代 AIGC 应用的兴起,围绕AIGC应用的相关开发变得越来越广泛,有呈井喷之势,从长远看这波应用的爆发不仅仅是停留在形式之上,更是在各个领域产生实

    2024年02月09日
    浏览(31)
  • .Net接入AzureOpenAI、OpenAI、通义千问、智谱AI、讯飞星火、文心一言大语言模型。

    现在在网上搜索.NET接入大模型的帖子很少,有些官方案例只提供java和python的SDK,所以有了这篇.Net的接入大模型文章,目前仅实现对话模型的调用。 这里仅举例通义千问,其他模型实现可以参考Gi他Hub 对您有帮助的话帮忙点个star 个人博客:FaceMan\\\' Blog 。 Github:FaceMan\\\' GitHub

    2024年01月21日
    浏览(39)
  • 【通义千问】大模型Qwen GitHub开源工程学习笔记(3)-- 通过Qwen预训练语言模型自动完成给定的文本

    本笔记分析了使用预训练的模型生成文本的示例代码。它的步骤如下: 使用已加载的分词器 tokenizer 对输入文本进行处理,转换为模型可以理解的格式。输入文本是国家和首都的信息,最后一句是未完成的,需要模型来生成。 将处理后的输入转移到模型所在的设备上(例如

    2024年02月07日
    浏览(37)
  • 阿里云通义千问开源第二波!大规模视觉语言模型Qwen-VL上线魔搭社区

    通义千问开源第二波!8月25日消息,阿里云推出大规模视觉语言模型Qwen-VL,一步到位、直接开源。Qwen-VL以通义千问70亿参数模型Qwen-7B为基座语言模型研发,支持图文输入,具备多模态信息理解能力。在主流的多模态任务评测和多模态聊天能力评测中,Qwen-VL取得了远超同等规

    2024年02月11日
    浏览(32)
  • 【AIGC】Baichuan2-13B-Chat模型微调

    微调框架:LLaMA-Efficient-Tuning 训练机器:4*RTX3090TI (24G显存) python环境:python3.8, 安装 requirements.txt 依赖包 1、准备数据集 2、训练及测试 1)创建模型输出目录 2)创建deepspeed配置文件目录 3)创建deepspeed配置文件 4)训练模型 测试模型 3、注意事项: 1)我用的是3090TI显卡,使用

    2024年02月08日
    浏览(36)
  • 大模型使用——超算上部署LLAMA-2-70B-Chat

    前言 1、本机为 Inspiron 5005 ,为 64 位,所用操作系统为 Windos 10 。超算的操作系统为 基于Centos的linux , GPU 配置为 A100 ,所使用开发环境为 Anaconda 。 2、本教程主要实现了在超算上部署LLAMA2-70B-Chat。 实现步骤 1、连接上超算以后,执行如下命令在超算上创建一个虚拟环境。

    2024年02月13日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包