【必看!】阿里云推出QWen-7B和QWen-7b-Chat,开放免费商用!

这篇具有很好参考价值的文章主要介绍了【必看!】阿里云推出QWen-7B和QWen-7b-Chat,开放免费商用!。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

阿里云于8月3日宣布开源两款重要的大型模型——QWen-7B和QWen-7b-Chat。这两款模型的参数规模达到了令人瞩目的70亿,并且已经在Hugging Face和ModelScope平台上开放,并可免费商用。以下是相关链接:

GitHub项目主页:https://github.com/QwenLM/Qwen-7B
Hugging Face:https://huggingface.co/Qwen/Qwen-7B-Chat
ModelScope:https://modelscope.cn/studios/qwen/Qwen-7B-Chat-Demo/summary/

事实上,阿里云在今年4月份推出了通用问答聊天机器人,算得上是较早的开发者。然而,在早期阶段,该项目采用了内部测试制度,因此对外开放的用户数量并不多。

时至今日,已过去了将近4个月的时间,国内的大型模型发展已经形成了一场激烈的竞争战。而此时,阿里云选择在开源领域继续前进,对于用户来说,无疑是喜闻乐见的消息。

阿里云之所以选择开源这两款模型,是因为开源模型能够赢得用户的支持。开源的优势在于能够吸引更多的开发者参与其中,共同改进模型的性能和功能。

同时,开源模型也能够避免封闭式的开发,引起他人的关注和审查。这对于保护用户的隐私和数据安全非常重要。如果模型不开源,可能会引发人们对于模型中是否存在安全漏洞或潜在风险的担忧。

当然,现在大型模型的热度可能有所下降,但阿里云选择开源模型仍然是为了保持竞争力。开源模型不仅可以吸引更多的用户,还可以通过众包的方式快速获得反馈和改进。

快速入门文档

在本地使用需要先安装环境,您也可以直接获取官方镜像安装在本地。

下载并安装ModelScope library

更多关于下载安装ModelScope library的问题参考环境安装。

pip install modelscope

模型加载和推理

更多关于模型加载和推理的问题参考模型的推理Pipeline。

import os
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks

model_id = 'qwen/Qwen-7B-Chat'

pipe = pipeline(
            task=Tasks.chat, model=model_id, device_map='auto')
history = None

text = '浙江的省会在哪里?'
results = pipe(text, history=history)
response, history = results['response'], results['history']
print(f'Response: {response}')
text = '它有什么好玩的地方呢?'
results = pipe(text, history=history)
response, history = results['response'], results['history']
print(f'Response: {response}')
"""
Response: 浙江的省会是杭州。
Response: 杭州是一座历史悠久、文化底蕴深厚的城市,拥有许多著名景点,如西湖、西溪湿地、灵隐寺、千岛湖等,其中西湖是杭州最著名的景点,被誉为“天下第一湖”。此外,杭州还有许多古迹、文化街区、美食和艺术空间等,值得一去。
"""

【必看!】阿里云推出QWen-7B和QWen-7b-Chat,开放免费商用!

使用

当然,你也可以直接在modelscope平台使用Qwen-7B-Chat模型,地址链接:https://modelscope.cn/studios/qwen/Qwen-7B-Chat-Demo/summary

【必看!】阿里云推出QWen-7B和QWen-7b-Chat,开放免费商用!

拿来比较发现,确实还是逊色很多,毕竟还是刚开源阶段,但我相信总有一天国内的大模型可以媲美;

【必看!】阿里云推出QWen-7B和QWen-7b-Chat,开放免费商用!

结语

最后,我想分享一下对于QWen-7B/QWen-7b-Chat的个人看法。近期,大型模型的热度逐渐消退,这也是有原因的。我认为,这主要有两个方面的原因。

首先,用户的新鲜感逐渐减弱。起初,很多用户因为好奇心而去尝试各种新产品,但随着可供选择的产品越来越多,并且经过长期的使用和体验,大型模型逐渐失去了其"神秘感"。然而,尽管新鲜感逐渐消退,仍然有一部分用户真正希望通过人工智能提升生产力,这部分用户占比并不大。

其次,市场投资者对于AI大型模型的热情也逐渐降温。一方面,这受到用户数量增长趋于平缓的影响,另一方面,目前的大型模型还没有找到良好的发展路径和盈利模式。

然而,对于互联网公司来说,面对人工智能和AI的不可阻挡的发展趋势,大型模型的研发是一条不能放弃的道路。你可以做得不好,但不能没有所作为。在这种情况下,像阿里云这样选择采用开源模型来维持在领域中竞争地位的公司,无疑是一个不错的选择。

这一点可以参考OpenAI,他们在逐步走向商业化之后,选择了不开源,甚至在GPT-4模型发布后,其模型结构、参数和训练细节等都不再对外公开,以至于很多人戏称OpenAI应该改名为CloseAI。然而,越是不开源,越是吸引他人的关注,最终可能导致自身形象受损。最近发生的GPT-4模型信息泄露事件就是很好的例子,有人在网上泄露了一份详细解析GPT-4技术细节的文档,尽管OpenAI并未做出任何回应,但很多人都认为这份文件应该是真实的。

综上所述,开源模型能够赢得用户的支持,并且能够避免引起他人的关注和潜在风险。阿里云选择开源QWen-7B和QWen-7b-Chat模型,既能保护用户的隐私和数据安全,又能提高模型的性能和功能。我期待着看到这两款模型在未来的发展中取得更大的成功。文章来源地址https://www.toymoban.com/news/detail-630226.html

到了这里,关于【必看!】阿里云推出QWen-7B和QWen-7b-Chat,开放免费商用!的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【ollama】(3):在linux搭建环境中,安装golang开发的ollama工具,并且完成启动下载gemma:7b和qwen:1.8b运行速度飞快,支持http接口和命令行模式

    https://www.bilibili.com/video/BV19F4m1F7Rn/ 【ollama】(3):在linux搭建环境中,安装ollama工具,并且完成启动下载gemma:7b和qwen:1.8b运行速度飞快,支持http接口和命令行 https://ollama.com/ 项目使用golang+llama.cpp 项目进行开发的。 简化了模型的安装,非常的方便。 然后因为是docker 虚拟环境

    2024年04月13日
    浏览(29)
  • 开源语音大语言模型来了!阿里基于Qwen-Chat提出Qwen-Audio!

    论文链接: https://arxiv.org/pdf/2311.07919.pdf 开源代码: https://github.com/QwenLM/Qwen-Audio 大型语言模型(LLMs)由于其良好的知识保留能力、复杂的推理和解决问题能力,在通用人工智能(AGI)领域取得了重大进展。然而,语言模型缺乏像人类一样感知非文本模态(如图像和音频)的

    2024年01月18日
    浏览(29)
  • Mixtral 8X7B MoE模型基于阿里云人工智能平台PAI实践合集

    作者:熊兮、贺弘、临在 Mixtral 8x7B大模型是Mixtral AI推出的基于decoder-only架构的稀疏专家混合网络(Mixture-Of-Experts,MOE)开源大语言模型。这一模型具有46.7B的总参数量,对于每个token,路由器网络选择八组专家网络中的两组进行处理,并且将其输出累加组合,在增加模型参数

    2024年01月17日
    浏览(32)
  • LLM实践-在Colab上使用免费T4 GPU进行Chinese-Llama-2-7b-4bit推理

    一、配置环境 1、打开colab,创建一个空白notebook,在[修改运行时环境]中选择15GB显存的T4 GPU. 2、pip安装依赖python包 注意此时,安装完accelerate后需要重启notebook,不然报如下错误: ImportError: Using low_cpu_mem_usage=True or a device_map requires Accelerate: pip install accelerate 注:参考文章内容

    2024年02月04日
    浏览(34)
  • GitHub Copilot Chat将于12月全面推出;DeepLearning.AI免费新课

    🦉 AI新闻 🚀 GitHub Copilot Chat将于12月全面推出,提升开发者的生产力 摘要 :GitHub宣布将于12月全面推出GitHub Copilot Chat,这是GitHub Copilot的一个新功能,旨在帮助开发者编写代码。它能够集成到开发者的桌面IDE环境中,并能够根据上下文联想出后文,不仅限于代码缺省补充和

    2024年02月04日
    浏览(29)
  • 试运行llama-7B、vicuna-7b-delta-v1.1和vicuna-7b-v1.3

    Chatgpt的出现给NLP领域带来了让人振奋的消息,可以很逼真的模拟人的对话,回答人们提出的问题,不过Chatgpt参数量,规模,训练代价都很昂贵。 幸运的是,出现了开源的一些相对小的模型,可以在本地或者云端部署体验, 动手体验了下Vicuna-7b,翻译过来是小羊驼」(骆马)

    2024年02月13日
    浏览(29)
  • Llama-7b-hf和vicuna-7b-delta-v0合并成vicuna-7b-v0

    最近使用pandagpt需要vicuna-7b-v0,重新过了一遍,前段时间部署了vicuna-7b-v3,还是有不少差别的,transforms和fastchat版本更新导致许多地方不匹配,出现很多错误,记录一下。 更多相关内容可见Fastchat实战部署vicuna-7b-v1.3(小羊驼)_Spielberg_1的博客-CSDN博客 一、配置环境 切换到f

    2024年02月09日
    浏览(28)
  • MPT-7B:开源,商业可用,性能堪比LLaMA-7B的LLM新成员

    Meta开源了LLama,不过有很多限制,很难商业运用。于是现在MosaicML开发了MPT-7B模型,它是一个基于Transformer在1T文本/代码Token上训练出来的模型。该模型 开源,与LLaMA-7B模型效果相匹配,而且可用于商业用途 。 代码:https://github.com/mosaicml/llm-foundry/ 模型:mosaicml/mpt-7b-instruct ·

    2024年02月11日
    浏览(27)
  • LLaMA-7B微调记录

    Alpaca(https://github.com/tatsu-lab/stanford_alpaca)在70亿参数的LLaMA-7B上进行微调,通过52k指令数据(https://github.com/tatsu-lab/stanford_alpaca/blob/main/alpaca_data.json),在8个80GB A100上训练3小时,在对话上的性能比肩GPT-3.5。 52k数据所对应的alpaca_data.json是一个字典列表,每个字典包含以下字段

    2024年02月12日
    浏览(25)
  • 【AIGC】baichuan-7B大模型

    百川智能|开源可商用的大规模预训练语言模型baichuan-7B大模型 概述 baichuan-7B 是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约1.2万亿 tokens 上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。在标准的中文和英文权威 b

    2024年02月09日
    浏览(17)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包