ChatGPT和Bard太贵,介绍8个免费开源的大模型解决方案!

这篇具有很好参考价值的文章主要介绍了ChatGPT和Bard太贵,介绍8个免费开源的大模型解决方案!。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

8个开源的ChatGPT和Bard的替代方案,带你发现更多广泛使用的开源框架和模型。

微信搜索关注《Python学研大本营》,加入读者群,分享更多精彩

ChatGPT和Bard太贵,介绍8个免费开源的大模型解决方案!,chatgpt,bard

1.LLaMA

LLaMA项目包含了一组基础语言模型,其规模从70亿到650亿个参数不等。这些模型在数以百万计的token上进行训练,而且它完全在公开的数据集上进行训练。结果,LLaMA-13B超过了GPT-3(175B),而LLaMA-65B的表现与Chinchilla-70B和PaLM-540B等最佳模型相似。

ChatGPT和Bard太贵,介绍8个免费开源的大模型解决方案!,chatgpt,bard

图片来自LLaMA

资源:

  • 研究论文:“LLaMA: Open and Efficient Foundation Language Models (arxiv.org)” [https://arxiv.org/abs/2302.13971]

  • GitHub:facebookresearch/llama [https://github.com/facebookresearch/llama]

  • 演示:Baize Lora 7B [https://huggingface.co/spaces/project-baize/Baize-7B]

2.Alpaca

斯坦福大学的Alpaca声称它可以与ChatGPT竞争,任何人都可以在不到600美元的情况下复制它。Alpaca 7B是在52K指令遵循的示范上从LLaMA 7B模型中进行微调。

ChatGPT和Bard太贵,介绍8个免费开源的大模型解决方案!,chatgpt,bard

训练内容|图片来自斯坦福大学CRFM

资源:

  • 博客:斯坦福大学CRFM。[https://crfm.stanford.edu/2023/03/13/alpaca.html]

  • GitHub:tatsu-lab/stanford_alpaca [https://github.com/tatsu-lab/stanford_alpaca]

  • 演示:Alpaca-LoRA (官方演示已经丢失,这是Alpaca模型的再现) [https://huggingface.co/spaces/tloen/alpaca-lora]

3.Vicuna

Vicuna是在从ShareGPT收集到的用户共享对话上的LLaMA模型基础上进行微调。Vicuna-13B模型已经达到了OpenAI ChatGPT和Google Bard的90%以上的质量。它还在90%的情况下超过了LLaMA和斯坦福大学Alpaca模型。训练Vicuna的成本约为300美元。

ChatGPT和Bard太贵,介绍8个免费开源的大模型解决方案!,chatgpt,bard

图片来自Vicuna

资源:

  • 博客文章:“Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality” [https://vicuna.lmsys.org/]

  • GitHub:lm-sys/FastChat [https://github.com/lm-sys/FastChat#fine-tuning]

  • 演示:FastChat (lmsys.org) [https://chat.lmsys.org/]

4.OpenChatKit

OpenChatKit:开源的ChatGPT替代方案,是一个用于创建聊天机器人的完整工具包。它提供了用于训练用户自己的指令调整的大型语言模型、微调模型、用于更新机器人响应的可扩展检索系统以及用于过滤问题的机器人审核的指令。

ChatGPT和Bard太贵,介绍8个免费开源的大模型解决方案!,chatgpt,bard

图片来自TOGETHER

可以看到,GPT-NeoXT-Chat-Base-20B模型在问答、提取和分类任务上的表现优于基础模式GPT-NoeX。

资源:

  • 博客文章:“Announcing OpenChatKit”—TOGETHER [https://www.together.xyz/blog/openchatkit]

  • GitHub: togethercomputer/OpenChatKit [https://github.com/togethercomputer/OpenChatKit]

  • 演示:OpenChatKit [https://huggingface.co/spaces/togethercomputer/OpenChatKit]

  • 模型卡:togethercomputer/GPT-NeoXT-Chat-Base-20B [https://huggingface.co/togethercomputer/GPT-NeoXT-Chat-Base-20B]

5.GPT4ALL

GPT4ALL是一个社区驱动的项目,并在一个大规模的辅助交互语料库上进行训练,包括代码、故事、描述和多轮对话。该团队提供了数据集、模型权重、数据管理过程和训练代码以促进开源。此外,他们还发布了模型的量化4位版本,可以在笔记本电脑上运行。甚至可以使用Python客户端来运行模型推理。

ChatGPT和Bard太贵,介绍8个免费开源的大模型解决方案!,chatgpt,bard

图片来自GPT4ALL

资源:

  • 技术报告:GPT4All [https://s3.amazonaws.com/static.nomic.ai/gpt4all/2023_GPT4All_Technical_Report.pdf]

  • GitHub: nomic-ai/gpt4al [https://github.com/nomic-ai/gpt4all]

  • 演示:GPT4All(非官方)。[https://huggingface.co/spaces/rishiraj/GPT4All]

  • 模型卡:nomic-ai/gpt4all-lora · Hugging Face [https://huggingface.co/nomic-ai/gpt4all-lora]

6.Raven RWKV

Raven RWKV 7B是一个开源的聊天机器人,它由RWKV语言模型驱动,生成的结果与ChatGPT相似。该模型使用RNN,可以在质量和伸缩性方面与transformer相匹配,同时速度更快,节省VRAM。Raven在斯坦福大学Alpaca、code-alpaca和更多的数据集上进行了微调。

ChatGPT和Bard太贵,介绍8个免费开源的大模型解决方案!,chatgpt,bard

图片来自Raven RWKV 7B

资源:

  • GitHub:BlinkDL/ChatRWKV [https://github.com/BlinkDL/ChatRWKV]

  • 演示:Raven RWKV 7B [https://huggingface.co/spaces/BlinkDL/Raven-RWKV-7B]

  • 模型卡:BlinkDL/rwkv-4-raven [https://huggingface.co/BlinkDL/rwkv-4-raven]

7.OPT

OPT:Open Pre-trained Transformer语言模型并不像ChatGPT那样强大,但它在零样本和少样本学习以及刻板偏见分析方面表现出卓越的能力。还可以将它与Alpa、Colossal-AI、CTranslate2和FasterTransformer集成以获得更好的结果。注意:它上榜的原因是它的受欢迎程度,因为它在文本生成类别中每月有624,710次下载。

ChatGPT和Bard太贵,介绍8个免费开源的大模型解决方案!,chatgpt,bard

图片来自(arxiv.org)

资源:

  • 研究论文:“OPT: Open Pre-trained Transformer Language Models (arxiv.org)” [https://arxiv.org/abs/2205.01068]

  • GitHub: facebookresearch/metaseq [https://github.com/facebookresearch/metaseq]

  • 演示:A Watermark for LLMs [https://huggingface.co/spaces/tomg-group-umd/lm-watermarking]

  • 模型卡:facebook/opt-1.3b [https://huggingface.co/facebook/opt-1.3b]

8.Flan-T5-XXL

Flan-T5-XXL在以指令形式表述的数据集上微调了T5模型。指令的微调极大地提高了各种模型类别的性能,如PaLM、T5和U-PaLM。Flan-T5-XXL模型在1000多个额外的任务上进行了微调,涵盖了更多语言。

ChatGPT和Bard太贵,介绍8个免费开源的大模型解决方案!,chatgpt,bard

图片来自Flan-T5-XXL

资源:

  • 研究论文:“Scaling Instruction-Fine Tuned Language Models” [https://arxiv.org/pdf/2210.11416.pdf]

  • GitHub: google-research/t5x [https://github.com/google-research/t5x]

  • 演示:Chat Llm Streaming [https://huggingface.co/spaces/olivierdehaene/chat-llm-streaming]

  • 模型卡:google/flan-t5-xxl [https://huggingface.co/google/flan-t5-xxl?text=Q%3A+%28+False+or+not+False+or+False+%29+is%3F+A%3A+Let%27s+think+step+by+step]

总结

现在有很多开源的可供选择的大模型,本文涉及到其中比较流行的8个大模型。

推荐书单

《Python人工智能》

本书系统地介绍了基于Python平台的人工智能的原理及实现过程,全书共7章。第1章“从这里开始认识Python”,介绍人工智能及Python 基础知识;第2章“Python 语法基础”,通过生动有趣的实验实例介绍Python编程语法知识;第3章“Python 程序设计”,以实例为基础,介绍Python 的编程方法;第4 章“数据结构”,通过范例介绍列表、元组、字典、集合、函数等数据结构的使用方法;第5章“数据库及应用”,主要介绍Python数据库应用及Web应用开发技术,通过实例讲解Python数据库应用;第6章“大数据应用”,基于实例,主要介绍网络爬虫、Excel数据爬取及分析处理等技术,了解数据挖掘分析处理等大数据应用技术的一般设计流程;第7 章“人工智能”,以具体实例讲解照片人脸识别、图像识别、视频人脸识别、聊天机器人、微信语音聊天机器人、图文识别、语音识别及花朵识别等人工智能深度学习技术。

本书图文并茂,示例丰富,讲解细致透彻,介绍深入浅出,章后练习精广,具有很强的实用性和可操作性,适合初学或自学Python的学生,可作为中小学STEM 教育或培训机构的人工智能课程教材,也可作为大中专院校人工智能、软件工程、计算机等专业以及相关课程的教材或参考书,还可以当作全国计算机二级(Python)考试的教材使用。

《Python人工智能》(刘伟善)【摘要 书评 试读】- 京东图书京东JD.COM图书频道为您提供《Python人工智能》在线选购,本书作者:,出版社:清华大学出版社。买图书,到京东。网购图书,享受最低优惠折扣!https://item.jd.com/12854912.html

ChatGPT和Bard太贵,介绍8个免费开源的大模型解决方案!,chatgpt,bard

精彩回顾

《大模型技术的根基,解读注意力机制论文《Attention Is All You Need》和代码实现(下)》

《大模型技术的根基,解读注意力机制论文《Attention Is All You Need》和代码实现(上)》

《真实对比,OpenAI ChatGPT与谷歌Bard大比拼》

《深入浅析,一步步用GPT打造你的聊天机器人》

《ChatGPT插件使用攻略,解锁互联网新体验》

《使用ChatGPT API创建Python文档,竟然如此简单》

微信搜索关注《Python学研大本营》,加入读者群

访问【IT今日热榜】,发现每日技术热点文章来源地址https://www.toymoban.com/news/detail-630467.html

到了这里,关于ChatGPT和Bard太贵,介绍8个免费开源的大模型解决方案!的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 租服务器太贵?流程太麻烦?教你如何免费解决

    🔝🔝🔝🔝🔝🔝🔝🔝🔝🔝🔝 🥰 博客首页: knighthood2001 😗 欢迎点赞👍评论🗨️ ❤️ 热爱python,期待与大家一同进步成长!!❤️ 👀 给大家推荐一款内网穿透的好东西------cpolar 👀 什么叫内网穿透     内网穿透也叫做内网映射,也叫“ NAT穿透 ”     一句

    2024年02月03日
    浏览(37)
  • 使用开源通义千问模型(Qwen)搭建自己的大模型服务

    1、使用开源的大模型服务搭建属于自己的模型服务; 2、调优自己的大模型; 采用通义千问模型,https://github.com/QwenLM/Qwen 1、下载模型文件 开源模型库:https://www.modelscope.cn/models 2、下载使用docker 镜像 3、启动脚本 https://github.com/QwenLM/Qwen/blob/main/docker/docker_web_demo.sh 4、运行 访

    2024年02月01日
    浏览(51)
  • google大模型Bard下场【谷歌版本的ChatGPT】

    本文需要会可学上网,不会直接拉到底部 google大模型开始下场了https://bard.google.com/,点击链接用谷歌账户登录就能使用 步骤 第一步:如果你有谷歌账号,你所做的就只是登录【一个谷歌账号,可以帮你在大部分地方免登录,尤其是国外的应用(比如小蓝鸟等等)】 如果没有

    2024年02月13日
    浏览(31)
  • 【AI实战】给类ChatGPT的大语言模型外挂私有知识库

    本文使用 langChain 来给大语言模型 ChatGLM-6B 外挂一个或者多个私有知识库。 原理流程图 【原图来自】https://github.com/imClumsyPanda/langchain-ChatGLM 从文档处理角度来看,实现流程如下 【原图来自】https://github.com/imClumsyPanda/langchain-ChatGLM CUDA 11.4 Ubuntu 20.04 python 3.8.10 torch 1.13.0 langchai

    2024年02月08日
    浏览(36)
  • 使用代码下载开源的大模型文件示例以及中文微调llama资源汇总:

    一、下载示例  二、资源汇总 Chinese Llama 2 7B 链接:LinkSoul/Chinese-Llama-2-7b · Hugging Face OpenBuddy-LLaMA2-13B 链接:OpenBuddy/openbuddy-llama2-13b-v8.1-fp16 · Hugging Face firefly-llama2-13b 链接:GitHub - yangjianxin1/Firefly: Firefly(流萤): 中文对话式大语言模型(全量微调+QLoRA),支持微调Llma2、Llama、Qwen、

    2024年02月13日
    浏览(33)
  • 从大模型走向小模型,谁将是ChatGPT布局to B行业的大赢家?

    ChatGPT淘金热 当前,爆发了ChatGPT热潮,吸引众多科技企业陆续加入其中。这与当年美国西部加利福尼亚的淘金热何其相似。 历史总会惊人的相似,ChatGPT聊天机器人好比一座数字化时代的金矿。全世界科技淘金人蜂拥而至,从潮起到潮落,潮水退去之时,能生存下来的可能不

    2024年02月02日
    浏览(24)
  • 引领语言智能革命的巨型语言模型 ChatGPT PK Google Bard , Anthropic

    ChatGPT是由OpenAI公司训练的一个大型语言模型,它可以生成人类可读的文本。这是一个基于Transformer架构的预训练模型,可以进行语言生成和语言理解任务。 OpenAI公司在2020年推出了ChatGPT,它是世界上最大的语言模型之一,有超过350亿个参数。它在大量语料数据的基础上进行预

    2024年02月09日
    浏览(38)
  • 深度解读 | 搭载谷歌最强大模型Gemini的Bard能否赶上ChatGPT

    大家好,我是极智视界,欢迎关注我的公众号,获取我的更多前沿科技分享 昨天早上看到了相关的报道,谷歌昨天发布了 \\\"号称最强的大模型\\\" Gemini,还是熟悉的字眼、还是熟悉的配方。之前谷歌一直在 AIGC 的竞争相对于微软的 OpenAI 全方位处于下风,即使前段时间推出了对标

    2024年02月03日
    浏览(42)
  • 使用Java和ChatGPT Api来创建自己的大模型聊天机器人

    什么是大模型? 大型语言模型(LLM)是一种深度学习模型,它使用大量数据进行预训练,并能够通过提示工程解决各种下游任务。LLM 的出发点是建立一个适用于自然语言处理的基础模型,通过预训练和提示工程的方式实现模型在新的数据分布和任务上的强大泛化能力。LLM 旨

    2024年02月12日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包