如何免费用 Llama 3 70B 帮你做数据分析与可视化?

这篇具有很好参考价值的文章主要介绍了如何免费用 Llama 3 70B 帮你做数据分析与可视化?。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

快速、强悍且免费,你还等啥?

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

Llama 3 的发布,真可谓一石激起千层浪。前两天,许多人还对「闭源模型能力普遍大于开源模型」的论断表示赞同。但是,最新的 LLM 排行榜(https://chat.lmsys.org/?leaderboard),已经把新的趋势变化凸显在所有人面前。

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

Llama 3 70B 的能力,已经可以和 Claude 3 Sonnet 与 Gemini 1.5 Pro 等量齐观,甚至都已经超过了去年的两款 GPT-4 。

更有意思的,就是价格了。实际上,不论是 8B 和 70B 的 Llama 3 ,你都可以在本地部署了。后者可能需要使用量化版本,而且要求一定显存支持。但是这对于很多人来说已经是非常幸福了,因为之前在本地想跑个 GPT-4 级别的模型是可望不可及的事儿。

我找到了一个 大语言模型性价比排行榜(https://llmpricecheck.com/),你可以参考一下。

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

如果你只看模型能力,Llama 3 70B 目前还只能屈居第六,但是你对比一下价格,就会明白恐怖在哪里了。

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

同样是 1M token 输入 + 1M token 输出,前 5 名里面最便宜的 GPT-4 Turbo ,也要 30 美金;而 Llama 3 70B 成本连 1 美金都不到。

Llama 3 70B 到底好不好用呢?

我第一时间就做了测试。

顺便说一下,目前能够使用 Llama 3 70B 对话的地方很多,包括但不限于 Meta 官方的 meta.ai,Huggingface 的 Huggingchat,Perplexity Lab,以及 GroqChat。

我使用的是 Huggingchat ,让它给我编写一个 pong 游戏。代码生成速度很快。

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

之后,我把代码直接贴到了 Visual Studio Code 里面,然后运行。

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

结果是毫无报错,直接顺利运行。

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

左手 W, S 按键,右手上下按键。左右互搏,我玩儿了个不亦乐乎,哈哈。

我一下子来了灵感 —Llama 3 70B 这东西的编程能力既然这么好,为什么不用它和 Open Interpreter 结合,帮我做数据分析呢?

哦,对了,到哪儿调用它的 API 呢?

别忘了,咱们有 Openrouter 啊!

Openrouter 几乎第一时间,就把 Llama 3 70B 和 8B 两个 Instruct 模型加了进去,而且定价非常便宜。

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

运行起来,只需要把原先调用 Haiku 时候的命令

interpreter --model openrouter/anthropic/claude-3-haiku -y --context_window 200000 --max_tokens 8196 --max_output 8196

替换成:

interpreter --model openrouter/meta-llama/llama-3-70b-instruct -y --context_window 200000 --max_tokens 8196 --max_output 8196

具体的安装配置方式,请参考《如何用 Claude 3 Haiku 帮你低成本快速自动分析数据?》这篇文章。

所以你看,Openrouter 真是个大语言模型的自选超市,方便啊。

可惜,运行的效果并不理想。Llama 3 70B 非得在编程的时候开头儿多加一些表示代码段的反引号,然后就一直在运行代码时挣扎纠结,最后干脆退出了。

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

我很失望,不过阴差阳错居然想到,应该 Llama 3 8B 也拿出来试试看。

interpreter --model openrouter/meta-llama/llama-3-8b-instruct -y --context_window 200000 --max_tokens 8196 --max_output 8196

结果呢?一开始一样,也是在代码开头儿有反引号,但是我只是在提示词里告诉它一下,不要加,然后…… 它居然就解决,并且顺利运行成功了!

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

这是 Open Interpreter + Llama 3 8B 根据我的提示,绘制的特斯拉和苹果公司年初至今的股价变动。

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

我得出来的结论,是 8B 这个小模型没有 Llama 3 70B 那么「拧」,哈哈。

但是,我显然心有不甘。毕竟比起来,我更喜欢使用能力强 Llama 3 70B。

好在转机很快就来了。

转机发生在 Groq 上。

如果说其他 AI 大语言模型公司和团队在拼的是模型答题准确率、上下文长度之类的指标,那么 Groq 就非常有意思了。它专注于提供服务,把其他家做出来的模型变得更快。

你看看它提供的模型列表:

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

没有一个模型是它原创,但是它就是能够把模型推理速度提升到令人不可思议的地步。

在 Groq 里面,用流式输出没啥意义,因为你能体会到「唰啦」一下子结果就输出完毕了。

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

更有意思的是,它提供了一个 Free Beta 模式,目前你使用上面的模型,包括其中最强的Llama 3 70B,都是免费的

下面咱们试试,用它来结合 Open Interpreter 进行数据分析。

interpreter --model groq/llama3-70b-8192 -y --context_window 200000 --max_tokens 8192 --max_output 8192

我把完整的运行过程录制了下来。请注意,我没有进行任何的剪辑或者加速。

没错,就是这么行云流水,从计划到编程直到输出,全都快速搞定。

然后,这是生成并保存在本地的结果图。

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

当然,我也尝试了用它来做词云,一样是飞快搞定。这里就不赘述了。你可以用这个新的开源模型,加上 Groq 快速推理机制,把之前的 9 大数据分析与可视化样例免费重做一遍,看看比起 Claude 3 Haiku 来 Llama 3 70B 是不是有很大的进步。

另外说一句,现在包含了 Llama 3 70B 的 Groq 应用,也已经在 iOS 的 Test Flight 提供了,你可以 点击这个链接申请试用(https://testflight.apple.com/join/Y9X0wGsi)。

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

祝 AI 辅助数据分析愉快!

点赞 +「在看」,转发给你身边有需要的朋友。收不到推送?那是因为你只订阅,却没有加星标

欢迎订阅我的小报童付费专栏,每月更新不少于3篇文章。订阅一整年价格优惠。

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

如果有问题咨询,或者希望加入社群和热爱钻研的小伙伴们一起讨论,订阅知识星球吧。不仅包括小报童的推送内容,还可以自由发帖与提问。之前已经积累下的帖子和问答,就有数百篇。足够你好好翻一阵子。知识星球支持72小时内无条件退款,所以你可以放心尝试。

如何免费用 Llama 3 70B 帮你做数据分析与可视化?,llama

若文中部分链接可能无法正常显示与跳转,可能是因为微信公众平台的外链限制。如需访问,请点击文末「阅读原文」链接,查看链接齐备的版本。 

延伸阅读

  • 【视频教程】Roam Research 如何入门?

  • Roam Research 用户经验分享会议

  • iPad Pro 是生产力工具吗?

  • 人工智能绘图应用 DALLE 2 开始公开测试了

  • 笔记本上就能跑的 LLM 好使吗?GPT4ALL 体验文章来源地址https://www.toymoban.com/news/detail-857751.html

到了这里,关于如何免费用 Llama 3 70B 帮你做数据分析与可视化?的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 让 Zotero +gtp 帮你做文献阅读

    1.下载 Zotero ,官网网址   https://www.zotero.org/download/   选左边就行了。安装完。  2. 下载 .xpi 文件,这是 0.2.4  的 ,如下。下载完找个位置放下,下一步使用。https://gitee.com/zotero-chinese/zotero-plugins/raw/main/plugins/zotero_gpt/zotero-gpt_0.2.4.xpi3. 打开 Zetero, 在 工具 里面选 附加组件 ,

    2024年02月11日
    浏览(36)
  • 如何用 ChatGPT 帮你自动分析数据?

    前段时间,我在 ChatGPT 选单里看到了 Code Interpreter。但是它正在灰度测试中 —— 先给一部分用户试用,如果反响不错并做了一定改进,就能推广给更多用户。 可惜当时我没能正确理解它的含义,我以为 Code Interpreter 是指「代码解释器」,也就是给代码添加注释进行讲解的。

    2024年02月08日
    浏览(28)
  • 70.网游逆向分析与插件开发-角色数据的获取-自动化助手UI显示角色数据

    内容参考于: 易道云信息技术研究院VIP课 上一个内容:利用技能点属性分析角色数据基址-CSDN博客 码云地址(ui显示角色数据 分支):https://gitee.com/dye_your_fingers/sro_-ex.git 码云版本号:367aa71f60b9c10ff47ca913a96d2a2ede76b389 代码下载地址,在 SRO_EX 目录下,文件名为:SRO_Ex-自动化助

    2024年01月18日
    浏览(32)
  • 发现数据异常波动怎么办?别慌,指标监控和归因分析来帮你

    企业搭建完善、全面的指标体系是企业用数据指导业务经营决策的第一步。但是做完指标之后,对指标的监控,经常被大家忽视。当指标发生了异常波动(上升或下降),需要企业能够及时发现,并快速找到背后真实的原因,才能针对性地制定相应策略,否则就是盲打,原地

    2024年03月28日
    浏览(33)
  • 探索创新:LLAMA Index - 一个智能数据分析利器

    项目地址:https://gitcode.com/run-llama/llama_index LLAMA Index 是一款强大的数据预处理和分析工具,旨在简化大数据处理过程,帮助数据科学家、分析师及开发者更高效地探索和理解数据。该项目基于Python构建,利用先进的机器学习算法,提供了一套自动化的工作流程,让用户可以轻松

    2024年04月14日
    浏览(31)
  • 大模型使用——超算上部署LLAMA-2-70B-Chat

    前言 1、本机为 Inspiron 5005 ,为 64 位,所用操作系统为 Windos 10 。超算的操作系统为 基于Centos的linux , GPU 配置为 A100 ,所使用开发环境为 Anaconda 。 2、本教程主要实现了在超算上部署LLAMA2-70B-Chat。 实现步骤 1、连接上超算以后,执行如下命令在超算上创建一个虚拟环境。

    2024年02月13日
    浏览(36)
  • 最强开源中英双语大模型发布,340亿参数超越Llama2-70B !

        Aquila2模型全系开源地址: https://github.com/FlagAI-Open/Aquila2 https://model.baai.ac.cn/ https://huggingface.co/BAAI Aquila2-34B在代码生成、考试、理解、推理、语言四个维度的22个评测基准上,霸占了多个榜单TOP 1。  相较于大模型榜单分数,业内更看重对推理、泛化等重要模型实际能力的

    2024年01月24日
    浏览(41)
  • LLaMA3-70B: Meta AI 的最新自然语言处理模型

    近期,Meta AI 发布了其最新的自然语言处理模型 LLaMA-70B,这是一个基于 transformer 结构的语言模型,具有70亿个参数。LLaMA-70B 的发布标志着 Meta AI 在自然语言处理领域的又一重大突破。作为自然语言处理领域的最新成果,LLaMA-70B 具有许多特点和优势,本文将对其进行详细介绍

    2024年04月29日
    浏览(59)
  • Spring Boot进阶(70):如何在Spring Boot中使用FastJson实现高效的JSON数据处理?

      随着互联网的发展,JSON(JavaScript Object Notation)已成为近年来使用最广泛的数据交换格式之一。为了提高JSON数据的处理效率,目前市面上常用的JSON解析库有Jackson、Gson、FastJson等。本文将介绍如何在Spring Boot中使用FastJson实现高效的JSON数据处理。   那么,具体如何实现

    2024年02月09日
    浏览(37)
  • LLM-20230225:LLaMA(大羊驼)【参数量: 70 亿、130 亿、330 亿、650 亿】【旨在推动 LLM 领域的小型化、平民化研究】【Meta】

    Meta AI 同时在其官方发布了论文《LLaMA: Open and Efficient Foundation Language Models》  源码:https://github.com/facebookresearch/llama 论文:https://research.facebook.com/file/1574548786327032/LLaMA--Open-and-Efficient-Foundation-Language-Models.pdf 官方代码地址:

    2024年02月09日
    浏览(34)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包