使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b

这篇具有很好参考价值的文章主要介绍了使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、ollama到底是个什么玩意

一句话来说, Ollama 是一个基于 Go 语言开发的简单易用的本地大模型运行框架。可以将其类比为 docker(有类似docker中的一些常规命令list,pull,push,run 等等),事实上确实也制定了类似 docker 的一种模型应用标准,在后边的内容中,你能更加真切体会到这一点。

在管理模型的同时,它还基于 Go 语言中的 Web 框架 gin 提供了一些 Api 接口,让你能够像跟 OpenAI 提供的接口那样进行交互。

2、来看看ollama的几个命令

ollama 安装之后,其同时还是一个命令,与模型交互就是通过命令来进行的。

  • ollama list:显示模型列表
  • ollama show:显示模型的信息
  • ollama pull:拉取模型
  • ollama push:推送模型
  • ollama cp:拷贝一个模型
  • ollama rm:删除一个模型
  • ollama run:运行一个模型

通过在命令行运行 ollama即可查看到相关命令

使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b

如果你用过 docker 的话,那简直就是so easy。
接下来我就在我的window、mac、以及小米手机上分别体验一下。

3、window上下载及体验

  • https://ollama.com/
    官网首页一进来就可以看到下载按钮,客户端可以在window、mac、linux等进行安装,跨平台的,真的nice啊。

使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b

并且上面已经把llama3集成进来了,这速度是真的快。
我这里下载的是window版本,目前213MB,很快就下载下来了。下载完毕即可安装

使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b

安装完毕之后你可以在命令行中输入查看版本

使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b

我们可以查看文档:https://github.com/ollama/ollama/blob/main/README.md#quickstart

使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b

如上图所示,可以用最简单的方式就可以来启动llama3-8b,不过它可能还要等一会儿,因为模型大小有4.7G左右,需要下载一会儿哟。
甚至你的配置够高,也可以使用70b的模型来尝试,不过我的电脑配置一般估计跑起来太慢。
使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b
看这里下载速度还算可以,四分钟下载完毕,好了,那就先来测试一下吧。

使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b
整个体验下来,这可能是我本机测试感觉速度上最快的离线大模型了,真的表现非常棒。按照目前应该很快会有优化版本出来的,到时候继续进行评测一下。

破除了之前有人说没有上下文的问题,中文语料可能确实有点少。但是写代码的体验还算不错的,虽然上面的代码可能是不对的。

使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b
上下文长度过长时确实有幻觉的问题。

这个回答速度真的再优化一下,很多小公司自己来部署大模型并进行创造就很近了。
但是它毕竟是小模型,参数相对较少,运行时所需要的资源就少很多。就像我本地运行的,其实我的电脑配置可以看一下如下图所示

使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b
从开发的角度来看还算不错了。另外对翻译的要求不高的话,效果也还过得去的。

同样的你也可以直接进行调用API

使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b

4、mac 上安装以及体验

同样还是在官网首页可以点击直接下载即可,下载下来会是一个压缩包

使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b

解压然后安装就可以使用了,然后在命令行中可以查看是否安装成功

使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b

通过 ollama -v 来查看安装的版本,如果打印出来也就说明安装成功了
然后再通过 ollama serve 开启 ollama 的服务,注意当前这个命令行窗口暂时不要关闭,关闭了则代表 ollama 服务也暂时停止了,可以打开另外一个命令行窗口进行下载和使用大模型
同样的命令

使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b

哇塞,这会的下载速度简直起飞了
跑起来之后,测试就可以跟上面window类似了,这个就不在此多说了

5、小米手机再来体验一波

android手机要想体验一波,就需要先按照依稀Termux,这里我之前有写过一篇手把手来教你在手机上安装大模型llama2,这篇文章中我主要使用的是 huggingface 来运行大模型,那么现在用到的是ollama。

于是我在Termux中执行如下命令进行安装ollama
···
curl -fsSL https://ollama.com/install.sh | sh
···
发现我的手机没有root,ollama是使用不起来的,必须要先root。

简单搜索发现一个不错的方法:
https://gitlab.com/st42/termux-sudo

使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b

但是点进去发现是五年前的,不知道能不能用,于是我就又搜索了一下

https://github.com/termux/proot-distro

proot-distro 是一个用于在 Termux 应用程序中管理和使用 Linux 发行版的项目。Termux 是一个 Android 终端模拟器和 Linux 环境应用,它不需要设备的 root 权限就可以运行。
proot-distro 允许用户在 Termux 中安装、卸载和运行各种 Linux 发行版,包括 Ubuntu、Debian、Arch Linux 等。这样,用户就可以在他们的 Android 设备上使用完整的 Linux 环境,包括安装和运行 Linux 软件包。

接下来要先在手机上打开termux

// 先来安装proot-distro
pkg install proot-distro

//使用proot-distro安装一个debian
proot-distro install debian

// 安装成功后通过login命令就直接进入debian
proot-distro login debian

//进入之后再来安装ollama
curl -fsSL https://ollama.com/install.sh | sh

// 安装完毕可以查看ollama版本进行验证
ollama -v

// 出现版本号之后就可以使用ollama
// 开启ollama服务
ollama serve
// 此时这个命令行的窗口不要关闭,关闭之后ollama服务就停止了

然后再termux左上角向右滑动

使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b

点击NEW SESSION,这样就新开了一个命令行,在这里命令行中就可以使用ollama其他命令了

// 这是一个新的命令行,,记得要先进入debian
proot-distro login debian

//下载并运行大模型
ollama run llama3

进行测试就跟上面一样了,这里相当于单独安装了一个模拟运行环境debian,会有一部分性能的消耗吧。有兴趣或者手机性能不错的到时候可以玩玩,感觉小模型在未来的某个时刻还是会有更广泛的应用场景,参数不用那么多,那么大,但是针对特定领域进行微调训练的。

6、总结

应该说llama3给与了开源模型更广阔的思考空间,期待开源模型更大的进步让我们拭目以待。同时希望Meta在接下来的时候能将llama3-400的发布。

就在实验此文章的过程中也发现了:

高通与Meta宣布合作,优化Meta新推出的Llama 3大语言模型在骁龙终端上的运行。Llama 3有两种版本,分别为80亿和700亿参数,旨在为智能手机、PC、VR/AR头显和汽车等设备提供强大的开源语言模型支持。合作将使开发者能够利用高通AI Hub的资源和工具,优化Llama 3在骁龙平台上的执行,以缩短产品上市时间,并提升终端侧AI的性能,包括响应能力、隐私性、可靠性和个性化体验。

这才几天过去,在huggingface平台就发现了8个中文微调模型,不得不说社区的力量真的太强大了,全民共享大模型。

使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b

从 Llama 3 的发布能看到,好而全的数据,对模型训练的重要性! HuggingFaceFW 开源的 FineWeb,有 15T tokens 的高质量网络数据,以英文为主,由 CommonCrawl 获取的 2013-2024 年数据。

使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b

ollama和huggingface 给与了像我这样的普通人,就能很方便的了解AI大模型,并且在本地运行大模型,真的太高兴了,接下来有机会会继续尝试其他的可能性。文章来源地址https://www.toymoban.com/news/detail-855176.html

到了这里,关于使用ollama分别在我的window、mac、小米手机上部署体验llama3-8b的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 什么是“ Microsoft网络实时检查服务”(NisSrv.exe),为什么它在我的PC上运行?

    Windows 10 includes Windows Defender, which protects your PC against viruses and other threats. The “Microsoft Network Realtime Inspection Service” process, also known as NisSrv.exe, is part of Microsoft’s antivirus software. Windows 10包含Windows Defender,可保护您的PC免受病毒和其他威胁的侵害。 “ Microsoft网络实时检查服务”

    2024年02月03日
    浏览(77)
  • 小白Windows下通过Ollama部署使用本地模型

    运行环境为 windows R9000P2021拯救者笔记本 AMD R7-5800H 32G 内存 NVIDIA RTX 3070 Laptop GPU Ollama下载exe,直接下一步下一步没有设置可以更改 windows默认安装路径: C:UserswbigoAppDataLocalProgramsOllama 安装后会自动将该路径加入环境变量 双击图标运行后状态栏会出现小图标,右键有退出、

    2024年03月13日
    浏览(64)
  • 关于U盘插入电脑被识别却在我的电脑里显示不出来的解决办法-秋天的风的博客

            U盘的全称是USB闪存盘,是一种非常小巧的存储设备,使用,但是有时候U盘插入电脑后却显示不出来,有可能是以下几种原因: 1.U盘问题 这种情况的解决办法是先查看U盘接口有没有灰尘及接口有没有不变形,有灰尘清理一下就好了,如果接口出现问题去修,如果没

    2024年02月06日
    浏览(105)
  • 【git】git ssh 公钥私钥 在 windows和mac 双系统分别如何生成 以及对接各个平台说明

    win和mac 双系统分别如何生成 git ssh windows版本需要下载git bash:https://gitforwindows.org/ 在 git bash 中输入如下指令: 这里需要注意这条指令 ssh-keygen -t rsa -C \\\"xx@qq.com\\\" 如果一路回车则生成的默认为一个私钥 id_rsa 和公钥 id_rsa.pub,且路径为 /c/Users/你的用户名/.ssh/ ,一旦我们指定名称

    2024年02月17日
    浏览(61)
  • 使用android 提取小米手机日志

    如何使用android sdk获取小米日志 下载android sdk 登录网址https://www.androiddevtools.cn/ 往下滑找到SDK tools,下载zip包并解压到电脑随便一个位置   解压缩位置打开SDK Manager.exe,安装相关工具(具体可以网络搜索) 打开电脑cmd 使用adb version命令如果有显示版本号说明android sdk安装成功了

    2024年02月14日
    浏览(42)
  • 介绍我的mac上的五种GPT使用方式

    数了一下,现在我的mac上已经有5种可以使用GPT对话的工具了。 - openai官网 - new bing官网 - chat mac桌面 - app goland gpt插件 - 控制台工具 openai的官网就是最正常的入口,就是正常的登录访问。 new bing是微软推出的,虽然听说有的人很难排队,但是昨天我用日本的vpn排队基本秒过。

    2023年04月08日
    浏览(39)
  • 如何试用 Ollama 运行本地模型 Mac M2

    首先下载 Ollama 安装完成之后,启动 ollma 对应的模型,这里用的是 qwen:7b 命令与模型直接交互 我的机器配置是M2 Pro/ 32G,运行 7b 模型毫无压力,而且推理时是用 GPU 进行运算的,可能就是 Ollama 底层是用 llama C++ 实现的,底层做了性能优化,对 Mac特别友好。 纯C/C++实现,没有

    2024年04月10日
    浏览(53)
  • 小米路由器数据备份Mac备份使用教程

    小米的路由已经正式开放购买,支持 Mac OS 的 Time Machine 备份。对于苹果 Mac 电脑用户而言,可以借助小米的存储服务器功能,把电脑中的数据通过网络备份到小米路由器上。下面简单介绍下怎么在 Mac 上用小米路由器来备份的操作方法。 首先当然是要让自己的 Mac 电脑接入小

    2024年02月07日
    浏览(42)
  • 小米手机使用FlutterDownloader下载安卓apk文件不能正常安装

    在Flutter项目中使用 flutter_downloader: ^1.9.1 下载apk文件,小米手机提示下载成功但是通知栏进度条卡住并且未跳出安装apk的窗口。 当前Android项目包名:com.app.update.demo 下载更新app提示“下载成功!”,但是执行语句 时报错: ResultType.fileNotFound 。下载保存地址为: /storage/emulated

    2024年02月13日
    浏览(73)
  • 解决小米5手机使用电信或联通卡不能VoLTE电话短信的问题(2)

    我是阿清,一名电子电脑爱好者,也是一名”万能维修工\\\",有20多年的维修经验。下面是一些我的维修故事。 前情回顾:解决小米5手机使用电信或联通卡不能VoLTE电话短信的问题(1)_AQing阿清的博客-CSDN博客 上一篇文章提到,电信已经取消了2G3G网络,我的小米5,只有移动卡

    2024年02月08日
    浏览(74)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包