免费打造个人专属的高颜值本地大模型AI助手,无限量使用 Ollama+LobeChat开源工具,在本地运行AI大模型,安全的和AI对话。

这篇具有很好参考价值的文章主要介绍了免费打造个人专属的高颜值本地大模型AI助手,无限量使用 Ollama+LobeChat开源工具,在本地运行AI大模型,安全的和AI对话。。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、安装ollama

第一步,首先安装ollama,选择对应系统的安装包

ollama官网地址:https://ollama.com/

ollama卸载模型,AI-LLM相关,人工智能
ollama卸载模型,AI-LLM相关,人工智能
本问是lunix系统上安装ollama:

curl -fsSL https://ollama.com/install.sh | sh

ollama卸载模型,AI-LLM相关,人工智能
ollama卸载模型,AI-LLM相关,人工智能
如果机子没有GPU显卡的话,ollama会提示只通过cpu模式运行。

测试ollama命令:

ollama --help

ollama卸载模型,AI-LLM相关,人工智能

想要流畅运行,推荐配置:

  • 4b的模型:8GB内存。

  • 7b的模型:16GB内存。

  • 13b模型: 32GB内存。

  • 70b模型:64GB内存,32也能跑,太卡。

ollama卸载模型,AI-LLM相关,人工智能

2、下载模型

ollama支持的LLM模型很多:
https://ollama.com/library

第二步,下载model,本文选择下载阿里的通义千问模型:
ollama卸载模型,AI-LLM相关,人工智能
ollama卸载模型,AI-LLM相关,人工智能
这里选择4b参数的模型:
ollama卸载模型,AI-LLM相关,人工智能

ollama run qwen:4b

ollama卸载模型,AI-LLM相关,人工智能

ollama会自动帮我们下载模型和启动模型。
模型下载完成后,可以发送一条消息测试:
ollama卸载模型,AI-LLM相关,人工智能
修改ollama环境变量:

#找到服务的单元文件:
#/etc/systemd/system/目录下
sudo vi /etc/systemd/system/ollama.service
 
#添加环境变量:
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
#如果已经有
Environment="PATH=xxx:/root/bin" "OLLAMA_HOST=0.0.0.0:11434"
 
#为了使更改生效,您需要重新加载systemd的配置。使用以下命令:
sudo systemctl daemon-reload
 
 
#最后,重启服务以应用更改:
sudo systemctl restart ollama
 

使用命令行操作不太方便,使用下面的lobe chat进行界面化操作。

3、安装lobechat

Lobe Chat:现代化设计的开源 ChatGPT/LLMs 聊天应用与开发框架,支持语音合成、多模态、可扩展的(function call)插件系统,一键免费拥有你自己的 ChatGPT/Gemini/Claude/Ollama 应用。

lobe chat参考地址:https://github.com/lobehub/lobe-chat/blob/main/README.zh-CN.md

使用docker方式进行安装:

docker run -d -p 3210:3210 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434/v1 lobehub/lobe-chat
#你在自己的私有设备上部署 LobeChat 服务。使用以下命令即可使用一键启动 LobeChat 服务:

$ docker run -d -p 3210:3210 \
  -e OPENAI_API_KEY=sk-xxxx \
  -e ACCESS_CODE=lobe66 \
  --name lobe-chat \
  lobehub/lobe-chat

ollama卸载模型,AI-LLM相关,人工智能
开通3210端口,进行访问测试:

ollama卸载模型,AI-LLM相关,人工智能
配置lobe chat:

首先将模型切换到我们下载好的qwen 4b模型:
点击设置—选择语言模型
ollama卸载模型,AI-LLM相关,人工智能
ollama卸载模型,AI-LLM相关,人工智能

ollama完全兼容openai的接口,在接口代理地址中输入我们的ollama地址。

http://host.docker.internal:11434/v1

  • 如果是docker的话,用 http://host.docker.internal:11434/v1
  • 手动的话,就用 http://localhost:11434/v1 或者 http://127.0.0.1:11434/v1

如果是跑4b,7b等小模型,普通电脑就可以了,如果要跑32b比较大的,最好是有GPU,还要显存比较大
硬盘没啥要求,比如4b的模型,才2.3GB而已,30b的也就30GB左右,完全不用担心磁盘.

4、卸载Ollama

如果您决定不再使用Ollama,可以通过以下步骤将其完全从系统中移除:

停止并禁用服务:

sudo systemctl stop ollama
sudo systemctl disable ollama

删除服务文件和Ollama二进制文件:

sudo rm /etc/systemd/system/ollama.service 
sudo rm $(which ollama)

清理Ollama用户和组:

sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama

ollama卸载模型,AI-LLM相关,人工智能


每一次的跌倒,都是对未来的一次深情拥抱。文章来源地址https://www.toymoban.com/news/detail-859173.html


到了这里,关于免费打造个人专属的高颜值本地大模型AI助手,无限量使用 Ollama+LobeChat开源工具,在本地运行AI大模型,安全的和AI对话。的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 发现一个高颜值流程图 - 亿图图示

    今天给各位小伙伴们测试了一款高颜值的流程图制作工具——亿图图示。 对了,它不仅可以制作流程图,还可以制作思维导图、组织结构图、泳道图等等哦。接下来让我们一起测试学习下吧 亿图图示(Wondershare EdrawMax)是一款功能强大且易于使用的图形表达工作台,不仅可以

    2024年02月09日
    浏览(24)
  • 一款高颜值的第三方网易云播放器

    大家好,我是 Java陈序员 。 今天,给大家介绍一个基于 Vue 全家桶实现的“网易云”播放器。 关注微信公众号:【Java陈序员】,获取 开源项目分享、AI副业分享、超200本经典计算机电子书籍等。 YesPlayMusic —— 一款高颜值的第三方网易云播放器,支持 Windows / macOS / Linux。 功

    2024年04月12日
    浏览(20)
  • 个人专属chatGpt免费使用,只需要2步

    第一步:先下载Docker  下载网址:docker.com                 选择自己合适的环境下载 安装:       等一丢丢会就可以了    我这里已经装过了,第一次装的话提示信息是:close and restart 需要重新下电脑 重启完电脑后就会自动跳出这个界面: 选择Accept后  提示我们需要升级

    2024年02月13日
    浏览(20)
  • 轻松部署高颜值社区,在Ubuntu上搭建Cpolar+HYBBS论坛指南

    在国内互联网刚刚起步时,网上的内容远没有现今这般丰富,甚至当下耳熟能详的各个互联网大厂,彼时都还没有诞生。那时候的网民上网,大多数时候只能浏览门户网站的新闻,或者到各个BBS上灌水发帖。随着时代发展,互联网的内容和应用逐渐丰富,曾经风光无二的BBS论

    2024年02月09日
    浏览(22)
  • 3张照片打造专属形象!酷蛙FaceChain解密个人写真开源项目,人人AIGC!

    各类AI写真软件由于其精准的个人形象+精美的生成效果引爆了朋友圈传播,证件照满足了用户刚需,古装照等风格照满足了用户“美照”的需求。 酷蛙FaceChain开源项目团队推出了开源版本,希望结合开源社区开发者的力量,可以让图片应用更有趣、更好玩、也有更多应用场景

    2024年02月12日
    浏览(22)
  • 基于Docker搭建NextCloud-打造个人专属或团队共享的私有同步网盘

    几年前还百家争锋的国内网盘市场,如今只剩下百度网盘一枝独秀,但是100kb/s限速让人寒心。虽然还有一些稳定的国外网盘,如 OneDrive、DropBox、Google Drive 等,但国内访问并不友好。 Nextcloud 是一个免费专业的私有云存储网盘「开源」项目,可以让你简单快速地在个人/公司电

    2024年02月04日
    浏览(27)
  • 高颜值抓包工具Charles,实现Mac和IOS端抓取https请求

    Hi,大家好。在进行测试的过程中,不可避免的会有程序报错,为了能更快修复掉Bug,我们作为测试人员需要给开发人员提供更准确的报错信息或者接口地址,这个时候就需要用到我们的抓包工具。 常见的抓包工具有Fiddler、Charles,在此之前介绍过Fiddler抓包:Fiddler抓包详解,

    2024年04月09日
    浏览(26)
  • stable diffusion打造自己专属的LORA模型

    通过Lora小模型可以控制很多特定场景的内容生成。 但是那些模型是别人训练好的,你肯定很好奇,我也想训练一个自己的专属模型(也叫炼丹~_~)。 甚至可以训练一个专属家庭版的模型(family model),非常有意思。 将自己的训练好的Lora模型放到stableDiffusion lora 目录中,

    2023年04月09日
    浏览(52)
  • 请收藏!分享一个ESP32/ESP8266高颜值WIFI配网页面代码-带下拉选择框和中英文版本。文末有arduino配网代码。

            最近在使用ESP32开发项目得时候用到了WIFI热点配网,本着能CV绝不动手的原则在网上搜索了一番,但无奈网上的配网页面实在太简陋了。还是得自己动手写一个。 先看效果。   代码功能说明: 代码编译下载后可以实现强制门户登录(强制门户登录就是在连接到

    2024年02月09日
    浏览(30)
  • 如何用Stable Diffusion模型生成个人专属创意名片?

    二维码 是一种用于存储和传输信息的方便而广泛使用的图像编码技术。它是由黑色方块和白色空白区域组成的二维图形,可以通过扫描设备(如智能手机)进行解码。二维码基于特定的编码标准和解码算法——其中包括错误检测和纠错编码,以确保在图像损坏或部分遮挡的情况

    2024年02月16日
    浏览(19)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包