使用Ollama在本地运行AI大模型gemma

这篇具有很好参考价值的文章主要介绍了使用Ollama在本地运行AI大模型gemma。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


本次本人用到的软件汇总:百度网盘下载

1.下载:

https://github.com/ollama/ollama/releases

2.配置环境变量

我的电脑-右键-属性-系统-高级系统设置-环境变量-【系统环境变量】新建

变量名:OLLAMA_MODELS (固定变量名)
变量值:E:\Ollama\Lib (写自己要存放的路径)

先配置好这个变量,这个是ollama的存储路径。
不配置也可以,不配置的话就会放到默认位置,建议还是修改下存储路径,方便后续使用。
ollama无法找到已下载的大模型,开发部署实践,人工智能,ollama,gemma,AI

3.安装

直接install即可。
安装完成后,cmd查询下:ollama --version
如果查询不到,重启下电脑即可。
我这里是因为我直接把ollama给关了,所以出现了警告,不过也同样可以看到ollama客户端的版本。
ollama无法找到已下载的大模型,开发部署实践,人工智能,ollama,gemma,AI
ollama的其他命令可以通过ollama help来获取
ollama无法找到已下载的大模型,开发部署实践,人工智能,ollama,gemma,AI

4.下载并运行模型

  • 谷歌最新开源gemma:

    • 最低条件:
      2B版本需要2G显存
      7B版本需要4G显存
      7B的其他版本需要更大
  • 打开命令提示符窗口下载运行模型:

    • 访问:https://ollama.com/library选择自己想要的模型,复制下载命令即可.

    • 这里选择拉取gemma7b版本来试试:ollama run gemma:7b

    • 全量版模型拉取运行命令
      ollama run gemma:2b-instruct-fp16
      ollama run gemma:7b-instruct-fp16

  • ollama命令:

    • 查看已有模型:ollama list
  • 下载完成后即在运行(只下载的话,就用ollama pull去拉取即可)
    ollama无法找到已下载的大模型,开发部署实践,人工智能,ollama,gemma,AI

  • 接下来可以直接在命令行窗口进行问答
    ollama无法找到已下载的大模型,开发部署实践,人工智能,ollama,gemma,AI

  • 拉取的模型可以在存储目录blobs下看到
    ollama无法找到已下载的大模型,开发部署实践,人工智能,ollama,gemma,AI

5.整合界面UI

  • Ollama WebUI、open-webui等。
    需要在docker环境中运行,windows本地docker已经被我搞掉了,只有虚拟机里面才有docker环境。
    虚拟机占用内存,破电脑性能一般般,不打算搞了。这个搞起来也还好,就是拉下镜像运行容器就行了。
  • JAN AI:https://jan.ai/ 下载windows版本客户端(开源的)
    1)下载安装后修改下数据存储路径(随便要不要改),修改完重启即可。
    ollama无法找到已下载的大模型,开发部署实践,人工智能,ollama,gemma,AI

2)修改ai模型源:
E:\Ollama\JANAI\engines\openai.json
(上一步中的数据存储路径下,找到engines\openai.json进行修改)

{
  "full_url": "http://localhost:11434/v1/chat/completions"
}

ollama无法找到已下载的大模型,开发部署实践,人工智能,ollama,gemma,AI

3)添加模型配置:记得把里面的注释去掉。
E:\Ollama\JANAI\models\底下创建一个文件夹mine-gemma-7b(名字随便,我把models底下其他的文件夹都挪走备份了,方便管理而已)然后在底下创建个model.json文件
ollama无法找到已下载的大模型,开发部署实践,人工智能,ollama,gemma,AI

{
    "sources": [
        {
            "filename": "gemma:7b", # 模型名称
            "url": "https://ollama.com/library/gemma:7b" # 模型url
        }
    ],
    "id": "gemma:7b", #模型ID
    "object": "model",
    "name": "mine-gemma:7b",  #显示在jan中模型名称,随便写不影响
    "version": "1.0",
    "description": "ollama本地gemma:7b", #随便写不影响
    "format": "api",
    "settings": {
    },
    "parameters": {
    },
    "metadata": {
        "author": "Meta",
        "tags": [
            "General",
            "Big Context Length"
        ]
    },
    "engine": "openai", # 需要配置
    "state":"ready" # 需要配置
}

ollama无法找到已下载的大模型,开发部署实践,人工智能,ollama,gemma,AI
上述配置弄完之后重启下jan,然后再hub中就可以看到自己加的模型了,点击use即可使用
ollama无法找到已下载的大模型,开发部署实践,人工智能,ollama,gemma,AI
断网状态下是可以使用的。
ollama无法找到已下载的大模型,开发部署实践,人工智能,ollama,gemma,AI文章来源地址https://www.toymoban.com/news/detail-857333.html

  • chatbox : https://chatboxai.app/zh 下载windows客户端
    直接安装完按照下图选中相应模型就可以使用了。
    都是自动加载的,如果对界面没啥要求的,推荐直接用chatbox就可以了,啥都不用整就可以用了。
    ollama无法找到已下载的大模型,开发部署实践,人工智能,ollama,gemma,AI

到了这里,关于使用Ollama在本地运行AI大模型gemma的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【ollama】(2):在linux搭建环境,编译ollama代码,测试qwen大模型,本地运行速度飞快,本质上是对llama.cpp 项目封装

    https://github.com/ollama/ollama/tree/main/docs https://www.bilibili.com/video/BV1oS421w7aM/ 【ollama】(2):在linux搭建环境,编译ollama代码,测试qwen大模型,本地运行速度飞快,本质上是对llama.cpp 项目封装 要是失败执行,子模块更新: 需要编译 llama.cpp 的代码, 然后经过漫长的编译,就而可以

    2024年04月08日
    浏览(63)
  • Spring AI 使用本地 Ollama Embeddings

    使用 OpenAI 的 Embeddings 接口是有费用的,如果想对大量文档进行测试,使用本地部署的 Embeddings 就能省去大量的费用,所以我们尝试使用本地的 Ollama Embeddings。 首先本地安装 Ollama: https://ollama.com/download 即使你电脑没有性能很强的显卡,仅仅依靠 CPU 也能运行一些参数量较小的

    2024年04月27日
    浏览(42)
  • Win10环境下使用Ollama搭建本地AI

    前言: 1、Ollama需要安装0.1.27版本,高于这个版本在执行Ollama run 指令时会频繁触发一些奇奇怪怪的问题。 2、4.3篇章是重点,若你需要使用web访问的话,莫要忘记! 3、本文章适合新手。 4、篇章5中会介绍如何在vscode中利用ollama实现类似copilot的功能。 1、安装Ollama         前

    2024年04月28日
    浏览(34)
  • 小白Windows下通过Ollama部署使用本地模型

    运行环境为 windows R9000P2021拯救者笔记本 AMD R7-5800H 32G 内存 NVIDIA RTX 3070 Laptop GPU Ollama下载exe,直接下一步下一步没有设置可以更改 windows默认安装路径: C:UserswbigoAppDataLocalProgramsOllama 安装后会自动将该路径加入环境变量 双击图标运行后状态栏会出现小图标,右键有退出、

    2024年03月13日
    浏览(62)
  • 使用 ollama 部署最新的Llama 3 70B本地模型

    在本地启动并运行大型语言模型。运行Llama 3,Mistral, Gemma, Code Llama和其他模型。自定义并创建您自己的。 综合优点: 快速下载+容器自动运行大模型,现在下载,马上上手。 本地利用 cpu 运行大模型,本地安全可靠。 ollama 命令,管理大模型相对方便,也可以多个大模型中切

    2024年04月25日
    浏览(51)
  • Elasticsearch:使用在本地计算机上运行的 LLM 以及 Ollama 和 Langchain 构建 RAG 应用程序

    无需 GPU 的隐私保护 LLM。在本博客中,我将演示使用不同的工具 Ollama 构建的 RAG 应用程序。 与本文相关的所有源代码均已发布在 github上。 请克隆存储库以跟随文章操作。我们可以通过如下的方式来克隆: Ollama 是一个轻量级且灵活的框架,专为在个人计算机上本地部署 LL

    2024年04月16日
    浏览(53)
  • Ollama管理本地开源大模型,用Open WebUI访问Ollama接口

    现在开源大模型一个接一个的,而且各个都说自己的性能非常厉害,但是对于我们这些使用者,用起来就比较尴尬了。因为一个模型一个调用的方式,先得下载模型,下完模型,写加载代码,麻烦得很。 对于程序的规范来说,只要东西一多,我们就需要一个集中管理的平台,

    2024年03月26日
    浏览(45)
  • 【chatglm2】使用Python在CPU环境中运行 chatglm.cpp 可以实现本地使用CPU运行chatglm2模型,速度也特别的快可以本地部署,把现有项目进行AI的改造。

    https://github.com/li-plus/chatglm.cpp.git 这个项目和llama.cpp 项目类似,使用C++ 去运行模型的。 项目使用了 ggml 这个核心模块,去运行的。 可以支持在 cpu 上面跑模型。 ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀

    2024年02月08日
    浏览(94)
  • AI探索实践8 - 本地运行大模型

    大家好,我是feng,感谢你阅读我的博文,如果你也关注AI应用开发,欢迎关注公众号和我一起​探索。如果文章对你有所启发,请为我点赞! 全栈技术探索 大模型LLMs,即大型语言模型(Large Language Models)简称为大模型,是一种基于人工智能和机器学习技术构建的先进模型,

    2024年04月25日
    浏览(30)
  • Windows本地部署Ollama+qwen本地大语言模型Web交互界面并实现公网访问

    本文主要介绍如何在Windows系统快速部署Ollama开源大语言模型运行工具,并安装Open WebUI结合cpolar内网穿透软件,实现在公网环境也能访问你在本地内网搭建的大语言模型运行环境。 近些年来随着ChatGPT的兴起,大语言模型 LLM(Large Language Model)也成为了人工智能AI领域的热门话

    2024年04月16日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包