《英伟达-本地AI》--NVIDIA Chat with RTX-本机部署

这篇具有很好参考价值的文章主要介绍了《英伟达-本地AI》--NVIDIA Chat with RTX-本机部署。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

阿丹:

        突然发现公司给配置的电脑是NVIDIA RTX 4060的显卡,这不搞一搞本地部署的大模型玩一玩???

        从0-》1记录一下本地部署的全过程。

本地模型下载地址:

Build a Custom LLM with Chat With RTX | NVIDIA

GitHub上的开发者下载地址:

GitHub - NVIDIA/trt-llm-rag-windows: A developer reference project for creating Retrieval Augmented Generation (RAG) chatbots on Windows using TensorRT-LLM

下载的文件有32个G!! 开始安装:  

为了方便观看我直接放翻译的版本:(跟着红色箭头就可以了)

安装许可:
chat with rtx 部署 中文,AI_development,人工智能

 这个应该是选择安装的功能:

chat with rtx 部署 中文,AI_development,人工智能

选择安装的位置: 

 chat with rtx 部署 中文,AI_development,人工智能

 开始安装:(这个下载的过程需要使用科学的上网环境!)
chat with rtx 部署 中文,AI_development,人工智能

 然后开始漫长的等待安装。。。。。。

chat with rtx 部署 中文,AI_development,人工智能

点击完成:

 chat with rtx 部署 中文,AI_development,人工智能

双击第一次会开始下载数据也是一些依赖

chat with rtx 部署 中文,AI_development,人工智能

这些依赖下载完毕就欧克了。

会自己将网页打开。

chat with rtx 部署 中文,AI_development,人工智能 但是在本地访问的时候出现了一些问题。

要注意的是。在本地运行的时候需要开启科学的上网环境。

下个文章我会重点解决和汇总一下我在安装的时候出现的问题。集中一起解决。

部署问题解决文章:

《英伟达-本地AI》--NVIDIA Chat with RTX--部署问题:ValueError: When localhost is not accessible-CSDN博客文章来源地址https://www.toymoban.com/news/detail-840055.html

到了这里,关于《英伟达-本地AI》--NVIDIA Chat with RTX-本机部署的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Docker 部署 Lobe Chat 服务

    拉取最新版本的 Lobe Chat 镜像: 使用以下命令来运行 Lobe Chat 容器: -d (后台运行容器) --name (给容器起一个名字方便管理) -p 10084:3210 (将容器的3210端口映射到主机的10084端口, 同时指定TCP协议) -e OPENAI_API_KEY=sk-xxxx (OpenAI API Key) -e OPENAI_PROXY_URL=https://api.openai.com/v1 (OpenAI 接口代理, 默

    2024年02月03日
    浏览(34)
  • AI换脸教程——DeepFaceLab_NVIDIA_RTX3000_series

        打开此电脑属性,进入高级,设置里面有虚拟内存,增大虚拟内存即可        

    2024年02月12日
    浏览(30)
  • AI Chat 设计模式:9. 命令模式

    本文是该系列的第九篇,采用问答式的方式展开,问题由我提出,答案由 Chat AI 作出,灰色背景的文字则主要是我的一些思考和补充。 命令模式是一种行为型设计模式,它 将请求封装为一个对象 ,从而使不同的请求能够在客户端和接收者之间解耦。该模式中涉及三个主要角

    2024年02月15日
    浏览(29)
  • AI Chat 设计模式:3. 原型模式

    本文是该系列的第三篇,采用问答式的方式展开,问题由我提出,答案由 Chat AI 作出,灰色背景的文字则主要是我的旁白。 好的,原型模式是一种创建型设计模式,它通过 克隆现有的对象来创建新对象 。这种模式的关键在于提供一个原型对象,客户端通过克隆原型对象创建

    2024年02月09日
    浏览(29)
  • AI Chat 设计模式:11. 状态模式

    本文是该系列的第十一篇,采用问答式的方式展开,问题由我提出,答案由 Chat AI 作出,灰色背景的文字则主要是我的一些思考和补充。 是的,我知道状态模式。状态模式是一种行为设计模式,它允许 对象在不同的内部状态下改变其行为 。在状态模式中,对象的行为取决于

    2024年02月14日
    浏览(25)
  • ai-chat gpt 好用推荐

    A i-chat 在当今的数字化时代,人工智能(AI)已经在各个领域中展现出了强大的能力和潜力。AI在许多方面都为我们的生活带来了便利,其中最显著的一点就是在我们的日常交流和工作中。 现在,让我们来探索一下AI-Chat,这是一个集成了多种AI功能的强大工具,能够极大地提升我

    2024年02月11日
    浏览(44)
  • AI Chat 设计模式:5. 策略模式

    本文是该系列的第五篇,采用问答式的方式展开,问题由我提出,答案由 Chat AI 作出,灰色背景的文字则主要是我的旁白。 当然,请问你对策略模式有些什么了解呢?或者你希望我从哪个方面开始解释呢? 当然,策略模式是一种行为型设计模式,它可以帮助我们在运行时根

    2024年02月15日
    浏览(34)
  • AI Chat 设计模式:15. 桥接模式

    本文是该系列的第十五篇,采用问答式的方式展开,问题由我提出,答案由 Chat AI 作出,灰色背景的文字则主要是我的一些思考和补充。 作为桥接模式的新手,我可能会有以下疑问: 什么是桥接模式?它是如何工作的? 在什么情况下应该使用桥接模式? 桥接模式的优点是什

    2024年02月12日
    浏览(28)
  • AI Chat 设计模式:7. 单例模式

    本文是该系列的第七篇,采用问答式的方式展开,问题由我提出,答案由 Chat AI 作出,灰色背景的文字则主要是我的旁白和思考。 单例模式是一种设计模式,旨在 确保类只能有一个实例 ,并提供全局访问点来获取该实例。这意味着无论在系统中的哪个位置,调用者获取到的

    2024年02月16日
    浏览(28)
  • AI Chat 设计模式:12. 享元模式

    本文是该系列的第十二篇,采用问答式的方式展开,问题由我提出,答案由 Chat AI 作出,灰色背景的文字则主要是我的一些思考和补充。 享元模式是一种软件设计模式,用于 提高系统的性能和内存利用率 。该模式 通过共享对象来减少内存消耗 ,特别是在大量对象需要同时

    2024年02月14日
    浏览(29)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包