如何在群晖Docker运行本地聊天机器人并结合内网穿透发布到公网访问

这篇具有很好参考价值的文章主要介绍了如何在群晖Docker运行本地聊天机器人并结合内网穿透发布到公网访问。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


随着ChatGPT 和open Sora 的热度剧增,大语言模型时代,开启了AI新篇章,大语言模型的应用非常广泛,包括聊天机器人、智能客服、自动翻译、写作助手等。它们可以根据用户输入的文本生成相应的响应,提供个性化的建议和服务,目前大部分大语言模型的产品都是基于网络线上的,如果我们本地想自己部署一个自己的大语言模型,该如何操作呢,下面介绍一款可以在自己本地部署运行的大语言模型Llama 2

Llama 2是一款开源的大语言模型,其中训练的数据目前已经达到7B级别,在上下文长度为4K下的单轮与多轮对话中表现出色,部署运行Llama 2同时需要借助一个框架Ollama.

Ollama是一个强大的框架,设计用于在Docker容器中部署大型语言模型(LLM)。它的主要功能是简化在Docker容器内部署和管理LLM的过程。Ollama通过提供简单的安装指令,使用户能够轻松地在本地运行大型开源语言模型.

借助Ollama 框架可以很方便运行Llama2大语言模型,同时,为了方便与模型进行交互,还需要部署一个web交互 界面Chatbot-Ollama.

Chatbot-Ollama是一个基于Ollama框架的聊天机器人前端应用。它利用Ollama框架提供的接口和功能,将大型语言模型(LLM)集成到聊天机器人中,使其能够与用户进行交互,并提供各种聊天机器人服务。

Chatbot-Ollama 接入本地Ollama框架运行的Llama2大语言模型,使我们可以很轻松简便在本地创建一个聊天机器人.Chatbot-Ollama 同时也是基于docker本地部署的,本地部署,只能局限于本地访问,无法做到提供远程给其他人访问,下面我们还需要安装一个内网穿透工具cpolar,使得本地聊天机器人可以被远程访问.

Cpolar是一款强大的内网穿透软件,它能够在多个操作系统上无缝运行,包括Windows、MacOS和Linux,因此无论您使用哪种操作系统,都可以轻松将本地内网服务器的HTTP、HTTPS、TCP协议端口映射为公网地址端口,使得公网用户可以轻松访问您的内网服务,无需部署至公网服务器.

下面我们通过群晖Docker来演示如何结合上面介绍的技术来运行一个自己的本地聊天机器人并且发布到公网访问.本地部署,对设备配置要求高一些,如果想要拥有比较好的体验,可以使用高配置的服务器设备.

1. 拉取相关的Docker镜像

运行Llama 2需要借助Ollama镜像,对语言模型进行交互需要用到Chatbot-Ollama前端界面,所以我们需要拉取这两个docker镜像,本例群晖版本由于无法直接在群晖控制面板docker界面搜索下载镜像,所以采用命令行方式进行镜像下载,首先开启群晖ssh连接,然后使用工具通过ssh连接上群晖,分别执行下面docker命令 拉取

*拉取Ollama镜像命令

sudo docker  pull ollama/ollama:latest

*拉取Chatbot-Ollama镜像命令

sudo docker  pull ghcr.io/ivanfioravanti/chatbot-ollama:main

拉取成功后,我们可以在Docker界面看到拉取的两个镜像,下面开始运行两个镜像,首先运行ollama

docker ollama hf-mirror,docker,机器人,容器

2. 运行Ollama 镜像

选中镜像,点击运行进入配置界面,名称无需设置,默认即可,然后点击下一步

docker ollama hf-mirror,docker,机器人,容器

输入外部访问的端口,和容器内部端口一致,填写11434即可,然后点击下一步

docker ollama hf-mirror,docker,机器人,容器

然后点击完成即可运行ollama

docker ollama hf-mirror,docker,机器人,容器

运行后,打开容器界面,可以看到运行的服务,下面开始下载运行Llama 2模型,点击选中ollama容器,点击操作

docker ollama hf-mirror,docker,机器人,容器

然后打开终端机,进入终端命令界面

docker ollama hf-mirror,docker,机器人,容器

然后选择左边新增一个bash命令界面

docker ollama hf-mirror,docker,机器人,容器

然后在bash命令界面,执行ollama run llama2命令,接着等待下载即可,最后出现success,表示下载运行Llama 2模型成功,下载完成后可以关闭掉窗口.这样ollama 容器启动,并运行Llama 2模型就成功了,下面运行chatbot-ollama镜像,配置前端交互界面

docker ollama hf-mirror,docker,机器人,容器

3. 运行Chatbot Ollama镜像

选中我们下载的镜像,点击运行,开始进行设置

docker ollama hf-mirror,docker,机器人,容器

名称可以默认,直接点击下一步

docker ollama hf-mirror,docker,机器人,容器

设置对外端口,本例设置3001,具体可以自己自定义,这个端口也是我们浏览器上web访问的端口

docker ollama hf-mirror,docker,机器人,容器

然后设置一个环境变量,该变量就是连接我们上面运行Ollama框架服务的地址,我们设置本地地址:http://群晖局域网IP:11434即可,设置完成点击下一步,然后直接点击完成即可,chatbot Ollama镜像就运行成功了,接下来我们进行本地访问.

docker ollama hf-mirror,docker,机器人,容器

4. 本地访问

上面我们运行设置chatbot ollama 的对外端口是3001(具体以自己设置的为准),下面我们在浏览器访问群晖3001端口,既可看到我们的web交互 界面,同时,上面显示了使用的llama2模型,下面输入文字即可对话,这样一个本地部署的机器人就完成了,对话的响应速度取决于设备的配置,尽量使用高配置的服务器运行部署哦,本地完成后,我们接下来设置远程也可以访问,下面安装cpolar工具,实现无公网IP也可以远程访问我们的聊天机器人界面!

docker ollama hf-mirror,docker,机器人,容器

5. 群晖安装Cpolar

点击下面Cpolar群晖套件下载地址,下载相应版本的群晖Cpolar套件

https://www.cpolar.com/synology-cpolar-suite,

docker ollama hf-mirror,docker,机器人,容器

打开群晖套件中心,点击右上角的手动安装按钮。

docker ollama hf-mirror,docker,机器人,容器

选择我们本地下载好的cpolar套件安装包,然后点击下一步

docker ollama hf-mirror,docker,机器人,容器

点击同意按钮,然后点击下一步

docker ollama hf-mirror,docker,机器人,容器

最后点击完成即可。

docker ollama hf-mirror,docker,机器人,容器

安装完成后,在外部浏览器,我们通过群晖的局域网ip地址9200端口访问Cpolar的Web管理界面,然后输入Cpolar邮箱账号与密码进行登录

docker ollama hf-mirror,docker,机器人,容器

6. 配置公网地址

点击左侧仪表盘的隧道管理——创建隧道,创建一个chatbot的公网地址隧道!

  • 隧道名称:可自定义命名,注意不要与已有的隧道名称重复
  • 协议:选择http
  • 本地地址:3001 (本地访问的端口)
  • 域名类型:免费选择随机域名
  • 地区:选择China

点击创建

docker ollama hf-mirror,docker,机器人,容器

隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网访问地址,有两种访问方式,一种是http 和https,下面我们使用生成的http地址访问

docker ollama hf-mirror,docker,机器人,容器

7. 公网访问

使用上面cpolar生成的http地址,在浏览器访问,同样可以看到聊天机器人主界面,公网地址访问成功,无需公网IP,无需云服务器,即可把我们本地聊天机器人发布到公网进行访问!

docker ollama hf-mirror,docker,机器人,容器

小结

为了更好地演示,我们在前述过程中使用了cpolar生成的隧道,其公网地址是随机生成的。

这种随机地址的优势在于建立速度快,可以立即使用。然而,它的缺点是网址由随机字符生成,不太容易记忆(例如:3ad5da5.r10.cpolar.top)。另外,这个地址在24小时内会发生随机变化,更适合于临时使用。

我一般会使用固定二级子域名,原因是我希望将网址发送给同事或客户时,它是一个固定、易记的公网地址(例如:chatbot.cpolar.cn),这样更显正式,便于流交协作。

8. 固定公网地址

由于以上使用Cpolar所创建的隧道使用的是随机公网地址,24小时内会随机变化,不利于长期远程访问。因此我们可以为其配置二级子域名,该地址为固定地址,不会随机变化【ps:cpolar.cn已备案】

注意需要将cpolar套餐升级至基础套餐或以上,且每个套餐对应的带宽不一样。【cpolar.cn已备案】

登录cpolar官网,点击左侧的预留,选择保留二级子域名,设置一个二级子域名名称,点击保留,保留成功后复制保留的二级子域名名称

docker ollama hf-mirror,docker,机器人,容器

保留成功后复制保留成功的二级子域名的名称

docker ollama hf-mirror,docker,机器人,容器

返回登录Cpolar web UI管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道,点击右侧的编辑

docker ollama hf-mirror,docker,机器人,容器

修改隧道信息,将保留成功的二级子域名配置到隧道中

  • 域名类型:选择二级子域名
  • Sub Domain:填写保留成功的二级子域名

点击更新(注意,点击一次更新即可,不需要重复提交)

docker ollama hf-mirror,docker,机器人,容器

更新完成后,打开在线隧道列表,此时可以看到公网地址已经发生变化,地址名称也变成了固定的二级子域名的名称域名

docker ollama hf-mirror,docker,机器人,容器

最后,我们使用固定的公网http地址访问,可以看到同样访问成功,这样一个固定且永久不变的公网地址就设置好了!

docker ollama hf-mirror,docker,机器人,容器文章来源地址https://www.toymoban.com/news/detail-848195.html

到了这里,关于如何在群晖Docker运行本地聊天机器人并结合内网穿透发布到公网访问的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 一文搞懂如何在群晖NAS中使用cpolar实现【内网穿透】

    今天,我们来为大家介绍,如何在群晖系统中,使用图形化界面的cpolar。 cpolar 经过图形化改造后,使用方法已经简便了很多,基本与其他应用软件无异,都是根据需要,点击软件界面中不同的按钮,以实现不同的功能。当然,在正式使用前,仍需要对cpolar进行一些必要的设

    2024年02月15日
    浏览(39)
  • ChatGPT聊天机器人如何发图片????

    问题一、怎么让聊天机器人ChatGPT回复你一张图片? 有问题可以在评论区留言。

    2024年02月11日
    浏览(34)
  • LLM本地知识库问答系统(一):使用LangChain和LlamaIndex从零构建PDF聊天机器人指南

           随着大型语言模型(LLM)(如ChatGPT和GPT-4)的兴起,现在比以往任何时候都更容易构建比普通熊更智能的智能聊天机器人,并且可以浏览堆积如山的文档,为您的输入提供准确的响应。        在本系列中,我们将探索如何使用pre-trained的LLM创建一个聊天机器人,该聊

    2024年02月11日
    浏览(38)
  • 笔记本电脑上的聊天机器人: 在英特尔 Meteor Lake 上运行 Phi-2

    对应于其强大的能力,大语言模型 (LLM) 需要强大的算力支撑,而个人计算机上很难满足这一需求。因此,我们别无选择,只能将它们部署至由本地或云端托管的性能强大的定制 AI 服务器上。 如果我们可以在典配个人计算机上运行最先进的开源 LLM 会如何?好处简直太多了:

    2024年04月17日
    浏览(36)
  • AI聊天-如何将消息发送给机器人 第4集

    上一篇我们讲解了如何让我们的消息发送框悬浮在固定位置,本编讲为大家讲解如何讲消息发送给机器人,这里需要用到http请求,后端需要提供对应的接口 1、服务端代码已为大家准备好,请参考springboot的使用技巧 2、测试页面源码,请参考从零开始搭建AI聊天 1、集成 sse客户端

    2024年01月16日
    浏览(31)
  • FANUC机器人实现本地自动运行的相关配置和参数设置

    具体步骤可参考如下内容 : 如下图所示,按下MENU键,选择下一页, 如下图所示,找到系统—配置,enter回车进入, 如下图所示,在系统—配置中,按下item键,输入43,找到第43项, 如下图所示,找到第43项:远程-本地设置后,按下F4选择,选择2本地,enter回车确认, 如下图

    2024年02月16日
    浏览(31)
  • 如何使用OpenAI API和Python SDK构建自己的聊天机器人

    近日,OpenAI公司的ChatGPT模型走红网络。同时,OpenAI也推出了Chat API和gpt-3.5-turbo模型,让开发者能够更轻松地使用与ChatGPT类似的自然语言处理模型。 通过OpenAI API,我们可以使用gpt-3.5-turbo模型,实现多种任务,包括:撰写电子邮件或其他文本内容,编写Python代码,创建对话代

    2024年02月01日
    浏览(31)
  • 以猫盘为例,手把手教你怎么在群晖DSM7.2正式版ARM64机型中安装Container Manager (Docker)

    系统版本没有问题之后,我们就可以开始安装Container Manager (Docker)了。 👉安装前的准备: 🔺正式安装之前我们先去群晖官网下载Container Manager (Docker)的离线安装包。为什么需要下载离线安装包?因为我们直接在套件中心是搜索不到了,所以也无法通过套件中心来安装。 🔺打

    2024年02月12日
    浏览(44)
  • Bard:谷歌推出聊天机器人,与百度文心一言、ChatGPT和New Bing比较如何?

    自从谷歌在GPT-4发布一周后推出了聊天机器人Bard以来,人工智能行业再次迎来了一场巨变。Bard目前已经开启内测,作为一款聊天机器人,它受到了业界的广泛关注。在此之前,百度的文心一言、OpenAI的ChatGPT和微软的New Bing也引发了广泛讨论。那么,谷歌的Bard与这些聊天机器

    2024年02月13日
    浏览(30)
  • 在Docker上运行ROS(melodic版本)机器人项目

    对于ROS机器人项目来说,运行的环境可能各不相同,有的需要在Ubuntu18.04下运行,有的需要在Ubuntu20.04下运行。 运行环境的改变,产生使用Docker配置环境的需求 。本人 以港科大FUEL的项目为例,尝试在Docker上安装ROS-Melodic,并运行该无人机项目 。在本文中,会引用到很多的链

    2024年02月07日
    浏览(24)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包