ChatGLM-6B之SSE通信(Server-sent Events)

这篇具有很好参考价值的文章主要介绍了ChatGLM-6B之SSE通信(Server-sent Events)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

写这篇博客还是很激动开心的,因为是我经过两周的时间,查阅各个地方的资料,经过不断的代码修改,不断的上传到有显卡的服务器运行才得出的可行的接口调用解决方案,在这里记录并分享一下。

研究历程(只是感受,不感兴趣的这段可以跳过,直接看下边的正题,找“正题”二字)

         起初领导让我写一个接口——前端传递用户问题,后端返回ChatGLM模型生成的问题的答案。这个工作太简单了,因为GitHub上ChatGLM-6B根目录的api.py已经实现了,我只需改一个模型路径、端口号启动即可,我默默地更新了代码然后修改后启动运行了,然后摸了三天鱼,三天后和领导说完成了,深藏功与名。领导高兴地拿着我的接口文档就给其他部门的同事用了,结果没几天,同事就反馈说,这接口是http请求啊,前端一请求,后端带着问题去送入模型,这模型生成还需要时间,等完全生成了,服务端再返给前端,这期间用户一直等待,还没等返回结果,用户早生气的买套壳ChatGPT公司的服务了,谁还用你的ChatGLM?我当然知道接口慢了,而且返回时间和生成的文本长度成正比,这怎么办?用websocket?双向通信?这接口是python写的,我再研究一下python的websocket怎么写?当初干java一看websocket的代码就劝退——又臭又长,导致我现在都不会ws,所以我现学一下吗?不,不可能,我对ws过敏,我查了查ChatGPT是如何实现的,网上说是用SSE(Server-sent Events)实现的,我还问了一下ChatGPT,结果他嘴硬,说没有。。。
ChatGLM-6B之SSE通信(Server-sent Events)
无语~,我用postman调了一下ChatGPT的api,发现返回的数据德行如下:

data: {"id":"cmpl-7Jy6ml72P6prTUU5mmtMGUsWBOgNY","object":"text_completion","created":1684993644,"choices":[{"text":"新","index":0,"logprobs":null,"finish_reason":null}],"model":"text-davinci-003"}
data: {"id":"cmpl-7Jy6ml72P6prTUU5mmtMGUsWBOgNY","object":"text_completion","created":1684993644,"choices":[{"text":"能","index":0,"logprobs":null,"finish_reason":null}],"model":"text-davinci-003"}
data: {"id":"cmpl-7Jy6ml72P6prTUU5mmtMGUsWBOgNY","object":"text_completion","created":1684993644,"choices":[{"text":"源","index":0,"logprobs":null,"finish_reason":null}],"model":"text-davinci-003"}
...<省略若干数据>
data: {"id":"cmpl-7Jy6ml72P6prTUU5mmtMGUsWBOgNY","object":"text_completion","created":1684993644,"choices":[{"text":"节","index":0,"logprobs":null,"finish_reason":null}],"model":"text-davinci-003"}
data: {"id":"cmpl-7Jy6ml72P6prTUU5mmtMGUsWBOgNY","object":"text_completion","created":1684993644,"choices":[{"text":"能","index":0,"logprobs":null,"finish_reason":null}],"model":"text-davinci-003"}
data: {"id":"cmpl-7Jy6ml72P6prTUU5mmtMGUsWBOgNY","object":"text_completion","created":1684993644,"choices":[{"text":"材","index":0,"logprobs":null,"finish_reason":null}],"model":"text-davinci-003"}
data: {"id":"cmpl-7Jy6ml72P6prTUU5mmtMGUsWBOgNY","object":"text_completion","created":1684993644,"choices":[{"text":"料","index":0,"logprobs":null,"finish_reason":null}],"model":"text-davinci-003"}
data: {"id":"cmpl-7Jy6ml72P6prTUU5mmtMGUsWBOgNY","object":"text_completion","created":1684993644,"choices":[{"text":"等","index":0,"logprobs":null,"finish_reason":"length"}],"model":"text-davinci-003"}
data: [DONE]

不用问,有用的字段就是text,猜也能猜出是前端拼接的这个字段的数据,组成一句话然后渲染。这里除了text字段,大家还要注意一下最后一行,data: [DONE],这个应该是要告诉前端,后端已经生成完毕,至于怎么用,前端小姐姐可能清楚。

那这个是不是SSE通信呢?不急,我们来小小写点SSE通信接口代码玩玩。

pip install sse-starlette
  • 服务端sse_test.py
import asyncio
import uvicorn, json, datetime
import uvicorn
from fastapi import FastAPI, Request
from fastapi.middleware.cors import CORSMiddleware
from sse_starlette.sse import ServerSentEvent, EventSourceResponse


app = FastAPI()
# 解决跨域问题
app.add_middleware(
    CORSMiddleware,
    allow_origins=["*"],
    allow_credentials=False,
    allow_methods=["*"],
    allow_headers=["*"]
)


# 用来处理请求地址映射的注解,相当于java Spring的 @GetMapping
@app.get('/stream')
async def stream():
	# 定义一个生成器函数
    def generator():
        for char in '李总是个大帅逼':
            yield char

    async def event_generator():
        for char in generator():
            now = datetime.datetime.now()
            time = now.strftime("%Y-%m-%d %H:%M:%S")
            yield {"data": {"data": char, "history": [], "finished": False, "time": time}}
            # 控制每遍历一次等待1秒钟
            await asyncio.sleep(1)
        # 模仿ChatGPT返回结束标识
        yield {"data": '[DONE]'}

    return EventSourceResponse(event_generator())


if __name__ == '__main__':
    uvicorn.run('sse_test:app', reload=True)

上述服务启动后,是可以直接用postman调用的(请使用最新版postman,旧版不会流式输出,而是等待接口执行最后全部返回,无法看到实时输出的效果),访问[get]http://localhost:8000/stream即可,结果如下:
ChatGLM-6B之SSE通信(Server-sent Events)

看见没?“李总是个大帅逼!”不对没有叹号,不对李总不是大帅逼,不对,这不是重点,重点是看返回结构,是不是和ChatGPT返回的很像?我在代码里贴心的写下了yield {"data": '[DONE]'},返回结果还把[DONE]的引号去了。(哈哈,ChatGPT就是嘴硬,之前问他有没有用到知识图谱,他说用到了,过两三个月再问,他说没用到。。。再看ChatGLM代码,模型和接口突出一个清晰明了,哪有什么知识图谱?开箱即用)。

这里大家可能有疑问,postman请求接口后好像不是及时返回,还是后端一句话生成好返回的,postman还是等待了,没错,你没错,这个是postman的问题(补充:最新版postman可以流式返回),有诗为证,不,有前端代码为证,

我写了一点小前端来验证一下,如下:

  • 客户端SSE Client.html
    或者也可以不写以下代码,浏览器直接访问http://localhost:8000/stream
<!DOCTYPE html>
<html lang="en">
	<head>
		<meta charset="UTF-8">
		<meta name="viewport" content="width=device-width, initial-scale=1.0">
		<title>SSE Client</title>
	</head>
	<body>
		<h1>Receive: <span id="sse"></span></h1>
		<script>
			const numberElement = document.getElementById("sse");
			const source = new EventSource('http://localhost:8000/stream');

			source.onmessage = (event) => {
				numberElement.innerText = event.data;
			};

			source.onerror = (error) => {
				console.error("SSE error:", error);
			};
		</script>
	</body>
</html>

直接双击Chrome打开,自己看看屏幕上写着什么?“李总是个大帅逼!”不对没有叹号,不对李总不是大帅逼,不对,这不是重点,是不是像屏闪动画一样[doge]?

ChatGLM-6B之SSE通信(Server-sent Events)

哈哈哈,闲话不多说,我们进入正题~

正题

1.SSE(Server-sent Events)

ChatGLM-6B之SSE通信(Server-sent Events)
SSE的概念网上一大堆,不想复制粘贴,把ChatGPT的回答放在这里,重点标好了,我用大白话挑重点再说一遍:

  1. SSE是基于HTTP的,所以我们可以用http的方式去和服务端建立通信,这样少了一些学习成本(点名websocket java端代码又臭又长!)。
  2. 它是单向通信:即客户端向服务器建立连接后,服务器持续向客户端疯狂输出,(类似:李雷:“我爱你”,韩梅梅:“我爱你我爱你我爱你。。。[DONE]-_-!!!”);
    这个和websocket不同,websocket是双向通信,(类似:李雷:“我爱你”,韩梅梅:“我爱你”,李雷:“我爱你”,韩梅梅:“我爱你”,[forever~]”
  3. SSE返回的是事件流类型,事件流中包含标识符、类型、数据、注释,这些都是可选字段,上述案例中的事件流中只有数据,即data,完整的事件流示例如下:
id: 12345 											# 标识符
event: update 										# 类型(值可以随便定义,想写什么写什么)
data: {"message": "Hello, SSE!"} 					# 数据(数据建议为json格式)

: This is a comment									#注释(就是冒号开头)

2.ChatGLM的流式方法

只描述探讨过程,查阅代码请移步ChatGLM-6B
大家如果看过ChatGLM的api.py文件,会发现这个http接口中调用的是model.chat(),然后直接将生成的数据组成json返回给前端了。

@app.post("/")
async def create_item(request: Request):
	...
    response, history = model.chat(...)
	...

这明显不是流式输出(起码和我刚才写的那段代码结构不像)。

然后我们再看下web_demo.py文件,

import gradio as gr

gr.Chatbot.postprocess = postprocess
...
def predict(...):
    ...
    for response, history in model.stream_chat(...):
        chatbot[-1] = (parse_text(input), parse_text(response))       
        yield chatbot, history
...
with gr.Blocks() as demo:
    gr.HTML("""<h1 align="center">ChatGLM</h1>""")
    ...
    submitBtn.click(predict, ...)
    ...

demo.queue().launch(share=False, inbrowser=True)

这个用过ChatGLM的同学应该熟悉,官方提供的前端交互页面就是这个模块中的,其中用到的技术是Gradio(Gradio是什么东西我没细研究过,我个人认为是个和JSP差不多的视图层技术,和后端捆绑的很死,前端无法集成,否则也不需要研究sse了),重点可以看下Gradio在调用什么——predict()方法,在predict()方法中可以看到model.stream_chat(),不用问,见名知意,这个就是流式方法,而且是for循环迭代,最后yield产出每次迭代的结果,这和刚才我写的案例不谋而合。

好的,我们就用model.stream_chat()做文章,下面直接上代码。

3.ChatGLM之SSE通信

讲解请重点看代码中的注释,运行以下代码前请自行修改模型存放目录和端口,有未安装的第三方包,直接根据报错信息pip install XXX即可

from fastapi import FastAPI, Request, Response
from transformers import AutoTokenizer, AutoModel
import uvicorn, json, datetime
import torch
from fastapi.middleware.cors import CORSMiddleware
from sse_starlette.sse import ServerSentEvent, EventSourceResponse

DEVICE = "cuda"
DEVICE_ID = "0"
CUDA_DEVICE = f"{DEVICE}:{DEVICE_ID}" if DEVICE_ID else DEVICE


def torch_gc():
    if torch.cuda.is_available():
        with torch.cuda.device(CUDA_DEVICE):
            torch.cuda.empty_cache()
            torch.cuda.ipc_collect()


app = FastAPI()
# 解决跨域问题
app.add_middleware(
    CORSMiddleware,
    allow_origins=["*"],
    allow_credentials=False,
    allow_methods=["*"],
    allow_headers=["*"]
)


@app.post("/stream")
async def stream(arg_dict: dict):
    global model, tokenizer

    async def generate(prompt, history):
    	# 记录上一次迭代后模型输出的文本长度,用于截断下次模型输出的文本,以便事件流逐字逐词输出
        size = 0
        # for循环调用流式方法
        for response, _ in model.stream_chat(tokenizer, prompt, history=history):
        	# 每次迭代response都比上一次多一个字或一个词
        	# 所以用上次记录的size去截取当前的response,得到多出来的字或词word
            word = response[size:]
            # 更新当前response文本长度,用于下次迭代截断
            size = len(response)
            # log = "[" + time + "] " + '", prompt:"' + prompt + '", response:"' + repr(word) + '"'
            # print(log)
            yield word

    async def get_stream():
        prompt = arg_dict["prompt"]
        history = arg_dict["history"]
        # 仅向模型传入最近五组对话作为上下文,用于多轮对话语境。
        # (若不想限制,可直接删去这行)
        history = history[-5:]
        async for word in generate(prompt, history):
        	# 记录时间,不是重点
            now = datetime.datetime.now()
            time = now.strftime("%Y-%m-%d %H:%M:%S")
            # 构造返回体
            answer = {
                "id": 0,
                "time": time,
                "text": word
            }
            # 这里注意,如果只是像ChatGPT一样只返回数据,只需返回一个键为"data",值为json的字典即可;
            # 如果还想输出id、event、注释等,请使用ServerSentEvent类来封装,ServerSentEvent类使用有坑,后续补充或者评论区提问。
            yield {"data": json.dumps(answer, ensure_ascii=False)}
        torch_gc()
        # 迭代结束,返回结束标识,用于前端处理
        yield {"data": "[DONE]"}
    # EventSourceResponse这个类会将数据以“text/event-stream”的类型返回。
    return EventSourceResponse(get_stream())


if __name__ == '__main__':
    tokenizer = AutoTokenizer.from_pretrained("<这里写模型存放目录>", trust_remote_code=True)
    model = AutoModel.from_pretrained("<这里写模型存放目录>", trust_remote_code=True).half().cuda()
    model.eval()
    # 端口号自行修改
    uvicorn.run(app, host='0.0.0.0', port=8011, workers=1)

测试:
ChatGLM-6B之SSE通信(Server-sent Events)文章来源地址https://www.toymoban.com/news/detail-462289.html

到了这里,关于ChatGLM-6B之SSE通信(Server-sent Events)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Spring Boot中使用Server-Sent Events (SSE) 实现实时数据推送教程

    Server-Sent Events (SSE) 是HTML5引入的一种轻量级的服务器向浏览器客户端单向推送实时数据的技术。在Spring Boot框架中,我们可以很容易地集成并利用SSE来实现实时通信。          在Spring Boot项目中,无需额外引入特定的依赖,因为Spring Web MVC模块已经内置了对SSE的支持。 辅助

    2024年03月18日
    浏览(41)
  • html5学习笔记19-SSE服务器发送事件(Server-Sent Events)

    https://www.runoob.com/html/html5-serversentevents.html 允许网页获得来自服务器的更新。类似设置回调函数。 demo_sse.php demo_sse.aspx

    2024年02月09日
    浏览(35)
  • Java:SpringBoot整合SSE(Server-Sent Events)实现后端主动向前端推送数据

    SpringBoot整合SSE(Server-Sent Events)可以实现后端主动向前端推送数据 依赖 后端接收sse连接 前端浏览器代码 项目目录 完整依赖 pom.xml 前端代码 index.html 定义一个返回数据 Message.java 定义sse接口 SseService.java 实现sse接口 SseServiceImpl.java 定时任务 SendMessageTask.java 前端路由 IndexCont

    2024年02月10日
    浏览(32)
  • Java Server-Sent Events通信

    后端可以向前端发送信息,类似于websocket,但是websocket是双向通信,但是sse为单向通信,服务器只能向客户端发送文本信息,效率比websocket高。 单向通信 :SSE只支持服务器到客户端的单向通信。这对于那些只需要服务器推送数据而无需客户端响应的场景非常有效,例如实时

    2024年01月23日
    浏览(29)
  • Server-Sent Events(以下简称 SSE)及event-source-polyfill使用单向长连接(后台主动向前端推送)

    SSE 与 WebSocket 作用相似,都是建立浏览器与服务器之间的通信渠道,然后服务器向浏览器推送信息SSE 是单向通道,只能服务器向浏览器发送,因为流信息本质上就是下载。如果浏览器向服务器发送信息,就变成了另一次 HTTP 请求 使用方法  Server-Sent Events 教程 - 阮一峰的网络

    2024年02月12日
    浏览(29)
  • Go 中的Server-Sent Events:一种高效的实时通信替代方案

    在当今的软件工程领域,实时通信在许多现代应用程序中发挥着至关重要的作用。Server-Sent Events (SSE) 是该领域广受欢迎的一项技术。 在本文中,我们将探讨Server-Sent Events 是什么,将它们的功能与 WebSocket 进行比较,提供 Go 和 JavaScript 代码示例,讨论使用服务器发送事件的优

    2024年02月11日
    浏览(29)
  • 介绍Server-Sent Events,以及使用,超级简单!

    严格地说,HTTP 协议无法做到服务器主动推送信息。但是,有一种变通方法,就是服务器向客户端声明,接下来要发送的是流信息(streaming)。 也就是说,发送的不是一次性的数据包,而是一个数据流,会连续不断地发送过来。这时,客户端不会关闭连接,会一直等着服务器

    2024年02月11日
    浏览(29)
  • 结合Server-sent events与 EventSource使用,实现服务端主动向客户端发送数据

    当前解决服务端推送的方案有这几个: 客户端长轮询(不推荐使用) websocket双向连接 iframe永久帧(不推荐使用) EventSource 长轮训虽然可以避免短轮训造成的服务端过载,但在服务端返回数据后仍需要客户端主动发起下一个长轮训请求,等待服务端响应,这样仍需要底层的连

    2024年02月04日
    浏览(64)
  • 浅谈PHP结合JavaScript SSE(Server Sent Events)实现服务器实时推送功能

    如配置后Nginx遇到502/504的,请参考这两篇文章的解决方案 PHP-FPM与Nginx通信报 502 Bad Gateway或504 Gateway Timeout终极解决方案(适用于PHP执行耗时任务情况下的报错) Linux系统下配置Nginx使部分URL使用多套自定义的PHP-FPM配置 SSE 的全称是 Server Sent Events,即服务器推送事件。它是一种

    2024年02月08日
    浏览(33)
  • Spring Boot 整合 SSE(Server Sent Event)

    服务器发送事件(Server-Sent Events),简称 SSE。这是一种服务器端到客户端的单向消息推送。SSE 基于 HTTP 协议的,SSE 在服务器和客户端之间打开一个单向通道,服务端响应的不再是一次性的数据包而是text/event-stream类型的数据流信息 后端代码: 细节: 创建SseEmitter 对象时需要返

    2024年02月16日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包