使用sse技术构建chatgpt应用

最近流行的ChatGPT,好奇他的流文字是怎么传输,所以去研究了,并复现了一下。

后端用的是langchain+fastapi,用到了starlette的一个插件包,sse_starlette返回

先定义langchain的CallbackHandler:

import queue
import sys
from typing import Any, Dict, List, Union

from langchain.callbacks.base import BaseCallbackHandler
from langchain.schema import LLMResult

class StreamingCallbackHandler(BaseCallbackHandler):
    def __init__(self):
        self.tokens = queue.Queue()
        self.stream_end_flag = False
        super(BaseCallbackHandler, self).__init__()

    def on_llm_new_token(self, token: str, **kwargs: Any) -> None:
        self.tokens.put(token)
        sys.stdout.write(token)
        sys.stdout.flush()

    def on_chain_end(self, outputs: Dict[str, Any], **kwargs: Any) -> None:
        self.tokens.put(StopIteration)
import asyncio
from fastapi import FastAPI
from typing import Annotated
from langchain.llms import OpenAI
from sse_starlette.sse import EventSourceResponse
from stream_callback import StreamingCallbackHandler

app = FastAPI()


@app.post('/simpleChat', response_class=EventSourceResponse)
async def simple_chat(data: Annotated[dict, Body()]):
    app_input = data.get('appInput')
    callback_handler = StreamingCallbackHandler()
    chat_prompt = PromptTemplate(
        input_variables=['human_input'],
        template='''{human_input}'''
    )
    chain = LLMChain(
        llm=OpenAI(
            temperature=0.8,
            request_timeout=setting.REQUEST_TIMEOUT,
            max_retries=1,
            max_tokens=2048,
            streaming=True,
            ),
        prompt=chat_prompt
    )
    task = chain.aapplly([{'human_input': app_input}], callbacks=[callback_handler])
    loop = asyncio.get_event_loop()
    asyncio.run_coroutine_threadsafe(task, loop)

    def resp():
        while True:
            try:
                tk = callback_handler.tokens.get()
                if tk is StopIteration: raise tk
                yield tk
            except StopIteration:
                raise StopIteration
    
    return EventSourceResponse(resp())


前端用的是vue, 由于源生sse并不支持post的方式请求,因此使用fetch-event-source包进行post的请求。

npm install @microsoft/fetch-event-source  # 使用npm工具安装
<template>
    <div>
        <span>{{ content }}</span>
    </div>
    <div>
        <el-form :model="form">
            <el-form-item>
                <el-input v-model="form.appInput" />
                <el-button type="primary" @click="submitChat"/>
            </el-form-item>
        </el-form>
    </div>
</template>

<script setup lang='ts'>
import {fetchEventSource} from "@microsoft/fetch-event-source"
const form = reactive({
  appInput: ''
});
const content = ref<string>('')
const submitChat = () => {
    if (form.appInput !== ''){
          content.value = ''
          fetchEventSource('/api/v1/simpleChat', {
          method: 'POST',
          headers: {
            'Content-Type': 'application/json',
          },
          body:JSON.stringify({
            chatInput: form.appInput,
          }),
          onmessage(ev) {
            content.value+=ev.data
          }
        })
    }

}

</script>

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Java SSE(Server-Sent Events)是一种基于HTTP的协议,用于在服务器端向客户端发送实时事件。它允许服务器通过单个HTTP连接推送消息给客户端,而无需客户端发起请求。ChatGPT可以使用Java SSE来实现实时的聊天功能。 在Java中,您可以使用Spring框架来实现Java SSEChatGPT。以下是一些实现步骤: 1. 首先,您需要在Java项目中添加Spring框架的依赖。可以使用构建工具如Maven或Gradle来管理依赖关系。 2. 创建一个Controller类来处理聊天请求。这个类应该使用`@RestController`注解进行标记,并使用`@RequestMapping`或其他相关注解来定义接收聊天消息和发送响应的端点。 3. 在Controller类中,您可以使用`@EventListener`注解来监听聊天事件。这个注解可以用于处理客户端发送的消息,并使用ChatGPT生成响应。 4. 使用Spring的`SseEmitter`类来发送实时事件给客户端。您可以在Controller方法中创建一个新的`SseEmitter`对象,并使用`send`方法将生成的响应发送给客户端。 5. 客户端可以使用JavaScript来接收和处理服务器发送的事件。通过在浏览器中创建一个EventSource对象,并使用`onmessage`事件处理程序来处理从服务器接收到的消息。 相关问题: 1. 除了Java SSE,还有哪些其他方法可以实现实时聊天功能? 2. 如何处理多个客户端同时发送的聊天消息? 3. 如何确保聊天数据的安全性和隐私性? 4. 如何实现聊天消息的持久化和历史记录? 5. 如何优化聊天服务的性能和可扩展性?<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [使用vue高仿了chatgpt的前端,后端使用python flask openai实现](https://download.csdn.net/download/qq_41701956/87982443)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [轻松打造自己的聊天机器人:JAVA版ChatGPT](https://blog.csdn.net/canshanyin/article/details/130440250)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值