使用sse技术构建chatgpt应用

文章介绍了如何使用Langchain和FastAPI构建后端服务,通过SSE星形插件实现实时流文字传输。前端部分利用Vue和fetch-event-source库处理POST请求,接收并显示聊天内容。OpenAI模型用于生成对话。
摘要由CSDN通过智能技术生成

最近流行的ChatGPT,好奇他的流文字是怎么传输,所以去研究了,并复现了一下。

后端用的是langchain+fastapi,用到了starlette的一个插件包,sse_starlette返回

先定义langchain的CallbackHandler:

import queue
import sys
from typing import Any, Dict, List, Union

from langchain.callbacks.base import BaseCallbackHandler
from langchain.schema import LLMResult

class StreamingCallbackHandler(BaseCallbackHandler):
    def __init__(self):
        self.tokens = queue.Queue()
        self.stream_end_flag = False
        super(BaseCallbackHandler, self).__init__()

    def on_llm_new_token(self, token: str, **kwargs: Any) -> None:
        self.tokens.put(token)
        sys.stdout.write(token)
        sys.stdout.flush()

    def on_chain_end(self, outputs: Dict[str, Any], **kwargs: Any) -> None:
        self.tokens.put(StopIteration)
import asyncio
from fastapi import FastAPI
from typing import Annotated
from langchain.llms import OpenAI
from sse_starlette.sse import EventSourceResponse
from stream_callback import StreamingCallbackHandler

app = FastAPI()


@app.post('/simpleChat', response_class=EventSourceResponse)
async def simple_chat(data: Annotated[dict, Body()]):
    app_input = data.get('appInput')
    callback_handler = StreamingCallbackHandler()
    chat_prompt = PromptTemplate(
        input_variables=['human_input'],
        template='''{human_input}'''
    )
    chain = LLMChain(
        llm=OpenAI(
            temperature=0.8,
            request_timeout=setting.REQUEST_TIMEOUT,
            max_retries=1,
            max_tokens=2048,
            streaming=True,
            ),
        prompt=chat_prompt
    )
    task = chain.aapplly([{'human_input': app_input}], callbacks=[callback_handler])
    loop = asyncio.get_event_loop()
    asyncio.run_coroutine_threadsafe(task, loop)

    def resp():
        while True:
            try:
                tk = callback_handler.tokens.get()
                if tk is StopIteration: raise tk
                yield tk
            except StopIteration:
                raise StopIteration
    
    return EventSourceResponse(resp())


前端用的是vue, 由于源生sse并不支持post的方式请求,因此使用fetch-event-source包进行post的请求。

npm install @microsoft/fetch-event-source  # 使用npm工具安装
<template>
    <div>
        <span>{{ content }}</span>
    </div>
    <div>
        <el-form :model="form">
            <el-form-item>
                <el-input v-model="form.appInput" />
                <el-button type="primary" @click="submitChat"/>
            </el-form-item>
        </el-form>
    </div>
</template>

<script setup lang='ts'>
import {fetchEventSource} from "@microsoft/fetch-event-source"
const form = reactive({
  appInput: ''
});
const content = ref<string>('')
const submitChat = () => {
    if (form.appInput !== ''){
          content.value = ''
          fetchEventSource('/api/v1/simpleChat', {
          method: 'POST',
          headers: {
            'Content-Type': 'application/json',
          },
          body:JSON.stringify({
            chatInput: form.appInput,
          }),
          onmessage(ev) {
            content.value+=ev.data
          }
        })
    }

}

</script>

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值