LLM应用开发与落地:流式响应

图片

一、背景

最近智能客服产品给到一个游戏客户那边,客户那边的客服负责人体验后认为我们产品回答的准确率是还是比较高的。同时,他反馈了几个需要改进的地方,其中一个就是机器人回复慢。机器人回复慢有很多原因,也有优化方式,其中一个就是流式响应。

二、原理

我们在微信需要发送比较长一段文字的时候,我们需要花比较长的时间去写,跟你聊天的人那边的感触就是要有一段时间的等待。如果我们每写好一句话就先发送过去,对方的等待的感觉就会弱一点。推到极致就是,我们每写一个字就发送过去,这样对方的等待感是最弱的。当然,人不可能这么做 ,因为我们要检查和改动我们写的内容。但是LLM可以,因为LLM也是一个一个token生成,而且不需要检查和改动。

LLM应用要实现流式响应,其实需要三个点都支持流式响应。

首先,LLM生成响应的时候,每生成一部分要先提前返回。百度的ernie-bot-4 是支持流式响应的,只需要请求body中带上参数 stream=True。

其次,应用服务器跟LLM服务器间的数据通道需要支持流式响应,一般http接口的封装都有这个参数,比如python request包的post方法的stream参数。

最后,应用服务器返回给前端的数据通道,以及前端展示要支持流式响应。gradio的chatbot也是支持流式响应的。

三、实践

万事俱备,就等coding。

LLM和数据通道这块都只是加个参数,这个改动不大。我们来看下gradio的流式怎么实现。

如果我们要用gradio实现一个回显的demo(就是我们发送什么,服务器就返回什么),我们会这么实现

import random
import gradio as gr

def echo_response(message, history):
    return "你输入:" + message
    
gr.ChatInterface(echo_response).launch()

输出效果如下:

图片

实现一个流式响应的也很简单,区别就是把响应函数变成一个生成器,每次返回最新的消息:


import time
import gradio as gr

def echo_response(message, history):
    for i in range(len(message)):
        time.sleep(0.3)
        yield "你输入: " + message[: i+1]

gr.ChatInterface(echo_response).launch()

为了看到回显消息一个字一个字出来,故意每增加输出一个字延迟0.3秒。看的的效果就是“你输入:”后边的字一个一个显示出来。

接下来就是把LLM的流式响应参数和http通道的流式响应的参数设置为True,然后把gradio的响应函数改成生成器即可。

使用百度 ernie-bot 和 gradio 写了个demo,把全流程串起来验证了下,log中可以看到ernie-bot的分批返回:


{'id': 'as-gxfvpsrx35', 'object': 'chat.completion', 'created': 1707351331, 'sentence_id': 0, 'is_end': False, 'is_truncated': False, 'result': '我是百度公司', 'need_clear_history': False, 'finish_reason': 'normal', 'usage': {'prompt_tokens': 2, 'completion_tokens': 0, 'total_tokens': 2}}
stream result:我是百度公司
{'id': 'as-gxfvpsrx35', 'object': 'chat.completion', 'created': 1707351334, 'sentence_id': 1, 'is_end': False, 'is_truncated': False, 'result': '开发的人工智能语言模型,我的中文名是文心一言,英文名是ERNIE Bot,我可以为人类提供信息解决问题,比如回答问题,提供定义、解释', 'need_clear_history': False, 'finish_reason': 'normal', 'usage': {'prompt_tokens': 2, 'completion_tokens': 0, 'total_tokens': 2}}
stream result:开发的人工智能语言模型,我的中文名是文心一言,英文名是ERNIE Bot,我可以为人类提供信息解决问题,比如回答问题,提供定义、解释
{'id': 'as-gxfvpsrx35', 'object': 'chat.completion', 'created': 1707351336, 'sentence_id': 2, 'is_end': False, 'is_truncated': False, 'result': '和建议,也可以辅助人类进行创作产生新的内容,如文本生成与创作、文本改写等。', 'need_clear_history': False, 'finish_reason': 'normal', 'usage': {'prompt_tokens': 2, 'completion_tokens': 0, 'total_tokens': 2}}
stream result:和建议,也可以辅助人类进行创作产生新的内容,如文本生成与创作、文本改写等。
{'id': 'as-gxfvpsrx35', 'object': 'chat.completion', 'created': 1707351337, 'sentence_id': 3, 'is_end': False, 'is_truncated': False, 'result': '如果您有任何问题,请随时向我提问。', 'need_clear_history': False, 'finish_reason': 'normal', 'usage': {'prompt_tokens': 2, 'completion_tokens': 0, 'total_tokens': 2}}
stream result:如果您有任何问题,请随时向我提问。
{'id': 'as-gxfvpsrx35', 'object': 'chat.completion', 'created': 1707351337, 'sentence_id': 4, 'is_end': True, 'is_truncated': False, 'result': '', 'need_clear_history': False, 'finish_reason': 'normal', 'usage': {'prompt_tokens': 2, 'completion_tokens': 62, 'total_tokens': 64}}
stream result:

文章的最后有demo代码,感兴趣的可以自己验证下。

四、感悟

demo好写,但是发现在智能机器人项目支持这个还是有点改动,从agent framework 到具体agent的实现,整个返回的线路都要改成生成器模式。

最近感悟就是,简单的RAG也好,让人惊喜的AGI也好,都非常容易实现,但是真正要落地到企业中,非常多的坑和需要探索解决的东西,无论是准确率、响应速度、成本,以及使用人的接受度等等。这也是很大一部分人短暂接触LLM后放弃的原因。

最近跟一些在做LLM应用的人聊,大家其实真的还是需要信仰去支持调prompt,去探索新的方法。毕竟,这真的是没有现成的技术方案可以参考,就跟20年前怎么实现服务器高并发一样。那时候,C10K 问题都是会专门讨论的(C10K problem: http://www.kegel.com/c10k.html)。要做开拓者,先行者,这些都是必然会遇到的。

我正在开发一款基于自研的LLM agent framework 的智能客服产品,它具有私有知识问答,意图引导、信息收集、情绪安抚、内部系统融合、LUI与GUI 融合、人工接管、数据分析与洞察、异常监控等功能。

欢迎对prompt编写、LLM应用开发与落地、智能客服产品等等感兴趣的朋友加我微信,一起交流,共同前行。

今天是2024年的除夕了,在这里顺祝大家新年快乐!2023年大环境不好,很多人不容易,但是要相信这都是暂时的,只要保持前行,总有希望!


# LLM 流式响应demo
import gradio as gr
import random
import time
import requests
import json
from extension.llm import llm_baidu
API_KEY = "your_ai_key"
SECRET_KEY = "your_secret_key"

def baidu_llm_respond():
    url = "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions_pro?access_token=" + get_access_token()
    playload_obj = llm_baidu.LlmBaiduMsg(role="user", content="你是谁?").__dict__
    msgs = [playload_obj]
    payload = json.dumps(
    {
        "messages": msgs,
        "temperature": 0.99,
        # "system": "this is system",
        "disable_search": False,
        "enable_citation": False,
        "stream": True,
    })
    print(payload)

    headers = {
        'Content-Type': 'application/json'
    }

    response = requests.request("POST", url, headers=headers, data=payload, stream=True)
    obj_list = fetch_stream(response)
    for obj in obj_list:
        print(obj)
        print(f'stream result:{obj["result"]}')
        yield obj["result"]

def fetch_stream(response):
    for line in response.iter_lines():
        if not line.startswith(b"data: "):
            continue
        json_data = line[6:] # 只要json
        dict_obj = json.loads(json_data)
        yield dict_obj

def get_access_token():
    url = "https://aip.baidubce.com/oauth/2.0/token"
    params = {"grant_type": "client_credentials", "client_id": API_KEY, "client_secret": SECRET_KEY}
    return str(requests.post(url, params=params).json().get("access_token"))

with gr.Blocks() as demo:
    chatbot = gr.Chatbot()
    msg = gr.Textbox()
    clear = gr.Button("Clear")

    def user_input_handler(user_message, history):
        print(f"user() user_message:{user_message}")
        return "", history + [[user_message, None]]

    def respond(history):
        print(f"bot() history={history}")
        bot_message_list = baidu_llm_respond()
        history[-1][1] = ""
        for msg in bot_message_list:
            for character in msg:
                history[-1][1] += character
                time.sleep(0.2)
                yield history

    msg.submit(user_input_handler, [msg, chatbot], [msg, chatbot], queue=False).then(
        respond, chatbot, chatbot
    )
    clear.click(lambda: None, None, chatbot, queue=False)
    
demo.queue()
demo.launch()
  • 24
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
LLM是一家知名企业,为各行各业提供全方位的企业应用解决方案。下面将通过一个实际案例来说明LLM在企业应用方面的成功经验。 某电子制造企业合作了LLM,希望提高生产效率和产品质量。LLM的团队首先进行了全面的企业调研,了解其业务流程和存在的问题。随后,他们根据调研结果设计了一套定制化的企业应用系统。 该企业应用系统包含了以下几个核心模块:生产计划管理、设备维护管理、原材料采购与库存管理、质量检测与追溯、销售订单管理以及绩效评估。每个模块都有相应的功能和流程,能够满足企业的具体需求。 通过该企业应用系统,该电子制造企业实现了很多突破。首先,生产计划管理模块能够根据订单情况自动生成生产计划,有效降低了生产周期和提高了生产效率。设备维护管理模块则帮助企业实现了设备的智能化管理,及时进行维护和保养,减少了停机时间和维修成本。 原材料采购与库存管理模块通过与供应商进行信息对接,实现了快速采购和准确控制库存,避免了原材料不足和过多的情况。质量检测与追溯模块在生产过程中进行多次质量检测,确保产品质量达标,并实现了产品追溯,便于问题溯源和召回。销售订单管理模块则提供了一个便捷的订单管理系统,实现了订单的及时处理和跟踪。绩效评估模块通过对各个部门和员工的工作数据进行分析,帮助企业进行绩效评估和个人提升。 通过LLM的企业应用系统,该电子制造企业的生产效率得到了大幅提升,产品质量得到了有效控制。同时,该系统增加了企业的信息化管理,提高了企业的竞争力和市场份额。 这个案例充分展示了LLM在企业应用方面的成功经验,通过对企业的深入了解和全面的系统设计,能够为企业提供量身定制的解决方案,帮助其实现高效运营和持续发展。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值