免费的真是太香了!Chainlit接入抖音 Coze AI知识库接口快速实现自定义用户聊天界面

前言

由于Coze 只提供了一个分享用的网页应用,网页访问地址没法自定义,虽然可以接入NextWeb/ChatGPT web/open webui等开源应用。但是如果我们想直接给客户应用,还需要客户去设置配置,里面还有很多我们不想展示给客户的东西怎么办?于是,我使用Chainlit实现了一个无缝快速接入Coze 实现自定义用户使用界面的应用,代码清晰简单。还可以自定义logo、欢迎语、网站图标、语言输入、语音设别、文件上传等。

Coze国内版可以免费使用 豆包模型、通义千问 qwen-max , 智谱 GLM-4 128K 、MiniMax 、月之暗面(kimi)、百川智能等llm大模型。这些在他们各自平台上都是收费使用,大约都在0.2元/1000 tokens左右,能免费使用真的太香了!

快速开始

获取coze 的base_url和api_key

coze 国际官网地址 https://coze.com/
coze 国内官网地址 https://coze.cn/

登录Coze 后台,在团队空间里,创建的AI应用,创建完毕后点击进入。
在这里插入图片描述

  • 注意 一定要团队空间里创建,个人空间创建的ai影响,无法通过API访问。

点击发布按钮,进入发布界面。
在这里插入图片描述
勾选,Bot as API,然后点击配置,进入配置界面。

在这里插入图片描述
创建个人访问令牌,拿到令牌token,后面需要配置到环境变量配置文件中。
在这里插入图片描述
最后,返回到发布页面,点击右上角的,发布按钮。每次发布都需要审核,首次发布后,需要等带审核完毕后,才能通过API访问。
在这里插入图片描述

chainlit网页搭建

创建一个文件,例如“chainlit_chat”

mkdir chainlit_chat

进入 chainlit_chat文件夹下,执行命令创建python 虚拟环境空间(需要提前安装好python sdkChainlit 需要python>=3.8。,具体操作,由于文章长度问题就不在叙述,自行百度),命令如下:

python -m venv .venv
  • 这一步是避免python第三方库冲突,省事版可以跳过
  • .venv是创建的虚拟空间文件夹可以自定义

接下来激活你创建虚拟空间,命令如下:

#linux or mac
source .venv/bin/activate
#windows
.venv\Scripts\activate

在项目根目录下创建requirements.txt,内容如下:

chainlit~=1.1.306
aiohttp

在项目根目录下创建app.py文件,代码如下:

import os

import aiohttp
import chainlit as cl
import json

coze_bot_id = os.environ["COZE_BOT_ID"]
coze_api_key = os.environ["COZE_API_KEY"]


@cl.on_chat_start
def start_chat():
    cl.user_session.set("message_history", [])


@cl.on_message
async def main(message: cl.Message):
    message_history = cl.user_session.get("message_history")
    message_history = message_history[-8:]
    message_history.append({"role": "user", "content": message.content, "content_type": "text"})
    msg = cl.Message(content="")
    url = "https://api.coze.cn/v3/chat"
    headers = {
        "Authorization": f"Bearer {coze_api_key}",
        "Content-Type": "application/json"
    }
    data = {
        "bot_id": coze_bot_id,
        "user_id": cl.context.session.id,
        "stream": True,
        "auto_save_history": True,
        "additional_messages": message_history
    }
    async for delta in fetch_sse(url, headers=headers, data=json.dumps(data)):
        await msg.stream_token(delta['content'])
    await msg.send()
    message_history.append({"role": "assistant", "type": "answer", "content": msg.content, "content_type": "text"})


async def fetch_sse(url, headers, data):
    async with aiohttp.ClientSession() as session:
        async with session.post(url, headers=headers, data=data) as response:
            async for line in response.content:
                if line:  # 过滤掉空行
                    data = line.decode('utf-8').rstrip('\n\r')
                    # print(f"Received: {data}")
                    # 检查是否为事件类型行
                    if data.startswith('event:'):
                        event_type = data.split(':', 1)[1].strip()  # 提取事件类型
                    # 检查是否为数据行,并且是我们感兴趣的事件类型
                    elif data.startswith('data:') and event_type == 'conversation.message.delta':
                        data = data.split(':', 1)[1].strip()  # 提取数据内容
                        # 如果数据包含换行符,可能需要进一步处理(这取决于你的具体需求)
                        # 这里我们简单地打印出来
                        # print(f"Received data for event 'conversation.message.delta': {data}")
                        yield json.loads(data)

在项目根目录下创建.env环境变量,配置如下:

COZE_BOT_ID="7361599102180065321"
COZE_API_KEY="pat_key"
  • 如何是私有化部署,COZE_BOT_ID 替换成你创建应用的bot_id
  • bot_id:Bot ID。进入 Bot 的开发页面,开发页面 URL 中 bot 参数后的数字就是 Bot ID。例如https://www.coze.cn/space/341****/bot/73428668***,bot ID 为73428668*****。**
  • COZE_API_KEY 替换成你自己创建的个人访问令牌密匙

执行以下命令安装依赖:

pip install -r .\requirements.txt
  • 安装后,项目根目录下会多出.chainlit.files文件夹和chainlit.md文件

运行应用程序

要启动 Chainlit 应用程序,请打开终端并导航到包含的目录app.py。然后运行以下命令:

 chainlit run app.py -w   
  • -w标志告知 Chainlit 启用自动重新加载,因此您无需在每次更改应用程序时重新启动服务器。您的聊天机器人 UI 现在应该可以通过http://localhost:8000访问。
  • 自定义端口可以追加--port 80

启动后界面如下:
在这里插入图片描述

  • chainlit 可以实现聊天的界面的完全自定义
  • chainlit 可以整理整合开源语音识别、语音播放、文件上传管理等功能
  • 本代码只整合了coze api的对话接口,后续可以接入文件图片上传的接口、历史会话记录等。
  • 当前扣子 API 免费供开发者使用,发起对话 API 的请求频率限制如下:
    • QPS(每秒发送的请求数):2
    • QPM(每分钟发送的请求数):60
    • QPD(每天发送的请求数):3000

相关文章推荐

《Chainlit快速实现AI对话应用的界面定制化教程》
《Chainlit接入DifyAI知识库接口快速实现自定义用户聊天界面》
《Chainlit接入FastGpt接口快速实现自定义用户聊天界面》
《使用 Xinference 部署本地模型》
《Fastgpt接入Whisper本地模型实现语音输入》
《Fastgpt部署和接入使用重排模型bge-reranker》
《Fastgpt部署接入 M3E和chatglm2-m3e文本向量模型》
《Fastgpt 无法启动或启动后无法正常使用的讨论(启动失败、用户未注册等问题这里)》
《vllm推理服务兼容openai服务API》
《vLLM模型推理引擎参数大全》
《解决vllm推理框架内在开启多显卡时报错问题》
《Ollama 在本地快速部署大型语言模型,可进行定制并创建属于您自己的模型》

  • 16
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

泰山AI

原创不易,感谢支持

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值