简单入门:通过API与Gradio构建AI应用

通过之前的两篇文章(API获取配置与演示),你应该拥有了一个自己的 API,并对如何使用有了初步的理解。

接下来,你将通过调用 API 并输入提示词,学习如何构建你自己的语言模型应用。

如果想进一步深入这个领域,非常建议观看李宏毅老师2024年的教学视频。

得益于阿里对openai的适配,当前展示的代码可以完全对标于李宏毅老师的视频课程作业,目前对应于作业3,方便大家可以在更普遍的环境下学到这个作业所想表达的内容。

代码文件下载,特别地,其中使用了 Gradio 库去做了可视化。

在线链接:Kaggle | Colab

安装,导入与设置

我们需要安装和导入一些必要的库,并进行配置。

pip3 install openai
import os
import json
from typing import List, Dict, Tuple

import openai
import gradio as gr

# TODO: 设置你的API,需要支持openai库,这里以阿里云DashScope API密钥为例
OPENAI_API_KEY = ""
client = openai.OpenAI(
    api_key=OPENAI_API_KEY,
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",  # 使用阿里云大模型API
)

# 检查是否正确设置了 API
# 如果一切正常,你将看到 "API 设置成功!!"
try:
    response = client.chat.completions.create(
            model="qwen-turbo",  # 使用阿里云 DashScope 的模型
            messages=[{'role': 'user', 'content': "测试"}],  # 设置一个简单的测试消息
            max_tokens=1,
    )
    print("API 设置成功!!")  # 输出成功信息
except Exception as e:
    print(f"API 可能有问题,请检查:{e}")  # 输出详细的错误信息

第一部分:文章摘要(单轮对话应用)

这个的实现方式非常简单,假想一下,我们有一篇文章需要别人帮忙写个摘要:“请你帮我写一下文章的摘要【文章.txt】。”接下来,只要对方答应就可以等待结果。如果这个“对方”本身是一个有求必应的大模型,一切会更加简单——只需要将“请你帮我写一下文章的摘要”(prompt)和【文章】(article)拼接后传给它。

prompt = "请你帮我写一下文章的摘要"
article = "填充"
# 拼接成一个prompt
input_text = f"{prompt}\n{article}"

response = client.chat.completions.create(
    model="qwen-turbo",  # 使用通义千问-Turbo大模型
    messages=[{'role': 'user', 'content': input_text}], # 把拼接后的prompt传递给大模型
)

print(response.choices[0].message.content)

我们这里以《从百草园到三味书屋》为例。

image-20240910210436215

从 API 调用到可视化:引入 Gradio

pip3 install gradio

通过 Gradio,你可以将复杂的 API 调用封装在一个简单的交互界面中,用户可以通过文本框、按钮、滑块等 UI 元素与大模型进行交互。

下面是摘要器的完整示例:

# TODO: 在此处输入用于摘要的提示词
prompt_for_summarization = "请将以下文章概括成几句话。"

# 重置对话的函数
def reset() -> List:
    return []

# 调用模型生成摘要的函数
def interact_summarization(prompt: str, article: str, temp=1.0) -> List[Tuple[str, str]]:
    '''
    * 参数:
      - prompt: 我们在此部分中使用的提示词
      - article: 需要摘要的文章
      - temp: 模型的温度参数。温度用于控制聊天机器人的输出。温度越高,响应越具创造性。
    '''
    input = f"{prompt}\n{article}"
    response = client.chat.completions.create(
        model="qwen-turbo",  # 使用阿里云 DashScope 的模型
        messages=[{'role': 'user', 'content': input}],
        temperature=temp,
        # max_tokens=200,  # 你需要注意到这里可以设置文本的长度上限,以节省token(测试时)
    )

    return [(input, response.choices[0].message.content)]

# 导出整个对话内容的函数
def export_summarization(chatbot: List[Tuple[str, str]], article: str) -> None:
    '''
    * 参数:
      - chatbot: 模型的对话记录,存储在元组列表中
      - article: 需要摘要的文章
    '''
    target = {"chatbot": chatbot, "article": article}
    with open("files/part1.json", "w") as file:
        json.dump(target, file)

# 生成 Gradio 的UI界面
with gr.Blocks() as demo:
    gr.Markdown("# 第1部分:摘要\n填写任何你喜欢的文章,让聊天机器人为你总结!")
    chatbot = gr.Chatbot()
    prompt_textbox = gr.Textbox(label="提示词", value=prompt_for_summarization, visible=False)
    article_textbox = gr.Textbox(label="文章", interactive=True, value="填充")
    
    with gr.Column():
        gr.Markdown("# 温度调节\n温度用于控制聊天机器人的输出。温度越高,响应越具创造性。")
        temperature_slider = gr.Slider(0.0, 2.0, 1.0, step=0.1, label="温度")
    
    with gr.Row():
        sent_button = gr.Button(value="发送")
        reset_button = gr.Button(value="重置")

    with gr.Column():
        gr.Markdown("# 保存结果\n当你对结果满意后,点击导出按钮保存结果。")
        export_button = gr.Button(value="导出")
    
    # 连接按钮与函数
    sent_button.click(interact_summarization, inputs=[prompt_textbox, article_textbox, temperature_slider], outputs=[chatbot])
    reset_button.click(reset, outputs=[chatbot])
    export_button.click(export_summarization, inputs=[chatbot, article_textbox])

# 启动 Gradio 界面
demo.launch(debug=True)

最终效果:
image-20240911100258586

第二部分:角色扮演(多轮对话应用)

多轮对话应用的区别就是拥有上下文,也就是历史记录。要实现它其实就是简单的使用一个列表保存每一次的prompt和模型返回的输出,对于用户和AI返回的输出,分别使用userassistant进行标识。

实际上,整个流程拆解后只有2步。

1. 预设prompt,定义模型的角色

编写好一个prompt用于指导模型,可以是面试官,可以是某个领域的专家,好吧,也可以是猫娘(还记得ChatGPT刚发布的时候,甚至有个仓库专门写了角色prompt)。

prompt_for_roleplay = "我需要你面试我有关AI的知识,仅提出问题"

在编写好之后,使用类似于第一部分的操作,然后先进行一次提交。

response = client.chat.completions.create(
    model="qwen-turbo",  # 使用通义千问-Turbo大模型
    messages=[{'role': 'user', 'content': prompt_for_roleplay}],
)

print(response.choices[0].message.content)

image-20240910211043034

2. 记录对话,开始交流

这是一个持续的重复操作,这里我们使用上一节的简单代码来演示:

response_text = response.choices[0].message.content

# 将第一次的预设和回复进行保存
messages = []
messages.append({'role': 'user', 'content': prompt_for_roleplay})
messages.append({'role': 'assistant', 'content': response_text})

# 开始对话
for i in range(3):
    user_input = input("请输入:")
    
    messages.append({'role': 'user', 'content': user_input})
    response = client.chat.completions.create(
        model="qwen-turbo",
        messages=messages
        )
    assistant_output = response.choices[0].message.content
    
    messages.append({'role': 'assistant', 'content': assistant_output})
    print(f'用户输入:{user_input}')
    print(f'模型输出:{assistant_output}')
    print('\n')
    

image-20240910211201710

Gradio可视化

# TODO: 填写以下两行:character_for_chatbot 和 prompt_for_roleplay
# 第一个是你希望聊天机器人扮演的角色(注意,真正起作用的实际是prompt)
# 第二个是使聊天机器人扮演某个角色的提示词
character_for_chatbot = "面试官"
prompt_for_roleplay = "我需要你面试我有关AI的知识,仅提出问题"

# 清除对话的函数
def reset() -> List:
    return []

# 调用模型生成对话的函数
def interact_roleplay(chatbot: List[Tuple[str, str]], user_input: str, temp=1.0) -> List[Tuple[str, str]]:
    '''
    * 参数:
      - user_input: 每轮对话中的用户输入
      - temp: 模型的温度参数。温度用于控制聊天机器人的输出。温度越高,响应越具创造性。
    '''
    try:
        messages = []
        for input_text, response_text in chatbot:
            messages.append({'role': 'user', 'content': input_text})
            messages.append({'role': 'assistant', 'content': response_text})

        messages.append({'role': 'user', 'content': user_input})

        response = client.chat.completions.create(
            model="qwen-turbo",  # 使用阿里云 DashScope 的模型
            messages=messages,  # 包含用户的输入和对话历史
            temperature=temp,  # 使用温度参数控制创造性
        )
        chatbot.append((user_input, response.choices[0].message.content))

    except Exception as e:
        print(f"发生错误:{e}")
        chatbot.append((user_input, f"抱歉,发生了错误:{e}"))
    return chatbot

# 导出整个对话记录的函数
def export_roleplay(chatbot: List[Tuple[str, str]], description: str) -> None:
    '''
    * 参数:
      - chatbot: 模型的对话记录,存储在元组列表中
      - description: 此任务的描述
    '''
    target = {"chatbot": chatbot, "description": description}
    with open("files/part2.json", "w") as file:
        json.dump(target, file)

# 进行第一次对话
first_dialogue = interact_roleplay([], prompt_for_roleplay)

# 生成 Gradio 的UI界面
with gr.Blocks() as demo:
    gr.Markdown(f"# 第2部分:角色扮演\n聊天机器人想和你玩一个角色扮演游戏,试着与它互动吧!")
    chatbot = gr.Chatbot(value=first_dialogue)
    description_textbox = gr.Textbox(label="机器人扮演的角色", interactive=False, value=f"{character_for_chatbot}")
    input_textbox = gr.Textbox(label="输入", value="")
    
    with gr.Column():
        gr.Markdown("# 温度调节\n温度用于控制聊天机器人的输出。温度越高,响应越具创造性。")
        temperature_slider = gr.Slider(0.0, 2.0, 1.0, step=0.1, label="温度")
    
    with gr.Row():
        sent_button = gr.Button(value="发送")
        reset_button = gr.Button(value="重置")
    
    with gr.Column():
        gr.Markdown("# 保存结果\n当你对结果满意后,点击导出按钮保存结果。")
        export_button = gr.Button(value="导出")

    # 连接按钮与函数
    sent_button.click(interact_roleplay, inputs=[chatbot, input_textbox, temperature_slider], outputs=[chatbot])
    reset_button.click(reset, outputs=[chatbot])
    export_button.click(export_roleplay, inputs=[chatbot, description_textbox])

# 启动 Gradio 界面
demo.launch(debug=True)
  1. 预设prompt,定义模型的角色
    image-20240910163239625
  2. 记录对话,开始交流
    image-20240910163109944
    image-20240910163036365

第3部分:定制化任务(多轮对话应用)

经过前两个任务的学习,你应该也有了很多自己的想法,不同的prompt造成的效果会有很大的区别,而这些prompt,实际上都是在让模型去做一个隐性的角色扮演,无论是作为某个领域的专家还是一个文字游戏,如果你的需求复杂,一个方向上的引导对于大模型来说是非常必要的。

这一部分将角色扮演需求包含在第一次的输入中,整合了角色扮演阶段的代码:

prompt_for_task = "现在开始,你将扮演一个出小学数学题的老师,当我说开始时提供一个简单的数学题,接收到正确回答后进行下一题,否则给我答案"

messages = []
# 添加任务提示
messages.append({'role': 'user', 'content': prompt_for_task})

for i in range(3):
    user_input = input("请输入:")
    
    messages.append({'role': 'user', 'content': user_input})
    response = client.chat.completions.create(
        model="qwen-turbo",
        messages=messages
        )
    assistant_output = response.choices[0].message.content
    
    messages.append({'role': 'assistant', 'content': assistant_output})
    print(f'用户输入:{user_input}')
    print(f'模型输出:{assistant_output}')
    print('\n')

image-20240910213013736

Gradio 可视化

# TODO: 填写以下两行:chatbot_task 和 prompt_for_task,这里以翻译任务为例
# 第一个是用于告诉用户聊天机器人可以执行的任务(注意,真正起作用的实际是prompt)
# 第二个是使聊天机器人能够执行该任务的提示词
chatbot_task = "小学数学老师(输入“开始”)"
prompt_for_task = "现在开始,你将扮演一个出小学数学题的老师,当我说开始时提供一个简单的数学题,接收到正确回答后进行下一题,否则给我答案"

# 清除对话的函数
def reset() -> List:
    return []

# 调用模型生成对话的函数
def interact_customize(chatbot: List[Tuple[str, str]], prompt: str, user_input: str, temp=1.0) -> List[Tuple[str, str]]:
    '''
    * 参数:

      - chatbot: 模型本身,存储在元组列表中的对话记录

      - prompt: 用于指定任务的提示词

      - user_input: 每轮对话中的用户输入

      - temp: 模型的温度参数。温度用于控制聊天机器人的输出。温度越高,响应越具创造性。

    '''
    try:
        messages = []
        # 添加任务提示
        messages.append({'role': 'user', 'content': prompt})
        
        # 构建历史对话记录
        for input_text, response_text in chatbot:
            messages.append({'role': 'user', 'content': input_text})
            messages.append({'role': 'assistant', 'content': response_text})

        # 添加当前用户输入
        # 如果在这之前再次append prompt,就等价于在每次输入前都固定它的行为,这适用于比较呆的模型和prompt,比如【翻译成中文:】
        messages.append({'role': 'user', 'content': user_input})

        # 发送请求到对应的 API
        response = client.chat.completions.create(
            model="qwen-turbo",  # 使用阿里云 DashScope 的模型
            messages=messages,  # 传递消息记录
            temperature=temp,
            max_tokens=200,
        )

        # 将响应添加到对话记录中
        chatbot.append((user_input, response.choices[0].message.content))

    except Exception as e:
        print(f"发生错误:{e}")
        chatbot.append((user_input, f"抱歉,发生了错误:{e}"))
    
    return chatbot

# 导出对话记录的函数
def export_customized(chatbot: List[Tuple[str, str]], description: str) -> None:
    '''
    * 参数:

      - chatbot: 模型的对话记录,存储在元组列表中

      - description: 此任务的描述

    '''
    target = {"chatbot": chatbot, "description": description}
    with open("files/part3.json", "w") as file:
        json.dump(target, file)

# 生成 Gradio 的UI界面
with gr.Blocks() as demo:
    gr.Markdown("# 第3部分:定制化任务\n聊天机器人可以执行某项任务,试着与它互动吧!")
    chatbot = gr.Chatbot()
    desc_textbox = gr.Textbox(label="任务描述", value=chatbot_task, interactive=False)
    prompt_textbox = gr.Textbox(label="提示词", value=prompt_for_task, visible=False)
    input_textbox = gr.Textbox(label="输入", value="")
    
    with gr.Column():
        gr.Markdown("# 温度调节\n温度用于控制聊天机器人的输出。温度越高,响应越具创造性。")
        temperature_slider = gr.Slider(0.0, 2.0, 1.0, step=0.1, label="温度")
    
    with gr.Row():
        sent_button = gr.Button(value="发送")
        reset_button = gr.Button(value="重置")
    
    with gr.Column():
        gr.Markdown("# 保存结果\n当你对结果满意后,点击导出按钮保存结果。")
        export_button = gr.Button(value="导出")
    
    # 连接按钮与函数
    sent_button.click(interact_customize, inputs=[chatbot, prompt_textbox, input_textbox, temperature_slider], outputs=[chatbot])
    reset_button.click(reset, outputs=[chatbot])
    export_button.click(export_customized, inputs=[chatbot, desc_textbox])

# 启动 Gradio 界面
demo.launch(debug=True)

最终效果:

image-20240910175530111

image-20240910175556171

注意,大模型并不等于正确,特别是数学推理逻辑一般的模型。无论是什么大模型,都一定要对它的输出保持怀疑,除非他能从数学逻辑上说服你,并且在你严谨的逻辑推理中自洽。

参考链接

其中作业3相关的PDF文件和Colab

下一章

3. 进阶指南:自定义 Prompt 提升大模型解题能力

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Hoper.J

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值