26K Star!LLM多智能体AutoGen教程5:函数调用之避免捏造参数

1. 函数调用基础

Open AI的[Function Calling API]可以通过如下HTTP请求完成,需要在请求体中加入tools字段,它是一个列表,意味着它支持多个函数描述。函数描述采用JSON结构体,包括函数名、函数解释、参数列表,参数列表中每个字段都需要描述类型和解释,如下所示。由于OpenAI Token用完了,我尝试了本地安装的Llama.cpp和Ollama安装的Command R Plus两个模型,他们都是明确不支持函数调用功能

所以,我测试了通义千问和月之暗面,其中通义千问模型qwen-max支持函数调用,只是它不支持OpenAI中提到的[并发调用]功能,而月之暗面是全面支持函数并发调用。

  • 请求
curl --location 'https://api.moonshot.cn/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer sk-Mj0Jt4WN2err1ZAKUGVc4PQ8JzbkYajQchywDFlJfXiKZpPO' \
--data '{
    "model": "moonshot-v1-8k",
    "messages": [
        {
            "role": "system",
            "content": "你是一个强大的助手"
        },
        {
            "role": "user",
            "content": "今天南京天气怎么样?"
        }
    ],
    "tools": [
        {
            "type": "function",
            "function": {
                "name": "get_current_weather",
                "description": "Get the current weather in a given location and unit of temperature",
                "parameters": {
                    "type": "object",
                    "properties": {
                        "location": {
                            "type": "string",
                            "description": "The city and state, e.g. San Francisco, CA"
                        },
                        "unit": {
                            "type": "string",
                            "description": "the unit of temperature"
                        }
                    },
                    "required": [
                        "location",
                        "unit"
                    ]
                }
            }
        }
    ]
}'

  • 响应
{
    "id": "chatcmpl-bcb1b91facfb419488d85b88d55cbe0a",
    "object": "chat.completion",
    "created": 1717751056,
    "model": "moonshot-v1-8k",
    "choices": [
        {
            "index": 0,
            "message": {
                "role": "assistant",
                "content": "",
                "tool_calls": [
                    {
                        "index": 0,
                        "id": "get_current_weather:0",
                        "type": "function",
                        "function": {
                            "name": "get_current_weather",
                            "arguments": "{\n    \"location\": \"南京\",\n    \"unit\": \"C\"\n}"
                        }
                    }
                ]
            },
            "finish_reason": "tool_calls"
        }
    ],
    "usage": {
        "prompt_tokens": 97,
        "completion_tokens": 20,
        "total_tokens": 117
    }
}

上述响应有没有问题呢?我们发现它自动填充了摄氏度C,这有可能是根据语境自动推理的参数,毕竟温度只有两个单位。

我遇到一个问题,Function Calling 总是出现编造参数的情况,这种应该怎么避免? : 我用的LangChain Agent 推荐的提示词模板

避免这样的问题,当然是在System Prompt中提示不要自动生成假的参数,这需要不断的尝试提示词,才能避免。通过尝试,我发现使用通义千问,我得把提示词改成这样,他才会每次都会问我缺失的参数,依然是用力pua它。

     "messages": [
        {
            "role": "system",
            "content": "你是一个强大的助手,你被提供了以下函数,你必须确保你收集到了足够的信息,否则应该提示用户提供缺失的参数"
        },
        {
            "role": "user",
            "content": "南京天气怎么样?"
        }
    ],

它会响应如下消息,表明它已经认识到我没有提供函数缺失的温度单位和日期。

      "message": {
          "role": "assistant",
          "content": "请问您想查询南京的当前天气状况吗?为了提供准确的信息,请告诉我您希望了解日期以及温度单位(摄氏度或华氏度)。"
      },

此时,我还想继续实验的话,我需要把对话记录填充到请求体的message中,tools内容基本不变,除了增加一个日期参数之外,考虑篇幅问题就删减了。我将回复的消息放回messages中,并增加一条用户的回复。

{
    "model": "qwen-max",
    "messages": [
        {
            "role": "system",
            "content": "你是一个强大的助手,你被提供了以下函数,你必须确保你收集到了足够的信息,否则应该提示用户提供缺失的参数"
        },
        {
            "role": "user",
            "content": "南京天气怎么样?"
        },
        {
            "role": "assistant",
            "content": "请问您想查询南京的当前天气状况吗?为了提供准确的信息,请告诉我您希望了解日期以及温度单位(摄氏度或华氏度)。"
        },
        {
            "role": "user",
            "content": "今天"
        },
        {
            "role": "assistant",
            "content": "好的,我将查询南京今天的天气。请问您希望温度单位使用摄氏度还是华氏度?"
        },
        {
            "role": "user",
            "content": "摄氏度"
        }
    ],
    "temperature": 0.7,
    "tools": [
        ...
    ]
}

经过这一系列的处理后,它生成了我想要的响应。

{
    "choices": [
        {
            "message": {
                "role": "assistant",
                "tool_calls": [
                    {
                        "function": {
                            "name": "get_current_weather",
                            "arguments": "{\"location\": \"南京\", \"unit\": \"摄氏度\", \"date\": \"今天\"}"
                        },
                        "id": "",
                        "type": "function"
                    }
                ],
                "content": ""
            },
            "finish_reason": "tool_calls",
            "index": 0,
            "logprobs": null
        }
    ],
    ...
}

之后的环节里就需要开发者自动解析参数和函数实现函数调用,此处按下不表。

2. AutoGen中函数调用

从第一节中,可以看到使用HTTP去构造函数调用的请求体是非常繁琐的。好在Python自3.5 引入了类型注解(type hints),我们只需要在需要使用函数调用的函数上给函数的参数、返回值以及函数本身加上说明,AutoGen就能帮我们自动生成请求体中的tools参数。使用typing对get_current_weather进行注释,如下代码显示。其实经常见到还有使用Pydantic进行函数注释,我打算在下一篇对typing和Pydantic讲解。

2.1 函数定义

from typing import Annotated, TypedDict

class Weather(TypedDict):
    location: str
    date: str
    unit: str
    temperature: int

WeatherType = Annotated[Weather, "A dictionary representing a weather with location, date and unit of temperature"]

def get_current_weather(date: Annotated[str, "the date"], location: Annotated[str, "the location"],
                        unit: Annotated[str, "the unit of temperature"]) -> WeatherType:
    """Get the current weather in a given location"""
    return {
        "location": location,
        "unit": unit,
        "date": date,
        "temperature": 23
    }

2.2 创建Agent

配置llm_config,定义用户和助理Agent,这里我想应该无需多言,大家应该都比较熟悉了,注意我们刚才设置的。

assistant = ConversableAgent(
    name="Assistant",
    system_message="你是一个强大的助手,你被提供了以下函数,你必须确保你收集到了足够的信息,否则应该提示用户提供缺失的参数,不要构造任何参数,如果任务完成返回TERMINATE",
    llm_config=llm_config,
)

user_proxy = ConversableAgent(
    name="User",
    llm_config=False,
    is_termination_msg=lambda msg: msg.get("content") is not None and "TERMINATE" in msg["content"],
    human_input_mode="ALWAYS",
)

2.3 函数注册

函数需要注册到助理Agent,以便于调用LLM接口时候,将函数说明添加上去。同时也需要注册到用户Agent,用户Agent在收到函数调用时候,进行查找函数并运行。函数注册使用ConversableAgent的方法register_for_llm,它有以下参数

  • name - str, 函数名。如果为None,函数名称将默认被使用
  • description - str,函数说明
  • api_style - 字面意思,不需要输入,Azure OpenAI API使用的,用来版本兼容的。

使用该函数将get_current_weather注册到助理Agent

assistant.register_for_llm(name="get_current_weather", description="Get the current weather in a given location")(get_current_weather)


然后使用register_for_execution函数将函数注册到用户Agent上,它由如下参数

  • name - str 函数名
user_proxy.register_for_execution(name="get_current_weather")(get_current_weather)


可能有同学会觉得,这居然需要两个函数进行分别注册,有点重复多余。别急,AutoGen是支持使用它们作为装饰器直接定义到可调用的函数上,如下所示。

@user_proxy.register_for_execution()
@agent2.register_for_llm()
@agent1.register_for_llm(description="This is a very useful function")
def get_current_weather(....)....
  return ....


除此之外,我们还可以使用autogen的一级函数register_function直接关联双方进行注册, 其实它的内置就是分别调用上述两个函数实现。

from autogen import register_function

register_function(
    get_current_weather,
    caller=assistant,
    executor=user_proxy,
    description="Get the current weather in a given location",
)


2.4 运行

使用initial_chat开始对话。

chat_result = user_proxy.initiate_chat(assistant, message="南京天气咋样?")


输出如下, 为了显示完整的过程,我将原本的输出进行缩减了,删除了大部分的格式化东西,这样我们可以清楚地看到函数调用的流程。

User (to Assistant): 南京天气咋样?

Assistant (to User): 请问您想查询南京当前的天气状况吗?如果是,请告诉我日期和您希望的温度单位(摄氏度或华氏度)。

Provide feedback to Assistant. Press enter to skip and use auto-reply, or type ‘exit’ to end the conversation: 今天

User (to Assistant):今天

Assistant (to User): 好的,那我将查询南京今天的天气,温度单位默认为摄氏度。请稍等。

***** Suggested tool call (): get_current_weather *****

Arguments: {“date”: “2023-04-07”, “location”: “南京”, “unit”: “C”}

Provide feedback to Assistant. Press enter to skip and use auto-reply, or type ‘exit’ to end the conversation:

EXECUTING FUNCTION get_current_weather…

User (to Assistant):

***** Response from calling tool () ***** {“location”: “\u5357\u4eac”, “unit”: “C”, “date”: “2023-04-07”, “temperature”: 23} USING AUTO REPLY…

Assistant (to User): 南京今天的天气温度为23℃。

在其他信息被收集后,温度单位被默认为摄氏度,我觉得是正常的,因为温度单位基本上就摄氏和华氏,大语言模型自动使用摄氏度更是对当前语境的一种理解。

3. 总结

本文通过详细的实例,展示了如何使用AutoGen简化函数调用的过程,避免了手动构造复杂HTTP请求的繁琐工作。通过合理设置System Prompt和函数注册,确保模型在函数调用时能够正确收集和使用参数,提高了函数调用的可靠性和准确性。

在这里插入图片描述

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值