AI 智能体就是可以根据当前环境进行推理,并根据处理结果进行下一步的操作。简单来说 AI 智能体可以与外界环境进行交互,并根据结果执行更复杂的操作。本文将通过llamaIndex 实现一个简单的 Agent 实时获取数据,由于大模型是通过静态数据进行训练的,没有实时获取数据的能力,只能通过 FunctionCall 调用外部 API 获取数据并进行处理。
在 llamaIndex 框架中对 FunctionCall 进行了抽象和包装,开发者只需要调用对应的 API 进行模型设置以及 FunctionTool 设置。本例中,模型采用 Ollama Qwen2:7B,通过 API 获取天气,获取摄氏度之后再转为华氏度。运行本例,需要在本地安装 Ollama 并下载 Qwen2:7B 模型。
import json
from typing import Sequence, List
from llama_index.core.llms import ChatMessage
from llama_index.core.tools import BaseTool, FunctionTool
from llama_index.core.agent import ReActAgent
from llama_index.llms.ollama import Ollama
from llama_index.core import Settings
import nest_asyncio
import requests
nest_asyncio.apply()
llm = Ollama(model="qwen2:7b", request_timeout=120.0)
Settings.llm = llm
def celsius_to_fahrenheit(celsius):
'''将摄氏度装维华氏度,输入摄氏度返回华氏度'''
return (celsius * 9