目录
在上一章中,我们探讨了如何部署 Azure OpenAI 服务资源,并成功地通过 Azure OpenAI 客户端库将大型语言模型(LLM)整合到我们的应用中。
然而,这种方法存在一定的局限性:一旦需要切换到其他的大型语言模型,就必须重写整个代码库,因为它严重依赖于 Azure OpenAI 客户端库。
为了解决这一问题,我们引入了一个更高级别的框架——Semantic Kernel(简称SK)。SK 是一个开源的软件开发工具包(SDK),它能够让开发者快速而轻松地将最先进的 LLM 技术融入到应用程序中。
通过使用 SK,我们可以实现以下几点:
-
将底层的 LLM、API 和工具进行抽象化处理。
-
以一种通用的方式来处理更为复杂的实现需求。
-
更加方便地集成个性化内容。
接下来,让我们使用 SK 重构之前的代码,并逐步解释每个步骤。
Semantic Kernel 示例
首先,要使用 SK,我们需要在项目中添加对 Microsoft.SemanticKernel
的 NuGet 包引用,并创建一个 Kernel 对象实例。
Kernel
是 SK 中的核心组件,它的作用类似于胶水,能够将不同的组件粘合在一起,协同工作。
以下代码展示了如何创建 Kernel 的一个常见示例:
var kernel = Kernel.CreateBuilder()
.AddAzureOpenAIChatCompletion(
deploymentName: deploymentName,
endpoint: endpoint,
apiKey: apiKey)
.Build();
在这里,我们通过 Kernel Builder 使用 AddAzureOpenAIChatCompletion
方法来配置和构建一个支持 Azure OpenAI Chat Completion Connector 的 Kernel 实例。
Connector
可以被视为连接不同大型语言模型的桥梁,它让我们和实际使用的大语言模型进行了解耦。这意味着当你需要为新的模型或平台重构 AI 应用时,只需更改 Connector 的配置即可。
此外,SK 提供了“InvokePromptAsync
”方法,这是一个专用的函数,允许你指定输入信息(在 LLM 中称为“Prompt提示”)并从 AI 模型中轻松获取结果:
Console.WriteLine(await kernel.InvokePromptAsync("你好!"));
仅仅通过 2 行代码,我们就实现了上一章的同样功能。
结论
通过以上介绍,我们可以看到,SK 框架为开发者提供了一个强大而灵活的工具,它不仅简化了大型语言模型的集成过程,还为未来的扩展提供了便利。
完整源代码:
using Microsoft.SemanticKernel;
string endpoint = Environment.GetEnvironmentVariable("AZURE_OPENAI_ENDPOINT");
string deploymentName = Environment.GetEnvironmentVariable("AZURE_OPENAI_GPT_NAME");
string apiKey = Environment.GetEnvironmentVariable("AZURE_OPENAI_API_KEY");
var kernel = Kernel.CreateBuilder()
.AddAzureOpenAIChatCompletion(
deploymentName: deploymentName,
endpoint: endpoint,
apiKey: apiKey)
.Build();
Console.WriteLine(await kernel.InvokePromptAsync("你好!"));