[AI Embedchain] 开始使用 - 常见问题解答

Embedchain 支持 OpenAI 的 Assistant API 吗?

是的,支持。请参考 OpenAI Assistant 文档页面

如何使用 MistralAI 语言模型?

使用 Hugging Face 提供的模型:mistralai/Mistral-7B-v0.1

import os
from embedchain import App

os.environ["HUGGINGFACE_ACCESS_TOKEN"] = "hf_your_token"

app = App.from_config("huggingface.yaml")
llm:
  provider: huggingface
  config:
    model: 'mistralai/Mistral-7B-v0.1'
    temperature: 0.5
    max_tokens: 1000
    top_p: 0.5
    stream: false

embedder:
  provider: huggingface
  config:
    model: 'sentence-transformers/all-mpnet-base-v2'

如何使用 OpenAI DevDay 发布的 ChatGPT 4 turbo 模型?

使用 OpenAI 提供的模型 gpt-4-turbo

import os
from embedchain import App

os.environ['OPENAI_API_KEY'] = 'xxx'

# 从 gpt4_turbo.yaml 文件加载 llm 配置
app = App.from_config(config_path="gpt4_turbo.yaml")
llm:
  provider: openai
  config:
    model: 'gpt-4-turbo'
    temperature: 0.5
    max_tokens: 1000
    top_p: 1
    stream: false

如何将 GPT-4 用作 LLM 模型?

import os
from embedchain import App

os.environ['OPENAI_API_KEY'] = 'xxx'

# 从 gpt4.yaml 文件加载 llm 配置
app = App.from_config(config_path="gpt4.yaml")
llm:
  provider: openai
  config:
    model: 'gpt-4'
    temperature: 0.5
    max_tokens: 1000
    top_p: 1
    stream: false

我没有 OpenAI 积分,如何使用一些开源模型?

from embedchain import App

# 从 opensource.yaml 文件加载 llm 配置
app = App.from_config(config_path="opensource.yaml")
llm:
  provider: gpt4all
  config:
    model: 'orca-mini-3b-gguf2-q4_0.gguf'
    temperature: 0.5
    max_tokens: 1000
    top_p: 1
    stream: false

embedder:
  provider: gpt4all
  config:
    model: 'all-MiniLM-L6-v2'

在 Embedchain 中使用 OpenAI 模型时如何流式响应?

可以通过在配置文件中将 stream 设置为 true 来实现。

llm:
  provider: openai
  config:
    model: 'gpt-3.5-turbo'
    temperature: 0.5
    max_tokens: 1000
    top_p: 1
    stream: true
import os
from embedchain import App

os.environ['OPENAI_API_KEY'] = 'sk-xxx'

app = App.from_config(config_path="openai.yaml")

app.add("https://www.forbes.com/profile/elon-musk")

response = app.query("Elon Musk 的净资产是多少?")
# 响应将随着生成在 stdout 中流式传输。

如何在多个应用程序会话中持久化数据?

通过在配置文件中添加一个 id 来设置应用程序,这样可以保留数据以供将来使用。您可以将这个 id 包含在 yaml 配置中,或者直接在 config 字典中输入。

import os
from embedchain import App

os.environ['OPENAI_API_KEY'] = 'sk-xxx'

app1 = App.from_config(config={
    "app": {
      "config": {
        "id": "your-app-id",
      }
    }
})

app1.add("https://www.forbes.com/profile/elon-musk")

response = app1.query("Elon Musk 的净资产是多少?")
import os
from embedchain import App

os.environ['OPENAI_API_KEY'] = 'sk-xxx'

app2 = App.from_config(config={
    "app": {
      "config": {
        # 这将持久化并从 app1 会话加载数据
        "id": "your-app-id",
      }
    }
})

response = app2.query("Elon Musk 的净资产是多少?")

引用

  • 8
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值