前言:
最近正在进行Langchain的学习,但是官方的doc里面只有openai等调用api的操作,对国内用户相对不友好
解决方法:调用硅基流动的api来替换国外的api,且更加economy
from langchain_openai import ChatOpenAI
from langchain_ollama import ChatOllama
# model = ChatOllama(model="llama3.1", temperature=0.7)
# model = ChatOpenAI(model="gpt-4")
from langchain_core.messages import HumanMessage,SystemMessage
llm = ChatOpenAI(
openai_api_base="https://api.siliconflow.cn/v1/",
openai_api_key="xxxxxxxi", # app_key
model_name="deepseek-ai/DeepSeek-R1-Distill-Qwen-7B", # 模型名称
)
messages = [
SystemMessage(content="把这段话从中文翻译成意大利语"),
HumanMessage(content="你好")
]
print(llm.invoke(messages))
即可完成对应的模型调用。
后续会更新对Langchain Demo的文章(希望自己学的够快)