文章目录
方式一:Ollama 运行起来后,使用 langchain 加载
from langchain.llms import Ollama
ollama = Ollama(base_url='http://localhost:11434',
model="llama2")
print(ollama("why is the sky blue"))
方式二:使用 langchain_community
1、下载 Ollama : https://ollama.com/download
2、运行命令,拉取模型
ollama pull llama2
3、运行代码
from langchain_community.llms import Ollama
llm = Ollama(model="llama2")
llm.invoke("how can langsmith help with testing?")
参考:https://python.langchain.com/docs/get_started/quickstart
参考文章:
- 5分钟本地部署各种大模型,还可以和langchain一起玩 (Docker)
https://mp.weixin.qq.com/s/oyOK162eFHlpxdqQCT86GQ - OLLama 如何通过已有文档建立知识库进行问答?OLLama + LangChain给你助力。
https://mp.weixin.qq.com/s/k-OF_L-x85B6H73xMoxpcg - Using LangChain with Ollama in Python
https://github.com/ollama/ollama/blob/main/docs/tutorials/langchainpy.md - Ollama 我的笔记
https://ezcode.blog.csdn.net/article/details/136482825 - langchain
https://python.langchain.com/docs/get_started/introduction
伊织 2024-03-20