今天用langgraph写智能体,因为要用本地部署的ollama,所以就用了ollama包,结果踩了大坑
我真的艹四langgraph的🐎了。
首先最好用的是llm = OllamaLLM(model="deepseek-r1:latest",base_url="http://127.0.0.1:11434/", timeout=500)
但是这个不支持tools
所以用llm = Ollamafunction(model="deepseek-r1:latest",base_url="http://127.0.0.1:11434/", timeout=500)
这玩意报错可多了,至今没解决
最后一个是llm = Chatollama(model="deepseek-r1:latest",base_url="http://127.0.0.1:11434/", timeout=500)
如果你不是聊天模型,慎用!!