- 博客(16)
- 收藏
- 关注
原创 GraphRAG本地运行(Ollama的LLM接口+Xinference的embedding模型)无需gpt的api
我们不使用openai就会导致,每次既能get到kwargs.get("is_response_valid"),又得到kwargs.get("is_response_valid")值是false的。这里通过我多次的寻找,发现是graphrag里面的一个包出现了问题,可能没有使用默认调用的openai,在一个is_response_valid总是不能显示。不知道是不是qwen2:0.5b的性能有限,很多global的问题回答成功率会比较低,之后可以自行启动其他的ollama内置的模型。
2024-07-10 14:41:43 7063 39
原创 win11电脑重新装系统无蓝牙
自己捣鼓装电脑,但是看教程发现装好系统后,没有蓝牙功能。看一堆装驱动的教程,乱七八糟的。自己摸索了一会后,总算搞明白如果要直接简单并不需要这么多流程。(1)可以查找当前主板的型号(我的是微星的b660迫击炮。如果是其他的主板,去他们官网查就可以了)(里面关于网络,扬声器,显示屏输出的驱动都有)其实只需要下载一个安装包,解压后运行exe就可以了。
2024-06-29 23:18:29 339
原创 个人力扣刷题记录:
你可以假设数组是非空的,并且给定的数组总是存在多数元素。,返回其中的多数元素。多数元素是指在数组中出现次数。把每一个数字都创建一个哈希选项。,将数组中的元素向右轮转。1、哈希表(解法1)1、排序法(解法2)
2024-05-29 23:33:23 285 1
原创 Ollama总是出现time out怎么办
一般情况下,获取小体量的模型如gemma2b这种不会出现time out现象,但是如果稍微大一点的模型如llama2:13b,或者70b的就容易出现timeout的报错,这里我们只需要添加一个requset_time的参数即可。我这里是修改成60后基本可以不出现timeout现象,大家可以根据自己需求来修改。
2024-04-24 10:22:09 2429 3
原创 win本地运行llm(借助于ollama)
注:网络要保证稳定,确定没有其他进程在连接11434端口,最好不要挂着梯子用,不然都会容易报错失败。接下来就可以下载,在终端进行一些简单的对话。启动后可以,进行一系列对话。
2024-03-31 09:53:30 778 1
原创 llama_index.core没办法导入向量
报错:error msg: ImportError: cannot import name 'VectorStoreIndex' from 'llama_index.core' (unknown location)from llama_index import VectorStoreIndex, SimpleDirectoryReader(不要再加.core了)
2024-03-17 11:39:36 925 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人