最大上下文片段 向量数据库设置为精确优化 关于模型的温度设置,建议设置为0 可以尝试使用如下模型meta-llama-3-8b-instruct,文档检索效果可能比deepseek-r1要好点 设置小图钉,以提高文档的检索权重 不仅可以读取本地文档,也可以抓取网页内容 除了Ollama,LM Studio看起来也不错 对文档的理解能力依然取决于模型本身,单纯用RAG技术也无法提高模型的输出能力 语言提示,设置为中文,当文档中无法查询到问题答案,将以自定义中文内容进行提示—— 可以同时设置多个工作区,多个工作区之间的内容是相互隔离的。也就是上传的文档可以彼此隔离,避免混淆—— 将聊天模式设置为查询模式,将只从文档中进行查找,不会胡说八道——