问题疑似原因:
-
调整Embedding切片长度:增加切片长度,确保能够处理更长的回答。
-
检查chat模型设置:确认模型是否支持更长的回答,或者调整模型的参数设置。
尝试解决:扩大了块Token数
发现聊天回答的长度有变长:说明聊天机器人回答问题的长度,和块Token有关。
继续放大块Token参数:
重新测试:
问题疑似原因:
调整Embedding切片长度:增加切片长度,确保能够处理更长的回答。
检查chat模型设置:确认模型是否支持更长的回答,或者调整模型的参数设置。
尝试解决:扩大了块Token数
发现聊天回答的长度有变长:说明聊天机器人回答问题的长度,和块Token有关。
继续放大块Token参数:
重新测试: