目前火山的API是比较稳定的,他们提供了豆包和Deepseek
我们先选择火山的Deepseek来试试。
地址:火山方舟-火山引擎
查看剩余token:
可以按照需求,设置“最大token数”。在RAGflow中的“最大token数”是指模型输出的最大长度。
可以从4k-16k自行选择个合适的长度。
配置RAGflow:获取刚才在火山引擎的信息,填入RAGflow大模型配置即可。
火山引擎提供了多个模型的免费token,一次性都加进去了,可以逐个使用:
目前火山的API是比较稳定的,他们提供了豆包和Deepseek
我们先选择火山的Deepseek来试试。
地址:火山方舟-火山引擎
查看剩余token:
可以按照需求,设置“最大token数”。在RAGflow中的“最大token数”是指模型输出的最大长度。
可以从4k-16k自行选择个合适的长度。
配置RAGflow:获取刚才在火山引擎的信息,填入RAGflow大模型配置即可。
火山引擎提供了多个模型的免费token,一次性都加进去了,可以逐个使用: