openai-translator 通过open api 使用本地LLM模型

@ 使用openai translator 配置本地大模型进行离线翻译。

1、下载并安装 chrome 插件 openai-translator. https://github.com/openai-translator/openai-translator/releases/tag/v0.3.25
2、在 LM studio 中的Local Server 启动 本地大模型服务。以 Qwen-7B 大模型作为示例;(也可以通过ollama 启动本地大模型)
在这里插入图片描述

3、在openai-translator 配置使用本地LLM。
API Model 选择 Custom,Custom Model Name 填写你启动的模型,此次示例填写 Qwen。API URL填写你启动的服务地址和端口,本处以 http://localhost:1234 作为示例。选择保持后即可开始使用 openai translator进行文章翻译等功能。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值