终端执行(允许跨域访问并启动ollama) OLLAMA_ORIGINS="*" ollama serve 进入插件的设置页,翻译服务选择 openAI api_key: ollama自定义模型: llama3自定义 URL 地址: http://localhost:11434/v1/chat/completions相关参考文档 Setting OLLAMA_ORIGINS · Issue #2335 · ollama/ollama · GitHub