使用派欧算力云创建Ollama应用,并部署AI大模型
步骤一:基于派欧算力云创建Ollama服务器
步骤二:启动Ollama网页
步骤三:注册Ollama账号,并登录
可设置语言及查看Ollama版本
步骤四:确定模型文件,选择Workspace-Discover a modefile,打开OpenWebUI(https://openwebui.com/#open-webui-community)网页
注册账号并登录
查询Qwen模型
地址:https://openwebui.com/m/schlenkenberger23/qwen-english-translator-and-improver:latest/
查看Base Model ID 和System Prompt
步骤五:创建大模型,点击Workspace-Create a model
填写 Name、Model Tag Name、Description,并点击Raw Format
根据步骤四结果填写From 和System Prompt
点击Save&Create
添加完毕后Modelfiles下面显示Qwen
步骤六:使用Qwen大模型
点击New Chat-Select a model,选择qwen模型
步骤八:同理可添加多个模型
参考:
Ollama:一个在本地部署、运行大型语言模型的工具-CSDN博客
GitHub - open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI)