本地安装Ollama+WebUI

本地安装Ollama+WebUI

B站教程地址:https://www.bilibili.com/video/BV1Kz421h7Jk/?spm_id_from=333.337.search-card.all.click&vd_source=42b07826977d09765ec11b9fa06715e5

一、下载Ollama

https://ollama.com/download 支持mac、linux、windows

选择在ubuntu下安装

odoo@odoo-pc:~$ curl -fsSL https://ollama.com/install.sh | sh
>>> Installing ollama to /usr/local
[sudo] odoo 的密码: 
>>> Downloading Linux amd64 bundle
######################################################################## 100.0%######################################################################### 100.0%
>>> Creating ollama user...
>>> Adding ollama user to render group...
>>> Adding ollama user to video group...
>>> Adding current user to ollama group...
>>> Creating ollama systemd service...
>>> Enabling and starting ollama service...
Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service.
>>> The Ollama API is now available at 127.0.0.1:11434.
>>> Install complete. Run "ollama" from the command line.
WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode.


从上面的安装过程发现两点:
1、api的端口号是11434
2、没有检测到显卡,Ollama运行在cpu模式下

安装第一个大模型: 其实这一步可用不用做,后面通过webui来安装。

odoo@odoo-pc:~$ ollama run llama3
pulling manifest 
pulling 6a0746a1ec1a... 100% ▕████████████████▏ 4.7 GB                         
pulling 4fa551d4f938... 100% ▕████████████████▏  12 KB                         
pulling 8ab4849b038c... 100% ▕████████████████▏  254 B                         
pulling 577073ffcc6c... 100% ▕████████████████▏  110 B                         
pulling 3f8eb4da87fa... 100% ▕████████████████▏  485 B                         
verifying sha256 digest 
writing manifest 
success 
>>> Send a message (/? for help)

到这里就可以向大模型提问了,进行交互了,不过只能在本地终端进行,下面,我们需要安装WebUI,可用通过web界面进行交互。

二、安装WebUI

https://docs.openwebui.com

因为我的机器没有GPU,所以找了一个不需要GPU命令进行安装:

For CPU Only: If you're not using a GPU, use this command instead:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
odoo@odoo-pc:~$ sudo docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
[sudo] odoo 的密码: 
Unable to find image 'ghcr.io/open-webui/open-webui:ollama' locally
ollama: Pulling from open-webui/open-webui
a2318d6c47ec: Pull complete 
334af29dc78e: Pull complete 
d534b3df1e9e: Pull complete 
95b5b248c442: Pull complete 
98d167576f7c: Pull complete 
ac786ed3fe21: Pull complete 
4f4fb700ef54: Pull complete 
0b3cbd1796a0: Pull complete 
08dcfffb691a: Pull complete 
290e855a01d4: Pull complete 
da884a0397a7: Pull complete 
46fe1a8da679: Pull complete 
6497c5d13491: Pull complete 
2e2171744e6b: Pull complete 
8558874c3ff3: Pull complete 
15f64213e6de: Pull complete 
Digest: sha256:b70396e243682d7e93fc426b5aa6ade41c2240e5559aa00301dbdcf8e520235b
Status: Downloaded newer image for ghcr.io/open-webui/open-webui:ollama
ba2b5958578f44030936768b324f451ecce00865047fc53e158ce84c616e91e1

安装完成后打开地址

http://127.0.0.1:3000/

注册一个账号,账号会保存在本地而不是云端,第一个注册的账号会成为管理员。

进入界面后,选择左下角的头像进入设置菜单,通用里面可用选择语言,默认会跟操作系统的语言保持一致。

选择管理员设置:

会出现模型的设置。

注意: Ollama是一个管理平台,它可用管理很多模型,像开源的llama3, chatgpt等

从ollama.com选取一个模型,然后输入模型的名称,就可以进行下载。下载速度还是比较快的。

可用多安装几个模型,获取更多元化的回答。

注册了一个账号:

fatux 156277468@qq.com 密码是最复杂的

三、使用技巧

1、模型

可用安装别人训练好的agent

2、提示词

3、指定检索文件

在让大模型回答问题之前可用指定文件,不过这样有个缺点,大模型需要经过检索和回答两个步骤,可能需要的时间会变长。

四、微调模型

让AI将特定领域的知识,内化整合成模型的一部分,而这种让语言模型在原有知识的基础上进行额外训练的过程被称为模型微调。fine-tuning

要微调模型,我们要准备一些问答的范例协助AI进行学习,其中一种常见的格式叫Json

格式类似于QA,有问有答

可用通过chatgpt转换成JSON格式的文本。

https://unsloth.ai/ 训练和微调语言模型的工具

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值