llama3安装以及页面可视化

llama3安装以及页面可视化

一、ollama的安装

ollama官网https://ollama.com/
下载地址https://ollama.com/download
github下载: https://github.com/ollama/ollama/releases
在这里插入图片描述
注意: 安装前可以设置模型安装的位置,最好设置下。默认会在C盘用户文件夹下的.ollama/models文件夹中
在这里插入图片描述
描述: 当下载好后,双击安装,点击Install就可以了。

二、下载模型并运行ollama

安装ollama以后,win + R,输入cmd,打开terminal
输入ollama,只要出现下面这些,说明安装成功了

在这里插入图片描述
打开ollama的模型的网页:https://ollama.com/library
选中想要下载的模型,进入详情,以llama3举例:在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
根据上图选中你想要的模型,并copy下载命令。在terminal上执行。

注意: 当运行命令出现下列错误时,网上又提是代理proxy的问题。但我遇到的是Ollama版本的问题,尝试下载0.1.27版本,重新下载。

pulling manifest
Error: pull model manifest: Get "https://ollama.com/token?nonce=7IvIlMJgfGMaoIrPbu6Yrw&scope=repository%!A(MISSING)library%!F(MISSING)llama3%!A(MISSING)pull&service=ollama.com&ts=1713960299": read tcp 192.168.168.101:53318->34.120.132.20:443: wsarecv: An existing connection was forcibly closed by the remote host.

在这里插入图片描述

当出现下列情况,就表示安装好了
在这里插入图片描述
在这里插入图片描述

三、下载并配置AngthingLLM

AngthingLLM官网https://useanything.com
下载链接https://useanything.com/download

同样的选择对应的系统版本即可
在这里插入图片描述
在使用前,需要启动Ollama服务
执行ollama serve,ollama默认地址为:http://127.0.0.1:11434
注意: ollama安装默认是启动的,请退出,然后再运行ollama serve

然后双击打开AngthingLLM
首先是LLM Preference,LLM provider选择ollama,URL填写默认地址,后面的模型选择llama3,token填4096
在这里插入图片描述

Embedding Preferenc同样选择ollama,其余基本一致,max我看默认8192,我也填了8192
在这里插入图片描述

Vector Database就直接默认的LanceDB即可
在这里插入图片描述

此时我们新建工作区,名字就随便取,在右边就会有对话界面出现了
在这里插入图片描述
此时你就有了自己本地的语言模型了

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值