手机安装系统部署LLM的方法
前置条件:
首先模型选择GGUF格式, 选择Q4_K_M或Q5_K_M量化
手机内存8~12G或以上均可尝试, 参数一般选择7~13B
以下是模型推荐及其大小, 需根据手机内存实际情况选择:
Hermes-2.5-Yi-1.5-9B-Chat-i1-GGUF 中文模型, Q4量化5.33G, Q5量化6.26G
Qwen2-7B-Multilingual-RP-GGUF 中文模型, Q4量化4.68 G, Q5量化5.44 G
Loyal-Macaroni-Maid-7B-GGUF 英文模型, Q4量化4.37 G, Q5量化5.13 G
本地部署
下载Termux
需要一个 linux 环境,Termux 是 Linux 环境的模拟器,因此它可以工作。
转到 https://f-droid.org/en/packages/com.termux/ 然后向下滚动页面,然后单击下载apk,然后安装它。
打开Termux, 下载依赖
首先需要安装Koboldcpp, 需要安装依赖, 在终端输入如下指令,
pkg install wget git python
随后输入y
选择安装
输入安装openssl依赖, 此步非必要
apt install openssl
随后输入如下以获取Koboldcpp项目
git clone https://github.com/LostRuins/koboldcpp.git
输入
cd koboldcpp
随后输入
make
等待编译, 需要几分钟
下载模型并启动
首先需要在huggingface里获取下载链接, 然后通过wget来下载, 这里直接把模型下载到当前Koboldcpp目录, 更方便.
先去huggingface获取下载链接, 这里以Hermes-2.5-Yi-1.5-9B-Chat-i1-GGUF为例来下载Q5_K_M版本, 项目链接已经在上面的模型推荐中列出了, 这里只需要进到里面获取下载链接即可.
选择对应的Q5_K_M, 进入页面后长按download然后复制链接
随后回到Termux终端, 在koboldcpp目录下输入wget
后, 要隔开空格, 随后把刚才复制的链接地址粘贴到后面
wget https://huggingface.co/mradermacher/Hermes-2.5-Yi-1.5-9B-Chat-i1-GGUF/resolve/main/Hermes-2.5-Yi-1.5-9B-Chat.i1-Q5_K_M.gguf
模型一般很大, 慢慢等待下载完成即可, 随后终端输入如下, 需要在--model
跟模型名, 这个根据你下载的模型名有关
python koboldcpp.py --model Hermes-2.5-Yi-1.5-9B-Chat.i1-Q5_K_M.gguf
等待, 出现如下信息就成功了
进到浏览器, 输入http://localhost:5001
链接后进入, 然后即可尝试了, 效果如下:
后续启动的话, 每次启动Termux后终端输入
cd koboldcpp
随后输入
python koboldcpp.py --model Hermes-2.5-Yi-1.5-9B-Chat.i1-Q5_K_M.gguf
然后浏览器输入http://localhost:5001
即可
可接入酒馆, 目前测下来手机运行稳定性较差, 经常断掉, 如果不是特殊情况还是用电脑比较稳定.