通过Termux和Ollama在手机上运行生成式AI

安装Termux并利用proot-distro运行Debian系统

见:https://blog.csdn.net/weixin_55513715/article/details/141286018

安装必要软件

进入Debian:

proot-distro login debian

安装必要的软件

apt install sudo vim systemd systemctl -y

安装Ollama

脚本安装

网页:https://ollama.com/download/linux

此时安装命令如下:

curl -fsSL https://ollama.com/install.sh | sh

手动安装

由于国内的网络问题,建议手动安装。

https://blog.csdn.net/weixin_55513715/article/details/141333342

使用

启动该服务

由于手机端的特别,需要手动启动Ollama服务。

systemctl start ollama

下载模型

查找模型网址:https://ollama.com/library

下载模型(以通义千问2的0.5b为例):

ollama pull qwen2:0.5b

839550e54fa84e4096af7c9d97989b4c.jpg

出现success则代表成功下载,否则,请重新执行上面的命令。67299c43f3fa40d3bd14d192d8283f75.jpg

由于服务器在国外,时好时坏,但速度有时还可以。

运行模型

以通义千问2的0.5b为例

ollama run qwen2:0.5b

更多技巧

在对话中的可用命令:
/set设置会话变量
/show显示型号信息
/load<model>加载会话或模型
/save<model>保存当前会话
/清晰的会话上下文
/再见出口
/?, /help命令的帮助
/? 快捷键键盘快捷键帮助

使用"""开始多行消息。

实现进入Debian终端时自启动

编辑文件~/.bashrc,追加一下命令(以通义千问2的0.5b为例):

systemctl start ollama
ollama run qwen2:0.5b

你也可以使用命令直接追加

echo "systemctl start ollama
ollama run qwen2:0.5b" >> ~/.bashrc

效果图

d9c5b8f299764e5b939c856872d3e17f.jpg

不过,由于我使用的Qwen2 0.5b数据量小,可能出现错误的回答:

c427c79268da41dba6a039fcef88002a.jpg

  • 18
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值