文章目录
前言
不知道小伙伴们,有没有遇到这样一些问题:
我在deepseek中问的问题会泄露我的隐私吗?
我又该怎么使用其他的语言模型呢?
别担心,这篇文章可以解决这些问题。
静音演示视频
我也做了一个视频,帮助大家更好地理解文章。(第一次做视频,不会配音,也有点模糊,实在抱歉,后续会更新)
CSDN文章配套视频(静音)
一、Ollama
1.下载Ollama
(1)进入Ollama官网
点击https://ollama.com/download,即可进入Ollama下载页面。
(2)问题解决:无法下载
解决方法一:换手机热点,重新下载。
解决方法二:使用我提供的阿里网盘链接,里面有Ollama的安装包。
提取码: 18rh
https://www.alipan.com/s/DRdDDxhMPjc
2.下载deepseek模型
(1)打开终端
方法一:按win + R,输入cmd,点击确定。
方法二:在搜索框中输入,cmd,按回车键。
(2)模型下载命令
在终端中输入以下命令:
ollama run deepseek-r1:1.5b
回车,等待即可。
(3)问题解决:加载模型卡住,一直在循环
解决方法一:在终端,按Ctrl + C退出加载,再重新输入以下命令,重新加载deepseek-r1模型。
ollama run deepseek-r1:1.5b
解决方法二:在终端,输入以下命令,先卸载deepseek-r1模型,再重新下载deepseek-r1模型。
ollama rm deepseek-r1:1.5b
ollama run deepseek-r1:1.5b
(4)可以在终端问问题啦,但这样不够优雅
在“Send a message (/? for help)"中输入你想要问的问题。
到了这一步,模型就已经部署完成了,但这样一直在终端问问题,不够优雅,也不方便,所以我们可以使用Chatbox AI作为语言模型的交互界面。当然如果你喜欢在终端问问题,你只需将Ollama的部分看完即可,不需要再看第二章Chatbox AI的部分。
3.下载其他语言模型
我们可以在Ollama的官网上https://ollama.com,查看有哪些语言模型,以及其对应的大小和下载方式。
vision中的1b,4b等是指语言模型的参数量,b是billion(十亿)的缩写,1b指这个模型有10亿个参数,所以数值越大,模型的体积也越大,需要的储存空间以及算力也就越高,大家可以根据自己的电脑性能来安装合适的模型。
保险起见,大家可以把各个大小的模型都下载下来,测试一下。当然20b以上的模型,就不用下了,太大了,个人电脑跑不动的,这需要服务器去跑。
我这里也提供了一些模型的下载命令,gemma3是由谷歌推出的模型,llama3.2是由MetaAI推出的模型
ollama run gemma3:1b
ollama run llama3.2:1b
4.查看已下载的语言模型
在终端输入以下命令:
ollama list
5.删除已下载的语言模型
如果要卸载已下载的语言模型,在终端输入的命令要遵循以下格式:
ollama rm 模型名称
比如:
ollama rm gemma3:1b
二、Chatbox AI
1.下载Chatbox AI
点击https://chatboxai.app/zh,即可进入Chatbox AI官网。
2.配置Ollama的API
在Chatbox AI中,配置好Ollama的API,这样Chatbox AI就可以访问Ollama的语言模型了。当然,可能有人会疑惑,API是什么?它的全称为应用程序编程接口(Application Programming Interface),你可以把它当成软件版的USB插口,配置好正确的API地址,就好比将USB线连接到正确的设备,之后就可以进行通信啦。
3.切换模型
可以在右下角切换你所需要的模型。
三、尽情地问问题吧
同样的问题,不同的模型,可能会有不同的回答,所以切换合适的模型是必要的。
总结
以上就是今天要讲的所有内容啦,本文仅仅简单介绍了Ollama与Chatbox AI的安装与使用,但是呢,Ollama本体以及语言模型的安装位置都是默认C盘的,想必,有的小伙伴已经在纠结了吧,如果要更改他们的安装位置,可以看我的下一篇文章《将Ollama本体移动到其它盘,同时更改Ollama语言模型的下载路径》
同时,最近网上在传Ollama存在一定安全隐患,但不用担心,这篇文章《解决Ollama的安全隐患,禁止外网访问本地部署的Ollama语言模型(Windows)》有解决办法。