deepseek 本地部署(干货教程)

Ollama

        本地部署借助一个工具叫做ollama

        Ollama是一个开源框架,专门设计用于在本地机器上快速部署和运行大型语言模型(LLM),它通过提供一个简单易用的命令行界面和服务器,使用户能够轻松下载、运行和管理各种开源大型语言模型。

        它具有开源免费、简单易用、模型丰富以及资源占用低的特点,支持Llama 3、Mistral、Qwen2等众多热门开源LLM,并提供一键下载和切换功能。

官网:Ollama

点击官网进行下载。

下载完成以后在终端运行下面命令测试是否安装成功:

ollama --version

输出版本说明安装成功了

终端部署

打开计算机终端,部署什么样的模型就运行哪个命令。首次运行需要安装部署,如果已经部署,执行对应命令即可激活LLM。

1.5B Qwen DeepSeek R1

ollama run deepseek-r1:1.5b

7B Qwen DeepSeek R1

ollama run deepseek-r1:7b

8B Llama DeepSeek R1

ollama run deepseek-r1:8b

14B Qwen DeepSeek R1

ollama run deepseek-r1:14b

32B Qwen DeepSeek R1

ollama run deepseek-r1:32b

70B Llama DeepSeek R1 

ollama run deepseek-r1:70b

Case 

b代表的是参数单位billion,参数越多模型运行需要的配置越高,普通电脑是无法带动32b大模型的,可以先安装1.5b上手测试。

安装好大模型后再次运行run命令即可激活大模型:

session测试:

可以使用下面命令查看已经安装的模型。

ollama list 

Web UI 控制端

 上面的运行和测试都在终端实现,如果想在web上使用大模型,可以使用一个插件:

Page Assist - A Web UI for Local AI Models

测试:

ollama和模型的部署默认都是在系统盘,如果是windows系统的同学部署大模型,又不想安装到系统盘可以看:windows系统本地部署deepseek更改目录 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值