在自己的Mac电脑上部署deepseek(极简小白版)
前言
最近deepseek好火啊。网上的本地部署攻略都有点麻烦了。我写一个极简版。文章最后也会和大家说为什么写极简版而不写原理。
简易步骤
1、在https://ollama.com/download下载Ollama,解压后安装。
2、终端输入 ollama run deepseek-r1:7b,等待下载完成后输入问题即可。
详细步骤
1、在你的浏览器上输入 https://ollama.com/download
然后点这里⬇️,下载
2、下载下来的会是一个压缩包,接着解压安装。如图下
由压缩包解压出来一个 小猪图标。
接着双击安装。
装完之后你的电脑右上角也会有这个小猪图标
3、打开终端输入 ollama run deepseek-r1:7b
4、等下载完之后问问题就好,如图。
咱们问一个,3.11和3.9谁大?
数学答的还行,我换个语文来试试你,脑子里冒出一句。“吾孰与城北徐公美”,于是
结束语
在自己电脑上部署deepseek,真的超级简单。但在自己的电脑上部署LLM离线当助手,意义真的不大,一是因为问题可以直接联网问,二是个人的电脑毕竟配置有限。所以我目前只推荐ollama run deepseek-r1:7b。
https://ollama.com/library/deepseek-r1,这里网址里你看有很多,但后面的对配置的要求太高了。不建议考虑。
目前如果要调用deepseek,非常推荐通过API接口调用。
from openai import OpenAI
client = OpenAI(api_key="XXX", base_url="https://api.deepseek.com")
# Round 1
messages = [{"role": "user", "content": "吾孰与城北徐公美"}]
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=messages
)
reasoning_content = response.choices[0].message.reasoning_content
content = response.choices[0].message.content
print(content)
就这些咯