
DeepSeek
文章平均质量分 80
DeepSeek-国产大模型巅峰之作
dessler
一个运维
公众号:《运维小路》
展开
-
DeepSeek-模型(model)介绍
我们前面部署过Win版本,也部署过Linux版本,也部署过单机版本,也部署过集群版,中途采用过多个模型,那这个模型到底是什么,我能选择什么模型呢?什么是蒸馏版,满血版,什么是量化版呢?原创 2025-03-14 21:37:33 · 532 阅读 · 0 评论 -
DeepSeek-单机多卡折腾记
前面我们从单机到集群,从Win到Linux都已经涉及,但是没涉及到单机多卡,本篇文章就来说说这个单机多卡遇到的问题。本次环境是4张卡Tesla V100卡。原创 2025-03-13 21:06:40 · 857 阅读 · 0 评论 -
DeepSeek-多机多卡集群部署
前面我们无论是直接部署,还是容器部署都还是单机的模型,受单机GPU限制,并不能跑比较大的模型,今天我们将用多台机器组成一个集群来跑一个更大的模型。原创 2025-03-12 21:05:36 · 1826 阅读 · 0 评论 -
DeepSeek-容器化(Docker)部署vLLM和Open WebUI
前面小节我们通过conda创建虚拟Python环境,实现vLLM和OpenWebUI的配置,但是这个安装部署会非常繁琐非费时间。我们今天将使用容器来部署。环境还是使用ubuntu20.4,复用上个环境已经安装GPU驱动和模型文件。原创 2025-03-11 20:29:17 · 1816 阅读 · 0 评论 -
DeepSeek-Open WebUI部署
前面部署了vLLM版本以后,访问它比较麻烦。如何才能更好的实现访问呢,这个就是我们今天要讲的Open WebUI,它可以向我们使用官方DeepSeek一样直接在网页进行对话。原创 2025-03-10 20:08:57 · 730 阅读 · 0 评论 -
DeepSeek-基于vLLM部署
虽然vLLM比较复杂,但是他具有组成集群跑更大模型的能力,所以我这里先用单机版来让搭建对这个vLLM有一个的理解,后期再深入。原创 2025-03-08 21:34:29 · 1075 阅读 · 0 评论 -
DeepSeek-进阶版部署(Linux+GPU)
前面几个小节讲解的Win和Linux部署DeepSeek的比较简单的方法,而且采用的模型也是最小的,作为测试体验使用是没问题的。如果要在生产环境使用还是需要用到GPU来实现,下面我将以有一台带上GPU显卡的Linux机器来部署DeepSeek。这里还只是先体验单机单卡,后期会更新多机多卡使用更高模型的文章。原创 2025-03-07 22:01:02 · 2327 阅读 · 0 评论 -
DeepSeek-离线部署版
如果要提供自动部署脚本,我们首先就是要分析我们的安装过程都做了什么,然后根据部署过程的动作才能把部署内容封装到一起。原创 2025-03-06 20:58:16 · 386 阅读 · 0 评论 -
DeepSeek-快速搭建Linux版本
我们上一小节介绍了Win的搭建方法,但是如果要作为长期使用,使用Linux搭建会是一个更好的办法,这也是作为一个Linux运维的觉悟,并且还可以供局域网小伙伴一起用(暂时不考虑性能等问题)。原创 2025-03-05 21:21:41 · 393 阅读 · 0 评论 -
DeepSeek最简单搭建方法(win版本)
Ollama 是一个开源的大型语言模型(LLM)本地化部署框架,旨在简化用户在本地运行和管理大模型的流程。原创 2025-03-04 21:26:55 · 241 阅读 · 0 评论