DeepSeek本地部署及其他应用接入

本文综合了网上的文章及本地自行实践踩坑的记录

1.Ollama安装

实测需要有CUDA11及以上版本支持,不然会报错。因此先把显卡驱动安装好。

由于下载Ollama不方便,我把下载好的Windows版本、Linux版本和Linux版本安装脚本修改版本install.sh一起放网盘分享:https://pan.baidu.com/s/1kkr95WOd3fX1sJhAwmPBdQ?pwd=1314

1.1 Windows上部署Ollama

step1:下载Ollama

下载(https://ollama.com/download)并双击运行 Ollama 应用程序。

step2:修改模型下载位置

默认模型下载在C盘,不想占用系统盘的需要修改

关掉ollama之后,设置环境变量

右键我的电脑-属性-高级系统设置,点击“高级系统设置”

在打开的系统属性界面中点击高级-环境变量

在环境变量界面中点击系统变量中的新建按钮

在跳出来的新建系统变量界面中,变量名设置为:OLLAMA_MODELS,变量值设置为E:\OllamaLLM\models(根据自己想放置的位置),然后点击确定对设置的环境变量进行保存。

image-20250203153043489

step3:验证安装

在命令行输入 ollama,如果出现以下信息,说明 Ollama 已经成功安装。

image-20250203153707027

1.2 Linux上使用

如果要在Linux上安装Ollama,可以按照如下方式,我以Ubuntu20.04为例

官网给出的是安装命令,这个命令会从github自动下载安装,但基本由于网络原因失败。

curl -fsSL https://ollama.com/install.sh | sh

直接访问 ollama github下载最新的版本,目前是0.5.7

先在Linux上确定自己的CPU架构:

lscpu
image-20250205075000039

下载对应的包:

image-20250205075114422

网上说明是直接解压缩后进行一番设置,这里官方的安装脚本已经写得很好,我们只需要修改原始的安装脚本就可以实现自动安装离线包。

从任意位置下载源码中的离线安装脚本,我这里针对的是最新的0.5.7版本:

  • Ollama官网

  • github

  • gittee加速

    原始脚本的第69行到88行如下:

    for BINDIR in /usr/local/bin /usr/bin /bin; do
        echo $PATH | grep -q $BINDIR && break || continue
    done
    OLLAMA_INSTALL_DIR=$(dirname ${BINDIR})
    
    if [ -d "$OLLAMA_INSTALL_DIR/lib/ollama" ] ; then
        status "Cleaning up old version at $OLLAMA_INSTALL_DIR/lib/ollama"
        $SUDO rm -rf "$OLLAMA_INSTALL_DIR/lib/ollama"
    fi
    status "Installing ollama to $OLLAMA_INSTALL_DIR"
    $SUDO install -o0 -g0 -m755 -d $BINDIR
    $SUDO install -o0 -g0 -m755 -d "$OLLAMA_INSTALL_DIR"
    status "Downloading Linux ${ARCH} bundle"
    curl --fail --show-error --location --progress-bar \
        "https://ollama.com/download/ollama-linux-${ARCH}.tgz${VER_PARAM}" | \
        $SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"
    if [ "$OLLAMA_INSTALL_DIR/bin/ollama" != "$BINDIR/ollama" ] ; then
        status "Making ollama accessible in the PATH in $BINDIR"
        $SUDO ln -sf "$OLLAMA_INSTALL_DIR/ollama" "$BINDIR/ollama"
    fi
    

    这里我对其中进行注释,并对需要修改的地方进行了说明:

    # 如果存在旧版本的 ollama,清理旧版本
    if [ -d "$OLLAMA_INSTALL_DIR/lib/ollama" ] ; then
        status "Cleaning up old version at $OLLAMA_INSTALL_DIR/lib/ollama"
        $SUDO rm -rf "$OLLAMA_INSTALL_DIR/lib/ollama"
    fi
    # 创建安装目录
    status "Installing ollama to $OLLAMA_INSTALL_DIR"
    $SUDO install -o0 -g0 -m755 -d $BINDIR
    $SUDO install -o0 -g0 -m755 -d "$OLLAMA_INSTALL_DIR"
    
### DeepSeek 本地部署教程 为了在本地环境中成功部署 DeepSeek,需遵循一系列具体操作流程。下载 Ollama 是启动过程中的第一步[^1]。 #### 获取 API Key 前往官方网站 DeepSeek | 深度求索 的 API 开放平台页面来获取个人专属的 API key。此密钥对于后续接口调用至关重要,务必妥善保管[^2]。 ```java String apiKey = "your_api_key_here"; ``` ### Java 接入方法 实现 Java 应用程序对接 DeepSeek 主要依赖于 HTTP 请求发送机制。下面是一个简单的例子展示如何利用 Apache HttpClient 发起请求并处理响应数据: ```java import org.apache.http.HttpResponse; import org.apache.http.client.methods.HttpPost; import org.apache.http.entity.StringEntity; import org.apache.http.impl.client.CloseableHttpClient; import org.apache.http.impl.client.HttpClients; import org.apache.http.util.EntityUtils; public class DeepSeekClient { private static final String ENDPOINT_URL = "https://api.deepseek.com/v1/endpoint"; // 替换成实际端点地址 public static void main(String[] args) throws Exception { try (CloseableHttpClient httpClient = HttpClients.createDefault()) { HttpPost request = new HttpPost(ENDPOINT_URL); // 设置头部信息 request.setHeader("Authorization", "Bearer " + apiKey); request.setHeader("Content-Type", "application/json"); // 构建请求体 String jsonInputString = "{\"prompt\":\"你好,世界\",\"max_tokens\":50}"; StringEntity entity = new StringEntity(jsonInputString,"UTF-8"); request.setEntity(entity); HttpResponse response = httpClient.execute(request); System.out.println(EntityUtils.toString(response.getEntity())); } } } ``` 这段代码展示了怎样创建一个 POST 请求到指定 URL,并附带必要的认证令牌和 JSON 格式的输入参数。执行该程序将会返回来自服务器的结果字符串。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值