手把手教会你玩转本地大模型:Ollama安装+deepseek部署+Dify接入+独立调用全攻略

本期为大家介绍如何通过Ollama部署本地大模型,Dify如何接入Ollama部署的本地大模型,以及脱离Dify如何方便使用大模型。

本期具体内容包括1.Ollama下载安装、2.大模型部署(以deepseek为例)、3.Dify接入本地大模型、4.通过chatbox使用本地大模型(额外内容)。如果只想本地部署大模型可以只看1、2,如果想要通过Dify接入本地大模型可以看1、2、3,如果想脱离Dify直接方便的使用本地大模型可以看1、2、4。

   1、Ollama下载安装

大模型的本地部署方式有很多,可以直接部署,也可以借助其他工具进行部署,为了方便使用和管理,通常是借助其他工具进行部署,例如Ollama或者LM Studio,相比于LM Studio,Ollama下载模型方便且兼容性好,但是安装会稍微麻烦一点而且没有界面,不过这些都好解决。

首先进入Ollama的官网https://ollama.com/,然后点击Download即可,这一步可能需要挂vpn,否则会访问不了,不过也不用担心,我已经把安装包放到了网盘,私信回复“1235”可以获取。

图片

下载好后,打开安装包即可安装,对于Windows用户来说一路点击下一步就好了,Ollama默认是安装到C盘,如果想迁移到其他路径可以期待下一期文章。

图片

安装完成之后可以进行一下验证,打开cmd,输入ollama,如果像下面这样显示即表示安装成功了。

图片

安装成功后可以在系统变量设置一下模型的下载路径,在桌面找到“此电脑”,右键“属性”,然后点击“高级系统设置”,找到“环境变量”,在系统变量下点击“新建”,在变量名输入“OLLAMA_MODELS”,在变量值输入自己想放置模型的路径。

重启一下Ollama,注意一定要重启,否则环境配置不生效,下载的模型还是默认在C盘。

图片

   2、大模型部署(以deepseek为例)

安装完Ollama后,即可依托Ollama进行大模型的部署,此处有两种办法,一种是在线安装,直接在Ollama的模型库里找,然后通过命令安装,Ollama会自动下载并部署模型;另一种是离线安装,离线安装是指从其他资源网站下载好模型(.gguf文件),例如从hugging face上下载模型,然后通过modlefile文件进行安装。此处以在线安装作为示例。

首先进入Ollama官网,点击Models,进入模型资源库。

图片

随便选择一个模型,此处以deepseek-r1:1.5b为例,注意名称一定要和官网名称一致。

图片

打开cmd,输入ollama run deepseek-r1:1.5b,即开始自动拉取模型,等待完成即可。

图片

图片

完成后即可开始对话,此时由于ollama没有界面,所以只能通过cmd进行对话。

后续可以通过打开cmd,输入ollama run 模型名称 使用,如果不清楚已经安装的模型具体名称,可以输入 ollama list 查看。

图片

第3步将介绍怎么在Dify中接入和使用本地大模型,第4步将介绍通过chatbox在可视化的界面中使用大模型。

   3、Dify接入本地大模型

完成大模型的本地部署后,暂时还不能在Dify中使用,还需要进行一些配置。

注:Dify的安装可以查看上一期文章

首先,打开浏览器,输入http://localhost/apps进入Dify,点击页面右上角头像的设置,在模型供应商中找到Ollama并点击安装。

图片

图片

等待安装完成后进行模型配置,此处配置包括两部分,一个是LLM模型配置,所谓LLM即是大语言模型,此处可以是deepseek的模型也可以是chatgpt的模型或者是其他模型,其主要作用就是对话;另一个是Text Embedding模型,也叫文本嵌入模型,它是应用于知识库的模型,其主要功能是把知识库中的文本转换成向量,因为计算机无法直接理解自然语言,但是当把自然语言转换成向量之后,就可以通过数学的方式去进行理解和计算,例如你输入一个问题,从知识库中获得结果,本质就是把问题转换成向量并在知识库中检索和问题相似度最高的向量。此处可以用deepseek-r1模型进行配置,也可以使用其他专门的模型进行配置。

在模型名称中填写上一步下载的模型,如果不知道模型名称可以打开cmd,输入ollama list查看已经安装的模型。基础URL代表的是Ollama 服务地址,Ollama是默认暴露11434端口进行API调用,如果Dify是通过Docker部署的话,在基础URL中填入http://host.docker.internal:11434即可,如果是其他方式部署的Dify,可以参考帮助文档:https://docs.dify.ai/zh-hans/development/models-integration/ollama。剩余参数保持默认即可。最后点击保存

图片

如果保存按钮变成灰色并且迟迟没有保存成功,可以参考一下步骤重新启动Dify的Docker服务以及重新启动大模型。

进入到Dify的工程文件,找到docker文件夹里的.env文件,用记事本打开,并在最后添加以下内容:

#启用自定义模型

CUSTOM_MODEL_ENABLED=true

#指定ollama的API地址

OLLAMA_API_BASE_URL=host.docker.internal:11434

图片

按照下图步骤重启docker服务,并且运行模型

图片

完成配置后可以看到两个模型都处于开启状态,此时即可在Dify中使用本地大模型。

图片

回到Dify的工作空间,在“工作室”中创建空白应用,此处以工作流为例,点击工作流,输入名称和描述创建。

图片

在工作流中添加LLM节点,点击节点可以在右侧进行配置,点击模型可以切换为刚才安装的deepseek-r1:1.5b模型

图片

   4、通过chatbox使用本地大模型

仅通过Ollama部署的本地大模型如果不借助其他工具只能在cmd中进行对话使用,如果想在可视化的界面中使用本地大模型,可以考虑使用chatbox这类的AI客户端,chatbox的优点在于轻量化和高性能。

首先进入官网https://chatboxai.app/zh?ref=tian 下载chatbox,下载完成后一路点击下一步即可安装。

图片

安装完成后打开软件,会弹出提示框,选择使用自己的API Key或本地模型,或者可以点击设置进入配置界面。

图片

在模型栏填入API域名和模型名称,点击保存。

注意:配置前需要先启动Ollama并运行模型。

图片

新建一个对话,此时可以看到配置的模型已经成功应用了。

图片

   后话

先运行模型:无论是在Dify还是在chatbox中使用本地大模型,都需要先运行模型,运行方法是 ollama run 模型名称。

 如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近70次后,终于把整个AI大模型的学习门槛,降到了最低!

在这个版本当中:

第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

五、AI产品经理大模型教程

在这里插入图片描述

LLM大模型学习路线 

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

### 本地部署 DEEPSEEK 使用 OllamaDeepSeek 并整合 Dify #### 配置与集成概述 为了实现 DEEPSEEK 模型的本地部署并将其与 OllamaDify 整合,需要完成以下几个核心部分的工作:安装和配置 Ollama、下载和运行 DEEPSEEK 模型以及将这些组件与 Dify 进行无缝连接。 Ollama 是一种轻量级工具,用于管理和运行大型语言模型 (LLM),支持多种模型架构。通过简单的命令即可启动指定版本的 DEEPSEEK 模型[^2]。而 Dify 则是一个应用框架,可以作为前端或中间件来调用 LLM 提供的服务。 --- #### 安装和配置 Ollama 要开始使用 Ollama 来管理 DEEPSEEK 模型,请按照以下方法操作: 1. **安装 Ollama** 下载最新版 Ollama 工具包,并根据操作系统执行相应的安装脚本。官方文档提供了详细的说明,确保环境满足最低依赖条件。 2. **拉取 DEEPSEEK 模型** 执行以下命令以获取特定版本的 DEEPSEEK 模型: ```bash ollama pull deepseek-r1:1.5b ``` 此命令会自动从远程仓库中提取 `deepseek-r1` 版本号为 `1.5b` 的预训练权重文件到本地存储路径下。 3. **验证模型加载状态** 启动服务前可以通过列表查看已成功导入的所有可用模型实例及其元数据信息: ```bash ollama list ``` --- #### 启动 DEEPSEEK 模型 一旦完成了上述准备工作,则可通过如下指令激活目标模型实例以便后续请求访问它所提供的功能接口: ```bash ollama run deepseek-r1:1.5b --port=11434 ``` 此命令将在默认端口上暴露 RESTful API 接口给外部程序调用,默认监听地址通常设置为 localhost 或者自定义 IP 地址。 --- #### 将 OllamaDify 集成 Dify 可作为一个灵活的应用开发平台,允许开发者轻松接入第三方 AI 能力。以下是具体步骤描述: 1. **创建项目结构** 初始化一个新的 Python 环境或者 Node.js 应用来承载整个业务逻辑流程设计工作流。 2. **编写适配器代码** 构建 HTTP 请求发送模块向刚才提到过的 Ollama 实例发起交互动作;例如利用 requests 库(Python)或其他同等效用库处理 POST 方法提交 JSON 数据体至 `/api/generate` 终结点位置处[^1]: ```python import requests url = "http://localhost:11434/api/generate" payload = { "prompt": "Tell me about the history of artificial intelligence.", "max_tokens": 100, "temperature": 0.7 } headers = {"Content-Type": "application/json"} response = requests.post(url, json=payload, headers=headers) result = response.json() print(result["response"]) ``` 3. **扩展应用程序界面** 结合实际场景需求进一步完善图形用户界面上展示效果等内容呈现形式等方面考虑因素进去之后再做最终调整优化方案出来就可以了. --- ### 总结 综上所述,在本地环境中部署 DEEPSEEK 模型并通过 Ollama 加载后,能够借助简单几行脚本快速搭建起一套完整的对话系统原型演示案例。与此同时,引入像 Dify 这样的高级别封装层还可以极大简化日常维护成本的同时提升整体用户体验满意度水平^. ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值