PVE 配置显卡直通,打造本地大模型地基 本文将详细介绍如何在虚拟化平台 Proxmox Virtual Environment(PVE)配置显卡直通,将宿主机上的物理显卡直接分配给 AI 虚拟机使用。
《开源大模型食用指南》已发布,助你速通大模型!(附教程) 《开源大模型食用指南》 是一个围绕开源大模型、针对国内初学者、基于 AutoDL 平台的中国宝宝专属大模型教程,针对各类开源大模型提供包括环境配置、本地部署、高效微调等技能在内的全流程指导,简化开源大模型的部署、使用和应用流程,让更多的普通学生、研究者更好地使用开源大模型,帮助开源、自由的大模型更快融入到普通学习者的生活中。
【大模型实战项目】基于大模型+知识图谱的知识库问答 (附项目) 今天给大家介绍一个git开源的宝藏项目 — 基于大模型+知识图谱的知识库问答,这里还搭配了一个演示dome给大家,如需要此项目练手的,我已经打包好了放在文末~
本地知识库部署指南:FastGPT 与 Dify,轻松上手! 大家好,我是一名喜欢在家折腾本地部署的开发者,这次我来分享如何在本地运行 Ollama,并将它与 FastGPT 和 Dify 两个知识库对接。看起来复杂,但其实步骤并不难。我会尽量把内容讲得清楚易懂,加上一些幽默,让整个过程更有趣。
【大模型部署】本地源码方式部署启动MaxKB知识库问答系统,一篇文章搞定! MaxKB 是一款基于 LLM 大语言模型的知识库问答系统。MaxKB = Max Knowledge Base,旨在成为企业的最强大脑。
本地部署 Llama 3.1:Ollama、OpenWeb UI 和 Spring AI 的综合指南 本文介绍如何使用 Ollama 在本地部署 Llama 3.1:8B 模型,并通过 OpenWeb UI 和 Spring AI 来增强模型交互体验和简化 API 的调用过程。
【大模型微调】llamafactory+ollama+docker 微调部署全流程速通(RTX4090公版) 【大模型微调】llamafactory+ollama+docker 微调部署全流程速通(RTX4090公版)
RAG实操教程: Langchain+Milvus向量数据库创建你的本地知识库 我们知道 LLM的知识库是通过现有的网络公开的数据作为数据源来训练的,现在公开的很多模型他们基于的训练数据会比我们现在网络上公开的数据早很多,那自然就会产生一种问题,网络上最新的数据和知识 LLM是不知道。