在上一篇博文中,我们在本地部署了Llama 3 8B参数大模型,并用 Python 写了一个控制台对话客户端,基本能愉快的与 Llama 大模型对话聊天了。但控制台总归太技术化,体验不是很友好,我们希望能有个类似 ChatGPT 那样的 Web 聊天对话界面,本博文就安排起来……
上一篇Llama 3 8B大模型部署和 Python 对话客户端博文:玩转 AI,笔记本电脑安装属于自己的 Llama 3 8B 大模型和对话客户端
因为本博文介绍的Web 可视化对话机器人,涉及到前文的Llama 3 8B大模型(并不是强依赖),因此建议提取安装前文部署好Llama 3 8B大语言模型。
为了方便把我们的大模型对话机器人分享出去,聊天机器人最后是基于Web网站,可通过浏览器访问,本文正是通过Ollama
和WebUI
在本地部署Llama 3
Web 版聊天机器人,本文包括如下部分:
- 什么是
Ollama
,它与Llama
是什么关系? - 安装
Ollama
大语言模型工具 - 安装
Node.js
编程语言工具包(为接下来的 Web 可视化聊天界面做好准备) - 基于
Llama 3 8B
GGUF 模型文件创建Ollama
模型文件 - 部署
Ollama
大模型 Web 可视化聊天界面 - 愉快的与
Llama 3
大模型俩天对话 - 最后,
Ollama
大模型工具的其他用法
什么是Ollama
,它与Llama
是什么关系?
Ollama
是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新大语言模型,包括如Llama 3
、Phi 3
、Mistral
、Gemma
等开源的大型语言模型。
Olla