文章目录
前言
本人尝试了在个人PC端部署本地大模型,配置如下:
MacBook Air (M2芯片,16GB内存,1TB存储)
需要用到的软件:
1.Ollama
2.Docker
3.个人笔记本终端Terminal(Windows对应cmd)
提示:以下是本篇文章正文内容,下面案例可供参考
一、Ollama
https://ollama.com
Ollama 是一个致力于大规模语言模型(LLM)开发和应用的框架或工具集。它专注于优化和扩展这些模型的性能,使其能够在更广泛的应用场景中发挥作用

点击Models选项,就可以选择自己想要部署的模型,这里以llama3.1为例

llama3.1提供了三种选择,8B,70B,405BZ(这里B指十亿,8B就是八十亿个模型参数)

copy图中该指令:ollama run llama3.1
在terminal中运行安装(在指令前面加上sudo)
执行安装后llama3.1模型便可在终端运行,接下来给该模型安装图形界面

二、Docker
https://www.docker.com
Docker 是一个开源的平台,旨在通过容器化技术简化应用程序的开发、部署和运行。容器是一种轻量级的虚拟化方式,它将应用程序及其所有依赖项(如库、配置文件等)打包在一起,使其能够在任何环境中保持一致的运行。

下载后,打开github,搜索open-webui

在"How to Install"这里,寻找指令
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

再到terminal中去执行(加上sudo)
安装成功后,打开docker软件,便可看到下载好的界面

点开数字后面的链接,即可打开大模型git界面,本地部署完成

总结
以上就是大模型部署到本地的一个简单操作,安装后即可在本地拥有一个可用的大语言模型
14万+

被折叠的 条评论
为什么被折叠?



