2024最新私有化部署AI大模型,让每个人都有属于自己的AI助理

让每个人都拥有一个属于自己的本地大模型

下载Ollama

下载地址

https://ollama.com/download

​ Ollama支持MacOS、Linux、Windows

image-20240507105722380

解压

下载完成后,会得到一个Ollama-darwin.zip文件,解压后,以Mac为例是一个可运行文件:Ollama.app

image-20240507110010601

使用步骤

  1. 双击解压后的可运行文件:Ollama.app

  2. 在Ollama官网上点击Models,可看见各种大模型的列表,我这里选择了llama3

    image-20240507110356947

  3. 打开终端,执行如下命令:ollama run llama3

  4. 等待下载模型文件,llama3:8b大概4.7GB

    image-20240507110739615

  5. 完成后,会出现如下窗口说明安装成功

    image-20240507111012638

  6. 发送任意消息进行测试

    image-20240507111147248

使用聊天页面调用大模型

无论是使用命令还是调用大模型接口,用起来肯定是不方便,大模型肯定是要配合完美的页面来使用的。我推荐使用的是open-webui

gitHub地址

https://github.com/open-webui/open-webui

安装方式

推荐使用docker安装(可直接参考github中的文档)

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

使用

安装成功后,浏览器直接访问localhost:3000,注册一个账号,即可正常使用。

在UI页面中,可设置系统语言,支持中文

image-20240507111929884

image-20240507112004852

开发工具插件使用本地大模型

有很多插件都支持Ollama,拿VsCode开发工具来说,有一个插件叫Ollama Autocoder

image-20240507112321692

在设置中,将模型手动改为:llama3

image-20240507112651772

在VSCode中,按下空格即可有插件的提示:

image-20240507112808701

按下Tab键,即可使用大模型的推理生成上下文代码。这里不重点介绍了,有很多优秀的插件做的都很好,这里着重演示使用本地大模型。

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YoungJ5788

您的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值