gpt4all保姆级使用教程! 不用联网! 本地就能跑的GPT

原文:gpt4all保姆级使用教程! 不用联网! 本地就能跑的GPT

什么是gpt4all

gpt4all是在大量干净数据上训练的一个开源聊天机器人的生态系统。它不用科学上网!甚至可以不联网!本地就能用,像这样↓:
Pasted image 20230415211219

如何使用(非常详细版)

第一步:下载gpt4all-lora-quantized.bingpt4all-main

1. gpt4all-lora-quantized.bin

浏览器打开这个地址: https://the-eye.eu/public/AI/models/nomic-ai/gpt4all/gpt4all-lora-quantized.bin, 下载文件,文件大小是3.92GB。

2. gpt4all-main

打开https://github.com/nomic-ai/gpt4all。如下图所示:点击Code - Download ZIP下载到本地再解压,解压之后会看到一个gpt4all-main的文件夹。(熟悉Github的同学这一步可以直接克隆到本地)
20230415210933

第二步:把gpt4all-lora-quantized.bin放进gpt4all-main下的chat文件夹

gpt4all-main文件夹下面有一个chat文件夹,把第上一步下载的gpt4all-lora-quantized.bin这个文件放进chat文件夹内:
Pasted image 20230415211032

第三步:进入gpt4all-main的文件夹:

打开cmd,(如果cmd里看不到自己计算机账户名的按下Ctrl+C)在cmd中输入cd,再把gpt4all-main的文件夹拖进cmd里,再按回车。(此时能看到百分号前面变成了gpt4all-main)

第四步:输入指令

我的电脑是M1 Mac,所以我在cmd里输入第一种指令:

  • M1 Mac/OSX: cd chat;./gpt4all-lora-quantized-OSX-m1
  • Linux: cd chat;./gpt4all-lora-quantized-linux-x86W
  • indows (PowerShell): cd chat;./gpt4all-lora-quantized-win64.exe
  • Intel Mac/OSX: cd chat;./gpt4all-lora-quantized-OSX-intel

Pasted image 20230415211101

Mac电脑在这一步可能会遇到的问题:

输入指令回车之后可能会出现安全警告打不开的情况,这时候打开设置在隐私与安全性里面点击仍然打开
Pasted image 20230415211113

第五步: 使用

1. 方法一:直接在cmd中使用

在第四步输入指令之后,就能输入你的问题啦。图上绿色的部分是我的提问

这种方法不用下载UI包,节省内存但是UI体验不好
Pasted image 20230415211132

2. 方法二:配合UI使用

下载安装UI包

  1. 网页打开UI安装包 下载安装包

  2. 打开安装包 点击这个”绿U盘“打开安装程序,选择安装路径安装。(”此组件大约占用您硬盘驱动器3.95GB的空间“)
    Pasted image 20230415211153

  3. 安装之后在你的安装路径下,有一个叫GPT4ALL的文件夹,在里面找到bin 文件夹,打开里面的chat.app,就能用UI交互啦!
    Pasted image 20230415211219

把WIFI关掉试试吧!一样能用

  • 20
    点赞
  • 131
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 18
    评论
GPT4All本地部署是指将OpenAI的GPT模型部署在本地环境中,以便更好地满足用户的需求和保护数据隐私。本地部署可以通过以下步骤实现: 首先,需要准备合适的硬件设备,如强大的计算机或服务器,以满足GPT4All模型的计算需求。 其次,需要下载和配置GPT4All模型的软件包及相关依赖。这些软件包通常包含了模型的训练代码、预训练的权重文件以及模型调用的接口等。 接下来,进行模型的加载和初始化工作。这包括加载权重文件、建立模型的计算图结构、设置模型的参数等。这个过程需要一定的时间和计算资源。 然后,可以依据业务需求对模型进行进一步的定制化和优化。这可能包括修改模型的超参数、微调模型的权重,或者添加自定义的训练数据等。这样可以提高模型在特定任务上的表现。 最后,可以通过编写代码调用本地部署的GPT4All模型,实现对用户输入的解析和生成相应的输出。这个过程通常包括将用户输入转化为模型可以接受的格式,并处理模型的输出以得到最终的结果。 总之,GPT4All本地部署允许用户在本地环境中运行和定制GPT模型,从而更好地满足个性化需求,提高数据隐私保护,并降低对云服务的依赖性。但是,需要注意的是本地部署也有一些挑战,如硬件资源需求高、模型的训练和调试工作较为复杂等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 18
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

LucaTech

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值