【AI之路】使用Jan.ai在本地部署大模型开启AI对话(含通过huggingface下载大模型,实现大模型自由)


前言

2023年是AIGC元年。以后,每个人多少都会接触到GPT带来的变化。别人都在用,我们也不能落下。ChatGPT咱用不了,可以用国内的各种大模型。另外,我们还可以把大模型放到本地电脑上运行,不信?咱往下看!

使用Jan.ai在本地调用大模型进行对话

下面就让我们的主角登场。

一、Jan.ai是什么?

Jan 是 ChatGPT 的替代品,可在您自己的计算机上运行,并带有本地 API 服务器。
Jan 100% 在您自己的机器上运行,可预测、私密和离线。没有其他人可以看到你的对话。
开源工具Jan可以让用户在本地计算机上运行chatbot,而无需互联网连接。Jan支持Mac、Windows和Linux系统,它提供简单的界面下载和使用流行的开源模型,比如LLMA和Mixol等。下文就演示一下如何下载和安装Jan,然后在本地开启类似ChatGPT的界面进行AIGC。

打开网页https://jan.ai,即可看到Jan有Mac、Windows、Linux系统的版本,大家根据自己需要下载。
在这里插入图片描述
博主下载了Windows 版本,运行安装文件jan-win-x64-0.4.3.exe,桌面会出现黄色小手Jan的图标。打开后界面如下:
在这里插入图片描述
首次运行,除了默认的Open AI 的在线API接口(Jan就是个大模型调用界面,使用ChatGPT需要输入其API Key),其他大模型需要现在后才可以使用。需要用到哪个,点击Download即可。下载完成蓝色的Download即会变为绿色的Use。然后点击Use即可开启对话模式。

在这里插入图片描述
本来到这里,小伙伴就可以愉快的玩耍大模型了。

但,国内的故事才刚刚开始……

在国内下载大模型,会让你下到哭!
难道就这么放弃了吗?不!

下面就要轮到大杀器登场,看我们怎么解决。

二、下载大模型

1. 找到大模型文件地址

打开jan的用户信息安装目录(一般在%UserProfile%/jan,在文件管理器输入前面的命令即可进入),进入models目录,可以看到和上面界面对应的大模型名称,Download后的大模型保存在这里。
在这里插入图片描述
找一个我们要下载的模型目录。可以看到有一个model.json文件。打开文件如下:

{
  "source_url": "https://huggingface.co/TinyLlama/TinyLlama-1.1B-Chat-v0.6/resolve/main/ggml-model-q4_0.gguf",
  "id": "tinyllama-1.1b",
  "object": "model",
  "name": "TinyLlama Chat 1.1B Q4",
  "version": "1.0",
  "description": "The TinyLlama project, featuring a 1.1B parameter Llama model, is pretrained on an expansive 3 trillion token dataset. Its design ensures easy integration with various Llama-based open-source projects. Despite its smaller size, it efficiently utilizes lower computational and memory resources, drawing on GPT-4's analytical prowess to enhance its conversational abilities and versatility.",
  "format": "gguf",
  "settings": {
      "ctx_len": 2048,
      "prompt_template": "<|system|>\n{system_message}<|user|>\n{prompt}<|assistant|>"
  },
  "parameters": {
      "max_tokens": 2048
  },
  "metadata": {
      "author": "TinyLlama",
      "tags": ["Tiny", "Foundation Model"],
      "size": 637000000
  },
  "engine": "nitro"
}

这里我们可以看到source_url即为大模型文件的地址,id和目录名一样。这个名字也是大模型下载后保存的名称。

我们用浏览器进入网址:https://huggingface.co/TinyLlama/TinyLlama-1.1B-Chat-v0.6/,切换到Files and versions即可看到对应的文件ggml-model-q4_0.gguf。
在这里插入图片描述

2. 下载大模型

由于国内下载大模型往往会超时,造成下载失败,而大模型往往都很大,所以博主之前研究后写了文章,请移步:
【AI之路】使用huggingface_hub优雅解决huggingface大模型下载问题

复制上面的source_url,repo_id 和filename会根据source_url自动生成,local_dir 就填刚才找到的目录。

# 使用前先通过pip install huggingface_hub安装huggingface_hub包
import time
from huggingface_hub import hf_hub_download
source_url ="https://huggingface.co/TinyLlama/TinyLlama-1.1B-Chat-v0.6/resolve/main/ggml-model-q4_0.gguf"
location = source_url.split('/resolve/main/')
repo_id = location[0].strip('https://huggingface.co/')# 仓库ID,例如:"TinyLlama/TinyLlama-1.1B-Chat-v0.6" 
local_dir = r'C:\Users\one\jan\models\tinyllama-1.1b'
cache_dir = local_dir + "/cache"
filename= location[1]# 大模型文件,例如:"ggml-model-q4_0.gguf"

print(f'开始下载大模型\n仓库:{repo_id}\n保存在:{local_dir}\{filename}\n')
while True:   
    try:
        hf_hub_download(cache_dir=cache_dir,
        local_dir=local_dir,
        repo_id=repo_id,
        filename=filename,
        local_dir_use_symlinks=False,
        resume_download=True,
        etag_timeout=100
        )
    except Exception as e :
        print(e)
        # time.sleep(5)
    else:
        print('下载完成')
        break
Downloading ggml-model-q4_0.gguf: 100%|█████████████████████████████████████████████| 637M/637M [00:26<00:00, 24.5MB/s]
下载完成
请按任意键继续. . .

下载完成看到:
在这里插入图片描述
修改大模型文件为id名称(没有扩展名,对,你没有看错!)
在这里插入图片描述

3. 修改model.json文件

在"engine": "nitro"后增加, “state”: “ready”。注意nitro引号后面要加一个“,”。
在这里插入图片描述
保存后再进入Jan的界面,即可看到模型后面Download已经变为绿色的Use按钮。
在这里插入图片描述

三、使用Jan调用大模型进行对话

点击Use即可切换到主界面,反正不要钱,就把Max Tokens放到最大。
在这里插入图片描述
输入问题,Send后即可看到反馈结果:
在这里插入图片描述
是不是很爽!

大模型部署到本地,不仅免费,而且可以自由调用大模型。想用哪个就下载哪个,彻底实现大模型自由!就是GPU风扇要呜呜转哈!

速度嘛,就看你的电脑性能了,本人使用3070显卡,这个模型才637M,速度还凑合吧。但,试过9.23G大模型,速度已经慢得像蜗牛。大模型还是很耗算力的!


总结

Jan未来还将可以自行添加大模型,有兴趣的小伙伴也可以照着models目录的命名要求和model.json文件要求自行添加。
更多使用方法见官方文档:https://jan.ai/guides/

Jan后面还将陆续升级,期待小伙伴发现更多惊喜!

再有模型下不了的,请移步:
【AI之路】使用huggingface_hub通过huggingface镜像站hf-mirror.com下载大模型(附代码,实现大模型自由)

  • 32
    点赞
  • 50
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 7
    评论
AI模型赋能人形机器人可以被视为迈向通用人工智能的一大步。人形机器人是一种能够模拟人类外貌、行为和交流的机器,结合AI模型的能力,可以实现更高级别的人工智能功能。 首先,AI模型的强大计算能力和学习能力使得人形机器人能够更加准确地理解和模仿人类的动作和表情。通过对大量数据的学习,AI模型能够理解并推断人类的情绪、意图和行为,从而更好地与人类进行交互和沟通。这种与人类的自然交流方式可以让机器人更好地融入人类社会,满足人类的各种需求。 其次,AI模型赋能的人形机器人在应用领域具有广泛的潜力。例如,在医疗领域,人形机器人可以通过感知和理解病人的情绪和需求来提供情感支持和护理服务。在教育领域,人形机器人可以根据学生的学习情况和兴趣定制教学内容,提供个性化的教育体验。在服务行业中,人形机器人可以担任引导员、导游员等角色,为人们提供导航和咨询服务。 最后,AI模型赋能的人形机器人还有助于推动人工智能技术的发展和创新。通过将大模型与机器人相结合,各种新的应用和功能不断涌现出来。同时,人形机器人的使用也可以促进对于伦理、隐私和安全等相关问题的讨论和解决。 总的来说,AI模型赋能人形机器人是迈向通用人工智能的一大步。它能够实现更加准确和自然的人机交互,拓展人工智能在各个领域的应用,并推动人工智能技术的发展和创新。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

IT里的交易员

分享是一种快乐,打赏是一种肯定

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值