【ChatGLM】本地版ChatGPT ?6G显存即可轻松使用 !ChatGLM-6B 清华开源模型本地部署教程

目录

感谢B站秋葉aaaki大佬

前言

部署资源

部署流程 

实机演示

ChatGML微调(人格炼成)(个人感觉蛮有趣的地方)

 分享有趣の微调人格

 实机演示(潘金莲人格)


感谢B站秋葉aaaki大佬

秋葉aaaki的个人空间_哔哩哔哩_bilibilihttps://space.bilibili.com/12566101

前言

由于ChatGLM-6B的规模较小,目前已知其具有相当多的局限性,如事实性/数学逻辑错误,可能生成有害/有偏见内容,较弱的上下文能力,自我认知混乱,以及对英文指示生成与中文指示完全矛盾的内容。请大家在使用前了解这些问题,以免产生误解。

很明显这个模型,因为是中文训练的,在很多数据上非常适合中文提问和回答
其次,本模型有思想钢印的存在,部分滑梯是不能说的

 但是其也有着本地部署和开源社区的优势。

部署资源

模型可以从huggingface上下载

THUDM/chatglm-6b · Hugging Facehttps://huggingface.co/THUDM/chatglm-6bwebui项目地址,目前只是简易版仍然在更新 ChatGLM-webui:

Akegarasu/ChatGLM-webui: A WebUI for ChatGLM-6B (github.com)https://github.com/Akegarasu/ChatGLM-webui

链接: 

百度网盘 请输入提取码 (baidu.com)https://pan.baidu.com/share/init?surl=xuCvJDbQYlHECY5-2b3-Eg提取码: y2ab

部署流程 

将这三个压缩包解压到同一个文件夹

解压后如下图所示 

 

 将更新的的压缩包放入文件夹进行替换

实机演示

 点击自己机型对应显存的程序

 进行本地web—UI的配置

 这样便可以在本地配置成功了

ChatGML微调(人格炼成)(个人感觉蛮有趣的地方)

 分享有趣の微调人格

 下载链接人格设定分享_免费高速下载|百度网盘-分享无限制 (baidu.com)https://pan.baidu.com/s/14z3X5BL5n9cJnW7b9GtZ4A?pwd=Glut#list/path=%2F

 实机演示(潘金莲人格)

  • 3
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
ChatGPT-6B 是由 OpenAI 公司开发的一个大型预训练语言模型,需要大量的计算资源来运行。如果你想在本地部署 ChatGPT-6B,需要满足以下条件: 1. 高性能计算硬件,如 NVIDIA GPU,至少要有 16GB 的显存。 2. 安装 CUDA 和 cuDNN,以便在 GPU 上运行 TensorFlow。 3. 安装 TensorFlow 2.0 或更高本。 4. 下载 ChatGPT-6B 的预训练模型,可以从 OpenAI 的 GitHub 仓库中下载。 一旦满足上述条件,你可以通过 TensorFlow 的 API 加载预训练模型并进行推理。下面是一个简单的 Python 代码片段,展示了如何加载 ChatGPT-6B 模型并生成对话: ```python import tensorflow as tf import numpy as np import openai # Load the pre-trained model model = tf.keras.models.load_model('path/to/pretrained/model') # Define a function to generate text def generate_text(prompt, length=1024, temperature=0.7): input_ids = openai.encode(prompt) input_ids = tf.constant(input_ids, dtype=tf.int32)[tf.newaxis, :] output = model(input_ids) logits = output['logits'][0, -1, :] / temperature probs = tf.nn.softmax(logits) token = tf.random.categorical([probs], num_samples=1)[-1, 0].numpy() text = openai.decode(np.concatenate([input_ids[0].numpy(), [token]])) i = 0 while i < length and token != openai.Token.EOS: i += 1 input_ids = tf.constant([token], dtype=tf.int32)[tf.newaxis, :] output = model(input_ids) logits = output['logits'][0, -1, :] / temperature probs = tf.nn.softmax(logits) token = tf.random.categorical([probs], num_samples=1)[-1, 0].numpy() text += openai.decode([token]) return text # Generate a conversation prompt = "User: Hello\nAI:" for i in range(10): prompt += '\nUser: ' print(prompt) prompt += generate_text(prompt) print(prompt) ``` 注意,由于 ChatGPT-6B 模型需要大量的计算资源,因此在本地部署时可能需要花费较长时间来生成对话。此外,由于 ChatGPT-6B 是一个大型预训练模型,因此预测结果可能会有一定的误差。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值