一周速览|img2img-turbo 简笔画秒变艺术品!一键部署 GLM-4-9B-Chat,函数调用能力堪比 GPT-4

公共资源速递

This Weekly Snapshots !
5 个数据集:

* LPW 行人检测数据集

* NABirds 鸟类图像数据集

* DeepFruit 水果图像分类数据集

* Sogou news 搜狗新闻数据集

* FGVC-Aircraft 飞机细粒度图像分类数据集

2 个模型:

* GLM-4-9B-Chat

* CogVLM2-Llama3-Chinese-Chat-19B

3 个教程:

* 别等了!速来体验 GLM-4-9B-Chat

* DynamiCrafter ComfyUI 教程 | 对图片转视频的效果进行精细化控制

* img2img-turbo 图像转换 Demo

访问官网立即使用:http://openbayes.com

公共数据集

1. LPW 行人检测数据集

该数据集包含 3 个不同的场景,共 2,731 名行人的超过 59 万张图像,每一个行人图片由 2 到 4 台摄像机拍摄。

直接使用:https://go.openbayes.com/UW2QK

2. NABirds 鸟类图像数据集

该数据集共有 800 张图像,其中包含的目标有 650 张,背景图像有 150 张,目标包括:飞机、舰船、油罐、棒球场、网球场、篮球场、田径场、港口、桥梁、车辆 10 个类别。

直接使用:https://go.openbayes.com/Ytd94

3. DeepFruit 水果图像分类数据集

该数据集包含基于 8 种不同水果集组合的 20 种不同水果组合的 21,122 张水果图像。数据集被随机划分为 80% 的训练集和 20% 的测试集,便于模型训练和评估。DeepFruit 可以用于水果检测、识别和分类领域的研究,以及卡路里估算等其他创新应用。

直接使用:https://go.openbayes.com/csL9f

4. Sogou news 搜狗新闻数据集

该数据集包含超过 290 万篇来自 SogouCA 和 SogouCS 新闻语料库 5 个类别的新闻文章构成的数据集。每个类别分别包含 9 万个训练样本和 1.2 万个测试样本。这些汉字都已经转换成拼音。

直接使用:https://go.openbayes.com/ZnPDI

5. FGVC-Aircraft 飞机细粒度图像分类数据集

该数据集包含 10,200 张飞机图像,其中 102 种不同的飞机模型变体各有 100 张图像。每张图像中的(主)飞机都用紧密的边界框和分层的飞机模型标签进行注释。

直接使用:https://go.openbayes.com/uCb85

公共模型

1. GLM-4-9B-Chat

GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本,该模型是其聊天模型。GLM-4-9B-Chat 在语义、数学、推理、代码和知识等多方面的数据集测评中,均表现出较高的性能,其函数调用能力堪比 GPT-4 !

直接使用:https://go.openbayes.com/A8Oup

2. CogVLM2-Llama3-Chinese-Chat-19B

该模型是是基于 Meta-Llama-3-8B-Instruct 构建的,拥有 19 亿参数,支持中文和英文两种语言,能够处理高达 8K 的文本长度和 1344x1344 分辨率的图片。

直接使用:https://go.openbayes.com/HvOuV

公共教程

1. 别等了!速来体验 GLM-4-9B-Chat

该教程为模型 GLM-4-9B-Chat 的一键部署 Demo,只需克隆并启动该容器,直接复制生成的 API 地址,即可对模型进行推理体验。
在线运行:https://go.openbayes.com/HQIRM

2. DynamiCrafter ComfyUI 教程 | 对图片转视频的效果进行精细化控制

DynamiCrafter 是由香港中文大学与腾讯 AI Lab 联合研发的图生视频项目,只需结合简单的文本指令,即可轻松将静态图片转化为生动的动态视频。本教程为大家搭建好了 ComfyUI 工作流环境,无需担心复杂的节点连接问题。操作简便,只需上传图片并输入相应的文本指令,即可开始创作之旅!

在线运行:https://go.openbayes.com/j34Qw

3. img2img-turbo 图像转换 Demo

img2img-turbo 是一个基于 PyTorch 的高效图像到图像转换深度学习模型。它能够实现如将黑白照片变为彩色、草图转真实图片等多样的图像转换任务。该教程为模型体验 Demo,仅需随手一画,你也可以成为绘画大师!

在线运行:https://go.openbayes.com/JqYPx

以上就是小贝上周在 OpenBayes 的全部更新内容啦~

此外,OpenBayes 平台还提供超过 500 个精选公共数据集、模型、教程等优质资源,并已经整合到「公共资源」模块中。OpenBayes 平台支持一键 Input,开箱即用!

  • 5
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
首先,你需要下载 Chat-GLM-6B-Int4 模型文件和相应的配置文件。然后,你需要在你的 Linux 系统上安装 PyTorch 和 Transformers 库。你可以使用以下命令安装这两个库: ``` pip install torch pip install transformers ``` 接下来,你需要编写一个 Python 脚本来部署 Chat-GLM-6B-Int4 模型。你可以使用以下代码作为脚本的基础: ```python import torch from transformers import GPT2Tokenizer, GPT2LMHeadModel # 加载模型和分词器 tokenizer = GPT2Tokenizer.from_pretrained('chat-glm-6b-int4/config') model = GPT2LMHeadModel.from_pretrained('chat-glm-6b-int4/model') # 指定设备 device = torch.device("cuda" if torch.cuda.is_available() else "cpu") model.to(device) # 对话循环 while True: # 获取用户输入 user_input = input("You: ") # 把用户输入转换成模型的输入格式 input_ids = tokenizer.encode(user_input, return_tensors='pt').to(device) # 在模型上生成回复 output = model.generate(input_ids, max_length=1000, do_sample=True, temperature=0.7) response = tokenizer.decode(output[0], skip_special_tokens=True) # 输出回复 print("Chat-GLM-6B-Int4: " + response) ``` 在这个脚本中,我们首先加载 Chat-GLM-6B-Int4 模型和相应的分词器。然后,我们检查可用的设备并将模型移动到相应的设备上。最后,我们开始一个对话循环,其中用户输入被转换为模型的输入格式,并在模型上生成回复。回复被解码并输出给用户。 注意,这个脚本只是一个基础示例,你需要根据你的具体需求进行修改。例如,你可能需要添加一个 Web 接口来允许用户通过浏览器与 Chat-GLM-6B-Int4 进行交互。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值