自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 SDU软院创新实训(五)

定义了一个数据整合器函数 data_collator,它用于处理训练数据,将数据整理成模型所需的格式。调用 training_main() 函数来开始训练过程,其中包括指定模型类 model_cls、前向传播函数 forward_step、创建数据集的函数 create_dataset_function,以及数据整合器函数 data_collator。指定了模型参数,比如 max_source_length、max_target_length、lora_rank 和 pre_seq_len。

2024-05-31 11:17:04 247

原创 SDU软院创新实训(四)

安装hugging face 环境依赖。如下图可以看到chatglm的具体架构。接下来打印response的结果。安装docker环境。

2024-05-31 11:12:15 295

原创 SDU软件创新实训(三)

对于 B 部分中的 token,它们的范围从 1 到跨度的长度。设计适合下游任务,因为通常生成的文本的长度是事先未知的。GLM 框架会从输入文本中随机删除连续的标记跨度(自动编码方法),并训练模型按顺序重建跨度(自回归预训练方法)。按照自动编码的思想,从输入文本中随机删除连续的标记跨度,并按照自回归预训练的思想训练模型以顺序重建跨度。相比于使用空白填充进行文本到文本的预训练,作者提出了两项改进,即跨度改组和2D位置编码。查找论文GLM 架构,包括如何对采样的文本跨度进行打乱和屏蔽,有关这方面的更多信息。

2024-05-31 11:08:04 335

原创 SDU软院创新实训(二)

3. 由于模型需要chatglm-6b的权重,这里在huggingface上找到对应的权重文件进行下载。1. 这里首先要加载模型,使用transformers来加载预训练模型。具体的数据格式呈现如下的形式,包含x光图像,和对应的诊断报告,由于服务器不支持,这里手动下载权重,然后传输到服务器上。2. 根据是否量化,能够减少模型占用的显存空间。4. 完成后使用下列代码进行测试。6. 这里使用chat进行对话。7. 使用命令行进行尝试预测。可以看到输出了预测结果。(4) 下载模型权重。

2024-05-30 19:08:31 159

原创 SDU软院创新实训(一)

AI对话(主要功能):用户可以发送消息(文字和图片),系统将信息存储至对话数据中,同时可以提取出文字中的关键字词或者图片作为模型调用模块的输入;(2)对话数据:存储用户和AI对话的数据,包括对话内容、时间(系统自动对一个月前的数据进行清理),其中用户对内容的存储信息可以包含文字、图片。搜索对话记录:分类文字、图片(类似QQ),如果在搜索框内输入文字,通过模糊查询定位到一条(或多条信息),用户点击有效信息后可以看到前后对话信息。(1)用户数据:需要存储所有用户的基础信息,如用户昵称、邮箱、密码等数据。

2024-05-29 15:37:12 273

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除