chatglm论文

本文探讨了如何利用autoencoder和自回归模型在处理输入文字时,通过替换连续tokens并随机交换spans进行预测,以提升文本处理的效果。
摘要由CSDN通过智能技术生成

http://xxx.itp.ac.cn/pdf/2103.10360.pdf

摘要:

使用一个autoencoder和autoagressive的模型达到更好效果.

定义
输入文字:
x=[\(x_1,...,x_n\)]
text spans:
{\(s_1,...s_m\)}\(s_i\):
一段连续的tokens
每一个s用一个[MASK]来替代. 所以他一个符号盖住了一片token.
随机交换spans, 用autogressive来做预测.

image

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
引用\[1\]:I’m not familiar with the lora library or the chatglm model. Can you provide more information or context about what you’re trying to do? 引用\[2\]:介绍: 为方便学习,对ChatGlm添加了lora实现,并对代码做了逐行解读,核心的部分如数据的解析,loss的定义,lable制作,lora调用的框架流程等。 git链接GitHub - Pillars-Creation/ChatGLM-LoRA: ChatGLM-6B添加了LoRA实现,以及部分核心代码的逐行讲解 ,实例部分是做了个新闻短标题的生成 论文链接 https://arxiv.org/pdf/2106.09685.pdf 核心的流程 。 引用\[3\]:You can replace the FeedforwardNN class with your own model and adjust the hyperparameters as needed. As for using Lora specifically, I’m not sure what you mean by that. Can you provide more context or information? 引用\[4\]:LoRA is a library for low-power, long-range communication using the LoRaWAN protocol. It is not directly related to the ChatGLM model. If you want to use LoRA for fine-tuning the ChatGLM model, you would need to provide more information on how you intend to use it and what specific modifications or adaptations you are looking to make. 问题: chatglm代码生成 回答: 对于chatglm代码的生成,我不熟悉lora库或chatglm模型。如果你能提供更多关于你想要做什么的信息或背景,我可以给出更多的帮助。\[1\]如果你是指生成chatglm代码的方法,你可以参考GitHub上的ChatGLM-LoRA项目,该项目对ChatGlm添加了lora实现,并提供了代码解读和核心流程的说明。\[2\]但是请注意,lora库是用于低功耗、远距离通信的,与ChatGLM模型并没有直接关联。如果你想要使用lora对ChatGLM模型进行微调,你需要提供更多关于你打算如何使用lora以及你希望进行的具体修改或适应的信息。\[3\]\[4\] #### 引用[.reference_title] - *1* *3* [Cursor太强了,从零开始写ChatGLM大模型的微调代码](https://blog.csdn.net/KanShiMeKan/article/details/129651474)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [ChatGLM-LoRA实现&代码逐行讲解](https://blog.csdn.net/qjzcy/article/details/131206691)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

15122306087

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值