nlp
文章平均质量分 89
nlp
sssusan537
这个作者很懒,什么都没留下…
展开
-
Colab部署+微调ChatGLM
只需要在加载模型的位置修改成微调后的路径即可 将 evaluate.sh 中的 CHECKPOINT 更改为训练时保存的 checkpoint 名称,运行以下指令进行模型推理和评测: 改这一行即可:--model_name_or_path ./output/$CHECKPOINT/checkpoint-3000。nohup 是 no hung up的缩写,意思是不挂断。衣款式#抽绳", "summary": "这件衬衫的款式非常的宽松,利落的线条可以很好的隐藏身材上的小缺点,穿在身上有着很好的显瘦效果。原创 2024-09-06 13:48:15 · 861 阅读 · 0 评论 -
Colab部署微调Llama
目前,最简单的方法是使用Unsloth,它是一个微调模型的集成工具。通过Unsloth微调Mistral、Gemma、Llama,速度提高2-5倍,内存减少70%。Unsloth的github上有适合新手的Colab训练脚本:https://colab.research.google.com/drive/1Ys44kVvmeZtnICzWz0xgpRnrIOjZAuxp?usp=sharing,照着一步步执行就可以顺利微调成功简化后的代码如下:下载预训练模型默认已选择unsloth/Meta-Llama原创 2024-09-06 13:51:37 · 421 阅读 · 0 评论 -
【nlp】Transformer学习笔记
第一步:生成查询向量、键向量和值向量通过向量方式计算自注意力的第一步,就是从每个编码器的输入向量(即每个单词的词向量)生成三个向量:查询向量query-vec、键向量key-vec、值向量value-vec。原创 2024-09-06 22:49:06 · 516 阅读 · 0 评论