大语言模型相关
文章平均质量分 94
就是一顿骚操作
自律。做更好的自己!python,数据平台,自然语言处理。
90后、詹姆斯、意难忘、beyond、巨蟹座、平凡的世界、夜访吸血鬼。。。默默耕耘,为这个世界带来些什么。。
展开
-
glm2大语言模型服务环境搭建
ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 引入了如下新特性:更强大的性能:基于 ChatGLM 初代模型的开发经验,我们全面升级了 ChatGLM2-6B 的基座模型。原创 2024-04-03 16:22:22 · 930 阅读 · 0 评论 -
GLM论文研读
目前已经发展出多种预训练模型,包括自编码模型(如BERT)、自回归模型(如GPT)和编码器-解码器模型(如T5)。然而,这些模型并未在自然语言理解(NLU)、无条件生成和条件生成这三类任务中都达到最佳表现。为此,我们提出了一个基于自回归式空格填充的通用模型(GLM)以应对这一挑战。GLM通过加入二维位置编码,并允许以任意顺序预测片段,优化了空格填充预训练,这使得其在NLU任务上的性能优于BERT和T5。同时,GLM可以通过调整空白数量和长度,针对不同类型的任务进行预训练。原创 2024-04-02 11:16:35 · 1672 阅读 · 3 评论 -
昇腾glm3大模型lora微调及推理
ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。ChatGLM3-6B 是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性:更强大的基础模型,更完整的功能支持,更全面的开源序列。原创 2024-03-29 17:31:26 · 903 阅读 · 0 评论 -
基于Pytorch+昇腾NPU部署baichuan2-7B大模型
Baichuan 2 是百川智能推出的新一代开源大语言模型,采用2.6 万亿Tokens 的高质量语料训练。Baichuan 2 在多个权威的中文、英文和多语言的通用、领域 benchmark 上取得同尺寸最佳的效果。它基于 Transformer 结构,在大约1.2万亿 tokens 上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。项目地址预训练模型modelscope硬件要求:NPU:8 x Ascend NPUsModelLink旨在为华为昇腾芯片。原创 2024-04-02 11:12:23 · 1295 阅读 · 9 评论