LLM技术汇总
文章平均质量分 94
AI大模型的训练原理、GPU显卡选型、Prompt工程,帮助你从0到1完成大模型学习,相关项目实践可参考AI项目实践专栏
汀、人工智能
本博客将不定期更新关于机器学习、强化学习、数据挖掘以及NLP等领域相关知识,以及分享自己学习到的知识技能,感谢大家关注!
展开
-
LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等
LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等原创 2024-04-30 08:30:00 · 13 阅读 · 0 评论 -
大模型应用:大模型AI Agent在企业应用中的6种基础类型,企业智慧升级必备
大模型应用:大模型AI Agent在企业应用中的6种基础类型,企业智慧升级必备原创 2024-04-26 11:45:11 · 373 阅读 · 0 评论 -
囊括所有大模型:高质量中文预训练模型&大模型&多模态模型&大语言模型集合
囊括所有大模型:高质量中文预训练模型&大模型&多模态模型&大语言模型集合原创 2024-03-29 16:28:22 · 1203 阅读 · 0 评论 -
NLP国内外大模型汇总列表[文心一言、智谱、百川、星火、通义千问、盘古等等]
NLP国内外大模型汇总列表[文心一言、智谱、百川、星火、通义千问、盘古等等]原创 2024-01-20 08:00:00 · 1631 阅读 · 0 评论 -
挑战性能极限小显卡大作为,教你如何在有限资源下运行大型深度学习模型,GPU显存估算并高效利用全攻略!
挑战性能极限小显卡大作为,教你如何在有限资源下运行大型深度学习模型,GPU显存估算并高效利用全攻略!转载 2024-03-29 11:13:07 · 453 阅读 · 0 评论 -
大模型落地实战指南:从选择到训练,深度解析显卡选型、模型训练技、模型选择巧及AI未来展望---打造AI应用新篇章
大模型落地实战指南:从选择到训练,深度解析显卡选型、模型训练技、模型选择巧及AI未来展望---打造AI应用新篇章原创 2024-03-26 10:35:55 · 3374 阅读 · 0 评论 -
Prompt工程全攻略:15+Prompt框架一网打尽(BROKE、COAST、LangGPT)、学会提示词让大模型更高效
Prompt工程全攻略:15+Prompt框架一网打尽(BROKE、COAST、LangGPT)、学会提示词让大模型更高效原创 2024-03-25 10:16:48 · 1433 阅读 · 0 评论 -
Prompt进阶系列5:LangGPT(提示链Prompt Chain)--提升模型鲁棒性
Prompt进阶系列5:LangGPT(提示链Prompt Chain)--提升模型鲁棒性原创 2024-03-22 17:18:41 · 1212 阅读 · 0 评论 -
Prompt进阶系列4:LangGPT(构建高性能Prompt实践指南)--结构化Prompt
Prompt进阶系列4:LangGPT(构建高性能Prompt实践指南)--结构化Prompt原创 2024-03-22 17:09:44 · 1352 阅读 · 0 评论 -
如何选择GPU显卡,带你对比A100/H100/4090性价比、训练/推理该使用谁?
如何选择GPU显卡,带你对比A100/H100/4090性价比、训练/推理该使用谁?转载 2024-03-21 16:07:32 · 2318 阅读 · 0 评论 -
英伟达系列显卡大解析B100、H200、L40S、A100、A800、H100、H800、V100如何选择,含架构技术和性能对比带你解决疑惑
英伟达系列显卡大解析B100、H200、L40S、A100、A800、H100、H800、V100如何选择,含架构技术和性能对比带你解决疑惑原创 2024-01-29 17:43:32 · 6736 阅读 · 0 评论 -
Prompt进阶3:LangGPT(构建高性能质量Prompt策略和技巧2)--稳定高质量文案生成器
Prompt进阶3:LangGPT(构建高性能质量Prompt策略和技巧2)--稳定高质量文案生成器原创 2024-03-13 16:10:45 · 1156 阅读 · 0 评论 -
Prompt进阶2:LangGPT(构建高性能Prompt策略和技巧)--最佳实践指南
Prompt进阶2:LangGPT(构建高性能Prompt策略和技巧)--最佳实践指南原创 2024-03-13 16:09:50 · 1198 阅读 · 0 评论 -
Prompt进阶系列1:LangGPT(从编程语言反思LLM的结构化可复用提示设计框架)
Prompt进阶系列1:LangGPT(从编程语言反思LLM的结构化可复用提示设计框架)原创 2024-03-08 15:23:03 · 1929 阅读 · 0 评论 -
一文搞清楚LORA、Prompt Tuning、P-Tuning、Adapter 、Prefix等大模型微调方法
一文搞清楚LORA、Prompt Tuning、P-Tuning、Adapter 、Prefix等大模型微调方法转载 2024-03-04 15:30:12 · 614 阅读 · 0 评论 -
【RLHF】想训练ChatGPT?得先弄明白Reward Model怎么训(附源码)
【RLHF】想训练ChatGPT?得先弄明白Reward Model怎么训(附源码)转载 2023-08-14 16:09:28 · 273 阅读 · 0 评论 -
【RLHF】想训练ChatGPT?先来看看强化学习(RL)+语言模型(LM)吧(附源码)
【RLHF】想训练ChatGPT?先来看看强化学习(RL)+语言模型(LM)吧(附源码)转载 2023-08-14 16:05:20 · 199 阅读 · 0 评论 -
大语言模型的预训练[6]:思维链(Chain-of-thought,CoT)定义原理详解、Zero-shot CoT、Few-shot CoT 以及在LLM上应用
大语言模型的预训练[6]:思维链(Chain-of-thought,CoT)定义原理详解、Zero-shot CoT、Few-shot CoT 以及在LLM上应用原创 2023-07-20 10:25:45 · 1219 阅读 · 0 评论 -
大语言模型的预训练[5]:语境学习、上下文学习In-Context Learning:精调LLM、Prompt设计和打分函数(Scoring Function)设计以及ICL底层机制等原理详解
大语言模型的预训练[5]:语境学习、上下文学习In-Context Learning:精调LLM、Prompt设计和打分函数(Scoring Function)设计以及ICL底层机制等原理详解原创 2023-07-19 10:34:20 · 894 阅读 · 0 评论 -
大语言模型的预训练[4]:指示学习Instruction Learning:Entailment-oriented、PLM oriented、human-oriented以及和Prompt工程区别
大语言模型的预训练[4]:指示学习Instruction Learning:Entailment-oriented、PLM oriented、human-oriented以及和Prompt工程区别原创 2023-07-19 10:32:56 · 402 阅读 · 0 评论 -
大语言模型的预训练[3]之Prompt Learning:Prompt Engineering、Answer engineering、Multi-prompt learning详情
大语言模型的预训练[3]之Prompt Learning:Prompt Engineering、Answer engineering、Multi-prompt learning、Training strategy详解原创 2023-07-18 21:04:59 · 516 阅读 · 0 评论 -
大语言模型的预训练[2]:GPT、GPT2、GPT3、GPT3.5、GPT4相关理论知识和模型实现、模型应用以及各个版本之间的区别详解
大语言模型的预训练[2]:GPT、GPT2、GPT3、GPT3.5、GPT4相关理论知识和模型实现、模型应用以及各个版本之间的区别详解原创 2023-07-18 21:01:28 · 3484 阅读 · 0 评论 -
大语言模型的预训练[1]:基本概念原理、神经网络的语言模型、Transformer模型原理详解、Bert模型原理介绍
大语言模型的预训练[1]:基本概念原理、神经网络的语言模型、Transformer模型原理详解、Bert模型原理介绍原创 2023-07-17 22:17:09 · 3699 阅读 · 0 评论 -
人工智能LLM模型:奖励模型的训练、PPO 强化学习的训练、RLHF
奖励模型通过与人类专家进行交互,获得对于生成响应质量的反馈信号,从而进一步提升大语言模型的生成能力和自然度。与监督模型不同的是,奖励模型通过打分的形式使得生成的文本更加自然逼真,让大语言模型的生成能力更进一步。通过强化学习的训练方法,迭代式的更新奖励模型(RW 模型)以及策略模型(RL 模型),让奖励模型对模型输出质量的刻画愈加精确,策略模型的输出则愈能与初始模型拉开差距,使得输出文本变得越来越符合人的认知。这种训练方法也叫做 RLHF。原创 2023-07-17 22:15:34 · 1313 阅读 · 0 评论 -
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freeze 监督微调方法原创 2023-07-16 16:29:01 · 12463 阅读 · 1 评论 -
人工智能自然语言处理:N-gram和TF-IDF模型详解
人工智能自然语言处理:N-gram和TF-IDF模型详解原创 2023-07-16 16:25:42 · 1549 阅读 · 0 评论 -
LLaMA, ChatGLM, BLOOM的参数高效微调实践
大语言模型的训练分为两个阶段:(1)在海量文本语料上的无监督预训练,学习通用的语义表示和世界知识。(2)在小规模数据上,进行指令微调和基于人类反馈的强化学习,更好地对齐最终任务和人类偏好。LIMA[1] 证明了,只需要有限的指令微调数据就可以生成高质量的回复。因此,基座模型的性能是至关重要的,如果基座模型的性能不够好,指令微调和强化学习也难以取得很好的效果。目前,主流的开源大语言模型主要有三个:LLaMA、ChatGLM 和 BLOOM。转载 2023-06-12 09:58:34 · 3475 阅读 · 0 评论