近期则专攻AIGC/ChatGPT,而自己在本blog上也着实花费了巨大的时间和精力,写的东西可能也够几本书的内容了。然不管怎样,希望我能真真正正的为读者提供实实在在的价值与帮助。
下面,敬请观赏。有任何问题,欢迎随时不吝指正(同时,若你也能帮助回复blog内留言的任何朋友的问题,欢迎你随时不吝分享&回复,我们一起讨论,互帮互助,谢谢)。
无私分享,造福天下
以下是本blog内的微软面试100题系列、经典算法研究系列、程序员编程艺术系列、红黑树系列、机器学习十大算法系列、AIGC/ChatGPT等6大经典原创系列作品与一些重要文章的集锦:
一、大模型与ChatGPT系列:原理、论文、代码、应用
-
1.1 ChatGPT的原理与实现系列
-
1.2 国内外类ChatGPT:比如Llama2、Mistral、Llama3、Llama3.1
-
ChatGLM两代的部署/微调/实现:从基座GLM、ChatGLM的LoRA/P-Tuning微调、6B源码解读到ChatGLM2的微调与实现
-
// 待更…
-
1.3 大模型背后的关键技术与前沿发展:LoRA/并行训练/长度扩展
-
LLM高效参数微调方法:从Prefix Tuning、Prompt Tuning、P-Tuning V1/V2到LoRA、QLoRA(含对模型量化的解释)
-
大模型长度扩展综述:从直接外推ALiBi、插值PI、NTK-aware插值(对此介绍最详)、YaRN到S2-Attention
-
1.4 医疗及LLM与KG、DB的结合
-
医疗金融法律大模型:从ChatDoctor到BloombergGPT/FinGPT/FinBERT、ChatLaw/LawGPT_zh
-
…// 待更…