- 博客(2)
- 收藏
- 关注
原创 从Attention到LLM
截至目前,大模型发展迅速,真的是望眼欲穿,什么时候能到模型大一统时代QAQ,针对于想知道大模型原理的人,吾在此总结一篇“从Attention到LLm”,一下内容均出自项目经验和个人所学(互联网),我尽量用"大白话"来叭叭,后续还会更新RAG和Agent应用落地的一些经验。注:本文的图均是个人手绘(drawio),懒得打水印了,如果你觉得有用,无偿给你~
2024-07-25 15:30:57
502
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人