![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
LLM学习
文章平均质量分 54
wavehaha
这个作者很懒,什么都没留下…
展开
-
KG+LLM(二) Think and Retrieval: A Hypothesis Knowledge Graph Enhanced Medical Large Language Models
原创 2024-01-13 22:20:27 · 509 阅读 · 0 评论 -
缓解大语言模型(LLM)幻觉的可行方法探究(课程综述)
ChatGPT[1]为基于GPT(Generative Pre-trained Transformer,GPT)[2]架构的的通用型对话语言模型,GPT是一个基于Transformer[3]解码器结构的深度学习模型,由多个相同的Transformer块组成,其中每个Transformer块包括多头自注意力层和前馈神经网络层。通过自注意力机制,模型能够在生成每个单词时关注输入文本的不同部分,这有助于捕捉长距离依赖关系。原创 2024-01-13 17:05:02 · 1303 阅读 · 0 评论