- 博客(4)
- 收藏
- 关注
原创 开源的LLM大语言模型越来越多,到底比得是什么?
最近的LLM开源的越来越多,我感觉着真正比得并不是模型的参数,而是COT思维链、Prompt提示词这些知识工程;未来谁有更人性的,知识性的,合规的,贴近人类需求的知识数据,谁才是真正大模型的王者。
2023-08-08 18:30:51 129
原创 为什么大多数LLM都选择Decoder结构呢?
Decoder训练对文本补全,文本问答,文本多轮对话的训练数据集更容易适配,对长度外推也更友好。再有就是Decoder结构简单,容易学吧!
2023-07-23 09:36:20 130
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人