![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
00.LLM
apche CN
Archit
展开
-
InstructGPT
InstructGPT 论文译读。原创 2023-08-21 16:15:47 · 93 阅读 · 0 评论 -
Subword算法
Subword算法------原创 2023-08-21 15:21:17 · 437 阅读 · 0 评论 -
Instruction finetuning
--中译讨论 ------原创 2023-07-13 17:13:14 · 211 阅读 · 0 评论 -
COT ,Emergent Abilities
----原创 2023-07-10 17:50:16 · 114 阅读 · 0 评论 -
LM详解 GPT3,GPT2, GPT1 论文译读
LM详解 GPT系原创 2021-03-12 22:28:42 · 4295 阅读 · 1 评论 -
LM详解 Bert系 ,DistilBERT,论文译读
Bert3 Bert---3.0 输入/输出表示形式为了使BERT处理各种下游任务,我们的输入表示形式可以在一个分词序列中明确表示单个句子和一对句子(例如 <Question,Answer>)。在整个工作中,“句子”可以是任意跨度的连续文本,而不是实际的语言句子。“序列”指BERT的输入分词序列,它可以是一个句子或两个句子包装在一起。我们使用WordPiece嵌入(Wu et al。,2016),含有30,000个分词词汇表。每个序列的第一个符号总是特殊分...原创 2021-03-12 16:54:25 · 1458 阅读 · 0 评论 -
Transformer: Attention Is All You Need,NIPS 2017
The Illustrated Transformerhttp://jalammar.github.io/illustrated-transformer/The Illustrated Transformer【译】https://blog.csdn.net/yujianmin1990/article/details/85221271https://zhuanlan.zhihu.com/p/54356280原创 2021-01-26 22:46:11 · 541 阅读 · 0 评论 -
Learning to Summarize from Human Feedback
Learning to Summarize from Human Feedback_triplemeng的博客-CSDN博客原创 2023-05-02 12:36:12 · 62 阅读 · 0 评论 -
CoT开山之作:Chain-of-Thought Prompting
CoT开山之作:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 论文解读 - 知乎原创 2023-05-02 12:05:16 · 423 阅读 · 0 评论 -
GPT-3 中文翻译
GPT-3 中文翻译,论文阅读:Language Models are Few-Shot Learners(OpenAI GPT3 , 22/7/2020)https://zhuanlan.zhihu.com/p/527825405https://blog.csdn.net/qq_41185868/article/details/107677244原创 2023-06-22 00:54:27 · 118 阅读 · 0 评论