人工智能
文章平均质量分 92
响尾大菜鸟
这个作者很懒,什么都没留下…
展开
-
ChatGPT1论文解读《Improving Language Understanding by Generative Pre-Training》(2018)
ChatGPT1论文解读原创 2023-05-10 17:54:07 · 2643 阅读 · 4 评论 -
BERT论文解读: Pre-training of Deep Bidirectional Transformers for Language Understanding(2018)
BERT模型的提出几乎就是针对于GPT的,文章实验部分主要就是在和GPT进行效果对比。因此,BERT模型总体上就是在GPT提出的基础上,进行了一部分创新和优化,提出了Bidirectional双向语言模型,预训练阶段采用遮罩语言模型(Masked LM)。论文同时也进行了模型下游任务训练时feature-based和fine-tuning的对比分析。原创 2023-06-21 15:17:01 · 313 阅读 · 0 评论 -
ChatGPT2论文解读《Language Models are Unsupervised Multitask Learners》(2019)
ChatGPT-2论文解读原创 2023-06-05 20:42:27 · 2628 阅读 · 7 评论 -
一篇Sora模型小白扫盲文——《Sora技术报告》总结
本文介绍了Sora训练过程有哪些超前的优化方案,以及Sora模型拥有的模型能力和相应的缺陷。原创 2024-02-29 21:47:09 · 1410 阅读 · 0 评论