GPT-2技术学习(论文+原理+代码)

  1. 论文
  2. 原理:
  3. 代码:

#1. 论文:
Language Models are Unsupervised Multitask Learner
https://d4mucfpksywv.cloudfront.net/better-language-models/language-models.pdf

#2. 原理:
*2.1.【NLP】OpenAI GPT2详解
https://zhuanlan.zhihu.com/p/57251615

*2.2. GPT2-无监督学习和通用人工智能又一城?
https://cloud.tencent.com/developer/news/396947

*2.3. 如何评价openAI GPT-2?
https://www.zhihu.com/question/312405015

2.4. 史上最强NLP模型GPT2.0的吃瓜指南
https://www.iyiou.com/p/93217.html

**2.5. GPT2.0 Language Models are Unsupervised Multitask Learners 论文解读
https://blog.csdn.net/u012526436/article/details/87882985

**2.6. BERT,GPT-2这些顶尖工具到底该怎么用到我的模型里?
https://cloud.tencent.com/developer/article/1421827

2.7. Better Language Models and Their Implications
https://openai.com/blog/better-language-models/

2.8. How to Build OpenAI’s GPT-2: “The AI That’s Too Dangerous to Release”
https://blog.floydhub.com/gpt2/

2.9. OpenAI研发人工智能新文字生产器GPT2 性能太好恐防遭误用
http://www.uux.cn/viewnews-93841.html

2.10. 逆天的语言AI模型来了!编故事以假乱真,问答翻译写摘要都行,横扫各大语言建模任务
http://www.imooc.com/article/278536

*2.11. GPT2训练的一个实现,支持GPUs和TPUs
https://ctolib.com/ConnorJL-GPT2.html

2.12. Fine-Tuning GPT-2 Small for Generative Text
https://pmbaumgartner.github.io/blog/gpt2-jokes/

2.13. GPT2模型的精度检验与分析
http://html.rhhz.net/CHXB/html/2015-7-726.htm

*2.14. 最近崭露头角的GPT2.0模型解析
http://bat.sjtu.edu.cn/zh/gpt2/

*2.15. OpenAI「假新闻」生成器GPT-2的最简Python实现
http://tech.ifeng.com/a/20190423/45592928_0.shtml

**2.16. GPT2.0究竟是做什么的?有哪些优势和不足?未来发展趋势如何?
http://www.elecfans.com/d/871648.html

*2.17. 程序员拯救乐坛?OpenAI用“逆天”GPT2.0搞了个AI音乐生成器
http://www.ijiandao.com/2b/baijia/249001.html

2.18. AI写作系统GPT2可深度造假,研发者决定暂不发布
http://shuzix.com/13812.html

*2.19. OpenAI「假新闻」生成器GPT-2的最简Python实现
http://www.ijiandao.com/2b/baijia/244436.html

2.20. AI写作系统GPT2可深度造假,研发者决定暂不发布
http://shuzix.com/13812.html

*2.21. AI界最危险武器GPT-2使用指南:从Finetune到部署
https://baijiahao.baidu.com/s?id=1633859535044940385&wfr=spider&for=pc

*2.22. 一个续写故事达到人类水平的AI,OpenAI大规模无监督语言模型GPT-2
https://baijiahao.baidu.com/s?id=1625589252848924635&wfr=spider&for=pc

**2.23. GPT-2解读(论文 + TensorFlow实现)
https://blog.csdn.net/Magical_Bubble/article/details/89499275

*2.24. GPT2-无监督学习和通用人工智能又一城?
https://cloud.tencent.com/developer/news/396947

*2.25. 逆天的GPT-2居然还能写代码
https://new.qq.com/omn/20190216/20190216A0H6NR.html

*2.26. 迄今最大模型?OpenAI发布15亿参数量通用语言模型GPT-2
https://www.jiqizhixin.com/articles/OpenAI-GPT-2

*2.27. 环信AI公开课:OpenAI通用语言模型GPT-2论文解析
https://xinwen.pconline.com.cn/1238/12387196.html

2.28. OpenAI被讽ClosedAI?GPT-2这种语言模型并没有想象中的强大
https://www.jiqizhixin.com/articles/2019-02-20-17

*2.29. 给我一个开头就能写故事, OpenAI的新型多功能AI模型GPT-2
https://www.linuxidc.com/Linux/2019-02/156942.htm

2.30. OpenAI模型GPT-2附带实验数据
https://xw.qq.com/amphtml/20190218A1DBSF00

**2.31. GPT2.0 Language Models are Unsupervised Multitask Learners 论文解读
https://blog.csdn.net/u012526436/article/details/87882985

#3. 代码:
3.1. 官方代码:openai/gpt-2
https://github.com/openai/gpt-2

3.2. 非官方 GPT-2 训练实现,支持 GPU 和 TPU
https://gitee.com/mirrors/GPT2

3.3. Not the official GPT2 implementation
https://github.com/ConnorJL/GPT2

  • 9
    点赞
  • 66
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值