谈GPT-2(附大量网址)

文章目录
前言
关于GPT-2
各个版本的GTP-2
中文版GTP-2
语料链接
15亿参数版GPT-2
OpenGPT-2
前言
GPT-2这个名字不知有多少人知道。但有很多人应该都知道埃隆 • 马斯克的OpenAI吧。

OpenAI,由诸多硅谷大亨联合建立的人工智能非营利组织。2015年马斯克与其他硅谷科技大亨进行连续对话后,决定共同创建OpenAI,希望能够预防人工智能的灾难性影响,推动人工智能发挥积极作用。特斯拉电动汽车公司与美国太空技术探索公司SpaceX创始人马斯克、Y Combinator总裁阿尔特曼、天使投资人彼得·泰尔(Peter Thiel)以及其他硅谷巨头去年12月份承诺向OpenAI注资10亿美元。

对,就是这个公司。GPT-2就是他们著名的研究项目之一。GPT-2通过深度学习来使机器模拟生成一段文字。散文、诗歌、古诗、新闻、说明文等等都不在话下,并且完全区分不出是机器写的还是人写的。一旦将此项目开源,肯定会有人使用此项目造价,整个社会将没有信任。而正是因为这个原因,OpenAI取消了此项目的开源。但是,仍有一些人复制出了GPT-2。而今天,咱们就来聊聊这个项目并且透漏一下其他版本开源的地址。

关于GPT-2
刚才只是浅谈了一下GTP-2,现在来正式介绍一下。

GPT-2,逆天的语言AI模型,编故事以假乱真,问答翻译写摘要都行。问世之后横扫各大语言建模任务,引发了大量关注以及研究者跟进研究。之后,围绕着GPT-2产生了各种实用性应用:比如能够自动补全代码的Deep TabNine;高中生开源轻量级GPT-2“客户端”等等。现在,又有两个围绕这一语言AI模型的成果出现。一是中文版GPT-2开源(非官方),可以写诗,新闻,小说、剧本,或是训练通用语言模型;二是,两名硕士研究生花5万美元复制了OpenAI一直磨磨唧唧开源的15亿参数版GPT-2。

各个版本的GTP-2
顺便在此处说明了一下。我的这篇文章不仅仅是要公布出来,还要留给我自己参考一下,尤其是一些内容值得参考。

中文版GTP-2
GPT-2发布以来,虽然关注甚多,但在中文语境中的应用非常少。最直接的因素,就在于没有中文版,或者说是没有人基于中文语料去大规模复现。现在,有人这样做了。一位名叫”Zeyao Du“(位于南京)的开发者,在GitHub上开源了的GPT-2 Chinese。可以用于写诗、新闻、小说和剧本,或是训练通用语言模型。

项目中默认使用BERT的tokenizer处理中文字符,支持字为单位或是分词模式或是BPE模式,并支持大语料训练。目前项目主要架构已经稳定,具体的训练语料,作者也附上了相应的语料链接:

语料链接
语料名称    链接
大规模中文自然语言处理语料    https://github.com/brightmart/nlp_chinese_corpus
中文文本分类数据集    http://thuctc.thunlp.org/#获取链接
斗破苍穹语料    https://github.com/GaoPeng97/transformer-xl-chinese/tree/master/data/doupo
15亿参数版GPT-2
此模型大大恢复了原版。能够实现逆天效果GPT-2模型,用到了15亿个参数。在发布这一模型的时候,OpenAI说,这个模型实在太厉害了,要慢慢开源。于是就开始了“挤牙膏”开源之旅,从今年2月到现在,才开源到了7.74 亿参数版本。这一路上,有不少人都表示非常难以忍耐。慕尼黑工业大学的一名大三本科生,在两个月的时间里,付出了200个小时的时间,花费了大约6000人民币,复现了GPT-2项目,并在7月初放出了15亿参数的版本。至于效果如何,并没有太多展示。但要注意的是,此项目仅有英文版。

OpenGPT-2
现在,又有人忍不住了。有两名布朗大学的硕士研究生,搞出了一个15亿参数的GPT-2模型,命名OpenGPT-2,还放出来了效果对比。

搞出来之后,他们在博客中说,其实想要复制GPT-2并不难,绝大多数感兴趣的人都可以复制。比如,他们就可以复现论文中的很多结果,而且并没有语言建模的经验。当然,得有钱。他们完整复制出来,花了大约5万美元,还只是云端训练成本。具体的复制难点有两个,一是模型,二是数据。

模型上面,他们基于Grover模型,并写出了论文,对代码库进行修改,来实现GPT-2的语言建模训练的目标。因为Grover的模型是在类似的大型语料库上训练的,所以很多代码和超参数都可以重复使用。他们并没有大幅改变其中的超参数。

数据集方面,在很大程度上都保证了与OpenAI的处理方式相同,但并不能保证其中细节相同,最后得出了数据集OpenWebTextCorpus。

但是呢,想有这个模型的你,得先做心理准备。原作者把项目放在了谷歌Colab上。

名称    链接
Google Colab    https://colab.research.google.com/drive/1esbpDOorf7DQJV8GXWON24c-EQrSKOit
模型权重    https://drive.google.com/drive/u/0/folders/1KfK5MXtvgH8C615UUZoKPIUVJYIdJxX1
如此做出来的模型,效果如何?从下图上来看,在多个数据集上困惑度都与GPT-2原版接近:


也就是说,定性维度上,就仁者见仁智者见智了,在Reddit上有人支持,但也有人觉得他们的模型效果不好。

这两位硕士研究生,也在博客中放了一个与官方GPT-2一样的案例:
给出 Recycling is good for the world. NO! YOU COULD NOT BE MORE WRONG!!的提示。

OpenGPT-2给出的结果如下:

That´s because recycling is all about selling to customers who cannot afford to recycle. If you don’t have any interest in recycling, in whatever form, then you could well be doing your own global environmental benefit if you just got rid of it.
Let me explain. Recycling takes time, money and energy, and it doesn’t really solve the problem.
If you go to recycling drop-off shops and they just sort out your recyclables for you then it means there is no need to sell them again to the local recycling company; they just take it back from you and you can just dump it.
There is nothing clever about this approach, in fact it just shuffles the problem around instead of solving it.
……

有一些语句,体现出了那种非常亲近人的感觉。很像真人写的。
————————————————
版权声明:本文为CSDN博主「index out of range」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_45415111/article/details/103100757

  • 0
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值