数据增强_浅析数据增强

与计算机视觉中使用图像进行数据增强不同,NLP中文本数据增强是非常罕见的。这是因为图像的一些简单操作,如将图像旋转或将其转换为灰度,并不会改变其语义。语义不变变换的存在使增强成为计算机视觉研究中

举个简单例子,我们用机器翻译把一段英语翻译成另一种语言,然后再翻译回英语。这个方法已经成功的被用在Kaggle恶意评论分类竞赛中。反向翻译是NLP在机器翻译中经常使用的一个数据增强的方法。。其本质就是快速产生一些不那么准确的翻译结果达到增加数据的目的。

例如,如果我们把“I like this movie very much”翻译成俄语,就会得到“Мне очень нравится этот фильм”,当我们再译回英语就会得到“I really like this movie”。回译的方法不仅有类似同义词替换的能力,它还具有在保持原意的前提下增加或移除单词并重新组织句子的能力。

回译可使用python translate包和textblob包(少量翻译),或者使用百度翻译或谷歌翻译的api通过python实现。

参考:

dupanfei1/deeplearning-util​github.com
aa438c0d86ecfd1420721cf82e9bc7c9.png

1.回译

在这个方法中,我们用机器翻译把一段中文翻译成另一种语言,然后再翻译回中文。回译的方法不仅有类似同义词替换的能力,它还具有在保持原意的前提下增加或移除单词并重新组织句子的能力。

回译可使用python translate包和textblob包(少量翻译),或者使用百度翻译的api通过python实现。

百度开放的翻译接口

百度翻译开放平台​api.fanyi.baidu.com

支持每月200万字的免费翻译,提供了各种语言的使用demo,本篇使用Python3调用百度API实现自然语言的翻译,实现代码如下。

import http.client

import hashlib

import json

import urllib

import random

 

 

#调用百度翻译API将中文翻译成英文

def baidu_translate(content):

    appid = 'appid'

    secretKey = '秘钥'

    httpClient = None

    myurl = '/api/trans/vip/translate'

    q = content

    fromLang = 'zh'  # 源语言

    toLang = 'en'  # 翻译后的语言

    salt = random.randint(32768, 65536)

    sign = appid + q + str(salt) + secretKey

    sign = hashlib.md5(sign.encode()).hexdigest()

    myurl = myurl + '?appid=' + appid + '&q=' + urllib.parse.quote(

        q) + '&from=' + fromLang + '&to=' + toLang + '&salt=' + str(

        salt) + '&sign=' + sign

 

    try:

        httpClient = http.client.HTTPConnection('api.fanyi.baidu.com')

        httpClient.request('GET', myurl)

 

        # response是HTTPResponse对象

        response = httpClient.getresponse()

        jsonResponse = response.read().decode("utf-8")  # 获得返回的结果,结果为json格式

        js = json.loads(jsonResponse)  # 将json格式的结果转换字典结构

        dst = str(js["trans_result"][0]["dst"])  # 取得翻译后的文本结果

        #print(dst)  # 打印结果

        return dst

    except Exception as e:

        print('err:' + e)

    finally:

        if httpClient:

            httpClient.close()

 

if __name__=='__main__':

    contents='百度翻译开放平台是百度翻译针对广大开发者提供的开放服务平台'

    

    #将翻译后的英文写入文件

    with open('data/test_data_translate', 'a', encoding="utf-8") as f:

        translate_en = baidu_translate_1(contents)  # 中文翻译成英文

        f.write( 't' + translate_zh + 'n')

        

        print(translate_en)

这种方法试图在不改变句子主旨的情况下替换文本中的单词。

  • 基于词典的替换

在这种技术中,我们从句子中随机取出一个单词,并使用同义词词典将其替换为同义词。例如,我们可以使用WordNet的英语词汇数据库来查找同义词,然后执行替换。它是一个手动管理的数据库,其中包含单词之间的关系。

  • 基于词向量的替换
  • 在这种方法中,我们采用预先训练好的单词嵌入,如Word2Vec、GloVe、FastText、Sent2Vec,并使用嵌入空间中最近的相邻单词替换句子中的某些单词。Jiao et al.在他们的论文“TinyBert”中使用了这种技术,以提高他们的语言模型在下游任务上的泛化能力。Wang et al.使用它来增加学习主题模型所需的tweet。

例如,你可以用三个最相似的单词来替换句子中的单词,并得到文本的三个变体。

取最近的邻居是很容易的。例如,这

2. 随机噪声注入

这些方法的思想是在文本中加入噪声,使所训练的模型对扰动具有鲁棒性

  • 拼写错误注入
    在这种方法中,我们在句子中的一些随机单词上添加拼写错误。这些拼写错误可以通过编程方式添加,也可以使用常见拼写错误的映射,如:https://github.com/makcedward/nlpaug/blob/master/model/spelling_en.txt。

208ef49cb14b608cfab99aa5f94e9ccd.png
  • QWERTY键盘错误注入
    该方法试图模拟在QWERTY布局键盘上输入时发生的常见错误,这些错误是由于按键之间的距离非常近造成的。错误是根据键盘距离注入的。
  • Unigram噪声
    该方法已被Xie et al.和UDA论文所采用。其思想是用从单字符频率分布中采样的单词进行替换。这个频率基本上就是每个单词在训练语料库中出现的次数。

f94e650bb9db7bd1c3dbc44171a5acf8.png
  • Blank Noising
    这个方法是由Xie et al.在他们的论文中提出的。其思想是用占位符标记替换一些随机单词。本文使用“_”作为占位符标记。在论文中,他们将其作为一种避免特定上下文过拟合的方法,以及语言模型的平滑机制。该技术有助于提高perplexity和BLEU评分。

a1b0f26e19ebcb8b679efc0bc4656a05.png
  • 句子打乱
    这是一种朴素的技术,我们将训练文本中的句子打乱,以创建一个增强版本。

5bb9c90f679f5949e31119772eab7f0c.png

3. 半监督 Mixmatch

半监督学习方法的提出是为了更好地利用未标注的数据,减轻对于大规模标注数据集的依赖;如今也证明了这是一种强有力的学习范式。

在这篇论文中,作者们把当前不同任务中的做法为半监督学习做了统一,得到了一种新的算法——MixMatch。它的工作方式是通过 MixUp 猜测数据扩增方法产生的无标签样本的低熵标签,并把无标签数据和有标签数据混合起来。

作者们通过实验表明 MixMatch 在多种不同的数据集、多种不同的有标签数据规模中都能以很大幅度领先此前的所有方法。比如,在 CIFAR 数据集上、只有 250 个标签的情况下,作者们把错误率降低到了之前方法的 1/4,在 STL-10 数据集上也降低到了之前方法的一半。

作者们也展示了 MixMatch 可以在差分隐私的使用目的下,在准确率和隐私保护之间取得好得多的平衡。最后,作者们进行了对照实验,分析了 MixMatch 方法中的哪些组件最为关键。

4.防止过拟合其他方法

在深度学习中,为了避免出现过拟合(Overfitting),通常输入充足的数据量是最好的解决办法。当数据无法达到模型的要求或者添加数据后模型由于某类数据过多导致过拟合时,以下方法也可以发挥一些作用:

  • Regularization:数据量比较小会导致模型过拟合, 使得训练误差很小而测试误差特别大。通过在Loss Function 后面加上正则项可以抑制过拟合的产生。缺点是引入了一个需要手动调整的hyper-parameter。
  • Dropout:这也是一种正则化手段,不过跟以上不同的是它通过随机将部分神经元的输出置零来实现。
  • Unsupervised Pre-training:用Auto-Encoder或者RBM的卷积形式一层一层地做无监督预训练, 最后加上分类层做有监督的Fine-Tuning。
  • Transfer Learning(迁移学习):在某些情况下,训练集的收集可能非常困难或代价高昂。因此,有必要创造出某种高性能学习机(learner),使得它们能够基于从其他领域易于获得的数据上进行训练,并能够在对另一领域的数据进行预测时表现优异。

实现

要使用上述所有方法,可以使用名为nlpaug的python库:

makcedward/nlpaug​github.com
cf49e9907bbda8dc3ca11b6e4c8c6932.png

它提供了一个简单且一致的API来应用这些技术。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值