bert关键词提取_BERT可以上几年级了?Seq2Seq“硬刚”小学数学应用题

c574f7d19ec71a2951a5ae56ca4f687b.png

作者 | 苏剑林

单位 | 追一科技

研究方向 | NLP、神经网络

d8daef1ee7777ddde4097c90650f07e9.png
“鸡兔同笼”的那些年

“盈亏问题”、“年龄问题”、“植树问题”、“牛吃草问题”、“利润问题”...,小学阶段你是否曾被各种花样的数学应用题折磨过呢?没关系,现在机器学习模型也可以帮助我们去解答应用题了,来看看它可以上几年级了?

本文将给出一个求解小学数学应用题(Math Word Problem)的baseline,基于ape210k数据集训练,直接用Seq2Seq模型生成可执行的数学表达式,最终Large版本的模型能达到**73%+**的准确率,高于ape210k论文所报告的结果。所谓“硬刚”,指的是没有对表达式做特别的转换,也没有通过模板处理,就直接生成跟人类做法相近的可读表达式。

数据处理

这里我们先观察一下ape210k数据集的情况:

{
    "id": "254761",
    "segmented_text": "小 王 要 将 150 千 克 含 药 量 20% 的 农 药 稀 释 成 含 药 量 5% 的 药 水 . 需 要 加 水 多 少 千 克 ?",
    "original_text": "小王要将150千克含药量20%的农药稀释成含药量5%的药水.需要加水多少千克?",
    "ans": "450",
    "equation": "x=150*20%/5%-150"
}

{
    "id": "325488",
    "segmented_text": "一 个 圆 形 花 坛 的 半 径 是 4 米 , 现 在 要 扩 建 花 坛 , 将 半 径 增 加 1 米 , 这 时 花 坛 的 占 地 面 积 增 加 了 多 少 米 * * 2 .",
    "original_text": "一个圆形花坛的半径是4米,现在要扩建花坛,将半径增加1米,这时花坛的占地面积增加了多少米**2.",
    "ans": "28.26",
    "equation": "x=(3.14*(4+1)**2)-(3.14*4**2)"
}

可以看到,我们主要关心的是original_textequationans字段,其中original_text就是题目,equation则是运算过程(一般以x=开头),而ans是最终答案。我们希望训练一个模型,由original_text来生成equation,然后经由python的eval函数直接得到ans

不过,我们需要做一些前处理,因为ape210k给出的equation并不是都可以直接eval的,像上面的例子150*20%/5%-150对python来说就是一个非法表达式。笔者所做的处理如下:

  1. 对于a%这样的百分数,统一替换为(a/100);
  2. 对于a(b/c)这样的带分数,统一替换为(a+b/c);
  3. 对于(a/b)这样的真分数,在题目中去掉括号变为a/b;
  4. 对于比例的冒号:,统一替换为/。

经过这样处理后,大部分equation都可以直接eval了,并且可以与ans进行答案对比,只保留结果一致的题目。不过,还有一点改进的地方,就是这样得到的表达式可能会带有一些冗余的括号(也就是去掉括号后与原来的等价),因此还要加上一步去括号,即遍历每一组括号,如果去掉该组括号结果与原来的等价,那么就去掉该组括号,这样可以得到平均长度更短的表达式,而长度越短越容易生成。

最终,我们得到了如下可用的数据集:

equation?tex=%5Cbegin%7Barray%7D%7Bc%7Cccc%7D++%5Chline++%26+%5Ctext%7B%E8%AE%AD%E7%BB%83%E9%9B%86%7D+%26+%5Ctext%7B%E9%AA%8C%E8%AF%81%E9%9B%86%7D+%26+%5Ctext%7B%E6%B5%8B%E8%AF%95%E9%9B%86%7D+%5C%5C++%5Chline++%5Ctext%7B%E5%8E%9F%E6%9C%89%E6%95%B0%E7%9B%AE%7D+%26+200488+%26+5000+%26+5000%5C%5C++%5Chline++%5Ctext%7B%E4%BF%9D%E7%95%99%E6%95%B0%E7%9B%AE%7D+%26+200390+%26+4999+%26+4998%5C%5C++%5Chline++%5Cend%7Barray%7D%5C%5C

剩下的基本上是一些错题、乱题了,暂时忽略。

模型简介

模型其实是最没什么好讲的,就是以original_text为输入、equation为输出,以“BERT+UniLM”为基础架构,训练一个Seq2Seq模型。如果对模型还有什么疑惑的地方,请阅读从语言模型到Seq2Seq:Transformer如戏,全靠Mask

项目链接: http://github.com/bojone/ape210k_baseline

笔者的训练是用22G的单卡TITAN RTX跑的,优化器是Adam,学习率是2e-5。Base版本的用了batch_size=32,大概需要训练25个epoch,每个epoch约50分钟(算上验证集的评测时间);而large版本则是batch_size=16,大概需要训练15个epoch,每个epoch约2小时(算上验证集的评测时间)。

对了,说到Large,由于UniLM借用了MLM部分权重,所以我们不能用哈工大开源的RoBERTa-wwm-ext-large,因为这个版本的MLM权重是随机初始化的(但它的Base版本是正常的,可以用)。Large版本推荐用腾讯UER开源的权重,原本是PyTorch版的,笔者将它转换为TF版了,可以通过下方链接下载。

网盘链接: https://pan.baidu.com/s/1Xp_ttsxwLMFDiTPqmRABhg

提取码: l0k6

效果如下表:

equation?tex=%5Cbegin%7Barray%7D%7Bc%7Cccc%7D++%5Chline++%26+%5Ctext%7Bbeam_size%7D+%26+%5Ctext%7B%E9%AA%8C%E8%AF%81%E9%9B%86%7D+%26+%E6%B5%8B%E8%AF%95%E9%9B%86+%5C%5C++%5Chline++%5Ctext%7BBase%7D+%26+1+%26+70.27%5C%25+%26+70.77%5C%25%5C%5C++%5Ctext%7BBase%7D+%26+2+%26+70.59%5C%25+%26+71.01%5C%25%5C%5C++%5Ctext%7BBase%7D+%26+3+%26+%5Ctextbf%7B70.64%7D%5C%25+%26+%5Ctextbf%7B71.07%7D%5C%25%5C%5C++%5Chline++%5Ctext%7BLarge%7D+%26+1+%26+73.37%5C%25+%26+73.63%5C%25%5C%5C++%5Ctext%7BLarge%7D+%26+2+%26+73.73%5C%25+%26+74.13%5C%25%5C%5C++%5Ctext%7BLarge%7D+%26+3+%26+%5Ctextbf%7B73.83%7D%5C%25+%26+%5Ctextbf%7B74.25%7D%5C%25%5C%5C++%5Chline++%5Cend%7Barray%7D+%5C%5C

Large模型的结果已经比ape210k的论文 Ape210K: A Large-Scale and Template-Rich Dataset of Math Word Problems 所报告的70.20%要明显高了,因此说明我们这里的模型是一个不算太差的baseline。

感觉如果用一些Seq2Seq的技巧来缓解一下Exposure Bias问题(参考Seq2Seq中Exposure Bias现象的浅析与对策),模型还能有进一步提升;还有或许可以引入copy机制,增强输出与输入数字的一致性;还有可以想办法进一步缩短序列长度(比如四个字符的3.14替换为两个字母pi)。这些就留给大家尝试了。

标准输出

如果纯粹从建模的角度来看,其实我们的任务已经完成了,即模型只需要输出式子就行了,评测的时候则只需要判断式子eval后的结果跟参考答案是否一致就好。但是从实际实用的角度,我们还需要对输出做进一步的标准化,即根据不同的题目决定输出的是小数、整数、分数还是百分数等,这就需要我们:1)决定什么时候该输出什么格式;2)根据指定格式对结果进行转换。

第一步比较简单,一般来说根据题目或方程的一些关键字就可以判断了。比如表达式里边如果有小数的,那么输出结果一般也是小数;如果题目是问“多少辆”、“多少个”、“多少人”之类的,那么输出的都是整数;如果直接问“几分之几”或“百分之几”的,那么相应地就是分数或百分数了。

比较困难是应该是取整类题目,比如“每盒蛋糕7.90元,50元最多可以买多少盒蛋糕?”要求我们对50/7.90进行下取整,但有时候则是上取整。不过让笔者很意外的是,ape210k里边并没有取整类题目,所以也就不存在这个问题。如果遇到有取整的数据集,如果规则判断起来比较困难,那么最直接的方法就是把取整符号也加入到equation中让模型去预测。

第二步看起来有点复杂,主要是分数的场景,一般读者可能不知道如何让式子保留分数运算结果,如果直接eval('(1+2)/4'),那么得到的是0.75(Python3),但有时我们希望得到的是分数结果3/4。

事实上,保持分数的运算属于CAS的范畴(Computer Algebra System,计算机代数系统),说白了就是符号运算而不是数值运算,而Python中刚好也有这样的工具,那就是SymPy,利用SymPy就能达到我们的目的了。具体请看下面的例子:

from sympy import Integer
import re

r = (Integer(1) + Integer(2)) / Integer(4)
print(r)  # 输出是 3/4 而不是 0.75

equation = '(1+2)/4'
print(eval(equation))  # 输出是 0.75

new_equation = re.sub('(d+)', 'Integer(1)', equation)
print(new_equation)  # 输出是 (Integer(1)+Integer(2))/Integer(4)
print(eval(new_equation))  # 输出是 3/4

文章小结

本文介绍了用Seq2Seq模型做数学应用题的一个baseline,主要思路就是通过“BERT+UniLM”直接将问题转换为可eval的表达式,然后分享了一些结果标准化的经验。通过BERT Large模型的UniLM,我们达到了73%+的准确率,超过了原论文开源的结果。

所以,你觉得它能上几年级了呢?


#投 稿 通 道#

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢? 答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。

来稿标准:

• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)

• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接

• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志

投稿方式:

• 方法一:在PaperWeekly知乎专栏页面点击“投稿”,即可递交文章

• 方法二:发送邮件至:hr@paperweekly.site ,所有文章配图,请单独在附件中发送

• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

加入社区:http://paperweek.ly

微信公众号:PaperWeekly

新浪微博:@PaperWeekly

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值