COLD:中文冒犯性语言检测数据集

写在前面

大家好,我是刘聪NLP。

祝大家新的一年,身体健康,代码无bug,论文全accepted。

早上刷arxiv时,发现一篇中文「冒犯性语言」检测数据集的论文,全名为《COLD: A Benchmark for Chinese Offensive Language Detection》

paper:https://arxiv.org/pdf/2201.06025.pdf

为什么要分享这个数据集?

  • 真实案例:本人在公司搞过一个「生成式闲聊机器人」,为了确保不出现敏感词语,通过大量敏感词典进行过滤;当自己觉得信心满满时,通过各方的测试反馈,发现虽然过滤了敏感词汇,但是依然会生成一些不友好的语言,甚至有时会「怼」用户;并且当测试对其进行诱导提问时,很容易生成一些奇奇怪怪的内容。

  • 因此,如何可以使生成内容不包含冒犯性语言以及冒犯性语言的检测,在模型上线时十分重要。

不过数据集还没有真正的放出来,期待一下,实时关注。

原话:Dataset and codes will be made publicly available upon paper publication

介绍

预训练语言模型的出现,使得很多生成任务取得了很好的效果。但由于这些模型均基于大规模数据训练,不可避免地学习到一些有偏见或冒犯的内容,造成在真实场景上线时无法保证安全性。如下图所示,

为了解决系统中的冒犯性语言问题,仅靠词典规则是远远不够的,因此很多人开始了语言毒性研究,也出现了一些数据集,例如WTC、OLID、BAD和RealToxicPrompts;但这些数据都是英文数据集,无法在中文任务上直接使用,就算用过机器翻译的方法,翻译成中文,但语言习惯、语言表达、数据质量都无法得到保证。

该论文研究了中国社交平台上的冒犯性语言和流行的生成语言模型,提出了第一个可公开使用的中文侮辱性语言数据集-COLDDateset,涵盖了种族、性别和地区等话题内容。

数据集

  • 「无标注数据获取」,从社交媒体平台(微博和知乎)上抓取发布的真实数据,但由于平台均存在语言检测机制,表达冒犯性的数据比例相对较少。因此通过两种策略收集数据,(1)从相关的子主题爬行,在知乎中搜索一些被高度讨论的子话题,并直接从后续评论中抓取数据。(2)关键字查询,从知乎和微博随机抓取大量数据,通过预先定义一些相关的关键词,从原始数据中检索出更多样化的句子。

  • 「数据标注」,对上述得到的无标注数据,先进行部分人工标注,然后使用部分数据训练模型,再通过人工对不同的概率区间中选取数据标注,重新训练模型,反复五次,最终得到带有标注的数据。

数据集共包含37480个句子,其中,带冒犯性语言的句子有18041个,平均长度53.69个字符;不带冒犯性语言的句子有19439,平均长度44.20个字符。

基线模型

论文中共提到了五种模型,如下:

  • COLDetector,使用COLDDateset数据,训练的bert-base模型。

  • Baidu Text Censor,百度文本审查工具,旨在识别有害内容,包括色情、暴力、恐怖主义、政治敏感性和辱骂。

  • Prompt-based Self-Detection,基于提示的自检模型,探索通过语言模型的内部知识来用于有害内容的自我检测。

  • TranslJigsaw Detector,使用翻译成中文的英文TranslJigsaw数据,训练的bert-base模型。

  • Random,随机预测。

结果如下图所示,采用COLDDateset数据训练的模型效果较好

对于Baidu Text Censor,为了用户更好地体验,更倾向检测辱骂和暴力等非法内容,对于偏见的冒犯性语言检测效果较差。 对于Prompt-based Self-Detection,不同预测词语对,对结果影响较大,如下 对于TranslJigsaw Detector,验证了使用机器翻译过的英文数据集,较其他方法虽然效果有提示,但不如COLDDateset效果,如下,

对现有生成模型的评价

对四种在Huggingface开源的生成模型进行冒犯性评价,结果如下,无论提示语是否包含冒犯性内容时,生成结果都会存在冒犯性内容。

并且,当提示语包含冒犯性内容时,生成结果存在冒犯性内容概率越高,

总结

个人认为,如果生成模型想要工业落地,控制生成内容是至关重要的(我组长对我说的一句话,现在没出问题,是还没人想搞你。),仅仅敏感词点过滤会有些单薄,而冒犯性语言检测显得只管重要,需要从语义中检测内容。

该数据集仅从单句上进行标注,因此在对话系统中使用该数据集,还是存在一定的的弊端,如果通过联系上下文发现内容的风险。

放假ing,但是也要学习。

喜欢的的同学们,记得点赞,关注,转载请说明出处哟!!!

整理不易,请多多点赞,关注,有问题的朋友也欢迎加我微信「logCong」、公众号「NLP工作站」、知乎「刘聪NLP」私聊,交个朋友吧,一起学习,一起进步。

我们的口号是“生命不止,学习不停”。

  • 4
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值