自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 EDA: Easy Data Augmentation Techniques for Boosting Performance on Text Classification Tasks阅读笔记

在关系抽取中,我们的数据集是1对1 的形式,但是文本增强的数据集是多对1的形式,此外我们的数据集要保证标签与标签之间存在关系以及连续性,但是文本增强的数据集的标签之间是独立的。经过分析发现,可能文本增强不适合我们这类型的seq-seq模型,同时经过查阅部分关系抽取以及知识图谱构建的文献发现,在关系抽取任务中,基本不进行文本增强。

2023-07-20 10:38:28 44

原创 AEDA: An Easier Data Augmentation Technique for Text Classification阅读笔记

使用深度语言模型的DA很复杂,虽然有同义词词典,但还是会造成原始信息的丢失。使用BERT利用上下文的信息进行DA,通过使用双向网络在一个想要的位置用预测的词来替换原本的词。对于所有数据集,当数据集比较小的时候,增量的数量越多,效果提高越多,而完整的数据集仅提高了1%。ADEA是比EDA更加简单的一种数据增强方法,保留句子中单词的顺序,因此会得到相对更好的增强效果。由于数据集是经过获取后随机分成训练集和测试集的,所以可能会存在数据的不连续性,进而影响结果。比较了基于BERT进行EDA和ADEA的模型效果。

2023-07-13 23:18:51 89

原创 产品经理第一步——Axure

Axure-成为产品经理的第一步

2023-07-13 09:57:29 133

原创 A Multi-Level Optimization Framework for End-to-End Text Augmentation

我们提出一个三层优化框架执行文本增强以适应下游端到端的任务。模型分为三层:文本摘要模型(has a weight,考虑到每个摘要训练对会存在差异,所以每一个都有权重,表示差异的大小,即权重越小,代表差异越大,越不重要),会保留原始文本的主要语义,剔除掉不重要的文本,原文与摘要之间的语义种类很丰富,所以会达到创造多样性的目的;初步文本分类模型;评估更新分类模型,以降低损失。

2023-07-05 22:02:35 52

原创 Bootstrapping——Semi-Supervised Learning of Semantic Relations

BASURE系统的目的是提取具有适当语义关系的模式,并自动学习新的模式。它描述了一种半监督自举方法,用于使用通用模式表示提取不同类型成分的UNL语义关系。

2023-07-04 14:04:51 129

原创 Tri-Training:Exploiting Unlabeled Data Using Three Classifiers阅读笔记

Tri-Training:Exploiting Unlabeled Data Using Three Classifiers阅读笔记本文提出了一种新的协同训练式半监督学习算法——三训练算法。该算法从原始标记样例集生成三个分类器。然后在三训练过程中使用未标记的示例对这些分类器进行改进。具体来说,在每一轮的三训练中,如果在一定条件下其他两个分类器的标记一致,则为一个分类器标记一个未标记的示例。

2023-06-27 21:55:22 90

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除