information extraction
2023
-
InstructUIE: Multi-task Instruction Tuning for Unified Information Extraction
- 阅读笔记: 1. 将NER,RE,EE等数据集转化为instruction格式,基于FlanT5-10B模型训练
2. 针对NER,RE,EE等任务都加入辅助任务使得模型更好的学习
3. 相对于Bert-finetune,InstructUIE去的更好的效果;在少样本数据集上,超过了chatgpt3.5模型
- 阅读笔记: 1. 将NER,RE,EE等数据集转化为instruction格式,基于FlanT5-10B模型训练
-
Aligning Instruction Tasks Unlocks Large Language Models as Zero-Shot Relation Extractors
- ACL [code]
- 阅读笔记: 1. 认为指令微调并不能提高大模型在RE任务上的效果,原因是因为RE数据的占比很小
2. 为了解决上诉问题,将RE任务和数据占比非常多的QA任务对齐起来,从而提高RE的任务效果
3. QA任务:提供候选答案的选项,直接让模型输出选项号
-
Revisiting Relation Extraction in the era of Large Language Models
- 阅读笔记: 1. 基于大模型的关系抽取,使用GPT-3在few-shot的prompt下取得了解决sota的效果;在此基础上使用CoT,能够进一步提升效果
2. 基于flan-T5在few-shot prompt情况下并未取得sota效果,但是在基于GPT-3生成的CoT数据微调,能够取得sota的效果
- 阅读笔记: 1. 基于大模型的关系抽取,使用GPT-3在few-shot的prompt下取得了解决sota的效果;在此基础上使用CoT,能够进一步提升效果
-
Large Language Model Is Not a Good Few-shot Information Extractor, but a Good Reranker for Hard Samples!
- 阅读笔记: 1. 将大模型和小模型结合起来做关系抽取任务
2. 使用小模型过滤出困难样本(根据关系的置信度),然后转化成多项选择问题,输出使用了analysis(CoT)
- 阅读笔记: 1. 将大模型和小模型结合起来做关系抽取任务
-
InstructABSA: Instruction Learning for Aspect Based Sentiment Analysis
- 阅读笔记: 1. 基于GPT2模型微调,将多方面情感分析人物转化为instruction方式
- 阅读笔记: 1. 基于GPT2模型微调,将多方面情感分析人物转化为instruction方式
2022
- InstructionNER: A Multi-Task Instruction-Based Generative Framework for Few-shot NER
- 阅读笔记: 1. 基于T5模型的指令ner信息抽取
- 阅读笔记: 1. 基于T5模型的指令ner信息抽取