基于大模型来做NLP任务

information extraction

2023

  • InstructUIE: Multi-task Instruction Tuning for Unified Information Extraction

    • 阅读笔记: 1. 将NER,RE,EE等数据集转化为instruction格式,基于FlanT5-10B模型训练
      2. 针对NER,RE,EE等任务都加入辅助任务使得模型更好的学习
      3. 相对于Bert-finetune,InstructUIE去的更好的效果;在少样本数据集上,超过了chatgpt3.5模型
  • Aligning Instruction Tasks Unlocks Large Language Models as Zero-Shot Relation Extractors

    • ACL [code]
    • 阅读笔记: 1. 认为指令微调并不能提高大模型在RE任务上的效果,原因是因为RE数据的占比很小
      2. 为了解决上诉问题,将RE任务和数据占比非常多的QA任务对齐起来,从而提高RE的任务效果
      3. QA任务:提供候选答案的选项,直接让模型输出选项号
  • Revisiting Relation Extraction in the era of Large Language Models

    • 阅读笔记: 1. 基于大模型的关系抽取,使用GPT-3在few-shot的prompt下取得了解决sota的效果;在此基础上使用CoT,能够进一步提升效果
      2. 基于flan-T5在few-shot prompt情况下并未取得sota效果,但是在基于GPT-3生成的CoT数据微调,能够取得sota的效果
  • Large Language Model Is Not a Good Few-shot Information Extractor, but a Good Reranker for Hard Samples!

    • 阅读笔记: 1. 将大模型和小模型结合起来做关系抽取任务
      2. 使用小模型过滤出困难样本(根据关系的置信度),然后转化成多项选择问题,输出使用了analysis(CoT)
  • InstructABSA: Instruction Learning for Aspect Based Sentiment Analysis

    • 阅读笔记: 1. 基于GPT2模型微调,将多方面情感分析人物转化为instruction方式

2022

  • InstructionNER: A Multi-Task Instruction-Based Generative Framework for Few-shot NER
    • 阅读笔记: 1. 基于T5模型的指令ner信息抽取

我的更多AI学习笔记github

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
BERT模型是目前自然语言处理领域中最为了解的深度学习模型之一,其具备先进的预训练技术和模型结构,可以有效地处理各类自然语言处理任务。基于BERT模型自然语言处理实战源码包涵盖了众多自然语言处理任务,包括文本分类、命名实体识别、文本推荐、问答系统等。下面就基于其中的几个任务进行简要介绍。 首先是文本分类任务。该部分代码主要基于BERT模型的fine-tuning技术实现,使用了PyTorch框架。实现方式是,在预训练的BERT模型基础上,通过fine-tuning将其应用于文本分类任务中。在具体实现过程中,要进行预处理数据、定义模型结构和超参数、训练和测试模型等步骤。 其次是命名实体识别任务。该部分代码主要使用了PyTorch和AllenNLP库,实现了一个命名实体识别的模型。在具体实现过程中,首先要针对NER任务重新定义BERT模型,然后进行数据的预处理、训练和测试模型等步骤。 再者是文本推荐任务。该部分代码主要使用了PyTorch、transformers库和nltk库,实现了BERT模型在文本推荐任务中的应用。在实现过程中,主要要进行数据的预处理、定义推荐模型以及训练和测试模型等步骤。 最后是问答系统任务。该部分代码主要使用了PyTorch和transformers库,以阅读理解任务为基础,实现了一个简单的问答系统。在实现过程中,要进行数据的处理、定义模型结构、模型的训练和测试等步骤。 总体而言,基于BERT模型自然语言处理实战源码涵盖了多种自然语言处理任务,其代码不仅提供了实现思路,也为实现自然语言处理任务提供了参考。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值