对于上千个类别的多标签文本分类任务,使用RAG进行分类:In-Context Learning for Extreme Multi-Label Classification

思路如下:
1.通过7B模型,让文章输出多个术语or关键词。
2.术语和关键词、标签,这俩东西都能embedding进空间里。我们希望前者能与正确的多标签距离更近。不过这里并没有做任何对齐,只是使用预训练模型的能力而已。
3.rerank使用gpt,排名靠前的就是更相似的。

这里面还有一些细节:
1.使用DSPy框架,动态地分配few-shot给prompt。神奇的是即使是这个阶段,论文也没让7B模型做in-context learning。
2.对齐模型要看什么任务。对于职位标签,论文用all-mpnet-base-v2。对于医学相关,使用BioLORD。这俩都是预训练模型,使用但不微调。

kimi解析论文的结果

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值