KDD2023丨预训练论文合集

ACM SIGKDD(国际数据挖掘与知识发现大会,简称KDD)会议始于1989年,是数据挖掘领域历史最悠久、规模最大的国际顶级学术会议,也是首个引入大数据、数据科学、预测分析、众包等概念的会议,每年吸引了大量数据挖掘、机器学习、大数据和人工智能等领域的研究学者、从业人员参与。

AMiner通过AI技术,对 KDD2023 收录的会议论文进行了分类整理,今日分享的是预训练主题论文!(由于篇幅关系,本篇只展现部分论文,点击阅读原文可直达KDD顶会页面查看所有论文)

1.QUERT: Continual Pre-training of Language Model for Query Understanding in Travel Domain Search

https://www.aminer.cn/pub/6487e9fad68f896efa482b50/

2.Automated 3D Pre-Training for Molecular Property Prediction

https://www.aminer.cn/pub/64893b17d68f896efa982588/

3.Pre-training Antibody Language Models for Antigen-Specific Computational Antibody Design

https://www.aminer.cn/pub/64af9a063fda6d7f065a6c00/

4.Joint Pre-training and Local Re-training: Transferable Representation Learning on Multi-source Knowledge Graphs

https://www.aminer.cn/pub/647eaf51d68f896efad41d32/

5.GetPt: Graph-enhanced General Table Pre-training with Alternate Attention Network

https://www.aminer.cn/pub/64af99fd3fda6d7f065a6302/

6.Empower Post-hoc Graph Explanations with Information Bottleneck: A Pre-training and Fine-tuning Perspective

https://www.aminer.cn/pub/64af99fd3fda6d7f065a6311/

7.Dual-view Molecular Pre-training

https://www.aminer.cn/pub/64af9a063fda6d7f065a6bb3/

8.S2phere: Semi-Supervised Pre-training for Web Search over Heterogeneous Learning to Rank Data

https://www.aminer.cn/pub/64af9a003fda6d7f065a669a/


如何使用ChatPaper读文献?

为了让更多科研人更高效的获取文献知识,AMiner基于GLM-130B大模型能力,开发了Chatpaper,帮助科研人快速提高检索、阅读论文效率,获取最新领域研究动态,让科研工作更加游刃有余。
在这里插入图片描述

ChatPaper是一款集检索、阅读、知识问答于一体的对话式私有知识库,AMiner希望通过技术的力量,让大家更加高效地获取知识。

ChatPaper:https://www.aminer.cn/chat/g

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值