新闻动态 | OpenKG走进IJCAI学术活动成功举办

dd07233280c9f1bd0ee5bcfd5d3a5023.png

活动现场合影

2024年8月3日, OpenKG走进IJCAI:“知识图谱+语言模型”赋能通用AI系列学术沙龙第四期,暨首届“OpenKG workshop on Large Knowledge-enhanced Models”在韩国济州岛成功举办。本次研讨会总计录用了来自中国、美国、日本、韩国、澳大利亚等多个国家的28篇投稿论文,并邀请了来自得克萨斯大学奥斯汀分校、同济大学、清华大学、宾夕法尼亚州立大学、Google DeepMind、东南大学、北京邮电大学、新加坡国立大学等学术界和产业界学者的共2个Keynotes和5个Invited Talks,并包含有8个Spotlight Oral论文报告,以及20篇Poster论文展示。活动吸引线上线下累计超10000+人参加。

OpenKG牵头发起人、浙江大学计算机学院教授陈华钧致开场辞,回顾了OpenKG的发展历程,分享了其愿景、实践总结与未来展望。随后,德克萨斯大学奥斯汀分校丁颖教授和同济大学王昊奋研究员分别就知识图谱与大模型的协同发展作Keynote主题报告。在专题报告环节,宾夕法尼亚州立大学Wenpeng Yin助理教授、Google DeepMind的Yichao Zhou研究员、清华大学姚权铭助理教授、北京邮电大学杨成副教授、东南大学徐宁助理教授及新加坡国立大学Research Fellow邓淑敏老师等学者,就知识图谱、大模型等人工智能领域的热点问题进行了精彩分享,为与会者带来了启发与思考。

Ying Ding:Knowledge Graph in the LLM era

2cfa42861334302291d7d70eea4d3bc6.png

Ying Ding | 德克萨斯大学奥斯汀分校教授

德克萨斯大学奥斯汀分校教授丁颖老师为大家带来了《Knowledge Graph in the LLM era》的分享。报告深入浅出地介绍了知识图谱的发展历程,以及在大模型时代下,知识图谱的现状、挑战和机遇,并对大模型和知识图谱结合发展的前景进行了展望。

Haofen Wang:Theoretical Innovations And New Research Paradigms Of Knowledge Graphs In The Era Of Large Language Models

9a0c29fb59ef48954a2af1e78d86c39e.png

Haofen Wang | 同济大学研究员

OpenKG TOC专家、同济大学王昊奋老师为大家带来了《Theoretical Innovations And New Research Paradigms Of Knowledge Graphs In The Era Of Large Language Models》的分享。报告详细介绍了大模型的崛起如何为知识图谱领域带来新的挑战和机遇。在大语言模型时代,知识图谱的构建和应用需要新的理论和方法论。报告探讨了如何利用大模型来更好地构建和管理知识图谱,以及如何将知识图谱与大模型集成。报告还分享了OpenKG在这方面的思考和实践。

Wenpeng Yin:LLMs Assist NLP Researchers: Critique Paper (Meta-)Reviewing

4c3aeb7dd7e3e1a93523272e39d61f8f.png

Wenpeng Yin | 宾夕法尼亚州立大学助理教授

宾夕法尼亚州立大学Wenpeng Yin老师为大家带来了《LLMs Assist NLP Researchers: Critique Paper (Meta-)Reviewing》。Yin老师在报告中分享了团队在大模型审稿方向的研究成果,探索大模型作为审稿人,元审稿人的能力,旨在减少科研人员的审稿压力。

Yichao Zhou:Advancements in Large Language Model Summarization for Decision-Making and Knowledge Updating

cdd22a451e5ae6e934813811b25b9d73.png

Yichao Zhou | Google DeepMind

Google DeepMind的Yichao Zhou研究员为大家带来了《Advancements in Large Language Model Summarization for Decision-Making and Knowledge Updating》的分享。报告指出,传统的实体摘要任务专注于为实体计算简明扼要的摘要,而这些摘要的形式往往是有限的三元组。针对该问题,Zhou老师进一步介绍了一系列增量式实体摘要的相关工作,分析了它的创新优势,并介绍了他们团队在该领域的研究成果。

Quanming Yao:Knowledge-Aware Parsimony Learning: A Perspective from Relational Graphs

7744909ccd98b9b99220e9e1a5d24ebe.png

Quanming Yao | 清华大学助理教授

清华大学姚权铭老师为大家带来了《Knowledge-Aware Parsimony Learning: A Perspective from Relational Graphs》的分享。报告指出在大模型飞速发展的时代,算力和数据成为限制模型发展的主要因素,而知识感知简约学习(Parsimony Learning),能够以更优雅的方式让模型在同等条件下具备更强力的表现。同时,姚老师介绍了团队如何从关系图出发,助力简约学习应对更复杂的场景。

Cheng Yang:Towards Graph Foundation Models

aa87a617aeee8cd5f1353644f2de1f8e.png

Cheng Yang | 北京邮电大学副教授

北京邮电大学杨成老师为大家带来了《Towards Graph Foundation Models》的分享。报告介绍了面向图的基础模型的演进历程、当前面临的挑战以及图学习与基础模型结合取得的最新进展,并对图的基础模型的发展前景进行了展望。

Ning Xu:Label Enhancement Learning for Complex Semantic and Its Applications on Large Language Models

89a0216cac5d0f81d406e97db14e5eb4.png

Ning Xu | 东南大学助理教授

东南大学徐宁老师为大家带来了《Label Enhancement Learning for Complex Semantic and Its Applications on Large Language Models》的分享。报告中介绍了复杂语义的标签增强学习的背景、现状和问题,阐述了标签增强学习的理论基础。针对大模型对齐时数据选择的难题,徐老师介绍了团队如何通过标签增强学习来优化对齐方法。

Shumin Deng:KnowPhish: LLMs Meet Multimodal Knowledge Graphs for Enhancing Reference-Based Phishing Detection

655dcc3b89d8a22a83335e8b3c50a8c2.png

Shumin Deng | 新加坡国立大学Research Fellow

新加坡国立大学的邓淑敏老师为大家带来了《KnowPhish: LLMs Meet Multimodal Knowledge Graphs for Enhancing Reference-Based Phishing Detection》的分享。报告分析了钓鱼检测对于维护网络安全的重要意义,介绍了钓鱼检测的发展现状及现有解决方法的局限。针对现有方法依赖于检测网站标识,从而在长尾标识甚至无标识的场景下受限的难题,邓老师介绍了团队如何通过语言模型与多模态知识图谱协同,增强钓鱼检测能力。

49e63d251f46c329eb467f42184920bb.png

此外,本次沙龙还设置了Panel环节,8个Spotlight Oral论文报告和20篇Poster论文展示,进一步促进了学术交流与碰撞。沙龙现场气氛热烈,与会专家与参会老师们进行了深入交流,台上台下问答互动频繁,现场不时爆发出会心的笑声和热烈的掌声。Poster展示环节参会者围绕着一个个Poster展板与作者热烈讨论,交流思想、分享见解。本次活动对于知识图谱与大模型前沿技术的探讨与交流,以及推动相关研究的创新发展,具有重要意义。在浙江大学张宁豫老师的精心主持下,沙龙在热烈的讨论与交流中圆满落幕。

42b59c454445e577a2762e8f00df2425.png


OpenKG

OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。

f155bfdf2e7fe84440b8abb78e49a30f.png

点击阅读原文,进入 OpenKG 网站。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值