2024年6月25日下午,OpenKG走进通义实验室:“知识图谱+语言模型”赋能通用AI系列沙龙第三期,在阿里巴巴云谷园区成功举办,活动吸引线上线下累计超7000人参加。
首先,OpenKG牵头发起人、浙江大学教授陈华钧进行了开场致辞,介绍了本次学术活动的初衷,并从阿里巴巴藏经阁研究计划、OpenBG数字商务开放知识图谱、知识增强通义大模型等多方面简要回顾了OpenKG及核心成员与阿里巴巴的多次合作;阿里云高校合作部总监李贝对OpenKG各位老师的到来表示欢迎,并着重表示了阿里对OpenKG坚持长期主义技术贡献的坚定支持;OpenKG TOC轮值主席、同济大学研究员王昊奋整体介绍了OpenKG的发展历史和愿景,当前正在开展的重要开放工作,以及实践总结与未来展望。
紧接着,来自OpenKG的三位TOC专家:通义实验室黄非研究员、东南大学漆桂林教授、柯基数据CEO吴刚,来自学术界的四位青年学者:北京大学的贺笛助理教授、上海交通大学陈露副教授、南京大学孙泽群助理研究员、浙江大学张宁豫副教授分别针对知识图谱、大语言模型等人工智能领域的前沿热点问题作报告分享,并与通义实验室的与会专家进行了学术交流。本次活动由通义实验室蒋勇老师、浙江大学张宁豫老师主持。
黄 非:通义大模型体系研发和应用
黄 非 | 通义实验室研究员、自然语言处理方向负责人、OpenKG TOC专家
OpenKG TOC专家、通义实验室黄非老师为大家带来了《通义大模型体系研发和应用》的分享。报告深入浅出地介绍了通义大模型的技术栈和系统,详细阐述了诸如通义灵码和通义星尘等具体应用。黄非老师还系统性地介绍了大模型未来需要解决的关键问题,并讨论了如何推动大模型在专业领域的应用。
漆桂林:“知识图谱+大模型”双轮驱动的医药行业数智化转型新范式
漆桂林 | 东南大学教授 & 吴 刚 | 柯基数据CEO OpenKG TOC专家
OpenKG TOC专家、东南大学漆桂林老师和柯基数据CEO吴刚老师为大家带来了《“知识图谱+大模型”双轮驱动的医药行业数智化转型新范式》的分享。报告详细介绍了大模型和知识图谱技术特点及优劣势,深入探讨了知识图谱和大模型双轮驱动方法论,并以医疗行业为例阐述了医药行业数智化转型驱动力和GraphRAG应用。
贺 笛:并非所有的大型语言模型都具备推理能力
贺 笛 | 北京大学助理教授
北京大学贺笛老师为大家带来了《Not all LLMs possess the capability for Reasoning》(并非所有的大语言模型都具备推理能力)的分享。报告指出,虽然国内外提出了多种高效Transformer变体,但仍有许多理论和实际应用问题需要解答。报告从数学和逻辑推理能力的角度,探讨了不同变体模型在推理任务中的表现,并比较它们在思维链提示(Chain-of-Thought, CoT)能力上的差异。
陈 露:稀疏模式启发的大模型高效训练算法
陈 露 | 上海交通大学副教授
上海交通大学陈露老师为大家带来了《稀疏模式启发的大模型高效训练算法》的分享。报告指出大模型训练的算力成本巨大,而大模型与人脑类似,对于单次输入大模型中激活的神经元存在稀疏性现象,并详细介绍了稀疏模式启发的大模型预训练和稀疏模式启发的大模型后训练及微调方法。
孙泽群:基于知识图谱的大模型高效微调技术及应用
孙泽群 | 南京大学助理研究员
南京大学孙泽群老师为大家带来了《基于知识图谱的大模型高效微调技术及应用》的分享。报告指出面向泛在任务的通用大模型往往缺乏准确的专业领域知识,并介绍了持续关系抽取技术和使用知识适配的大模型参数高效微调方法,将知识图谱有效注入到大模型中。
张宁豫:大模型时代的知识处理:机理、方法与应用
张宁豫 | 浙江大学副教授
浙江大学张宁豫老师为大家带来了《大模型时代的知识处理:机理、方法与应用》的分享。报告从知识的视角分析大语言模型的机理,并主要探讨两个问题:语言模型如何存储和表达知识;如何精准高效地更新模型中的知识。报告从整体论视角提出了知识回路假说,并提出了高效更新和编辑模型知识的方法,借鉴了人类认知中的工作记忆和长期记忆概念,以促进更精准和可靠的大模型应用。
沙龙现场气氛热烈,通义实验室的专家与参会老师们进行了深入交流。本次活动对于知识图谱与大模型前沿技术的探讨与交流,以及推动相关研究的创新发展,具有重要意义。活动尾声,通义实验室黄非老师做总结致辞。随后,OpenKG 各位老师参观了阿里云展厅。
OpenKG
OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。
点击阅读原文,进入 OpenKG 网站。