#开学第一次参加的会议,简单记录
大会信息
报告1:知识计算和大语言模型
1. 大模型存在的问题
(1)大语言模型虚幻性:chatgpt回答林黛玉倒拔垂杨柳像真的一样
(2)无法对复杂事件进行逻辑响应:chatgpt对复杂的新闻回答逻辑混乱,起因经过结果原因说不清楚
(3)大模型推理没有用背景知识
2.大模型需要知识
(1)结构化知识:知识图谱
优点:可解释性强,检索更精确
分类:以事物分类;多元知识图谱
知识形式:参数化形式
3.知识图谱如何加入外部知识
(1)知识增量模型:在知识图谱加入adapter模型
(2)检索增强模型:OOD
(3)检索生成协作
4.加入外部知识的优点
(1)提升回复事实的一致性
(2) 提升回复事实的安全性
(3)提升回复事实的逻辑性
5.大语言模型因果阈值问题
(1)因果对形成因果链+阈值
6.知识图谱可以加入外部工具
搜索引擎
7.结论
报告2: 在大模型时代重新审视知识工程的使命
1.方向1:知识工程借力大模型
2.方向2:知识工程助力大模型
(1)大语言模型知识评测KoLA
①能力建模
②评测数据
③整体观测结论
(2)大语言模型知识推理KoPL
①KoPL:可解释性编程语言
框架如下图:
标注数据集如下图:
3.方向3:大模型知识获取和应用机理
(1) 物理理解:知识获取和应用机理
4.总结
报告3:认知博弈背景下的社交媒体谣言检测
1.认知博弈概念
(1)社交媒体上的认知博弈
2.社交媒体谣言检测概念
(1)未证实的消息:Rumor
(2)谣言产生过程
个人到社会,伴随真实社会事件,特别适合在社交媒体出现
(3)谣言检测分类
3.谣言检测研究工作
(1)早期谣言检测
①定义:设定固定时间点,缺点是静态时间
②改进为动态时间:检测点动态确定模型
③ 数据集:微博,推特
④实验结果:RDM准确度好;ERD实效性好
4. 面向鲁棒性的谣言检测
(1)鲁棒性较差体现在哪
①预测结果的一致性:由于水军,判别结果不固定
②跨领域适应性
(2)相关研究
①研究动机:主观性偏移
5.社交机器人对谣言检测的影响
6.展望未来
(1)多模态信息:结合图片
(2)九真一假
(3)逻辑链挖掘
报告4 :多模态知识图谱的管理与分析
1.汇报结构
2. 知识图谱的研究背景和意义
(1)发展脉络
(2)传统VS多模态图谱
(3) 多模态图谱研究价值
3. 多模态图谱查询
(1)图查询:符号计算
缺点:符号计算不足,非结构化数据不能计算
(2)向量查询:神经计算
缺点:神经计算不足,弱化结构信息,可解释性不足
(3)因此研究提出神经符号图数据库
①节点:两个向量,内容向量+结构向量
②子图匹配
③topk子图匹配
④topk子图匹配挑战:平衡符号推理和向量计算
⑤topk子图匹配过程
4.多模态图谱推荐
(1)传统图谱推荐算法
(2)多模态图谱推荐有模糊区域值
①提出双星模式增强
②联合传统+双星模式的框架
规则挖掘如下图:
5.总结
报告5:用知识增强小语言模型
1.国内外大语言模型发展现状
(1)大语言模型存在能力短板
(2)知识增强是有效途径
2.企业应用大语言模型的问题
(1)数据安全问题
(2)授权,硬件,运维成本高
(3)如何识别关键的投入场景
(4)高质量数据库建设
3.小语言模型LLM
4.开源生态
5.HashData:云原生分析型数据库
(1)双计算引擎
(2) 内置向量数据支持
6.HashML:数据科学工具箱
(1)主要功能
(2) 语言模型数据增强
(3)应用案例
①ReQA
②ChatData
7.总结展望
报告6:大模型下的知识图谱研究思考
个人心得
研究生匆匆开学,第一次参加这类会议,虽说对于会议中关于知识图谱与大语言模型的介绍理解不是很深刻,一个上午听完了6个报告也算有所收获,了解了知识图谱在当前背景下的发展方向。其中,有一个关于谣言检测的报告讲的很好(因为只有这个报告我从头到尾都跟上听懂了),感觉谣言检测方向也挺有意思的。
第一次体验还不错,希望以后有机会多多参加学术交流会议!