自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(83)
  • 收藏
  • 关注

原创 引导式问答-三视角共情提问-TriKF

本文聚焦于在情感支持对话中生成共情性问题。**共情** 是一个好的倾听者在社会交际中的基本特征,它通过提供共情反馈来表现出倾听者对说话者的想法和感受的理解。共情的话语可以增强倾听者的积极印象,促进说话者表达自己的意愿,已有的研究表明,具有移情特征的对话生成模式可以产生更多的反应,用户对对话系统的满意度。**现有研究的局限性:** 虽然已有研究关注共情对话生成,但这些模型往往由于对话内容有限且缺乏背景知识,难以提取关于核心事件、想法和情感的充分信息 。

2026-02-09 17:14:29 918

原创 知识图谱-事件图谱的回答增强-EventRAG

传统的 RAG 系统主要在文档、段落或句子层面处理文本,这种方式在处理叙事性较强的文档时存在以下局限性: **忽视事件结构**(Event-Centric Challenges):传统方法往往将文档视为扁平的文本,忽略了塑造现实世界叙事的底层事件结构。 **时间与逻辑缺失**(Temporal-Aware Limitations):在需要时间信息、逻辑依赖和复杂跨事件交互的场景下,传统系统难以保持连贯的时间线,容易导致参考不一致或故事情节不完整 。

2026-02-09 17:13:30 744

原创 引导式问答-外部共情知识桥接-KEMP

本文聚焦于在对话中生成共情性对话。**共情** 是一个好的倾听者在社会交际中的基本特征,它通过提供共情反馈来表现出倾听者对说话者的想法和感受的理解。共情的话语可以增强倾听者的积极印象,促进说话者表达自己的意愿,已有的研究表明,具有共情特征的对话生成模式可以产生更多的反应,用户对对话系统的满意度。**核心问题**:现有的对话系统在生成共情回复时,往往难以感知**隐式情感**。仅凭有限的对话历史,机器很难像人类一样通过经验和外部知识来捕捉说话者的真实情绪 。

2026-02-09 17:12:17 866

原创 引导式问答-主动式思维链提示-ProCoT

为弥补现有 LLM 在主动对话中的不足,本文提出一种**主动式思维链提示方法(Proactive Chain-of-Thought, ProCoT)**,旨在通过显式引导大语言模型进行**目标导向的推理与规划**,从而提升其在多种主动对话场景下的决策与交互能力。

2026-01-12 11:07:31 829

原创 引导式问答-任务型对话澄清-ASK

AsK(**Aspects and Retrieval based Hybrid Clarification**)框架,在任务型对话系统中,根据用户查询的歧义程度,动态决定是否进行澄清,以及采用何种澄清策略,从而最大化检索准确性并最小化不必要的对话轮次。

2026-01-12 11:06:59 668

原创 引导式问答-对话式商品搜索-TRACER

该工作聚焦于解决对话式商品搜索(CPS)中的意图澄清。对话式商品搜索(CPS)属于电商搜索范畴。

2026-01-12 11:06:08 988

原创 八卡A100服务器坏卡引发 CUDA initialization: cudaGetDeviceCount()异常

在多卡 GPU服务器中(尤其是 A100),在坏卡后,可能导致各类应用对 CUDA 设备编号出现不一致。因此在检查各应用组件的安装状态都是正常后,尝试重启了 Fabric Manager:```bashsudo systemctl restart nvidia-fabricmanagersudo systemctl status nvidia-fabricmanager```经重启 Fabric Manager后,少了显卡的服务器的CUDA在使用中恢复了正常。

2026-01-09 10:01:32 487

原创 知识图谱-KGQA意图澄清-CLEAR_KGQA

该工作聚焦于解决**知识图谱问答(KGQA)中的歧义问题**。尽管近年来KGQA系统取得了显著进展,尤其是在集成大型语言模型(LLM)方面,但它们**通常假设用户问题是明确的**,而这一假设在实际应用中很少成立。**用户问题常存在实体歧义**(如同名实体)和意图歧义(如对关系/属性的不同理解),导致模型难以生成正确的SPARQL查询。

2026-01-06 23:13:17 899

原创 引导式问答-照片回忆录引导与撰写-TRAVOT

本文聚焦于**回忆录引导与自动撰写**。根据经验,即使**照片**和**书面材料**都有助于回忆记忆,随着时间的推移,它们单独使用的缺点也会显现出来,因为人们很难通过阅读书面材料回忆起新鲜的场景,也很难通过看到照片中的物体来回忆起主观体验。**整合来自与照片相关的用户记忆对话的信息**,并从这些信息中生成内容,为创建回忆录提供了一种很有前途的方法。因此,本文提出**TRAVO** 一种AI机器人系统,其通过与用户对话来生成旅行回忆录。

2026-01-05 20:40:22 917

原创 知识图谱-检索生成再检索-RGR_KBQA

该工作聚焦于知识图谱问答(KBQA):即给定一个自然语言问题,基于大规模知识库输出答案。现有的知识库问答(KBQA)方法可以大致分为基于信息检索(Information Retrieval,IR)的方法和基于语义分析(Semantic Parsing,SP)的方法。

2026-01-04 23:43:31 749

原创 知识图谱-结构化数据的通用LLM推理框架-StructGPT

本文研究如何以统一的方式提升大型语言模型(LLM)在结构化数据上的零样本推理能力。受LLM工具增强研究的启发,我们开发了一种名为StructGPT的迭代式阅读推理(IRR)方法,用于解决基于结构化数据的问答任务。在该方法中,我们构建了一个专门的函数来从结构化数据中收集相关证据(即阅读),并让LLM基于收集到的信息进行推理(即推理)。特别地,我们提出了一种调用线性化生成(invoking-linearization-generation)过程,借助外部接口来辅助LLM对结构化数据进行推理。通过迭代执行这些过程

2026-01-03 20:35:27 956

原创 知识图谱-Sememe链接预测-SememeLP

Link Prediction(链接预测) 是图数据分析中的一项核心任务,目标是根据已有的图结构和节点信息,预测未来可能出现的边,或判断当前不存在的边是否应该存在。

2026-01-02 22:45:02 773

原创 知识图谱-基本知识图谱知识概览

1980年,本体论(Ontology)哲学概念“本体”被引入到人工智能领域用来刻画知识。概念模型:本体对事物的描述形成了一组组的概念。明确:本体中术语、属性和定理都有明确定义,不是模棱两可的。形式化:本体能够被计算机刻度,能够被计算机所处理。共享:所体现的知识都是被大家认可的,是该领域公认术语集合。本体是实体存在形式的描述,往往表述为一组概念定义和概念之间的层级关系,本体框架形成树状结构,通常被用来为知识图谱定义Schema。

2026-01-01 01:47:12 1380

原创 知识图谱-数据科学图谱的EDA-RAGvis

本文提出了一种 用于生成可执行的EDA代码的RAG框架RAGvis,该框架基于知识图谱,将EDA操作代码与其语义和所使用的数据列联系起来。

2025-12-09 18:03:02 641

原创 知识图谱-数据科学图谱可扩展平台-KGLiDS

一、动机 & 问题背景作者提出了一个可扩展的数据科学知识平台 KGLiDS,借助机器学习和知识图谱,把数据科学流程中所有这些数据、步骤、函数之间的语义和关联都抽象出来,形成一个能直接用来自动化处理的知识结构。近年来,学术界和工业界对应用数据科学技术分析海量数据的兴趣日益浓厚。在此过程中,产生了大量的工件(数据集、pipeline脚本等)。然而,目前还没有系统地尝试全​​面收集和利用这些工件中隐含的所有知识和经验。因此,本文提出了一种可扩展的数据科学知识图谱平台,KGLiDS。

2025-12-01 21:40:49 670

原创 知识图谱-KGQA多步生成检索-CompKBQA

论文贡献主要包括三点:### 1、 提出组件化 KBQA——CompKBQA系统化地将逻辑生成拆显著降低 LLM 一步生成的难度。### 2️、 提出 R3 关系检索器解决 LLM 缺乏 KB-aware 的问题。通过 hard negative + 对比学习,使关系检索精准。### 3️、 在 WebQSP 和 CWQ 上取得 SOTA尤其是 Entity Error 显著减少。

2025-11-16 12:01:28 903

原创 知识图谱-KGQA生成与检索-ChatKBQA

Knowledge Base Question Answering (KBQA):即给定一个自然语言问题,基于大规模知识库(如 Freebase)输出答案。 作者提到的**KBQA**实际上指的是**KGQA**

2025-11-14 15:22:30 1096

原创 大语言模型-GLM-General Language Model Pretraining

GLM是2020-2021年由智谱AI研究并发布的预训练语言模型。GLM是一种基于`自回归空白填充`的通用预训练语言模型。GLM 通过添加`二维位置编码`和`允许任意顺序预测空白区域`,改进了`空白填充预训练`,在NLU任务上超越了 BERT 和 T5。GLM的网络架构使用的是多层Transformer Decoder改的结构。

2024-08-28 11:11:55 1321

原创 大语言模型-GPT3-Language Models are Few-Shot Learners

## 一、背景信息:GPT3是于2020 年由OpenAI 发布的预训练语言模型。GPT3在自然语言处理(NLP)任务中表现出色,可以生成连贯的文本、回答问题、进行对话等。GPT3的网络架构继续沿用GPT1、GPT2的是多层Transformer Decoder改的结构。GPT3出自Language Models are Few-Shot Learners,语言模型是Few-Shot学习者。

2024-08-27 14:40:33 1584

原创 大语言模型-PDF文档解析

PDF解析能够提升大语言模型系统的信息处理能力和应用范围,为用户提供更加便捷、高效、个性化的服务体验。本文介绍三种常用的pdf解析方式:`Open Parse`、`pdfplumber`、`PyMuPD`。

2024-08-22 17:20:33 3091

原创 大语言模型-LLaMA-Large Language Model Meta AI

LLaMA(Large Language Model Meta AI)模型是于2020 年由发布的一个大型基础语言模型。LLaMA使用的数据集来源都是公开数据集,无任何定制数据集。LLaMA性能的亮点充分地证明了高质量数据的重要性,而不是一股脑地叠加网络深度以及参数量。

2024-07-29 11:21:03 1075

原创 大语言模型-GPT2-Generative Pre-Training2

GPT2是2019年由OpenAI 提出的预训练语言模型。GPT2提出语言模型式`无监督的多任务学习` 。旨在通过无监督学习也能达到和finetune一样的效果,并且拥有更强的泛化能能力。即提出利用语言模型做下游任务时,不需要下游任务的任何标注信息(zero-shot设定),也不用训练模型。只需要训练一个模型,在多个任务上都能用。

2024-07-24 16:24:26 1474

原创 大语言模型-对比学习-Contrastive Learning

对比学习 是一种特殊的`无监督学习方法`。旨在通过`拉近相关样本的距离`并且`推远不相关样本的距离`,来学习`数据表示`。通常使用一种高自由度、自定义的规则来`生成正负样本`。在模型预训练中有着广泛的应用。

2024-07-24 11:07:07 2274

原创 大语言模型-RetroMAE-检索预训练模型

RetroMAE是2022年10月由北邮和华为提出的一种密集检索预训练策略。RetroMAE主要应用于检索模型的预训练,模型架构为非对称的Encoder-Decode结构。

2024-07-23 15:34:56 1846

原创 大语言模型-GPT-Generative Pre-Training

GPT是2018 年 6 月由OpenAI 提出的预训练语言模型。GPT可以应用于复杂的NLP任务中,例如文章生成,代码生成,机器翻译,问答对话等。GPT也采用两阶段的训练过程,第一阶段是无监督的方式来预训练生成式的语言模型,第二阶段根据特定任务进行微调。GPT的网络架构使用的是多层Transformer Decoder改的结构。

2024-07-23 11:17:33 1233

原创 大语言模型-Bert-Bidirectional Encoder Representation from Transformers

Bert是2018年10月由Google AI研究院提出的一种预训练模型。主要用于自然语言处理(NLP)任务,特别是机器阅读理、文本分类、序列标注等任务。BERT的网络架构使用的是多层Transformer结构,有效的解决了长期依赖问题。

2024-07-23 01:12:00 1576

原创 大语言模型-文本检索任务基准 BEIR

BEIR(A Heterogeneous Benchmark for Zero-shot Evaluation of Information Retrieval Models)文本检索任务的基准,使用`18 个数据集`为检索系统的零样本评估提出了一个标准化基准, BEIR 基准上在`9个不同领域的检索任务`评估 `10 种不同的检索方法`。

2024-07-20 12:50:04 1499

原创 大语言模型-中文文本向量模型评估基准 C-MTEB

C-MTEB 有35个数据集,覆盖文本召回(NDCG@10),排序(MAP),分类(average precision),相似度匹配(Spearman’s correlation),聚类(average precision),文本对分类(average precision)共六个方向,最终模型表现由6大任务指标取平均值得到。

2024-07-19 17:56:44 1149

原创 大语言模型-文本向量模型评估基准 MTEB

MTEB(Massive Text Embedding Benchmark)涵盖112种语言的58个数据集,包含如下`8种任务`。

2024-07-19 17:25:20 2378

原创 大语言模型-检索测评指标

1. MRR (Mean Reciprocal Rank)平均倒数排名2. AP(Average Precision)平均精度3. MAP(Mean Average Precision)平均准确率等检索评估指标

2024-07-19 14:42:30 2690

原创 大语言模型-Transformer-Attention Is All You Need

Transformer是一种由谷歌在2017年提出的深度学习模型。主要用于自然语言处理(NLP)任务,特别是序列到序列(Sequence-to-Sequence)的学习问题,如机器翻译、文本生成等。Transformer彻底改变了之前基于循环神经网络(RNNs)和长短期记忆网络(LSTMs)的序列建模范式,并且在性能上取得了显著提升。

2024-07-17 23:14:51 1468

原创 大语言模型-基础及拓展应用

基础模型(transformer、bert、gpt等)句子向量(simcse、retroMAE、sbert等)文档解析(openpaser、fitz等)向量库(faiss、es等)

2024-07-17 13:57:28 648

原创 python借助elasticsearch实现标签匹配计数

给定一组标签 [{“tag_id”: “1”, “value”: “西瓜”}, {“tag_id”: “1”, “value”: “苹果”}],我想精准匹配到现有的标签库中存在的标签并记录匹配成功的数量。

2024-04-16 18:14:12 644

原创 python借助elasticsearch实现精准查询与bm25查询

Elasticsearch query查询;python向量库;bm25搜索,精准匹配

2024-03-05 14:59:21 1713

原创 Celery结合flask完成异步任务与定时任务

Celery 常用于 web 异步任务、定时任务等。使用 redis 作为 Celery的「消息代理 / 消息中间件」。这里通过Flask-Mail使用qq邮箱延时发送邮件作为示例。

2023-09-25 15:39:22 1807 3

原创 常见优化器总结

优化器 是为了让参数根据损失函数更快更准的朝着最优方向更新的一种策略。神经网络是根据损失函数不断调整网络参数,使得最终能够获得近似最优解。

2023-09-21 20:28:03 468 1

原创 windos本地文件上传到ubuntu

【代码】windos本地文件上传到ubuntu。

2023-09-13 10:01:18 263

原创 mysql 快速上传数据

快速上传数据这个应该是比inset into values更快的插入数据的办法了

2023-09-12 20:34:11 368

原创 CopyRE关系抽取

模型包括编码器和解码器两部分编码器:将输入的句子(源句子)转换为固定长度的语义向量 解码器:读取该矢量并直接生成三元组。

2023-07-10 15:27:09 805 1

原创 条件随机场模型

线性链条件随机场用于标注问题,在条件概率模型P(Y|X)中,Y是输出变量表示标记序列,X是输入变量表示需要标注的观测序列。设有联合分布P(Y),由无向图G=(V, E)表示,在图G中,节点表示随机变量,边表示随机变量之间的依赖关系。均为线性链表示的随机变量序列,若在给定随机变量序列X的条件下,随机变量序列Y的条件概率分布P(Y|X)构成条件随机场,即满足马尔可夫性。条件随机场,设X与Y是随机变量,P(Y|X)是在给定X的条件下Y的条件概率分布。对任意结点v成立,则称条件概率分布P(Y|X)为条件随机场。

2023-05-31 16:30:09 1473

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除