基于文本的QA问答系统
文章平均质量分 60
Simonsdu
这个作者很懒,什么都没留下…
展开
-
(九)基于文本的QA问答系统——总结回顾
总结回顾项目实训——基于文本的智能问答系统原创 2022-06-12 10:19:49 · 318 阅读 · 1 评论 -
(八)结果验证
评价基于预训练模型的检索系统性能原创 2022-06-12 10:12:27 · 837 阅读 · 1 评论 -
(七)基于文本的QA问答系统——实践过程
本文检索了基于预训练模型的信息检索的两种实现方法。原创 2022-06-12 10:04:45 · 1024 阅读 · 0 评论 -
(六)基于文本的QA问答系统——前后端介绍
前后端介绍原创 2022-06-12 09:50:09 · 506 阅读 · 0 评论 -
(五)基于文本的QA问答系统——corss-encoder方法
cross-encoder方法概述该方法基于GPT模型,利用doc和query构造prompt。将prompt作为模型输入,利用query对应位置的输出结果计算log_softmax,该值可以反映输入词对应输出的预测概率,我们关注query中含有的词汇,对输出中对应query中含有的词汇进行求和,该值可以反映该doc和query相关的程度。由于doc和query共同编码,因此对于语义的理解程度更好。初始化模型并构造prompttokenizer = AutoTokenizer.from_pretr原创 2022-04-09 16:14:04 · 1035 阅读 · 0 评论 -
(四)基于文本的QA问答系统——biencoder方法
biencoder方法加载预训练模型我们使用Muennighoff/SGPT-125M-weightedmean-msmarco-specb-bitfit预训练模型。tokenizer = AutoTokenizer.from_pretrained("Muennighoff/SGPT-125M-weightedmean-msmarco-specb-bitfit",cache_dir = './SGPT-125M-weightedmean-msmarco-specb-bitfit')model = A原创 2022-04-09 15:15:06 · 1223 阅读 · 0 评论 -
(三)基于文本的QA问答系统——SGPT:GPT Sentence Embeddings for Semantic Search解读
SGPT:GPT Sentence Embeddings for Semantic Search解读文章目录SGPT:GPT Sentence Embeddings for Semantic Search解读概述先序知识预训练模型两大范式浅层词嵌入预训练编码器GPTPrompt文章解读SGPT Cross-Encoder Asymmetric SearchSGPT Bi-Encoder Asymmetric Search存在的问题1、中文预训练GPT模型十分匮乏。2、怎样算是一个好的Prompt概述该原创 2022-03-26 15:48:17 · 2941 阅读 · 0 评论 -
(二)基于文本的QA问答系统——深度检索模型概述
深度检索模型概述该部分用于基于上下文信息实现语境对称检索和语境非对称检索。名词解释语境检索semantic search指的是结合上下文语境信息的检索。关于对称检索和非对称检索在文章SGPT: GPT Sentence Embeddings for Semantic Search中有如下解释:简而言之对称检索指的是query与doc的结构和语义相似,找到与query最相关的若干doc;非对称检索指的是query与doc结构与语义差异较大,找到与query最相关的若干doc。动机预训练语言原创 2022-03-20 17:37:07 · 648 阅读 · 0 评论 -
(一)基于文本的QA问答系统——交互系统简介
交互系统介绍概述本项目中,交互系统指的是GUI页面、后端服务器。主要任务包括:1、与用户进行交互,提供图形化服务。2、处理和生成上下文信息(context),为下游任务服务。3、判断用户该问题与前序问题的相关度,从而开启新任务或生成上下文信息。4、更新Q set。核心难点在于:1、如何基于谦虚多个问题生成上下文信息。2、如何判断用户是否开启一个新的问答任务(即当前问题和上一个问题的相关度计算)架构进度安排前四周完成问题相关度的判别方法。第四到八周完成上下文的生成问题。八周以后原创 2022-03-20 17:35:58 · 792 阅读 · 0 评论