chansonzhang
这个作者很懒,什么都没留下…
展开
-
NLP论文共读计划
NLP 之路原创 2021-07-15 11:07:39 · 766 阅读 · 3 评论 -
Training language models to follow instructions with human feedback
InstructGPT: SFT + RLHF with PPO(目标函数:RM - KL+PTX objective)原创 2024-04-02 16:21:53 · 345 阅读 · 0 评论 -
Finetuned Language Models Are Zero-Shot Learners
指令微调模型 FLAN 显著提升 zero-shot 能力原创 2024-03-30 16:36:47 · 541 阅读 · 0 评论 -
LaMDA: Language Models for Dialog Applications
通过标注数据微调和工具调用来提升对话模型的 safety 和 groundedness原创 2024-03-27 11:00:06 · 332 阅读 · 0 评论 -
Learning to summarize from human feedback
使用强化学习微调总结生成模型原创 2024-03-19 17:32:12 · 303 阅读 · 0 评论 -
Fine-Tuning Language Models from Human Preferences
在人类偏好上训练奖励模型,然后使用强化学习微调预训练语言模型原创 2023-12-30 12:57:21 · 1258 阅读 · 0 评论 -
Learning from Dialogue after Deployment: Feed Yourself, Chatbot!
让机器人在对话中学习原创 2023-06-17 23:09:09 · 473 阅读 · 0 评论 -
Dialogue Transformers
Rasa 中的 Transformer Embedding Dialogue (TED) 对话策略原创 2023-02-11 21:03:49 · 562 阅读 · 1 评论 -
CGMH: Constrained Sentence Generation by Metropolis-Hastings Sampling
通过 MH 采样实现带约束的句子生成原创 2022-11-26 15:44:05 · 934 阅读 · 0 评论 -
PADA: Example-based Prompt Learning for on-the-fly Adaptation to Unseen Domains
Source Domain -> DRF -> Example-specific Prompt -> Unseen Domain原创 2022-10-22 20:48:13 · 537 阅读 · 0 评论 -
SimCSE: Simple Contrastive Learning of Sentence Embeddings
仅使用标准的 dropout 作为噪声原创 2022-08-06 19:57:30 · 413 阅读 · 0 评论 -
CLEAR: Contrastive Learning for Sentence Representation
数据增强+对比学习+MLM原创 2022-06-25 19:08:02 · 670 阅读 · 0 评论 -
DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations
使用自监督对比学习来学习文本表示原创 2022-06-18 15:34:36 · 286 阅读 · 0 评论 -
An Unsupervised Sentence Embedding Method by Mutual Information Maximization
IS-BERT: 基于句子表示与局部 n-gram 表示互信息最大化来进行无监督句子表示学习原创 2022-05-28 20:46:09 · 299 阅读 · 0 评论 -
Sentence Meta-Embeddings for Unsupervised Semantic Textual Similarity
将预训练 sentence encoders 集成到 sentence meta-embeddings 中,解决无监督 STS 任务。原创 2022-05-28 14:49:08 · 156 阅读 · 0 评论 -
Multi-View Domain Adapted Sentence Embeddings for Low-Resource Unsupervised Duplicate Question Detec
MV-DASE 基于 GCCA 合并了多种不同的 embedding原创 2022-04-10 17:40:26 · 881 阅读 · 0 评论 -
Domain Adaptive Dialog Generation via Meta Learning
DAML原创 2022-04-09 10:25:33 · 232 阅读 · 0 评论 -
Overview of the English Slot Filling Track at the TAC2014 Knowledge Base Population Evaluation
Abstract概述了 TAC2014 Knowledge Base Population (KBP) evaluation 中的的词槽填充赛道 (English Slot Filling (SF) track)。KBP 旨在促进从自由文本中提取命名实体和数值型实体之间的二元关系的研究。今年(2014)的主要变化是:包含歧义查询接受通过推断得到的输出对任务和输入格式的简化,移除了 query 中实体对于知识库的引用最高得分为 36.72 F1,中位数为 19.80 F1。1 Introd原创 2022-03-19 19:02:36 · 250 阅读 · 0 评论 -
Generating Datasets with Pretrained Language Models
使用大型预训练语言模型生成语义文本相似度数据集原创 2022-03-14 21:37:51 · 400 阅读 · 0 评论 -
Unsupervised Data Augmentation for Consistency Training
有限的标注数据也能带来很好的性能原创 2022-03-12 17:36:07 · 4541 阅读 · 0 评论 -
Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Process
prompt-based learning 综述原创 2022-03-05 22:36:49 · 310 阅读 · 0 评论 -
Exploiting Cloze Questions for Few Shot Text Classification and Natural Language Inference
Pattern-Exploiting Training (PET):定义 (pattern, verbalizer) -> fine-tune 模型 -> 自动标注 -> 训练分类器原创 2022-02-24 07:30:18 · 343 阅读 · 0 评论 -
Language Models as Knowledge Bases?
LAMA is a probe to test the factual and commonsense knowledge in language models.原创 2022-01-28 21:23:33 · 1050 阅读 · 0 评论 -
Parameter-Efficient Transfer Learning for NLP
对于 N 个下游任务,fine-tuning 需要 N 倍预训练模型的参数量,而 Adapter 可以只用接近 1 倍的参数量实现类似的性能。原创 2022-01-22 21:06:08 · 2339 阅读 · 0 评论 -
Effective Approaches to Attention-based Neural Machine Translation
global attention & local attention原创 2022-01-15 12:24:32 · 373 阅读 · 0 评论 -
Synthetic QA Corpora Generation with Roundtrip Consistency
答案抽取 + 问题生成 + roundtrip consistency原创 2022-01-11 19:39:27 · 487 阅读 · 0 评论 -
Learning to Ask: Neural Question Generation for Reading Comprehension
基于 attention 和 seq2seq 的问题生成原创 2022-01-08 20:54:13 · 576 阅读 · 0 评论 -
Latent Retrieval for Weakly Supervised Open Domain Question Answering
第一个 retriever 和 reader 端到端联合学习的开放领域问答系统原创 2022-01-03 18:55:53 · 705 阅读 · 0 评论 -
DeepRank: A New Deep Architecture for Relevance Ranking in Information Retrieval
基于深度学习的 IR 排序模型原创 2022-01-02 19:46:32 · 436 阅读 · 0 评论 -
From RankNet to LambdaRank to LambdaMART: An Overview
LambdaMART 是 LambdaRank 的提升树版本原创 2022-01-01 19:29:30 · 499 阅读 · 0 评论 -
Learning to Rank with Nonsmooth Cost Functions
在 RankNet 的基础上改进而来原创 2021-12-22 21:45:29 · 766 阅读 · 0 评论 -
Learning to Rank using Gradient Descent
神经网络排序模型原创 2021-12-05 21:28:11 · 1268 阅读 · 0 评论 -
The Second Conversational Intelligence Challenge (ConvAI2)
开发领域对话比赛原创 2021-11-27 20:54:26 · 874 阅读 · 0 评论 -
ELMo: Deep contextualized word representations
基于双向语言模型的词表示原创 2021-11-20 22:49:18 · 543 阅读 · 0 评论 -
Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer
一种迁移学习的统一框架原创 2021-11-14 20:22:15 · 739 阅读 · 0 评论 -
A BERT Baseline for the Natural Questions
Natural Questions 数据集上的新基线原创 2021-11-06 16:37:03 · 233 阅读 · 0 评论 -
BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation ...
双向自回归 Transformer,文本生成效果好原创 2021-10-30 19:39:26 · 436 阅读 · 0 评论 -
Deep Unordered Composition Rivals Syntactic Methods for Text Classification
一个小而美的深度模型原创 2021-10-23 22:12:44 · 249 阅读 · 0 评论 -
Language Models are Few-Shot Learners
通过超大规模自回归语言模型实现 Few-shot Learning原创 2021-10-16 19:34:40 · 990 阅读 · 0 评论 -
Language Models are unsupervised multitask learners
预训练语言模型在 zero-shot 的情况下能够很好地处理多种下游任务,且无需任何参数或网络结构的调整原创 2021-10-10 21:21:38 · 827 阅读 · 0 评论