论文
文章平均质量分 94
百川AI
心怀热爱,奔赴山海
展开
-
【自学习】- 怎么让对话机器人越来越强?
对话机器人如果能够检测到服务失败的case,再强一点,最好还能够自动纠正,就和人一样,在学习中成长,在成长中学习,越来越强。理想和美好,那么怎么做呢?怎么学习呢?对话机器人在与人交互过程中,人的反应,例如赞扬、骂人、嘲笑等,这些反应满意度的指标,天然的就是标签数据,为我们对话助手的服务打上了满意度标签,如果能够挖掘出这种标签,那么会话助手就会再和人交互中发现badcase,然后利用badcase优化模型,从而优化对话助手让它越来越强,是不是有可能呢?......原创 2022-07-18 22:44:48 · 866 阅读 · 0 评论 -
【问答对话】kbqa?开放域问答怎么有知识地生成
开放域问答怎么有知识地生成最近流行的大模型,如GPT-3也在开放域问答上有一定的能力,那么如何在大的语言模型基础上融合知识呢,其实主要面临两个问题,1)检索什么知识,怎么检索。2)怎么讲检索知识加入。......原创 2022-07-11 00:09:28 · 906 阅读 · 0 评论 -
【评论生成】AI生成评论,如何既相关又多样?
AI评论生成,如何既相关有多样?原创 2022-05-30 00:04:31 · 2776 阅读 · 1 评论 -
【Prefix-Tuning】Fine-tuning过时啦,NLG生成任务如何Tuning?
Fine-tuning范式大家肯定都再熟悉不过,微调所有语言模型参数,而从gpt3出现之后提出的in-context learning,还是越来越火的prompt,fine-tuning 已经out of state了。而这篇文章就提出prefix-tuning的nlg训练方法。原创 2022-05-16 00:50:40 · 2286 阅读 · 0 评论 -
NLP数据增强方法-(一)
分类的增强方法EDA-Easy Data Augmentation Techniques for Boosting Performance on Text Classification Tasks提出了数据增强方法:synonym replacement(SR):随机选取句子中n个非停用词的词语。对于每个词语随机选取它的一个同义词替换该词语。random insertion(R...原创 2019-12-31 23:23:26 · 1605 阅读 · 0 评论 -
计算机会议排名
CORE Computer Science Conference Rankings Acronym Standard Name Rank AAAI National Conference of the American Association for Artificial Intelligence A+ AAMAS International Co...转载 2018-07-30 17:39:11 · 4325 阅读 · 0 评论 -
『 论文阅读』:Convolutional Neural Networks for Sentence Classification
AbstractCNN应用于文本分类系列实验表明,使用很少超参合静态变量的CNN在多分类任务上表现出色。fine-tuning的词向量还能提高性能。本文同时利用了微调和静态的词向量(multi-channel)。1 IntroductWord vectors: train by Mikolov, on 100 billion words of Google News , 词向量...原创 2018-07-21 10:22:43 · 1559 阅读 · 0 评论 -
『 论文阅读』U-Net Convolutional Networks for Biomedical Image Segmentation
U-Net Convolutional Networks for Biomedical Image Segmentation用于生物医学图像分割的U-Net卷积网络Abstract普遍认为,深度网络的成功培训需要数千个带注释的训练样本。在本文中,提出了一种网络和培训策略,依靠强大的数据增强功能(data augmentation)更有效地使用可用的注释示例。该体系结构包括捕捉上下文...翻译 2018-04-26 18:55:19 · 6537 阅读 · 6 评论 -
LaTeX常用数学符号
常用表示数学模式重音符小写希腊字母大写希腊字母二元关系符二元运算符大尺寸运算符箭头定界符其他符号AMS符号数学字母Reference推荐 http://detexify.kirelabs.org/classify.html 可以手写识别符号,给出LaTeX代码。常用表示指数和下标使用^和_后加相应字符来实现:a_{1} = a1a1a_{1}; ...原创 2017-05-15 11:08:23 · 20274 阅读 · 2 评论 -
『 论文阅读』XGBoost原理-XGBoost A Scalable Tree Boosting System
ABSTRACT1. INTRODUCTIONContributions2. TREE BOOSTING IN A NUTSHELL2.1 Regularized Learning Objective2.2 Gradient Tree Boosting2.3 Shrinkage and Column Subsampling3. SPLIT FINDING ALGORITH...原创 2017-08-03 16:27:04 · 825 阅读 · 0 评论 -
XGBoost A Scalable Tree Boosting System
目录ABSTRACT1. INTRODUCTIONContributions2. TREE BOOSTING IN A NUTSHELL2.1 Regularized Learning Objective2.2 Gradient Tree BoostingReference看了LightGBM的论文之后,在从头看XGBoost论文,之前虽然看过,现在对比看的时候又有原创 2017-05-10 10:12:36 · 574 阅读 · 1 评论 -
『 论文阅读』LightGBM原理-LightGBM: A Highly Efficient Gradient Boosting Decision Tree
Abstract1. Introduction2. Preliminaries2.1 GBDT and Its Complexity Analysis2.2 Related Work3. Gradient-based One-Side Sampling3.1 Algorithm Description3.2 Theoretical Analysis4 Exclusive...原创 2018-07-03 10:29:05 · 19407 阅读 · 12 评论 -
『 DSSM』A Multi-View Deep Learning Approach for Cross Domain User Modeling in Recommendation Systems
AbstractContributionData SetDSSM FOR USER MODELING IN RECOMMENDATION SYSTEMSword hashingDSSM训练MULTI-VIEW DEEP NEURAL NETWORKData inputUser featuresNews featuresApp featuresMovieTV feature翻译 2017-12-15 11:23:05 · 10173 阅读 · 1 评论 -
『 论文阅读』Understanding deep learning requires rethinking generalization
ABSTRACTINTRODUCTION1 CONTRIBUTIONS11 Randomization tests12 The role of explicit regularization13 有限的样本表达 Finite sample expressivity14 The role of implicit regularizationEFFECTIVE CAPACITY原创 2017-05-04 10:30:10 · 3782 阅读 · 0 评论 -
NIPS 2016 主题概览
NIPS 2016最全盘点:主题详解、前沿论文及下载资源《吴恩达 NIPS 2016 演讲现场直击:如何使用深度学习开发人工智能应用?》 「nuts and bolts of building AI」 Scale driving Deep Learning progressesthe rise of end-to-end learning:更纯粹,但需要更大的训练集机器学习策略:如何有效转载 2017-05-04 15:09:35 · 996 阅读 · 0 评论 -
IEEE参考文献格式
由于国外期刊参考文献与国内参考文献的格式有很大区别,其中最常用的参考文献为会议论文、书籍、期刊文献,所以特别在此记录说明,方便以后使用。 会议论文(Published Conference Proceedings style) [1] 作者,“文章名字,”会议名称,地点,年份,页码 [1] S. P. Bingulac, “On the compatibility of...原创 2017-04-04 09:48:33 · 55876 阅读 · 1 评论