自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 Transformer 是拥抱数据不确定性的艺术

Transformer的架构、训练及推理等都是在Bayesian神经网络不确定性数学思维下来完成的。Encoder-Decoder架构、Multi-head注意力机制、Dropout和残差网络等都是Bayesian神经网络的具体实现;基于Transformer各种模型变种及实践也都是基于Bayesian思想指导下来应对数据的不确定性;混合使用各种类型的Embeddings来提供更好Prior信息其实是应用Bayesian思想来集成处理信息表达的不确定性、各种现代NLP比赛中高分的作品也大多是通过集成Ro..

2021-11-14 22:41:58 142

原创 基于Transformer的NLP智能对话机器人实战课程(第二十二章、第二十三章、第二十四章)

关键字:Transformer,注意力机制,Attention机制,Transfomer课程,Transformer架构,Transformer模型,对话机器人,NLP课程,NLP,自然语言处理,知识图谱,命名实体识别“Transformer的Multi-Head Self Attention机制是目前人工智能领域最佳的Bayesian理论的架构实现,这也促使Transformer 成为了人工智能近几年和接下来可能数十年进步的核心推动力及底层通用引擎。”第22章:揭秘针对Cloze Tes.

2021-11-13 16:07:02 183

原创 基于Transformer的NLP智能对话机器人实战课程(第二十二章、第二十三章、第二十四章)

"数学是思维的兴奋剂,总是时不时的通过自然流淌 Revelation 让人感受生命中源源不断的 Serendipities, 例如当 Chain Rule 和 Bayesian理论在大脑中完美融合,一切的美好皆环环相扣。"第22章:揭秘针对Cloze Tests基于Attention机制的的MRC领域开山之作:Teaching Machines to Read and Comprehend架构设计及完整源码实现1,对Text提供精细化的语言理解能力和推理能力的MRC为何需要Neural N...

2021-11-13 16:02:20 619

原创 基于Transformer的NLP智能对话机器人实战课程(第十九章、第二十章、第二十一章)

“如果说 Transformer 是人工智能时代的芯片,那么StarSpace 就是AI 时代的操作系统。”第19章:NLP阅读理解MRC(Machine Reading Comprehension)数学原理、技术本质及常见算法1,以一篇119个Words的GRE(Graduate Record Examinations)文章及2个相应的阅读理解题目为例来剖析阅读理解的过程及其背后的机制2,MRC在智能客服、机器问答、搜索引擎等等广泛应用背后的原因:规模化价值复制3,信息的本质及信...

2021-11-13 15:57:22 863

原创 基于Transformer的NLP智能对话机器人实战课程(第十六章、第十七章、第十八章)

“万物皆流,一静一动现天机。入门了 Transformer 的心智应该是拥有基于贝叶斯模型来体悟流动的 Matrix 之美的能力。”第16章:Kaggle BERT比赛CommonLit Readability Prize赛题解析、Baseline代码解析、及比赛常见问题1,以问题为导向的Kaggle Data Competition分析2,为何Kaggle上的NLP 80%以上都是文本分类比赛,并必须使用Neural Networks?3,文本复杂度衡量不同类型实现技术分析4,比...

2021-11-13 15:54:40 419

原创 基于Transformer的NLP智能对话机器人实战课程(第十三章、第十四章、第十五章)

“贝叶斯已经指明 Transformer 中一切全局的优化方法和局部的优化重点,例如在 Input 端混合使用多层次多样化的 Embeddings 进行联合信息表示,往往都会有更快的收敛速度和获得更高质量的训练模型。”NLP on Transformers 101(基于Transformer的NLP智能对话机器人实战课程)One Architecture,One Course,One Universe本课程以Transformer架构为基石、萃取NLP中最具有使用价值的...

2021-11-13 15:50:44 481

原创 基于Transformer的NLP智能对话机器人实战课程(第十章、第十一章、第十二章)

“基于贝叶斯,Transformer 是在 Data 的流沙之中建立机器智能最优雅的架构,是捕获数据中的不确定的艺术。”NLP on Transformers 101(基于Transformer的NLP智能对话机器人实战课程)One Architecture,One Course,One Universe本课程以Transformer架构为基石、萃取NLP中最具有使用价值的内容、围绕手动实现工业级智能业务对话机器人所需要的全生命周期知识点展开,学习完成后不仅能够从算法、...

2021-11-13 15:45:06 230

原创 基于Transformer的NLP智能对话机器人实战课程(第七章、第八章、第九章)

“Transformer 的一切高级形态归根结底都是基于贝叶斯的线性变换。”NLP on Transformers 101(基于Transformer的NLP智能对话机器人实战课程)One Architecture,One Course,One Universe本课程以Transformer架构为基石、萃取NLP中最具有使用价值的内容、围绕手动实现工业级智能业务对话机器人所需要的全生命周期知识点展开,学习完成后不仅能够从算法、源码、实战等方面融汇贯通NLP领域NLU、...

2021-11-13 15:39:58 118

原创 基于Transformer的NLP智能对话机器人实战课程(第四章、第五章、第六章)

NLP on Transformers 101(基于Transformer的NLP智能对话机器人实战课程)One Architecture,One Course,One Universe本课程以Transformer架构为基石、萃取NLP中最具有使用价值的内容、围绕手动实现工业级智能业务对话机器人所需要的全生命周期知识点展开,学习完成后不仅能够从算法、源码、实战等方面融汇贯通NLP领域NLU、NLI、NLG等所有核心环节,同时会具备独自开发业界领先智能业务对话机器人...

2021-11-13 15:36:00 319

原创 这些Transfomer问题你都会,你就是顶级专家

Transfomer课程,Transformer架构,Transformer,对话机器人,NLP课程,NLP***************************************************************************************Transformer中的可训练Queries、Keys和Values矩阵从哪儿来?Transformer中为何会有Queries、Keys和Values矩阵,只设置Values矩阵本身来求Attention不是更..

2021-11-12 17:34:24 253

原创 这些NLP面试问题你都会么

Transfomer课程,Transformer架构,Transformer,对话机器人,NLP课程,NLP什么是词嵌入词嵌入的实现方式NLP中的文本表示方法有几种NLP中文本分布式表示fasttext模型的结构,模型中的优点复杂结构模型和简单结构模型的优缺点什么是贝叶斯公式怎么使用朴素贝叶斯分类聚类算法有几种,简单介绍几种什么是降维算法什么是主题模型介绍一下wordvector的实现方式隐马尔科夫模型中前向和后向算法,vertibe算法什么是贝叶斯网络,模型主要原理什么..

2021-11-12 17:31:12 111

原创 基于 Transformer 的 NLP 智能对话机器人实战课程

NLP on Transformers 101One Architecture, One Course,One Universe本课程以 Transformer 架构为基石、萃取 NLP 中最具有使用价值的内容、围绕手动实现工业级智能业务对话机器人所需要的全生命周期知识点展开,学习完成后不仅能够从算法、源码、实战等方面融汇贯通NLP领域 NLU、NLI、NLG 等所有核心环节,同时会具备独自开发业界领先智能业务对话机器人的知识体系、工具方法、及参考源码,成为具备 NLP 硬实力的业界Top...

2021-11-10 11:48:58 565

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除