- 博客(49)
- 资源 (42)
- 收藏
- 关注
原创 Gumbel-Softmax 对离散变量再参数化
https://zhuanlan.zhihu.com/p/50065712https://zhuanlan.zhihu.com/p/35218887https://www.cnblogs.com/initial-h/p/9468974.htmlhttps://blog.csdn.net/weixin_40255337/article/details/83303702
2020-09-30 18:07:43 342
转载 VAE变分自编码机详解——原理篇
https://zhuanlan.zhihu.com/p/108262170?from_voters_page=true
2020-09-30 17:21:34 187
转载 Relation Network
https://blog.csdn.net/jesseyule/article/details/103808718
2020-09-30 11:07:05 243
原创 Matching networks
https://www.cnblogs.com/veagau/p/12164335.htmlhttps://zhuanlan.zhihu.com/p/32101204https://blog.csdn.net/bryant_meng/article/details/80662322
2020-09-30 11:03:45 225
转载 Siamese network 孪生神经网络--一个简单神奇的结构
名字的由来Siamese和Chinese有点像。Siam是古时候泰国的称呼,中文译作暹罗。Siamese也就是“暹罗”人或“泰国”人。Siamese在英语中是“孪生”、“连体”的意思,这是为什么呢?十九世纪泰国出生了一对连体婴儿,当时的医学技术无法使两人分离出来,于是两人顽强地生活了一生,1829年被英国商人发现,进入马戏团,在全世界各地表演,1839年他们访问美国北卡罗莱那州后来成为“玲玲马戏团” 的台柱,最后成为美国公民。1843年4月13日跟英国一对姐妹结婚,恩生了10个小孩,昌生了12个,姐
2020-09-30 10:46:13 831
转载 元学习: 学习如何学习【译】
https://wei-tianhao.github.io/blog/2019/09/17/meta-learning.html
2020-09-30 10:43:18 94 1
原创 Evolution Strategies
https://lilianweng.github.io/lil-log/2019/09/05/evolution-strategies.html文章列表:https://lilianweng.github.io/lil-log/archive.html
2020-09-30 10:28:56 189
原创 跨域预训练语言模型(XLM)
Cross-lingual Language Modelhttps://blog.csdn.net/xygl2009/article/details/103156433https://blog.csdn.net/ljp1919/article/details/97016298
2020-09-29 16:56:50 192
原创 adaptive embedding
https://blog.csdn.net/guotong1988/article/details/87618245
2020-09-29 16:09:38 278
原创 Relative Positional Encodings
参考:https://www.cnblogs.com/shiyublog/p/11185625.htmlhttps://www.cnblogs.com/shiyublog/p/11236212.html第一部分目录Motivation 概述 符号含义 实现 高效实现 结果对于Transformer模型的positional encoding,最初在Attention is all you need的文章中提出的是进行绝对位置编码,之后Shaw在2018年的文章中提出了..
2020-09-29 11:01:23 2635 1
转载 Knowledge Distillation
https://blog.csdn.net/nature553863/article/details/80568658
2020-09-28 12:06:10 140
原创 NLP中的平滑技术
https://blog.csdn.net/shao1996/article/details/102619728https://www.jianshu.com/p/f7d6f7a59ba5
2020-09-28 09:48:22 134
原创 Global Average Pooling、Global Max Pooling
https://www.zhihu.com/question/358913301https://blog.csdn.net/qq_16234613/article/details/79520929https://www.cnblogs.com/hutao722/p/10008581.html
2020-09-26 18:27:09 542
原创 TCN
https://www.jianshu.com/p/4280f104ddf7https://blog.csdn.net/qq_27586341/article/details/90751794
2020-09-18 18:31:33 240
原创 因果卷积(causal Convolutions)和扩展卷积(Dilated Convolutions)
https://blog.csdn.net/u013195114/article/details/105565696https://blog.csdn.net/qq_34107425/article/details/105522916
2020-09-18 18:29:32 708
原创 BIM BM25 算法
https://blog.csdn.net/SrdLaplace/article/details/84954920https://www.jianshu.com/p/b4f06594d32fhttps://blog.csdn.net/Tink1995/article/details/104745144/
2020-09-18 11:55:15 301
原创 TextRank
https://www.cnblogs.com/motohq/p/11887420.htmlhttps://www.jianshu.com/p/ffaee5708866
2020-09-18 10:39:13 77
原创 距离度量以及python实现
传统距离:欧氏距离(Euclidean Distance),曼哈顿距离(Manhattan Distance),切比雪夫距离( Chebyshev Distance ),闵可夫斯基距离(Minkowski Distance),标准化欧氏距离(Standardized Euclidean distance ),马氏距离(Mahalanobis Distance),夹角余弦(Cosine),皮尔逊相关系数(Pearson correlation),汉明距离(Hamming distance),杰卡德相似系...
2020-09-18 10:14:18 466
原创 GPT 1-2 理解
https://blog.csdn.net/linchuhai/article/details/97274228https://www.cnblogs.com/yifanrensheng/p/13167796.htmlhttps://baijiahao.baidu.com/s?id=1652093322137148754&wfr=spider&for=pchttps://baijiahao.baidu.com/s?id=1652045261459975418&wfr=sp
2020-09-17 12:30:21 193
原创 XLNET详解
https://blog.csdn.net/u012526436/article/details/93196139https://zhuanlan.zhihu.com/p/70257427https://blog.csdn.net/weixin_37947156/article/details/93035607https://baijiahao.baidu.com/s?id=1654814515140351919&wfr=spider&for=pc
2020-09-16 14:32:04 186
转载 Deformable Convolutional Networks
1 空洞卷积1.1 理解空洞卷积在图像分割领域,图像输入到CNN(典型的网络比如FCN)中,FCN先像传统的CNN那样对图像做卷积再pooling,降低图像尺寸的同时增大感受野,但是由于图像分割预测是pixel-wise的输出,所以要将pooling后较小的图像尺寸upsampling到原始的图像尺寸进行预测,之前的pooling操作使得每个pixel预测都能看到较大感受野信息。因此图像分割FCN中有两个关键,一个是pooling减小图像尺寸增大感受野,另一个是upsampling扩大图像尺寸。在先
2020-09-15 19:06:10 1104
原创 ELMO模型
https://www.cnblogs.com/jiangxinyang/p/10060887.htmlhttps://jozeelin.github.io/2019/07/25/ELMo/http://www.mamicode.com/info-detail-2541410.htmlhttps://zhuanlan.zhihu.com/p/38254332
2020-09-15 14:41:05 110
原创 Transformer-XL
https://zhuanlan.zhihu.com/p/180058518https://zhuanlan.zhihu.com/p/70745925
2020-09-14 12:29:42 180
原创 Google BERT原理详解 一文读懂BERT
理论:https://zhuanlan.zhihu.com/p/46652512https://www.cnblogs.com/anai/p/11645953.htmlhttps://blog.csdn.net/sunhua93/article/details/102764783https://www.cnblogs.com/rucwxb/p/10277217.htmlhttp://blog.itpub.net/31559354/viewspace-2636278/https://w
2020-09-14 11:46:35 261
转载 BERT论文解读
转载:https://www.cnblogs.com/anai/p/11645953.htmlBERT论文解读本文尽量贴合BERT的原论文,但考虑到要易于理解,所以并非逐句翻译,而是根据笔者的个人理解进行翻译,其中有一些论文没有解释清楚或者笔者未能深入理解的地方,都有放出原文,如有不当之处,请各位多多包含,并希望得到指导和纠正。...
2020-09-14 11:05:18 106
原创 深入理解NLP Subword算法:BPE、WordPiece、ULM ,sentencepiece
https://zhuanlan.zhihu.com/p/86965595https://zhuanlan.zhihu.com/p/75271211
2020-09-14 10:28:35 573
转载 一文读懂BERT中的WordPiece BPE
0. 目录1. 前言 2. WordPiece原理 3. BPE算法 4. 学习资料 5. 总结回到顶部1. 前言2018年最火的论文要属google的BERT,不过今天我们不介绍BERT的模型,而是要介绍BERT中的一个小模块WordPiece。回到顶部2. WordPiece原理现在基本性能好一些的NLP模型,例如OpenAI GPT,google的BERT,在数据预处理的时候都会有WordPiece的过程。WordPiece字面理解是把word拆成piece一片.
2020-09-14 10:00:37 2161
原创 DenseNet:密集连接卷积网络
https://www.jianshu.com/p/0b8fc900abefhttps://blog.csdn.net/u014380165/article/details/75142664
2020-09-14 09:56:49 228
原创 MobileNet
https://blog.csdn.net/mzpmzk/article/details/82976871https://www.cnblogs.com/yanshw/p/12563872.htmlhttps://www.cnblogs.com/dengshunge/p/11334640.html
2020-09-13 18:20:25 87
转载 Depthwise Separable Convolution详解
https://blog.csdn.net/sinat_26114733/article/details/89076714
2020-09-13 17:55:28 160
原创 标签平滑Label Smoothing
https://blog.csdn.net/qq_43211132/article/details/100510113https://blog.csdn.net/sinat_36618660/article/details/100166957
2020-09-13 16:57:22 138
转载 神经网络加速库 QNNPACK 实现揭秘
https://zhuanlan.zhihu.com/p/81026071引言QNNPACK(Quantized Neural Networks PACKage) 是 Marat Dukhan (Facebook) 开发的专门用于量化神经网络计算的加速库。其卓越的性能表现一经开源就击败了几乎全部已公开的加速算法,甚至直至今日(2019 年中)。QNNPACK 开源时附带了一份技术博客简要介绍了其主要的实现技巧,最近开发者又发表了论文介绍其中卷积的优化方法。然两份文献过于概略,而具体代码又比较晦.
2020-09-11 09:37:49 1387
转载 FBGEMM 开源,用于最先进的服务器端推理
https://blog.csdn.net/yiran103/article/details/84886226
2020-09-11 09:29:57 213
Pro Go The Complete Guide -go语言学习最新书籍
2023-06-19
Advanced_Programming_in_the_UNIX_Environment,_3rd
2018-11-30
Deep_Learning_Quick_Reference
2018-09-01
Convex Optimization Algorithms
2018-09-01
Guide.to.Medical.Image.Analysis.Methods.and.Algorithms
2018-09-01
Python Machine Learning Machine Learning and Deep Learning
2018-03-27
Data Structures and Algorithms Using Python and C++
2018-03-27
R_for_Data_Science
2018-03-27
Machine Learning and Deep Learning with Python, scikit-learn, and TensorFlow
2018-03-17
Approximate.Dynamic.Programming.2011
2018-01-17
Swarm Intelligence Principles Advances and Applications
2018-01-13
Reinforcement Learning With Open A TensorFlow and Keras Using Python.pdf
2017-12-18
Fundamentals of Deep Learning完整非扫描版本2017
2017-12-16
Text Mining in Practice with R 2017.12
2017-12-13
Text_Mining-From_Ontology_Learning_to_Automated_Text_Processing_Applications
2017-12-13
Tensorflow 机器学习参考手册2007
2017-11-22
Spark大数据处理技术 带标签 完整版
2017-11-12
模式分类11
2016-11-07
集体编程智慧
2016-11-07
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人