深度学习
是晨星啊
keep coding...
展开
-
win10+anaconda3+python3.7+pytorch-cpu安装
使用 conda install torchvision,会自动安装 pytorch 模块原创 2020-01-31 15:59:07 · 2661 阅读 · 0 评论 -
汉字的字向量、词向量和表示学习(中文词向量)
现在有个想法是将汉字拆分成偏旁部首或者笔画,想法来自 fastText 的 n-gram 字符集。(注意:在 Chinese NLP 领域, 应该默认以 word 为词, character 为字, 本文也是如此. 以后如无意外, 不再赘述。)fastText:2016年 facebook 的论文Enriching Word Vectors with Subword Informationc...转载 2019-05-08 11:55:18 · 7570 阅读 · 3 评论 -
1X1卷积核到底有什么作用呢?
对于单通道的feature map和单个卷积核之间的卷积来说,题主的理解是对的,CNN里的卷积大都是多通道的feature map和多通道的卷积核之间的操作(输入的多通道的feature map和一组卷积核做卷积求和得到一个输出的feature map),如果使用1x1的卷积核,这个操作实现的就是多个feature map的线性组合,可以实现feature map在通道个数上的变化。接在普通的卷积...转载 2019-02-22 12:13:04 · 224 阅读 · 0 评论 -
优化器综述
如何选择优化器非常好的一篇博客,翻译综述论文https://blog.csdn.net/aliceyangxi1987/article/details/73210204转载 2018-10-22 20:19:40 · 341 阅读 · 0 评论 -
机器学习与深度学习
共同点:都有学习这一过程预测:根据学习阶段学习到的模型参数,预测结果,模型可以是联合概率模型(分布)先学习,后分类或预测。原创 2018-10-22 11:05:19 · 178 阅读 · 0 评论 -
RNN系列之四 长期依赖问题
长期依赖问题 能解决长期依赖问题的神经网络,记忆的内容越长。 The cat, which already ate a bunch of food, was full. The cats, which already ate a bunch of food, were full. cat 和 was cats 和 were 两个长期依赖。 https://blog.csdn.n...原创 2018-08-19 21:25:21 · 2039 阅读 · 0 评论 -
一张图看懂AI、机器学习和深度学习的区别
机器学习则是人工智能领域的一个小分支,如果说AI是一个合集,那么ML就是AI的子集。 任何通过数据训练的学习算法的相关研究都属于机器学习,包括很多已经发展多年的技术,比如线性回归(Linear Regression)、K均值(K-means,基于原型的目标函数聚类方法)、决策树(Decision Trees,运用概率分析的一种图解法)、随机森林(Random Forest,运用概率分析的一种图解...转载 2018-07-22 11:22:59 · 2741 阅读 · 0 评论 -
RNN学习
https://www.jianshu.com/p/9dc9f41f0b29转载 2018-04-25 02:22:10 · 149 阅读 · 0 评论 -
如何理解 GAN
IRGAN RNNMF GAN: 妖精和悟空的故事 猴子(火眼金睛)和妖精(伪装者,变成人的模样) 判别器:猴子 生成器:妖精原创 2018-03-17 19:13:54 · 296 阅读 · 0 评论 -
Autoencoder
It turns out that a well-defined Autoencoder can compete with the best Collaborative Fitering algorithms.Paper: Strub, F., Mary, J., Gaudel R., (2016). Hybrid Collaborative Filterings and Neural Net...原创 2018-03-15 09:16:27 · 548 阅读 · 0 评论 -
RNN & Attention
RNN http://www.cnblogs.com/taojake-ML/p/6272605.html LSTM 中的图标Attention http://blog.csdn.net/jdbc/article/details/52948351?locationNum=2&fps=1原创 2018-03-14 20:09:05 · 999 阅读 · 0 评论 -
CNN
卷积运算:做减法,一般有重叠,跟步长相关,步长默认为1。 池化运算:做除法,不重叠,步长等于池化的 size 大小。 李兵同学原创 2018-03-14 20:08:33 · 239 阅读 · 0 评论 -
CUDA 和 GPU
博客要找评论量多的,这样的博客才能帮助解决问题,论文要找引用量大的,这样的论文才有影响力 博客写上时间线,更有条理性。不时根据评论更新内容。 http://blog.csdn.net/u010099080/article/details/53418159TensorFlow 1.2 VS2015 CUDA 8.0 cuDNN 5.1=================== Te原创 2017-09-11 14:25:41 · 261 阅读 · 0 评论 -
57个深度学习专业术语
激活函数(Activation Function)为了让神经网络能够学习复杂的决策边界(decision boundary),我们在其一些层应用一个非线性激活函数。最常用的函数包括 sigmoid、tanh、ReLU(Rectified Linear Unit 线性修正单元) 以及这些函数的变体。AdadeltaAdadelta 是一个基于梯度下降的学习算法,可以随时间调整适应每个参转载 2017-09-15 20:54:30 · 1892 阅读 · 0 评论