机器学习
文章平均质量分 66
罗自荣
这个作者很懒,什么都没留下…
展开
-
网上比较好的机器学习技术文章
极大似然法通俗易懂的介绍: http://blog.csdn.net/zouxy09/article/details/8537620 思想是:已知某个参数能使这个样本出现的概率最大原创 2015-12-09 10:46:33 · 416 阅读 · 0 评论 -
TensorFlow中的一个重要ops---MatMul的实现(二)
上面一篇文章我们主要介绍了MatMul这个op的正向计算的实现,我们知道模型的最后一步是计算优化模型的参数,而一般采用的方法是梯度下降法,所以每个op节点不仅要实现一个正向的计算节点,还要实现一个方向的梯度计算节点。 关于反向计算的结点官网有如下一段介绍: Implement the gradient in Python Given a graph of ops, TensorFlo原创 2017-04-10 20:22:35 · 5220 阅读 · 0 评论 -
TensorFlow中的一个重要op---MatMul的实现(一)
本文目的是以Tensorfl中的MatMul这个具有代表性又比较简单的ops为例介绍一下TensorFlow中的图的节点是怎么实现的。我个人认为TensorFlow中的ops是整个TensorFlow的核心,如果理解了这个,那么对TensorFlow就有了比较深的认识。 在阅读这段代码前看一下官方文档中的添加新的op会很有帮助: 中文翻译:http://www.tensorfly.cn/t原创 2017-04-09 00:00:18 · 16227 阅读 · 4 评论 -
基于docker安装spark
1.首先下载镜像并启动: docker pull sequenceiq/spark:1.5.1 sudo docker run -it sequenceiq/spark:1.5.1 bash2.修改配置 首先用ifconfig得到ip地址,我的ip是172.17.0.109,然后: bash-4.1# cd /usr/local/spark bash-4.1# cp conf/spark-原创 2017-04-26 15:11:20 · 2690 阅读 · 1 评论 -
神经网络中 BP 算法的原理与 PYTHON 实现源码解析
最近这段时间系统性的学习了 BP 算法后写下了这篇学习笔记,因为能力有限,若有明显错误,还请指正。 什么是梯度下降和链式求导法则 假设我们有一个函数 J(w),如下图所示。 梯度下降示意图 现在,我们要求当 w 等于什么的时候,J(w) 能够取到最小值。从图中我们知道最小值在初始位置的左边,也就意味着如果想要使 J(w) 最小,w的值需要减小。而转载 2017-06-08 10:27:12 · 2686 阅读 · 0 评论 -
TensorFlow word2vec_basic 代码分析
将字母向量化(即 word embedding)是NLP的基础,在TensorFlow中有一个简单的实现即word2vec(这篇文章主要关注他的基本实现,demo在这个目录下:tensorflow/examples/tutorials/word2vec/word2vec_basic.py)。关于word2vec的介绍非常多理论也一堆一堆的,下面是本文参考的几篇主要的理论文章: http://ww原创 2017-06-15 11:35:17 · 5836 阅读 · 3 评论