- 博客(7)
- 收藏
- 关注
原创 朴素贝叶斯
最近打算写一些偏基础的东西,尽量讲简单点吧,可能会有漏洞,各位大佬别喷,先从简单的朴素贝叶斯开始朴素嘛,说白了就是比较简单,因为它基于了一个强假设,就是几个特征之间相互独立(也就是没有啥关系,比如你是不是丑和明天太阳是不是升起就是独立的)。然后几个概念:先验概率:就是看的到的概率(比如一堆苹果,你知道红的有多少个,大的有多少个,数数就知道的东西)后验概率:就是一下子看过去不知道的概...
2018-09-06 15:32:10 195
原创 TensorFlow学习之CS20SI 之二
1. 先来一个TensorFlow的“Hello World”import tensorflow as tfa = tf.constant(2)b = tf.constant(3)x = tf.add(a, b)with tf.Session() as sess: print sess.run(x)这就是一个最简单的tensorflow小程序啦,做的事情就是把a和b加起来
2017-08-13 21:09:17 334
原创 TensorFlow学习之CS20SI 之一
首先,什么是tensor?tensor就是一个n维的矩阵,要是0维就是个数,1维就是个vector,2维就是个二维矩阵。。。然后,什么是Data Flow Graph?就是上面这样,表示数据流动的运算图,在图中节点(Nodes)就是:运算(operators)、变量(variables)、常量(constants),边就是tensors怎么创建一个Graph? tf.Gra
2017-08-13 19:33:21 286
翻译 LSTM
LSTM1.背景RNN很好用啊,但是有问题啊,就是当时间间隔比较远的话就不好用了(原文的话asthe gap grows, RNNs become unable to learn to connect the information).没懂没关系,举个栗子:比如这句话中“the clouds are in the sky,”我们要猜最后一个单词。基本是根据clouds猜出的sk
2017-03-16 17:28:24 708
转载 各类优化方法总结
作者:困兽链接:https://zhuanlan.zhihu.com/p/22252270来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。前言 (标题不能再中二了)本文仅对一些常见的优化方法进行直观介绍和简单的比较,各种优化方法的详细内容及公式只好去认真啃论文了,在此我就不赘述了。SGD 此处的SGD指mini-batch gradie
2017-02-19 21:59:59 1492
翻译 用caffe用LeNet来训练MNIST
用caffe用LeNet来训练MNIST首先假定你的caffe安装在CAFFE_ROOT1. 准备数据集cd $CAFFE_ROOT./data/mnist/get_mnist.sh./examples/mnist/create_mnist.shget_mnist.sh从网上down下mnist的数据集,create_mnist.sh把数据放在工作目录下。运行完之后应该
2017-02-19 20:26:33 487
原创 Thensorflow 在GPU上运行
Thensorflow 在GPU上运行 首先,可以在sess中使得log_device_placement 为True来查看每一部分在哪里执行 import tensorflow astfa = tf.constant([1.0,2.0, 3.0, 4.0,5.0, 6.0], shape=[2,3], name='a')b = tf.constan
2016-10-22 20:36:53 3494
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人