TensorFlow
文章平均质量分 58
土逗甜菜
这个作者很懒,什么都没留下…
展开
-
Neural Networks and Deep Learning 学习笔记(一)
1. 为什么假设w⋅x≡∑jwjxjw \cdot x \equiv \sum_j w_j x_j后,ww与xx就变成向量了?原创 2016-06-07 10:40:14 · 860 阅读 · 0 评论 -
什么是熵?
神经网络中遇到了这个词(entropy)。发现高中学的都忘光了,百度搜出来的都是一个一头雾水的体系的混乱程度,维基百科又看不懂……但是看到了一个很好的评论。 @brucefan 我是教热力学的,应该能说清楚。为了知道一个量的意义,可以考察一个过程中该量的变化。在一个压强恒定的过程中,一个系统吸收的热量等于系统的焓的变化量。所以,焓是和内能类似的一个量,是一个热力学函数。熵也是一个类似的热力原创 2016-08-04 19:11:49 · 970 阅读 · 0 评论 -
Neural Networks and Deep Learning 学习笔记(八)
softmax 是啥形式就是aj=ezj∑iezia_j = \frac {e^{z_j}}{\sum_i e^{z_i}}大体就是把所有输出加起来当分母,分子是某个指定的输出,就好比抛100次硬币,正面的数量是z1z_1, 反面的数量是z2z_2,立起来的数量是z3z_3。则立起来的可能性是多少呢? 显然是 a3=z3z1+z2+z3a_3 = \frac {z_3}{z_1 + z_2 + z原创 2016-07-04 10:36:59 · 464 阅读 · 0 评论 -
Neural Networks and Deep Learning 学习笔记(九)
遇到了瓶颈(很多地方似懂非懂),先转战另一本书: 据说MIT出版社出版的深度学习原创 2016-07-14 14:06:24 · 346 阅读 · 0 评论 -
Neural Networks and Deep Learning 学习笔记(七)
学习笔记原创 2016-06-24 17:31:34 · 519 阅读 · 0 评论 -
Neural Networks and Deep Learning 学习笔记(十一)
学习Udacity上的DeepLearning视频,第一个assignment是tensorflow官方git上example里的1_notmnistProblem 1Let’s take a peek at some of the data to make sure it looks sensible. Each exemplar should be an image of a characte原创 2016-07-23 18:56:02 · 862 阅读 · 0 评论 -
Neural Networks and Deep Learning 学习笔记(十)
MIT那本书不适合短平快的学习方式,转战Udacity里基于Tensorflow的一个视频教学1. softmax的优势格式为exi∑jexj\frac {e^{x_i}}{\sum_j e^{x_j}} 相比较xi∑jxj\frac {x_i}{\sum_j x_j}假设原数据为[3.0,1.0,0.2][3.0, 1.0, 0.2] 那么经过softmax运算,则得到[0.8360188,原创 2016-07-22 15:55:19 · 426 阅读 · 0 评论 -
Neural Networks and Deep Learning 学习笔记(六)
1. 如何查看Numpy相应函数的源代码?本人使用的是Ubuntu,内置了python解析器,但是我想看numpy.exp()函数的源代码却发现并不像android studio那样直接ctrl加右击就可以看。于是各种Google……除了去github挨着找以外发现了两种方法比较靠谱的方法:使用IDE PyCharm。JetBrains公司出品的,跟IntelliJ一个公司,鉴于an原创 2016-06-24 15:53:36 · 779 阅读 · 0 评论 -
Neural Networks and Deep Learning 学习笔记(五)
1. 如何理解梯度下降最后变成了 wk→w′k=wk−η∑j∂CXj∂wkw_k \rightarrow w_k' = w_k-\eta \sum_j \frac{\partial C_{X_j}}{\partial w_k}每次都要递归相减一个,不如直接把一小撮∇Cxj\nabla C_{x_j}算出来再直接相减。由于概率论,这一小撮随机的CxjC_{x_j}可以基本代表所有的,然后再选一原创 2016-06-22 09:15:58 · 614 阅读 · 0 评论 -
Neural Networks and Deep Learning 学习笔记(四)
1. 梯度的概念与梯度下降算法原理2. 证明每移动固定的一小步梯度下降算法是最优算法原创 2016-06-17 19:11:08 · 588 阅读 · 0 评论 -
Neural Networks and Deep Learning 学习笔记(三)
1. 怎么理解C(w,b)≡12n∑x∥y(x)−a∥2 C(w,b) \equiv \frac{1}{2n} \sum_x \| y(x) - a\|^2首先,∥v∥\|v\|是指范数 范函是一个函数,其为矢量空间内的所有矢量赋予非零的正长度或大小好吧,这其实是个均方误差函数,可自行查阅百度百科,但是不明白为什么是12n\frac{1}{2n}。2. 什么是梯度下降,为什么要用梯度下降算法。原创 2016-06-16 19:41:57 · 548 阅读 · 0 评论 -
Neural Networks and Deep Learning 学习笔记(二)
1. 第一章习题解答。 There is a way of determining the bitwise representation of a digit by adding an extra layer to the three-layer network above. The extra layer converts the output from the previous layer原创 2016-06-08 17:17:40 · 1838 阅读 · 0 评论 -
Neural Networks and Deep Learning 学习笔记(十二)
Problem 2Let’s verify that the data still looks good. Displaying a sample of the labels and images from the ndarray. Hint: you can use matplotlib.pyplot.import matplotlib as mplset_filename = train_fol原创 2016-08-03 11:23:48 · 739 阅读 · 0 评论