- 博客(5)
- 资源 (4)
- 问答 (1)
- 收藏
- 关注
原创 Leetcode106 由中序序列和后序序列构建二叉树
最难的地方在于对序列的下标计算,比如给定一个序列,开始下标是i,那么下标i+1就是开始元素的后一个元素,注意到,1还是当前元素组成的列表的元素个数。即i + size,是包含i元素在内的size个数组的最后一个元素的后面一个位置的下标边界。所以对中序序列的划分,左子树是[inL, inL + leftTreeSize),右子树是[inL + leftTreeSize + 1, inR),其中in...
2019-01-21 16:10:12 465
原创 基于Keras搭建mnist数据集训练识别的Pipeline
搭建模型import tensorflow as tffrom tensorflow import keras# get data(train_images, train_labels), (test_images, test_labels) = keras.datasets.mnist.load_data()# setup modelmodel = keras.Sequentia...
2019-01-18 13:48:52 680
原创 正则化与奥卡姆剃刀原理
正则化是模型选择的经典方法。在想到正则化时,需要联系到这个词:结构风险最小化。结构风险 = 经验风险 + 正则化项/罚项且一般正则化项是模型复杂度的单调递增函数,即模型越复杂正则化项值就越大。奥卡姆剃刀原理“如无必要,勿增实体。”正则化很符合奥卡姆剃刀原理。为什么呢?正则化可以选出经验风险和模型复杂度同时较小的模型,正则化是直接作用在优化目标里面的。在所有可能选择的模型中,能很好...
2019-01-14 20:15:06 1126
原创 【深度学习】全连接层or卷积层
对于图像处理任务而言,在经过一连串的卷积、池化操作后,最后要接一个全连接层来对提取到的特征进行分类或者回归。一般前面带卷积操作的被称之为卷积基,后面跟一层或多层或全连接层。卷积神经网络中流动的是3维/4维张量,是含有空间特征的数据。全连接层则接受的是二维矩阵。比如,现在卷积网络输出的是7x7x512的张量,现在后面跟着1000类的分类神经元,则需要参数是:7x7x512x1000 + 10...
2019-01-14 19:13:24 1212
原创 【深度学习原理】交叉熵损失函数的实现
交叉熵损失函数一般我们学习交叉熵损失函数是在二元分类情况下:L=−[ylogy^+(1−y)log(1−y^)]L=−[ylog ŷ +(1−y)log (1−ŷ )]L=−[ylogy^+(1−y)log(1−y^)]推而广之,我们可以得到下面这个交叉熵损失函数公式:E=−∑ktklog(yk)E=-\sum_k{t_k}log(y_k)E=−k∑tklog(yk)从...
2019-01-03 23:19:47 8780 1
TensorFlow for Deep Learning: From Linear Regression to Reinforcement Learning
2018-03-14
Hands-On Machine Learning with Scikit-Learn and TensorFlow -- 2017.3月第一版 + 对应代码
2018-01-28
Practical Python and OpenCV + Case Study均为第三版两本书用Python3
2017-12-11
C++ Primer第五版翻译--队列适配器
2016-09-06
TA创建的收藏夹 TA关注的收藏夹
TA关注的人