自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Bing's Blog

用心若镜,不将不逆,应而不藏。

  • 博客(5)
  • 资源 (4)
  • 问答 (1)
  • 收藏
  • 关注

原创 Leetcode106 由中序序列和后序序列构建二叉树

最难的地方在于对序列的下标计算,比如给定一个序列,开始下标是i,那么下标i+1就是开始元素的后一个元素,注意到,1还是当前元素组成的列表的元素个数。即i + size,是包含i元素在内的size个数组的最后一个元素的后面一个位置的下标边界。所以对中序序列的划分,左子树是[inL, inL + leftTreeSize),右子树是[inL + leftTreeSize + 1, inR),其中in...

2019-01-21 16:10:12 465

原创 基于Keras搭建mnist数据集训练识别的Pipeline

搭建模型import tensorflow as tffrom tensorflow import keras# get data(train_images, train_labels), (test_images, test_labels) = keras.datasets.mnist.load_data()# setup modelmodel = keras.Sequentia...

2019-01-18 13:48:52 680

原创 正则化与奥卡姆剃刀原理

正则化是模型选择的经典方法。在想到正则化时,需要联系到这个词:结构风险最小化。结构风险 = 经验风险 + 正则化项/罚项且一般正则化项是模型复杂度的单调递增函数,即模型越复杂正则化项值就越大。奥卡姆剃刀原理“如无必要,勿增实体。”正则化很符合奥卡姆剃刀原理。为什么呢?正则化可以选出经验风险和模型复杂度同时较小的模型,正则化是直接作用在优化目标里面的。在所有可能选择的模型中,能很好...

2019-01-14 20:15:06 1126

原创 【深度学习】全连接层or卷积层

对于图像处理任务而言,在经过一连串的卷积、池化操作后,最后要接一个全连接层来对提取到的特征进行分类或者回归。一般前面带卷积操作的被称之为卷积基,后面跟一层或多层或全连接层。卷积神经网络中流动的是3维/4维张量,是含有空间特征的数据。全连接层则接受的是二维矩阵。比如,现在卷积网络输出的是7x7x512的张量,现在后面跟着1000类的分类神经元,则需要参数是:7x7x512x1000 + 10...

2019-01-14 19:13:24 1212

原创 【深度学习原理】交叉熵损失函数的实现

交叉熵损失函数一般我们学习交叉熵损失函数是在二元分类情况下:L=−[ylogy^+(1−y)log(1−y^)]L=−[ylog ŷ +(1−y)log (1−ŷ )]L=−[ylogy^​+(1−y)log(1−y^​)]推而广之,我们可以得到下面这个交叉熵损失函数公式:E=−∑ktklog(yk)E=-\sum_k{t_k}log(y_k)E=−k∑​tk​log(yk​)从...

2019-01-03 23:19:47 8780 1

TensorFlow for Deep Learning: From Linear Regression to Reinforcement Learning

2018.3月出版,完整326页,非预印版,找了很久的资料,分享给大家。

2018-03-14

Hands-On Machine Learning with Scikit-Learn and TensorFlow -- 2017.3月第一版 + 对应代码

Hands-On Machine Learning with Scikit-Learn and TensorFlow 2017.3月第一版的英文书以及对应的代码,亲测良心资源。

2018-01-28

Practical Python and OpenCV + Case Study均为第三版两本书用Python3

Python-OpenCV教程以及Case Study,均为第三版,用Python3

2017-12-11

2009~2016真题--不含选择题解析

看不惯某些人拿别人的免费文档要很高的下载分。

2016-11-25

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除