- 博客(4)
- 收藏
- 关注
原创 TensorFlow 实现 AlexNet 网络模型
模型特性:所有卷积层都是使用ReLU 作为非线性映射函数,使模型收敛速度更快在多个GPU 上进行模型的训练,不但可以提高模型的训练速度,还能提升数据的使用规模使用 dropout 而不是正则化来处理过度拟合。当然,这也导致了训练时间加长。重叠最大池化(overlapping max pooling) , 即池化范围 z 与步长 s 存在关系 z > s, 避免平均池化的平均效应...
2019-06-16 00:38:43 853
原创 纯pytho实现RNN
使用Python实现 一个简单的RNN,实现两个八位的二进制加法,预测他们之间的结果。比如 1 + 2 = 3二进制 [0,0,0,0,0,0,0,1] + [0,0,0,0, 0,0,1,0] = [0,0,0,0,0,0,1,1]标准前向传播: 以xxx表示输入,hhh是隐层单元,ooo是输出,LLL为损失函数,yyy为训练集标签。ttt表示ttt时刻的状态,V,...
2019-06-07 20:19:34 242
原创 使用CNN实现Google你画电脑猜
使用CNN 实现小型Google你画电脑猜你画电脑猜Google 的猜画小歌风靡一时,使用 CNN 我们也可以搞一个出来。数据集Google AI Lab 已经开源了用来训练的数据集:https://github.com/googlecreativelab/quickdraw-dataset里边有 354 类共5千万张涂鸦图片,并提供多种格式,从原始的笔迹数据到转换好的位图都有。我们将使...
2019-06-07 10:36:00 459
原创 用TensorFlow实现简单线性回归
使用TensorFlow 构造一个神经元,简单的线性回归网络。问题:现有一组有噪声的样本数据,共2000个,每一个样本 x 有 3 个特征, 对应一个标签 y 值。从数据样本中学习 y=w×x+by=w\times x + by=w×x+b 中的参数首先我们来生成样本数据,w_real 和 b_real 是控制样本数据的参数的真实值,np.random.randn(num, shape)...
2019-06-06 20:43:47 884
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人