神经网络
文章平均质量分 66
Fitz_p
这个作者很懒,什么都没留下…
展开
-
tensorflow入门,完成1元1次方程拟合
tensorflow入门,完成1元1次方程拟合该一元一次方程为:x_data = np.float32(np.random.rand(2, 100)) # 随机输入y_data = np.dot([0.100, 0.200], x_data) + 0.300由于是x_data是随机数,故而无法画出图形,若我们定义x为等差数列[[0,1,2,...100],[101...200]]则y=ax+b为分...原创 2018-06-30 10:37:13 · 847 阅读 · 0 评论 -
神经网络HelloWorld
神经网络界 的 HelloWorld代码,了解神经网络过程1.输入2.通过参数拟合曲线,Helloworld中使用 y=∑ax+b,3.训练,反向传播,修改a,b的值修正拟合曲线#3-2 MNIst数据集分类简单版本import tensorflow as tf;import numpy as np;from tensorflow.examples.tutorials.mnist import i...原创 2018-07-08 19:18:44 · 489 阅读 · 0 评论 -
神经网络使用drop_out消除过拟合+MNIST
1.drop_out的原理为:通过将某神经元的输出设置为0,达到使其失活的效果,消除网络中过分依赖某个神经元2.过拟合一般出现在网络过分复杂,且训练数据较少的情况,数据较少而未知参数太多,则较易产生过拟合3.核心代码:layer1=tf.nn.dropout(layer1,drop_out)#3-3 MNIst数据集使用drop-out提升准确率,消除部分过拟合import tensorflow ...原创 2018-07-08 19:25:49 · 4649 阅读 · 1 评论 -
神经网络-实现学习率随迭代次数变化
1.需要变化的学习率的原因:经历一段时间的学习之后,我们距离目标值越来越近,此时如果学习率太大,则会造成训练在最优值附近来回波动,这时候我们就需要减少学习率2.实现:学习率是在Optimizer中使用,我们每次迭代通过tf.assign修改学习率3.note: tf.assign(ref, value, validate_shape=None, use_locking=None, name=...原创 2018-07-09 22:08:27 · 6041 阅读 · 0 评论 -
TensorFlow实现基础CNN,两层卷积+2层全连接网络demo
TensorFlow实现基础CNN,两层卷积+2层全连接网络demo,代码如下,注释都有import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data#加载数据集mnist=input_data.read_data_sets('MNIST_data',one_hot=True)#每个批次的大小bat...原创 2018-06-27 23:59:47 · 4521 阅读 · 0 评论 -
算法思维-Demo3 树的实现
树的实现特定的树结构会使得他们更加容易实现 其中最容易实现的就是根的树结构了,这种树的每条边都统根出发,并向下延伸。此类结构所代表的往往是某个数据集拥有所有的层次结构,其根节点代表着全部对象(这些对象获取就被直接包含在叶节点内)而其内部各节点所代表的对象都是以该节点为跟的树结构的叶节点。在这里我们甚至可以直接利用类似直觉,将各个子树组织成一个子树列表 T=[ ["a","b"...原创 2018-07-29 19:10:41 · 468 阅读 · 0 评论 -
svc实战fashion-mnist图像分类
支持向量机 (SVMs)可用于以下监督学习算法:分类,回归和异常检测.支持向量机的优势在于:在高维空间中非常高效. 即使在数据维度比样本数量大的情况下仍然有效. 在决策函数(称为支持向量)中使用训练集的子集,因此它也是高效利用内存的. 通用性: 不同的核函数核函数与特定的决策函数一一对应.常见的 kernel 已经提供,也可以指定定制的内核.支持向量机的缺点包括:...原创 2019-09-24 01:23:01 · 2801 阅读 · 4 评论