自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 资源 (1)
  • 收藏
  • 关注

转载 安装相关问题

原文链接https://blog.csdn.net/arthur_holmes/article/details/105095088?utm_medium=distribute.pc_relevant.none-task-blog-baidujs-1conda通过参数设置修改超时时间

2020-06-15 21:57:09 595

原创 常用神经网络模型总结

转载链接:https://blog.csdn.net/qq_24690701/article/details/81868048

2020-06-07 10:08:19 797

原创 Tensorflow深度学习-自编码器

前面我们介绍了在给出样本及其的标签的情况下,神经网络如何学习的算法,这类算 法需要学习的是在给定样本????下的条件概率????(????|????)。在社交网络蓬勃发展的今天,获取海量 的样本数据????,如照片、语音、文本等,是相对容易的,但困难的是获取这些数据所对应 的标签信息,例如机器翻译,除了收集源语言的对话文本外,还需要待翻译的目标语言文 本数据。数据的标注工作目前主要还是依赖人的先验知识(Prior Knowledge)来完成,如亚马 逊的Mechanical Turk系统专门负责数据标注业务

2020-06-04 20:45:31 910

原创 Tensorflow梯度相关,LSTM,GRU

我们把梯度值接近于0的现象叫做梯度弥散(Gradient Vanishing),把梯度值远大于1的 现象叫做梯度爆炸(Gradient Exploding)。梯度弥散和梯度爆炸是神经网络优化过程中间比 较容易出现的两种情况,也是不利于网络训练的。????′=????−????∇????L当出现梯度弥散时,∇????L ≈ 0,此时????′ ≈ ????,也就是说每次梯度更新后参数基本保持不变, 神经网络的参数长时间得不到更新,具体表现为L几乎保持不变,其它评测指标,如准确 度,也保持不变。当出现梯

2020-06-04 18:14:21 611

原创 Tensorflow过拟合与欠拟合

由于真实数据的分布往往是未知而且复杂的,无法推断出其分布函数的类型和相关参 数,因此人们在选择学习模型的容量时,往往会根据经验值选择稍大的模型容量。但模型 的容量过大时,有可能出现在训练集上表现较好,但是测试集上表现较差的现象。当模型的容量过大时,网络模型除了学习到训练集数据的模态之外,还把额外的观测 误差也学习进来,导致学习的模型在训练集上面表现较好,但是在未见的样本上表现不 佳,也就是模型泛化能力偏弱,我们把这种现象叫作过拟合(Overfitting)。当模型的容量过 小时,模型不能够很好地学习到训

2020-06-03 17:27:43 782

原创 Tensorflow导数梯度相关

导数与梯度不知道的同学可以再回去看看数学,其实数学还是很有用的。在高中阶段,我们就接触到导数(Derivative)的概念,它被定义为自变量????产生一个微小 扰动∆????后,函数输出值的增量∆????与自变量增量∆????的比值在∆????趋于0时的极限????。导数本身没有方向,偏导数本身也没有方向。考虑本质上为多元函数的神经网络模型,比如shape为[784, 256]的权值矩阵????,它包 含了784 × 256个连接权值????,我们需要求出784 × 256个偏导数。需要注

2020-06-02 19:20:11 467

原创 Tensorflow油耗预测实战

加载数据dataset_path = keras.utils.get_file("auto-mpg.data","http://archive.ics.uci.edu/ml/machine-learning-databases/auto-mpg/auto-mpg.data")命名数据表名称column_names = ['MPG','Cylinders','Displacement','Horsepower','Weight','Acceleration', 'Model Year'.

2020-06-02 13:26:10 849 5

原创 Tensorflow误差计算

1. 均方误差计算均方差(Mean Squared Error,简称MSE)误差函数把输出向量和真实向量映射到笛卡尔 坐标系的两个点上,通过计算这两个点之间的欧式距离(准确地说是欧式距离的平方)来衡 量两个向量之间的差距。MSE(y, o) = \tfrac{1}{d_{out}}\sum _{I = 1}^{d_{out}}(y_{I} - o_{i})^2均方差误差函数广泛应用在回归问题中,实际上,分类问题中也可以应用均方差误差 函数。在TensorFlow中,可以通过函数方式或层...

2020-06-02 10:30:46 982

原创 Tensorflow深度学习-第四天

前向传播的最后一步就是完成误差的计算L = g(f_{\theta} (x), y)代表了利用????参数化的神经网络模型,????(∙)称之为误差函数,用来描述当前网络的预测值???? (????)与真实标签????之间的差距度量,比如常用的均方差误差函数。L称为网络的误差????(Error,或损失Loss),一般为标量。我们希望通过在训练集????train上面学习到一组参数????使 得训练的误差L最小:从另一个角度来理解神经网络,它完成的是特征的维度变换的功能,比如4层的MNI

2020-06-02 09:38:08 184

mnist数据集.zip

适用于python识别手写数字体的项目,很适合于深度学习的初学者入门适用。

2019-08-30

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除