- 博客(8)
- 资源 (5)
- 收藏
- 关注
原创 深度学习DNN构建简单回归模型
(1)构建回归神经网络模型inputs = Input(shape=(size,), dtype='float32')dropout = Dropout(0)(inputs)ouput = Dense(512, activation='relu')(dropout)dropout = Dropout(0.15)(ouput)ouput = Dense(256, activation='...
2018-09-14 19:34:53 7079
转载 Deep Learning 最优化方法之Momentum(动量)
转自:https://blog.csdn.net/bvl10101111/article/details/72615621本文是Deep Learning 之 最优化方法系列文章的Momentum(动量)方法。主要参考Deep Learning 一书。整个优化系列文章列表:Deep Learning 之 最优化方法Deep Learning 最优化方法之SGDDeep Lear...
2018-09-14 17:10:55 1401
转载 神经网络优化算法如何选择Adam,SGD
链接:https://blog.csdn.net/u014381600/article/details/72867109/之前在tensorflow上和caffe上都折腾过CNN用来做视频处理,在学习tensorflow例子的时候代码里面给的优化方案默认很多情况下都是直接用的AdamOptimizer优化算法,如下:optimizer = tf.train.AdamOptimizer(le...
2018-09-14 16:55:31 852
转载 神经网络正则化(1):L1/L2正则化
转自:https://zhuanlan.zhihu.com/p/35893078 在神经网络出现high variance也就是overfitting的时候,regularization(正则化)是一个很常用的方法。现在应用最为广泛的包括两种regularization方式:L1/L2 regularization dropout regularization 其中本篇介绍L1/L2 r...
2018-09-14 16:14:12 2126
转载 神经网络损失函数中的正则化项L1和L2
转自:https://blog.csdn.net/dcrmg/article/details/80229189 神经网络中损失函数后一般会加一个额外的正则项L1或L2,也成为L1范数和L2范数。正则项可以看做是损失函数的惩罚项,用来对损失函数中的系数做一些限制。正则化描述:L1正则化是指权值向量w中各个元素的绝对值之和; L2正则化是指权值向量w中各个元素的平方和然后再求平方根;一...
2018-09-14 14:47:12 948
转载 理解dropout
转自:https://blog.csdn.net/stdcoutzyx/article/details/49022443开篇明义,dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-batch都在训练不同的网络。dropout是CNN中防止过拟合提高效果的一个大杀器,但对于...
2018-09-14 14:28:16 180
转载 神经网络中隐层数和隐层节点数问题的讨论
转载:https://blog.csdn.net/u013045749/article/details/40783281神经网络中隐层数和隐层节点数问题的讨论 一 隐层数 一般认为,增加隐层数可以降低网络误差(也有文献认为不一定能有效降低),提高精度,但也使网络复杂化,从而增加了网络的训练时间和出现“过拟合”的倾向。一般来讲应设计神经网络应优先考虑3层网络(即有1个隐层)。...
2018-09-14 12:08:15 2917
原创 keras创建简单的线性模型
(1)生成输入数据import numpy as npfrom keras.models import Sequentialfrom keras.layers import Denseimport matplotlib.pyplot as plt# 生产随机数据np.random.seed(123) # 指定种子,使得每次生成的随机数保持一致x = np.linspace(...
2018-09-13 17:24:16 662
数据结构试验 山东大学
2011-05-19
数据库课程设计-图书馆信息管理系统
2011-05-18
图形学第二个试验-多边形世界
2011-05-14
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人