自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 资源 (5)
  • 收藏
  • 关注

原创 深度学习DNN构建简单回归模型

(1)构建回归神经网络模型inputs = Input(shape=(size,), dtype='float32')dropout = Dropout(0)(inputs)ouput = Dense(512, activation='relu')(dropout)dropout = Dropout(0.15)(ouput)ouput = Dense(256, activation='...

2018-09-14 19:34:53 7079

转载 Deep Learning 最优化方法之Momentum(动量)

转自:https://blog.csdn.net/bvl10101111/article/details/72615621本文是Deep Learning 之 最优化方法系列文章的Momentum(动量)方法。主要参考Deep Learning 一书。整个优化系列文章列表:Deep Learning 之 最优化方法Deep Learning 最优化方法之SGDDeep Lear...

2018-09-14 17:10:55 1401

转载 神经网络优化算法如何选择Adam,SGD

链接:https://blog.csdn.net/u014381600/article/details/72867109/之前在tensorflow上和caffe上都折腾过CNN用来做视频处理,在学习tensorflow例子的时候代码里面给的优化方案默认很多情况下都是直接用的AdamOptimizer优化算法,如下:optimizer = tf.train.AdamOptimizer(le...

2018-09-14 16:55:31 852

转载 神经网络正则化(1):L1/L2正则化

转自:https://zhuanlan.zhihu.com/p/35893078 在神经网络出现high variance也就是overfitting的时候,regularization(正则化)是一个很常用的方法。现在应用最为广泛的包括两种regularization方式:L1/L2 regularization dropout regularization 其中本篇介绍L1/L2 r...

2018-09-14 16:14:12 2126

转载 神经网络损失函数中的正则化项L1和L2

转自:https://blog.csdn.net/dcrmg/article/details/80229189 神经网络中损失函数后一般会加一个额外的正则项L1或L2,也成为L1范数和L2范数。正则项可以看做是损失函数的惩罚项,用来对损失函数中的系数做一些限制。正则化描述:L1正则化是指权值向量w中各个元素的绝对值之和; L2正则化是指权值向量w中各个元素的平方和然后再求平方根;一...

2018-09-14 14:47:12 948

转载 理解dropout

转自:https://blog.csdn.net/stdcoutzyx/article/details/49022443开篇明义,dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-batch都在训练不同的网络。dropout是CNN中防止过拟合提高效果的一个大杀器,但对于...

2018-09-14 14:28:16 180

转载 神经网络中隐层数和隐层节点数问题的讨论

转载:https://blog.csdn.net/u013045749/article/details/40783281神经网络中隐层数和隐层节点数问题的讨论 一 隐层数 一般认为,增加隐层数可以降低网络误差(也有文献认为不一定能有效降低),提高精度,但也使网络复杂化,从而增加了网络的训练时间和出现“过拟合”的倾向。一般来讲应设计神经网络应优先考虑3层网络(即有1个隐层)。...

2018-09-14 12:08:15 2917

原创 keras创建简单的线性模型

(1)生成输入数据import numpy as npfrom keras.models import Sequentialfrom keras.layers import Denseimport matplotlib.pyplot as plt# 生产随机数据np.random.seed(123) # 指定种子,使得每次生成的随机数保持一致x = np.linspace(...

2018-09-13 17:24:16 662

JMF开源软件包

JMF开源软件包,可以使用编写视频音乐播放器等

2012-09-23

javacc-4.0和javacc-5.0

用于编译.jj文件的软件包,javacc工具,编译NutchAnalysis.jj文件时用到的,很好的一个开源代码

2012-09-17

数据结构试验 山东大学

山东大学 数据结构试验 试验1 子集全排序 试验2 插入排序 冒泡排序 归并排序 基数排序 试验3 链表 插入删除 合并 正向反向输出 试验4 二叉树 插入删除 前序中序后序遍历 试验5 堆 插入删除输出排序 试验6 图 输出最小树

2011-05-19

数据库课程设计-图书馆信息管理系统

(1) 读者信息的制定、输入、修改、查询,包括种类、性别、借书数量、借书期限、备注。 (2) 书籍基本信息制定、输入、修改、查询,包括书籍编号、类别、关键词、备注。 (3) 借书信息制定、输入、修改、查询,包括书籍编号、读者编号、借书日期、借书期限、备注。 (4) 还书信息制定、输入、修改、查询,包括书籍编号、读者编号、还书日期、还书期限、备注。 (5)意外处理(续借、超期赔偿、丢失赔偿、损坏赔偿等) (6)多条件查询各种信息. (7)用户权限(普通读者和图书管理员) (8)异常处理

2011-05-18

图形学第二个试验-多边形世界

写一个可以交互的OpenGL应用程序,支持用户利用鼠标创建和删除2维多边形对象。基本功能包括: 对象创建:支持用户利用鼠标指定各个顶点位置,创建多边形。 对象删除: 支持用户选择一个多边形(与你的多边形保存的数据结构有关)并删除。 对象存储: 设计一种数据结构存储每个多边形的顶点与边,支持文件存盘,。 提示:由于删除操作需要多边形的选择机制,你可以在设计数据结构时,把可以帮助你完成选择的信息一起保存。 扩展功能可以包括(至少选择其一): 1. 支持用户选择多边形的颜色 2. 支持用户移动多边形 3. 支持用户改变多边形单个顶点的位置 4. 支持3D多边形 5. 其他(需要通过指导老师认可)

2011-05-14

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除