自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 Tomcat 启动时黑屏一闪而过及乱码解决

安装Tomcat,启动,bin/startup.bat双击运行该文件访问:浏览器输入:http://localhost:8080 回车访问自己 http://别人的ip:8080 访问别人问题:黑窗口一闪而过解决方法:startup.bat 中最后加入pause,然后启动,得到控制到输出的错误信息我的是JRE环境没...

2020-03-19 15:05:12 247

原创 批量归一化和残差网络

1.由来:由google2015年提出,深度神经网络训练的技巧,主要是让数据的分布变得一致,从而使得训练深层神经网络更加容易和稳定。2.作用BN的作用就是将这些输入值或卷积网络的张量进行类似标准化的操作,将其放缩到合适的范围,从而加快训练速度;另一方面使得每一层可以尽量面对同一特征分布的输入值,减少了变化带来的不确定性3.操作阶段4.操作流程计算每一层深度的均值和方差对每一层设置...

2020-02-19 20:37:53 530

原创 深度卷积神经网络AlexNet

1.模型介绍AlexNet 模型( 5 卷积层+ 3 全连接层共 8 层神经网络)AlexNet 模型包含 6 千万个参数和 65 万个神经元,包含 5 个卷积层,其中有几层后面跟着最大池化(max-pooling)层,以及 3 个全连接层,最后还有一个 1000 路的 softmax 层。为了加快训练速度,AlexNet 使用了 Relu 非线性激活函数以及一种高效的基于 GPU 的卷积运...

2020-02-19 20:32:46 1049

原创 卷积神经网络基础

1.卷积神经网络基础1.二维互相关运算二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素2.二维卷积实现可以分为两大...

2020-02-19 20:30:06 732

原创 学习记录

1.线性回归线性回归是回归问题中的一种,假设目标值与特征之间线性相关,即满足一个多元一次方程。通过构建损失函数,来求解损失函数最小时的参数w和b。公式:y^为预测值,自变量x和因变量y是已知的,而我们想实现的是预测新增一个x,其对应的y是多少。因此,为了构建这个函数关系,目标是通过已知数据点,求解线性模型中w和b两个参数。目标/损失函数针对任何模型求解问题,都是最终都是可以得到一组预测值...

2020-02-14 21:51:51 267

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除