自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 深度学习6——Convolutional Neural Network

首先,因为有些图案比整个图像小得多,并且神经元不必看到整个图像就能发现形状是什么。最大值出现在左上角和左下角,因此该过滤器侦测出的值在左上角和左下角。如果有其它过滤器,那么可以得到新的内积值,称之为。这个值,比如将正值变得更大,把负值变得更小。假设现在有一张6x6的图像,并且有一个。把特征映射的值拉直后,将其放进。所以一张6x6的图像经过。然后计算第K个过滤器的。

2023-10-23 16:52:15 85

原创 深度学习5.2——Tips for Deep Learning

首先,我们在之前提到过深度学习的基本步骤:经过这三个步骤训练出一个神经网络,如果该神经网络无法在训练集上得到好的结果,那么需要重新返回到这三个步骤,如果可以得到好的结果,那么观察该神经网络能否在测试集上得到好的结果,如果不行,那么称之为,需要回到上述的三个基本步骤,如果可以,那么结束整个过程。随着模型层数的增加, 模型的准确率越来越低。但这并不是因为模型了,上图只意味着模型在训练的时候都没有达到好的效果。出现这种情况的原因是参数变化对Cost的变化减小。即在靠近模型输入层的梯度比较小,参数更新较慢;

2023-10-20 16:11:32 99 1

原创 深度学习5.1——反向传播算法(Backpropagation)

在使用反向传播算法时,首先需要做一个Forward pass,如果知道每一个神经节的输出,那么就可计算出,其次计算Backward pass,得到,最后将二者相乘,即可得到某一个。

2023-10-17 14:05:14 112

原创 深度学习4.3——深度学习(Deep Learning)

假设输入为手写数字体2的图片,那么如何通过机器(neural network)得到识别后的输出值?而所谓的深度(deep)就是Hidden Layers的层数。,......, 反复操作,直至计算出第L层的输出。,......, 第L层neuron的参数为。的数值最大,所以识别出来的输出值为2。来计算L的最小值,从而将损失值降到最低。而我们的输入层可以为不同的图片,从。假设第一层neuron的参数为。,第二层neuron的参数为。,那么给定一个输入层后,通过。计算出第一层的输出值。计算出第二层的输出值。

2023-10-10 14:08:49 141 1

原创 深度学习4.2——逻辑回归(Logistics Regression)

但麻烦的是,我们不知道如何找到一个好的特征转换,如果执着于寻找最佳的特征转换,那么就不是机器学习了,反而成为了人类智慧。因为如果要用逻辑回归的话,两个测试集上的界限就是一条直线,我们无法使用一条直线来将上述的红点和蓝点进行分开。所以得到的该模型即为逻辑回归。如果仍然要用逻辑回归,那么可以进行特征转换,将。若要寻找最佳函数,那么我们需要求解对原式进行。可以发现,该式与用线性回归求解新的。为两个伯努利分布之间的交叉熵。而最好的w和b的值就是当。大于等于0.5,那么。有最大值时,此时记为。

2023-10-09 13:10:52 77 1

原创 深度学习4.1——分类:概率生成模型

以二分类为例子,在训练数据时分为类别1和类别2,其中类别1的目标为1,类别2的目标为-1,因此当我们开始测试数据时,越接近1的数据就将其分在类别1中,越接近-1的数据就将其分在类别2中。但如果某些点远大于1,那么它们就会偏离,这时候用回归来处理的话,这些值就是错误值了,这个时候为了减少错误,用回归处理得到的直线是紫色的,但这并不是我们所希望的。由于我们只考虑了小球的两个特征值,所以最后分类的准确率并不是很高,但如果考虑多个特征的话,比如六个、七个、八个等,这样就可以提高分类的准确率。

2023-10-07 21:18:32 204 1

原创 深度学习3——新的优化算法

优化(optimization)

2023-09-27 14:13:10 282 1

原创 深度学习2——梯度下降法(Gradient Descent)

最流行和最简单的想法是:每隔几个epochs将学习率降低一些系数。在最开始的时候,我们离目的地很远,所以需要使用较大的学习率;几个epochs之后,我们接近了目的地,所以我们开始降低学习率。比如使用t分之一衰变:但是Learning Rate不能一刀切完,所以需要给定不同的参数和不同的Learning Rate。而一种称为Adagrad的算法思想是:将每个参数的Learning Rate除以其先前导数的均方根。在批梯度下降法中,将w看成一个参数:在Adagrad梯度下降法中,

2023-09-25 16:33:31 280 1

原创 深度学习1——回归实例讲解

但不用担心,在线性回归中,Loss function L是凸出的(convex),即没有local optimal这个位置的值。以X值表示一只宝可梦,Xcp代表某只宝可梦的CP值,Xs代表这只宝可梦的物种,Xhp代表宝可梦生命值,Xw代表重量,Xh代表高度,进化后的CP值即为Y。除了计算上述式子之外,还可以通过斜率来求解,若切线斜率为负的,想要选取一个更小的Loss值,便需要增加w的值,反之则需要减小w的值。该值大于训练集的错误值。的值就要更小,从而得到一个更平滑的函数,一个更平滑的函数的负面影响更小。

2023-09-19 15:38:47 201

原创 微信小程序地址管理

开发小程序时,往往会用到地址管理这个功能。通常包括“地址选择”和“添加地址”两个功能。1、在“地址选择”界面,我使用了一个数组,只需要把数组内的内容输出即可,在退出该界面时,将数据存到缓存中,确保下次进入该界面时能显示已经有的地址。并且还可以进行“删除”和“勾选”两个功能。2、在“添加地址”界面,有“姓名”、“电话”、“收货地址”、“省市区三级联动”、“详细地址”以及“保存”功能。话不多说,先来看效果图在进行两个界面的实现时,查阅了一些资料,同时也看了CSDN上很多大神设计的...

2022-08-27 16:22:17 5998 8

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除