自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 TASK5 训练网格的方法

讲了5种训练神经网格的方法:局部最小值,批次,自动调整学习,损失函数,批次标准化在开始训练神经网络的时候,要对权值进行随机初始化。显然,初始化的参数并不会得到很好的结果。在训练的过程中,我们想以一个很糟糕的神经网络开始,得到一个具有高准确率的网络。此外,我们还希望在训练结束的时候,损失函数的函数值变得特别小。提升网络是有可能的,因为我们可以通过调节权值去改变函数。我们希望找到一个比初始化的模型性能好很多的函数。问题在于,训练的过程相当于最小化损失函数。为什么是最小化损失而不是最大化呢?结果证明损失是比较容易

2022-06-24 00:03:22 307

原创 Task4 深度学习介绍和反向传播

主要介绍了深度学习的三个步骤1. 设计神经网格2.评估模型的好坏3.选出最优模型介绍了完全连接前馈神经网格的含义,神经网格相当于一个复杂的函数深度就是有许多隐藏层,由于计算量比较大,引入了矩阵运算感觉深度学习需要实践与理论结合起来才能加深理解...

2022-06-20 00:25:21 139

原创 Task3 误差的来源 梯度下降

误差的来源是bias(偏差)和variance(方差),搞懂bias和variance在不同model里的含义 函数阶次很高,和traing data的拟合就越好,bias越低,但是同时包含的范围也大了,导致variance变大,过拟合。怎样判断是bias误差大还是variance误差大,以及我们如何降低误差,梯度下降法:1.如何调整学习速率,这里就引出了自适应学习速率----自适应学习速率每一个参数的推导参数的物理含义对于单个参数,梯度越大对于最低点的距离越远,而对于多个参数就不一定了。这也就进一步解释了

2022-06-18 00:31:28 43

原创 Task2:P3-4 regression

主要讲了一个如何通过回归利用已有的数据来预测未知的数据1.首先是选择一个model(是一系列function的集合),本次选用的是linear-function,给b(偏差)和wi(权重)一个初始值2.准备一些训练集进行训练(是带有输入和输出的一组数据)---得到损失函数Loss(输出--f(b+wi*输入)),我们的目的是通过合适的b和Wi使损失函数达到最小3.选择b和Wi的方法是梯度下降法,选择一个learning rate。通过不断的取微分,得到最优解的一个(bi和wi),最后我们比较training

2022-06-15 00:21:27 40

原创 Task1:P1-P2机器学习的介绍

机器学习的定义:通过写一段程序让机器有自己学习的能力,而不仅仅是让他做到一件事,而是通过对一些已知事情的学习,让机器在面对新的未知的东西也能得到比较准确的答案。machine learning最关键的问题就是寻找一个function机器学习的技术:监督学习:训练数据是之前确定的输入和输出,告诉function的输入和输出是什么,通过训练输出我们未来要预测的数据,这其中又包括了回归(输出的是一个数据)和分类(输出的是类别)的问题半监督学习:监督学习里的data都是有label的(人为标注出来),半监督的dat

2022-06-13 21:47:30 43

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除