自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 反向传播。

反向传播要求有对每个输入值期望得到的已知输出,来计算损失函数的梯度。因此,它通常被认为是一种监督式学习方法,虽然它也用在一些无监督网络(如自动编码器)中。它是多层前馈网络的Delta规则的推广,可以用链式法则对每层迭代计算梯度。反向传播要求人工神经元(或“节点”)的激励函数可微。BP算法是“误差反向传播”的简称,是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。反向传播算法主要由两个环节(激励传播、权重更新)反复循环迭代,直到网络的对输入的响应达到预定的目标范围为止。

2024-03-24 18:52:59 250 1

原创 逻辑回归与线性回归(Pytorch)

逻辑回归是一种常用的分类算法,用于预测二分类问题。它基于线性回归模型,通过将线性回归的结果映射到一个概率值来进行分类。逻辑回归的基本原理是使用sigmoid函数(也称为逻辑函数)将线性回归的结果转换为概率值。sigmoid函数的公式为:f(x) = 1 / (1 + e^(-x)),其中x为线性回归的结果。sigmoid函数的取值范围在0到1之间,可以表示为样本属于某个类别的概率。逻辑回归的训练过程是通过最大似然估计来确定模型的参数。

2024-03-24 18:28:39 352 1

原创 监督学习与非监督学习

损失函数,

2024-03-08 16:36:00 1561

原创 机器学习基础知识

正则化的核心思想是在模型训练过程中,通过对模型参数施加一定的限制,以减少模型对训练数据的过度拟合,从而提高模型在未知数据上的泛化能力。采取应对方法:- 移除特征,降低模型的复杂度:减少神经元的个数,减少隐藏层的层数 - 训练集增加更多的数据 - 重新清洗数据 - 数据增强 - 正则化 早停。聚类分析的目的是将数据集中的样本划分为多个组或“簇”,使得同一个簇内的样本相似度高,而不同簇的样本相似度低。验证集评估出来的效果并非模型的最终效果,主要是用来调整超参数的,模型最终效果以测试集的评估结果为准。

2024-03-07 21:22:27 1377

原创 深度学习2总结(笔记)Caffe,TensorFlow,PyTorch框架

3.1Cafe 是一种对新手非常友好的深度学习框架,它的相应优化都是以文本形式而非代码形式给出。Cafe中的网络都是有向无环图的集合,可以直接定义。有向无环图:若一个有向图中不存在环,则称为有向无环图,简称为DAG图。图3.1.1 有向无环图3.2数据及其导数以blob的形式在层间流动,Cafe层的定义由两部分组成:层属性与层参数。Caffe使用blob存储、交换、操纵这些信息。blob是整个框架的标准的数组结构和统一存储接口。

2024-03-07 20:18:10 1250 1

原创 深度学习!

卷积神经网络是一种对人脑比较精准的模拟。CNN是一类具有卷积计算功能的深度前馈神经网络,它通过多层的卷积层、池化层和全连接层来逐层提取图像的特征。这种网络结构具有局部感受野、权值共享和池化等特点,这些特点使得CNN在处理大尺寸图像时既高效又有效。3.2卷积就是两个函数之间的相互关系。在计算机视觉里面,可以把卷积当作一个抽象的过程,就是把小区域内的信息统计抽象出来。

2024-03-03 19:58:57 592

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除