自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 《论文写作》学习心得

本文为学习完闵帆教授《论文写作》课程后的学习心得。在研一上学期学习该课程帮助以后的论文撰写,并了解了学术论文相关的知识。摘要是学术论文的重要组成部分,它扼要概括了研究的核心要点,旨在吸引读者的兴趣和提供研究的关键信息。在摘要中,应明确回答研究的目的和问题,简洁概括所采用的方法,强调主要的研究结果和结论,同时列出关键词以便于检索。此外,摘要应该使用清晰的语言,避免过多的技术术语,以确保广泛的读者都能理解。最后,根据特定期刊或会议的规范,仔细编辑和修订摘要,确保其质量和准确性。明确定研究目的和问题。

2023-11-03 15:52:26 184

原创 Python学习之课后作业2

前者返回一个浮点数结果,后者返回一个整数结果。注意,对于真除法(/)来说,无论是否结果为整数,都是使用浮点数类型来存放计算结果。如果 pow() 函数传入第 3 个参数,那么会将幂运算的结果和第 3 个参数进行取余数运算。当浮点数相加的结果等于整数时,偏差则不会出现,比如 0.1 + 0.2 会出现偏差。message = "祝小甲鱼" + str(age) + "岁生日快乐^o^"Python 除法的运算结果是以浮点数的形式存储的(尽管结果可以整除)。地板除的结果乘以除数 + 余数 = 被除数。

2023-06-08 16:07:54 304

原创 Python学习之课后作业1

传入的数值用于指定随机数生成时所用算法开始时所选定的整数值,如果使用相同的seed()值,则每次生成的随机数都相同;真正意义上的随机数(或者随机事件)表现的分布概率随机产生的,其结果是不可预测的,是不可重现的。而计算机中的随机函数是按照一定算法模拟产生的,其结果是确定的,是可重现的。注意,这是一种设计,并不是什么 BUG。int() 函数是将指定的值转换为整数,如果传入一个小数,那么它会截掉小数部分的值,再将其转换为整数。-- 该函数返回的是一个新的随机序列,不会破坏原序列,常用于不重复的随机抽样。

2023-02-10 18:24:31 1022 1

原创 深度学习之模型选择,过拟合和欠拟合

训练误差:模型在训练数据上的误差 泛化误差:模型在新数据上的误差 验证数据集:一个用来评估模型好坏的数据集 例如拿出50%的训练数据 不要跟训练数据混在一起(常犯错误) 测试数据集:只用一次的数据集 解决没有足够多的训练数据(这是常态) 算法: 常用:K=5或10模型容量:拟合各种函数

2022-12-26 18:28:58 160

原创 深度学习笔记

2、CE交叉熵:交叉熵源于信息论,用于衡量两个分布的差异,常在分类任务中使用。激活函数饱和区的导函数为0不利于梯度下降权重更新,不利于神经网络的传播。1、MSE均方误差:输出与标签之差的平方的均值,常在回归任务中使用。前向传播:输入层数据开始从前向后,数据逐步传递至输出层。反向传播的原理:微积分中的链式求导法则。损失函数:衡量模型输出与真实的标签之间的差距(单样本)反向传播的作用:用于权重更新,使网络输出更接近标签。代价函数:每一个样本差距和的平均(总体)损失函数:衡量模型输出与真实标签的差异。

2022-12-22 17:18:27 99

原创 深度学习之Softmax回归

Softmax虽然是回归但本质是一个多分类 例如:类别有0,1,2;编码则是0 == 100,1 == 010, 2 == 001 正确类别的置信度要远远大于其它类别的置信度

2022-12-07 16:52:15 340

原创 深度学习之基础优化算法

当没有显示解时可采用梯度下降方法找到优化(最常见) 梯度:函数增长最快方向;负梯度,即下降最快方向,即反方向

2022-11-30 17:06:24 359

原创 深度学习之线性回归

定义模型 ——> 定义损失 ——> 训练数据 ——> 参数学习线性模型可以看成是单层的神经网络单层神经网络:带权重的层为11/2方便求导凸函数的最优解即梯度为0

2022-11-30 16:47:44 287

原创 深度学习之自动求导(代码)

使用自动微分的一个好处是: 即使构建函数的计算图需要通过Python控制流(例如,条件、循环或任意函数调用),我们仍然可以计算得到的变量的梯度。有时,我们希望将某些计算移动到记录的计算图之外。换句话说,梯度不会向后流经。具有相同的值, 但丢弃计算图中如何计算。想象一下,我们想计算。的梯度,但由于某种原因,我们希望将。因此,下面的反向传播函数计算。视为一个常数, 并且只考虑到。作为常数处理, 而不是。语句的结果都取决于输入。被计算后发挥的作用。在这里,我们可以分离。

2022-11-30 11:08:43 270

原创 深度学习之矩阵计算

a(不是x的函数)?可微和可导?

2022-11-24 15:36:57 1039

原创 深度学习之线性代数代码部分

【代码】深度学习之线性代数代码部分。

2022-11-23 15:55:39 376

原创 深度学习之线性代数

定义:每一行每一列只有一个元素为1,其余元素全为0。2、所有行都是单位长度向量,每一行点乘自己都是1。1、所有行都是相互正交。c = α * b (α为标量)置换矩阵(置换矩阵也是正交矩阵)C = α *B(α是标量)向量1 * 矩阵A =(空间扭曲)= 向量2。常用Frobenius范数。对称矩阵和反对称矩阵。

2022-11-23 11:30:51 306

原创 深度学习笔记之数据预处理

【代码】补充:数据预处理(还需要理解一下)

2022-11-17 19:13:16 103

原创 深度学习笔记之N维数组

二维:就是由多个向量组成的矩阵(特征矩阵)四维:就是RGB图片的批量处理。一维:就是一个向量(特征向量)宽*高*通道(RGB三个通道)宽*高*通道*批量大小*时间。零维:就是一个数(类别)宽*高*通道*批量大小。五维:就是视频的批量处理。三维:就是RGB图片。①形状(几维,大小)

2022-11-17 18:37:11 517

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除