自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(51)
  • 收藏
  • 关注

原创 2.1进程与线程

2.1进程与线程 进程与程序的区别 程序:静态的,是在磁盘中的可执行文件,一系列的指令集合 进程:动态,程序的一次执行过程 一个程序可以对应多个进程,每个进程都是程序的一个独立执行实例 2.1.1 进程的概念和特征 为实现并发性和共享性,提高资源利用率和系统吞吐量——引入进程概念 进程实体【反应进程的某一时刻情况,静态,有时候会将进程实体与进程当作一回事】由程序段、相关数据段、PCB组成 进程定义:进程是进程实体的运行过程,是系统进行资源分配的一个独立单位 进程特征:(1)动态性(

2024-04-21 17:17:47 617

原创 【23-24 秋学期】NNDL 作业13 优化算法3D可视化

2.刚开始AdaGrad速度比RMSprop和SGD要快,有时甚至比Momentum和Nesterov还要快。Nesterov是对Momentum的改进,它不仅速度快,同时轨迹更加平滑、具有方向性驶向最优点。它结合了RMSprop算法【调整学习率】和Momentum算法【梯度修正】,轨迹稳定且快速收敛。1.轨迹呈现"之"字型:在y方向上更新变化很大,而x轴方向上变化小,梯度的具有随机性,产生。同图中可以看到,在方向正确性高和速度上也快,比Momentum要好。到后期梯度衰减,速度变慢,会早停。

2023-12-30 13:29:36 1277

原创 【23-24 秋学期】NNDL 作业12 优化算法2D可视化

SGD随机梯度下降,每次迭代采集1个样本(随机)。AdaGrad算法一种梯度下降法,是对批量梯度下降法的改进,但并不是对动量法的改进。它的目的是在解决优化问题时自动调整学习率,以便能够更快地收敛。与AdaGrad算法的区别在于𝑮𝑮𝒕𝒕的计算由累积方式变成了指数衰减移动平均。用之前积累动量替代真正的梯度,在第𝑡𝑡次迭代时,计算负梯度的指数加权移动平均作为参数的更新方向。自适应矩估计(adaptivem算法≈动量法+ RMSprop参考老师ppt和。

2023-12-24 11:50:10 1090

原创 【23-24 秋学期】NNDL 作业11 LSTM

首先是给大家推荐一下课程,有老师上课讲的下边这种动图:然后我在推导有关Ct的递归梯度时,也是参考了这个视频,博主【苏坡爱豆的笑容】讲的很清楚!!!【清晰图解LSTM、BPTT、RNN的梯度消失问题】【循环神经网络讲解|随时间反向传播推导(BPTT)|RNN梯度爆炸和梯度消失的原因|LSTM及GRU(解决RNN中的梯度爆炸和梯度消失)-跟李沐老师动手学深度学习】都非常nice!还有一篇知乎的文章解释有关避免梯度消失的也特别好!LSTM 如何避免梯度消失问题 - 知乎 (zhihu.com)

2023-12-17 16:19:32 280

原创 【23-24 秋学期】NNDL 作业10 BPTT

及时复习很重要!在前边的公式推导以及第三问为什么会梯度爆炸,我发现我的脑子是空的,然后我个人强推哔哩哔哩上的一个课,时间不是很长,但是听了以后再加上我自己消化老师的ppt,就成功推导出来了,感觉推导困难的小伙伴可以去看!循环神经网络讲解|随时间反向传播推导(BPTT)|RNN梯度爆炸和梯度消失的原因|LSTM及GRU(解决RNN中的梯度爆炸和梯度消失)-跟李沐老师动手学深度学习_哔哩哔哩_bilibili这个博主讲的关于为什么会梯度爆炸、梯度消失我也觉得挺好的,然后我前边的思路是按照他讲的写的。

2023-12-09 16:21:56 323

原创 【23-24 秋学期】NNDL 作业9 RNN - SRN

RNN与与以前Linear线性层的区别:RNN的权重是共享的。编码器:将文本表示成向量【编码器部分使用循环神经网络(RNN或者卷积神经网络(CNN)来将输入序列编码成一个固定长度的向量表示。这个向量包含了输入序列的重要特征信息。解码器:向量表示成输出【解码器部分使用循环神经网络(RNN)来将编码器输出的向量解码成目标序列。解码器通过学习来生成与目标序列相匹配的输出。使用CNN构造序列模型参考论文:。内容参考【编码器和解码器 - 简书 (jianshu.com)

2023-12-03 10:44:39 254

原创 【23-24 秋学期】NNDL 作业8 卷积 导数 反向传播

目前感觉卷积最难的地方在求解反向传播,还有证明上,感觉各种数学式子看起来比较费劲,在这里我试试不带数学式的总结一下:1,证明宽卷积具有交换性这个我看到的有直接以3*3输入、2*2卷积为例证明的,但是这样的证明不具有普遍性,后来我还是参考了老师的博客写的:

2023-11-26 14:45:07 311

原创 【23-24 秋学期】NNDL 作业7 基于CNN的XO识别

池化,也称子采样、降采样或汇聚,它的工作是取区域平均或最大,其目的是为了减少特征图,减少特征的数量,从而降低模型的计算量和参数量。最大池化(Max Pooling)。取4个点的最大值。这是最常用的池化方法。均值池化(Mean Pooling)。取4个点的均值。高斯池化。借鉴高斯模糊的方法。不常用。可训练池化。训练函数 ff ,接受4个点为输入,出入1个点。不常用。图来自【上图是一个2*2且步长为2的最大池化。文来自【卷积神经网络(CNN)的相关概念 - 掘金 (juejin.cn)

2023-11-13 15:08:31 396

原创 产品经理墨刀学习----注册页面

我们做的产品是一个校园论坛学习开发系统,目前才开始学习。

2023-11-05 23:16:27 655 2

原创 NNDL 作业6 卷积

卷积核就是图像处理时,给定输入图像,输入图像中一个小区域中像素加权平均后成为输出图像中的每个对应像素,其中权值由一个函数定义,这个函数称为卷积核。在卷积神经网络里,卷积核其实就是一个过滤器,但在深度学习里,它不做反转,而是直接执行逐元素的乘法和加法,我们把这个又称为互相关,在深度学习里称为卷积。卷积核_百度百科 (baidu.com)特征选择旨在通过去除不相关、冗余或嘈杂的特征,从原始特征中选择一小部分相关特征。特征选择过程基于从特征向量中选择最一致、相关和非冗余的特征子集。

2023-11-05 11:21:25 393

原创 NNDL:作业五

如果对输入进行了0均值化处理,可以使得线性层的值y_mean为0,这样在y'=sigmoid(y),优化w参数时收敛速度快,得到最优w的效率更高,如下图所示,绿线是对x进行零均值后的梯度下降效果,黑线是未进行零均值化的下降效果。梯度消失举个例子,以sigmoid函数为例,在本文的前边的图中可以看到,当值过大过小时,梯度都非常接近于0,更新参数不明显,这就是梯度消失现象。如上图所示,在激活函数的值为0时,导数最大,下降速度最快;,通过引入正则化惩罚项,可以限制模型参数的大小,可以提高模型的泛化能力。

2023-10-28 22:02:58 434

原创 NNDL:作业四:分别使用numpy和pytorch实现FNN例题

其中numpy中所有函数都要自己写,但是在pytorch中可以直接调用backward函数,相对便利。但是我也遇到了问题:关于将数组转化为tensor类型的:我开始使用的是:但是不对,只能使用下边这种方式,才能成功调用backward函数:还要注意:因为:“requires_grad”属性用于标记该张量是否需要计算其梯度。如果一个张量的“requires_grad”属性为True,那么PyTorch会在该张量进行操作时自动计算其梯度,并将结果存储在“grad”属性中。

2023-10-15 13:08:34 558

原创 NNDL:作业3

在 Softmax 回归的风险函数中加入正则化项会对模型的训练产生影响。正则化项的作用是对模型的复杂度进行惩罚,防止。在Softmax回归的风险函数(公式(3.39))中如果加上正则化项会有什么影响?加入正则化后,在更新参数时每次需要减去。,使得参数不会太大,防止数值溢出。

2023-10-10 22:08:14 194

原创 【23-24 秋学期】NNDL 作业2

第二章课后题习题 2-1。

2023-09-22 15:54:22 202

原创 【23-24 秋学期】NNDL 作业1

人工智能(AI)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,用来生产出一种新的能以人类智能相似的方式做出反应的智能机器。该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。(百度百科)机器学习(ML)是一个致力于理解和建立"学习"方法的研究领域,也就是说,利用数据来提高某些任务的性能的方法,是人工智能的一个子集。(全球百科)机器学习的过程就是。

2023-09-20 21:05:53 259 3

原创 博弈论:解决酒吧博弈问题

感觉自己写的一些问题(未解决):1.在设定关于幸福指数的标准里需要再进一步的修改(感觉起伏过大)。而且我是以每周的总居民幸福指数进行观测。2.随机人数时一开始就非常接近60不知道是哪的问题(随机过很多次但是都没有出现一些比较小的值)。

2023-09-19 17:20:25 474

原创 PyTorch学习:使用pytorch进行数据预处理

本文基于jupiter,将从如何读取数据集、对数据集处理缺失值、将数据转为张量形式来完成对数据的预处理。其中用到的数据集有:house_tiny.csv、boston_house_prices.csv、Iris.txt。

2023-09-17 14:20:28 748

原创 PyTorch学习:关于张量的一些认识

在深度学习中,数据经常用张量的形式所存储,张量可以将向量和矩阵推广到任意维度,其实就是存储和处理数据的多维数组。其中1阶张量为向量,2阶张量为矩阵。(图来自百度paddle平台)还有一些补充知识:张量的维度指的是张量中用来索引元素的索引个数,而对于向量而言,只需要一个索引就可以得到相应元素。高维的张量其实就是对低维张量的堆叠。张量的形状指的是张量中每一维度的大小。张量的类型指的是张量中每个元素的数据类型。

2023-09-16 13:46:56 723 1

原创 用python解决力扣问题:238. 除自身以外数组的乘积

给你一个整数数组nums,返回数组answer,其中answer[i]等于nums中除nums[i]之外其余各元素的乘积。题目数据数组nums之中任意元素的全部前缀元素和后缀的乘积都在整数范围内。请且在O( n)时间复杂度内完成此题。

2023-08-05 10:48:06 140

原创 利用python解决力扣问题:605. 种花问题

题目:假设有一个很长的花坛,一部分地块种植了花,另一部分却没有。可是,花不能种植在相邻的地块上,它们会争夺水源,两者都会死去。给你一个整数数组flowerbed表示花坛,由若干0和1组成,其中0表示没种植花,1表示种植了花。另有一个数n,能否在不打破种植规则的情况下种入n朵花?能则返回true,不能则返回false。

2023-08-04 18:08:55 151

原创 利用python解决力扣问题:拥有最多糖果的孩子

给你一个数组candies和一个整数,其中candies[i]代表第i个孩子拥有的糖果数目。对每一个孩子,检查是否存在一种方案,将额外的个糖果分配给孩子们之后,此孩子有的糖果。注意,允许有多个孩子同时拥有的糖果数目。

2023-08-04 17:43:07 162

原创 用python解决力扣问题——1768. 交替合并字符串

题目描述:给你两个字符串word1和word2。请你从word1开始,通过交替添加字母来合并字符串。如果一个字符串比另一个字符串长,就将多出来的字母追加到合并后字符串的末尾。返回。

2023-08-03 11:30:42 391

原创 实验2 线性模型 (python实战学习--使用sklearn解决问题)

scikit-learn被设计成非常易于使用和扩展的工具,它支持包括NumPy和SciPy等在内的Python科学计算库,并且提供了许多示例和文档来帮助用户入门和理解各种机器学习算法的原理和应用。2)多特征线性回归 下载数据集mulFeatures.txt,其中每个样本包括2个特征,作一个二元线性回归y=a1x1+a2x2+b,且所有样本都用来训练和预测。设计模型,在训练集学习模型参数;利用singleFeature.txt(单特征)和mulFeatures.txt(多特征)中的数据,进行线性回归和预测。

2023-07-06 15:50:02 397

原创 can‘t open file ‘create‘: [Errno 2] No such file or directory问题解决

这里我提供一个思路吧,我在csdn跟哔哩哔哩都去查来着,因为完全是个小白,真的不会解决,但是他们的答案不能解决我的问题。1.我使用的是anaconda3,而我的pycharm是2022.3版本,也就是3.10,然后我改成了3.8,就成功了。2.我也把我的‘python object’文件夹的权限打开,就可以解决了。这个是建立项目时候出的问题,这里创建的不成功。我一共修改了以下几点(有点瞎改,因为不会)最后解决问题~,希望能帮助到你。

2023-07-01 23:03:48 751

原创 csp ccf:201612-1 中间数 (C语言)

在一个整数序列a1,a2, …,an中,如果存在某个数,大于它的整数数量等于小于它的整数数量,则称其为中间数。在一个序列中,可能存在多个下标不相同的中间数,这些中间数的值是相同的。给定一个整数序列,请找出这个整数序列的中间数的值。输入的第一行包含了一个整数n,表示整数序列中数的个数。第二行包含n个正整数,依次表示a1,a2, …,an。如果约定序列的中间数存在,则输出中间数的值,否则输出-1表示不存在中间数。

2023-01-05 15:43:17 398

原创 csp ccf :201803-2 碰撞的小球 (C语言)

数轴上有一条长度为L(L为偶数)的线段,左端点在原点,右端点在坐标L处。有n个不计体积的小球在线段上,开始时所有的小球都处在偶数坐标上,速度方向向右,速度大小为1单位长度每秒。当小球到达线段的端点(左端点或右端点)的时候,会立即向相反的方向移动,速度大小仍然为原来大小。当两个小球撞到一起的时候,两个小球会分别向与自己原来移动的方向相反的方向,以原来的速度大小继续移动。现在,告诉你线段的长度L,小球数量n,以及n个小球的初始位置,请你计算t秒之后,各个小球的位置。

2023-01-05 15:10:45 256

原创 力扣:字符串的排列 (C语言)

题目描述:给你两个字符串 s1 和 s2 ,写一个函数来判断 s2 是否包含 s1 的排列。如果是,返回 true;否则,返回 false。换句话说,s1 的排列之一是 s2 的 子串。

2023-01-04 16:02:00 245

原创 力扣:无重复字符的最长子串 (C语言)

题目描述:给定一个字符串s,请你找出其中不含有重复字符的的长度。

2023-01-04 10:37:07 203

原创 力扣:有效的括号 (C语言)

题目描述:给定一个只包括 '(',')','{','}','[',']' 的字符串 s ,判断字符串是否有效。有效字符串需满足:左括号必须用相同类型的右括号闭合。左括号必须以正确的顺序闭合。每个右括号都有一个对应的相同类型的左括号。

2023-01-03 20:53:42 270

原创 力扣:删除链表排序中的重复元素 (C语言)

题目描述:给定一个已排序的链表的头head,删除所有重复的元素,使每个元素只出现一次。返回 已排序的链表。

2023-01-03 11:31:22 786 2

原创 力扣:反转链表 (C语言,比较详细有图解)

给你单链表的头节点head,请你反转链表,并返回反转后的链表思路来自于陈越姥姥那边的课,是一个男老师讲的,我觉得讲的还不错,实在不懂可以去听听。

2023-01-03 11:13:47 538

原创 pta:7-1 位1的个数 C语言

输入一个非负整数,求它变成二进制后1的个数(提示:用bin函数)。

2023-01-02 16:03:35 156

原创 力扣:反转字符串 (C语言--两种做法)

编写一个函数,其作用是将输入的字符串反转过来。输入字符串以字符数组 s 的形式给出。不要给另外的数组分配额外的空间,你必须原地修改输入数组、使用 O(1) 的额外空间解决这一问题。

2022-12-30 10:51:04 1536

原创 力扣:移除链表元素 (C语言)

C语言:给你一个链表的头节点head和一个整数val,请你删除链表中所有满足Node.val == val的节点,并返回新的头节点。

2022-12-19 11:43:39 658

原创 力扣:合并两个有序链表 (C语言)

将两个升序链表合并为一个新的升序链表并返回。新链表是通过拼接给定的两个链表的所有节点组成的。

2022-12-18 11:32:48 332

原创 力扣:环形链表 (C语言--双指针)

力扣:环形链表 (C语言--双指针)

2022-12-18 10:37:05 121

原创 力扣:链表的中间结点 (C语言--双指针)

C语言:给定一个头结点为head的非空单链表,返回链表的中间结点。如果有两个中间结点,则返回第二个中间结点。

2022-12-17 18:03:35 133

原创 力扣:有效的字母异同词 (C语言)

C语言:给定两个字符串 s 和 t ,编写一个函数来判断 t 是否是 s 的字母异位词。注意:若s 和 t中每个字符出现的次数都相同,则称s 和 t互为字母异位词。

2022-12-17 12:01:33 113

原创 力扣:383赎金信 (C语言)

C语言给你两个字符串:ransomNote 和 magazine ,判断 ransomNote 能不能由 magazine 里面的字符构成。如果可以,返回 true ;否则返回 false 。magazine 中的每个字符只能在 ransomNote 中使用一次。

2022-12-17 11:42:44 211

原创 力扣:字符串中的第一个唯一字符 (C语言)

给定一个字符串s,找到它的第一个不重复的字符,并返回它的索引。如果不存在,则返回-1。

2022-12-17 11:15:43 916

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除