自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 C++从头开始1(小白进)

把我们写的代码转为汇编代码,他的工作是检车词法和语法,如果我们的程序没有词法和语法问题,他就不会报错,不管逻辑对不对,他都不报错(其实现在没啥软件会对我们编写的程序的逻辑是否正确进行报错)。目标文件仍需要经过链接才能变成可执行的文件。编译不是把源程序文件直接转换到计算机可以直接运行的二进制程序。而是转化为特定的汇编代码的过程。既然目标文件和可执行文件的格式是一样的(都是二进制格式),为什么还要再链接一次呢?完成链接的过程也需要一个特殊的软件,叫做。将特定的汇编代码转换成机器码。这一步生成的文件叫目标文件。

2023-09-15 15:49:05 49

原创 神经网络学习笔记(四)

因为神经网络中每一层的输入输出都是一个线性求和的过程,下一层的输出只是承接了上一层输入函数的线性变换,所以如果没有激活函数,那么无论你构造的神经网络多么复杂,有多少层,最后的输出都是输入的线性组合,纯粹的线性组合并不能够解决更为复杂的问题。而引入激活函数之后,我们会发现常见的激活函数都是非线性的,因此也会给神经元引入非线性元素,使得神经网络可以逼近其他的任何非线性函数,这样可以使得神经网络应用到更多非线性模型中。运算符时,我们可以指定保持在原始张量的轴数,而不折叠求和的维度。

2023-04-09 12:45:37 100 1

原创 神经网络学习笔记(三)

我认为是不相等的,这个等号相当于“定义”,将在知道xi发生的情况下yi发生的概率的log的负数,定义为损失函数也就是交叉熵损失。在上面的曲线中我们的x轴就是P(j),我们在a点取一个值,这个值经过负号的处理就会变得很大。和之前线性回归的例子一样,这里的每个样本都将用固定长度的向量表示。举一个极端的例子,假如数据流中的每个数据完全相同,这会是一个非常无聊的数据流。为了完成这一目标,我们首先对每个未规范化的预测求幂,这样可以确保输出非负。在后面的章节中,我们将讨论能够利用图像空间结构的特征,

2023-04-03 14:30:58 87 1

原创 神经网络学习笔记2(一些自己的见解和自己提出的疑问)

这里的w和x都是向量, 这个其实就是减法的实际意义就是权重向量的每一个向量,它们每一个权重向量w会对应一个损失,如果这个损失较大,说明对应的权重向量的值太大了需要调小一点,这个就是梯度下降法。正态分布和线性回归之间的关系很密切,均方误差损失函数(简称均方损失)可以用于线性回归的一个原因是:我们假设了观测中包含噪声,其中噪声服从正态分布。3.4softmax回归,这个回归问题不同于线性回归,其实它是一种分类问题,线性回归是一个单输出的问题,而softmax回归是一个多输出的问题。

2023-03-26 19:55:04 70

原创 劲爆,某博主竟然安装pytorch环境十几次没安装成功,血泪的教训现在直接传授给你。神经网络与深度学习笔记(1)

劲爆,某博主竟然安装pytorch环境十几次没安装成功,血泪的教训现在直接传授给你

2023-03-19 16:09:13 179

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除