自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 读书笔记5

在全连接神经网络中,隐含层中的每个节点与它前面一层的所有节点相连接,能最大程度保留输入数据中的所有信息,不会漏掉每个维度贡献的信息。一种有效提取图像特征的方法,一般用一个正方形的卷积核,按照指定步长,在输入特征图上滑动,卷积核会与输入特征图出现重合区域,重合区域对应元素相乘、求和再加上偏置项,得到输出特征的一个像素点。首先从训练集中取出样本,输入网络,经过逐级变换,传送到输出层,计算输出层和样本标签之间的差,反向传播误差,采用梯度下降法更新权值,最小化损失,反复迭代,在网络收敛,并达到预期精度结束训练。

2024-03-06 10:56:14 489 1

原创 读书笔记4

可通过花萼长度,花萼宽度,花瓣长度,花瓣宽度4个属性预测鸢尾花卉属于(Setosa,Versicolour,Virginica)三个种类中的哪一类。data是一个矩阵,每一列代表某个被测量的鸢尾植物,它的萼片或花瓣的长或宽,一共4列,一共有150条记录。multi-class是相对于binary二分类来说的,不止有两个类别,可能是3个类别取一个(如iris分类),或者是10个类别取一个(如手写数字识别mnist)。,则是标签的顺序,可以排除数据中存在的标签。在多类别和多标签的情况下,为每一类的。

2024-02-21 09:00:03 636 1

原创 读书笔记3

reduction:通过指定参数的取值为none、mean、sum来判断损失的计算方式。默认为mean,计算的损失为每个batch的均值;如果设置为sum,计算的损失为每个batch的和;reduce:默认为True,计算的损失会根据size_average参数设定,计算每个batch的均值或和。size_average:默认为True,计算的损失为每个batch的均值。否则为每个batch的和。1)#导入相关所需要的库,torch主要用于张量的有关计算,torch.utils.data引入数据集。

2024-02-06 10:56:46 1192 1

原创 读书笔记2

Pandas Shape是Pandas库中的一个重要属性,它用来表示一个数据集(DataFrame或 Series)的形状,也就是行数和列数。shape属性的 返回值是一个元组,其中第一个元素表示行数,第二个元素表示列数,例如(5, 5)。在二维 矩阵中,df.shape[0]返回的是df的行数,df.shape[1]返回的是df的列数。#下面两种删除方式是等价的,传入labels和axis 与只传入一个index 作用相同,删除第0行。

2024-01-23 15:53:15 1046

原创 学习笔记1

链上每个节点对于一个标记,对标记构建分类器,后续分类器建立在前一个标签的预测上,因此,对前面标签的依赖性强、同时面临标签和样本空间过大。获得每个词与标签的匹配得分,但未深层考虑为不同标签学习不同的文档表示。为每个可能的标签生成一组新的标记,将问题解决为单标签多类,但是产生样本不平衡。将标签看成没有语义信息。通过计算文档中单词和每个标签之间的匹配得分获得每个单词对当前标签的权重。使用注意力机制,为每个标签学习一个文本,但忽略了标签的相关性;将上一层得到的单词和标签之间的匹配得分乘以每个单词的隐表示。

2024-01-12 08:04:32 1233 4

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除