自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(44)
  • 收藏
  • 关注

原创 语义标签、实例标签

则是对图像或数据样本中的每个实例进行标记或分类。它通常用于目标检测、实例分割和语义分割等任务中。实例标签不仅指明了像素或区域属于哪个类别,还区分了不同的实例。例如,在目标检测任务中,实例标签不仅指定了检测到的物体类别,还可以标识出每个物体实例的边界框或像素掩码。指的是对图像或数据样本中的内容进行高层次的语义描述或分类。它通常用于描述图像中的物体类别、场景类别或属性等。例如,在图像分类任务中,语义标签可以是"猫"、“狗”、"汽车"等类别。

2024-03-26 11:22:29 224

原创 置信度边界 confidence margin

置信度边界代表着最有可能类别的置信度与次有可能类别的置信度之间的差异或间隔。它用来衡量分类器对于预测结果的确定性程度。

2024-03-19 12:07:19 364

原创 注意力机制Attention、CA注意力机制

对于人来说,可以利用重要的数据,过滤掉不重要的数据。那对于模型来说(CNN、LSTM),很难决定什么重要、什么不重要,因此,注意力机制产生了。通过点乘,计算Q和K里的每一个事物的相似度,拿到Q和k1的相似值s1,Q和k2的相似值s2。现有的注意力机制其通道的处理一般是采用全局最大池化/平均池化,这样会损失掉物体的。那么a就代表数据的权重,v是数据本身,a*v就是处理之后的数据。CA注意力机制可以把位置信息嵌入到通道注意力中。看查询对象Q和被查询对象K的相似度。就可以得到概率a1,a2,…

2024-03-14 21:12:09 581

原创 霹雳学习笔记——6.1.2 ResNeXt

搞明白了多个卷积核与多通道输入的关系了!(理论上应该是输入是几channel,卷积核就是几个,卷积核几个,输出几channel)好像之前听过这个,这个图也是这样的)效果:错误率低于ResNet,并且计算量一样。,参数个数会变成1/g倍,g是分成了g组。相比于ResNet,更新了block。

2024-03-13 21:45:54 388

原创 霹雳学习笔记——6.1 ResNet网络结构、BN以及迁移学习

主要是卷积层Conv和池化层的堆叠。但是普通的堆叠会使得错误率更高,如下图所述,这是因为会产生。这样做的目的是使的整个样本集所对应的feature map的数据药满足分布规律,从而加速训练,提升准确率。(但是使用了别人的预训练模型参数,就要注意别人的预处理方式,我们预处理要和他们一样)通过使用别人预训练好的模型参数,从而具有以下两点优势。两个式子对比,残差模块越多,可以省越多的参数。解决方法:权重初始化、标准化处理、BN。输入输出形状指的是【高x宽,通道数】有的残差结构是实线,有的是虚线。

2024-03-13 21:00:19 465

原创 李宏毅学习笔记——自监督学习(二)

我们知道被盖住的字是什么,bert不知道,我们需要不断优化模型,让输出跟原来的ground truth一样(越来越接近)。把一个文章x分成两半x‘和x’‘,把x‘放入模型,模型输出y,我们的目的就是让y跟x‘’越接近越好,这时候的x‘’就可以理解为x‘的标签。虽然看起来只能做填空题,但是我们给他想象成胚胎干细胞,他可以分化(我们就叫微调)成很多细胞。在这种情况下,如果我们需要对文章进行分类,分成积极和消极,那我们需要先对所有文章进行标注,才能训练模型,但是手工标注是一个非常辛苦繁琐的事情。

2024-01-30 16:25:54 401

原创 【表情识别阅读笔记】Towards Semi-Supervised Deep FER with An Adaptive Confidence Margin

上图是Ada-CM的管道图,分为三个部分,部分a是总体流程设计图,部分b是自适应置信度构造原理图,部分c是对比目标图。具体来说,当模型的预测等于真实值时,将相应的置信度分数放入置信度中,然后将平均值用作学习的界限。然后,Ada-CM 根据置信度分数,即平均概率分布中的最大值,和置信界限Tt c 之间的关系将所有未标记的数据划分为两个子集。首先,模型先对有表情的数据进行训练,用正确的预测得到阈值。同时,现有的许多数据标签往往无法满足实际细粒度的需求,若需要重新标记数据,还需要聘请相关领域的专家。

2024-01-22 22:46:33 443

原创 土堆学习笔记——P29完整的模型训练套路(三)

至于class Tudui,可以在另一个.py文件中,之后使用from在头文件那里引进来。如果网络里有dropout/batchnorm等层,就需要用到。,也就是没有这些层的话,注释a: 创建网络模型为。

2024-01-22 16:30:53 452

原创 土堆学习笔记——P28完整的模型训练套路(二)

怎么知道模型有没有训练好?有没有达到想要的需求?解决方法:在每轮训练之后加一个测试,在测试数据集上看效果(看损失之类的)。注意:在测试时候不调优,仅为看效果。还可以用tensorboard可视化损失。

2024-01-16 21:55:17 442

原创 土堆学习笔记——P27完整的模型训练套路(一)

步骤3:搭建神经网络,可以写在同文件夹下另一个py文件中,之后from 文件名 import类名。步骤4:创建一堆变量,包括网络模型、损失函数、优化器、训练的次数、训练的轮次等。步骤2:利用dataloader来加载数据集。步骤1:准备数据集 并 看下数据的多少。

2024-01-08 14:59:55 382

原创 土堆学习笔记——P26网络模型的保存与读取

dict用到了字典,就是把网络模型的参数保存成字典的形式,保存模型的状态,不再是保存网络模型的结构了。我理解的模型的保存就是训练多少轮保存一个模型,之后可以选一个最好的做预训练模型。解决方法1:在加载.py中复制来class Tudui的全部内容。如果想给他换回模型的形式,就要先加载加进去一个网络模型结构。:二保存的东西更少,占用内存更少,更适合大的模型。加载的话,就新建另一个py文件,之后写。看一下两个保存的不同的pth文件多大。在保存.py中,定义tudui并保存。保存:模型结构+模型参数。

2024-01-07 19:36:28 348

原创 土堆学习笔记——P25现有网络模型的使用

官方文档的torchvision截图,classification分类、Semantic Segmentation语义分割、Object Detection目标检测。

2024-01-04 21:40:12 387

原创 土堆学习笔记——P24优化器

但是我发现我在debug时候没有tudui这个文件夹,看不到梯度下降,挖坑,等我学明白vscode的debug回来写。其实就在前面反向传播那里,加了几行,定义tudui之后,

2024-01-04 16:29:52 342

原创 土堆学习笔记——P23损失函数与反向传播

损失函数loss functionloss越小越好**

2023-12-19 09:22:59 344

原创 土堆学习笔记——P20搭建小实战和Sequential

那我们知道这个网络,其实不知道padding值和stride值,那就拿去公式算一下,算好的值写进代码里。dilation一般为1,1表示不空洞,0是空洞卷积(虽然有点怪)通过tensorboard的summmaywirte。有sequential如下,使得代码更加优美简洁。可以可视化整个模型!自己写一个input测试。如何检查网络正确性?

2023-12-13 20:22:47 25

原创 土堆学习笔记——P21线性层以及其他层

normalize layers正则化层,加快神经网络的训练速度dropout layers把输入中的p概率部分变成0,防止过拟合embedding layers 自然语言处理用distance functions 看两个之间的误差。

2023-12-12 16:54:49 28

原创 土堆学习笔记——P20非线性激活

Non-linear Activate非线性激活两个非线性的函数例如ReLuSigmoid代码中有一个inplace,其实就是新的值会不会覆盖输入数据,默认是False,我们一般也不变ReLU的代码也可以加图片用tensorboard看,具体就没抄。

2023-12-04 17:11:00 20

原创 土堆学习笔记——P19最大池化层的使用

上图用来解释ceil_node,第一步在红色,默认stride=kernel_size=3,那第二步在蓝色,但是不满,那当ceil_node=true时,向上取整,则保留。要求的输入是4维的,n就是batchsize,c是有几层?2的,eg网速慢的时候视频从1080p变成720p,缩小文件尺寸。stride步径,默认为卷积核大小(在卷积层时,默认1)—————理论讲完,后面是实践——————————输入是5x5的,但是处理后,可能输出只有2x。最大池化层MaxPool2d。另一种,直接拿图片试。

2023-12-04 16:43:52 28

原创 土堆学习笔记——P18卷积层nn.Conv2d

N表示bacthsize,上面那个公式可以用来推导,如果哪个论文不写全的话。图片里第一个小汽车的图片,224*224(尺寸),3通道。nn.Conv几d就是几维卷积。nn.Conv2d 常用。

2023-11-27 12:03:11 26

原创 土堆学习笔记——P17卷积操作

stride=1,每次挪一个位置(横纵都是),stride可以是单个数字或一个元组(sH, sW),横向步径和纵向。padding在给定矩阵左右两侧进行填充,padding=1,在左、右、上、下分别加1列/1行,加的值为0,reshape(batchsize, 通道,矩阵(几维就几个数字))torch.nn.functional 就是里面的一个齿轮怎么转。如果stride=2,那步径是2,得到2*2的矩阵。torch.nn 好像一个齿轮组,整体的运作。

2023-11-27 08:38:20 23

原创 土堆学习笔记——P16神经网络的搭建

nn表示Neural Network缩写。

2023-11-24 11:51:05 18

原创 土堆学习笔记——P15Dataloader

然而,把数据集中的数据加载到神经网络(手)中,怎么取,取多少都是通过设置dataloader的参数来决定。是否打乱,默认为false不打乱,如果设置为true,就表示每次抓完牌,在下次抓牌前打乱。假如有100张牌,每次取3张,取33次余1张,舍去不舍去,为True就是这个牌舍去。采用单进程还是多进程加载数据,=0为只有一个主进程,如果报错。dataset数据集,表示数据在哪,可以知道第一个数据是谁。观察TensorBoard,运行之后,在终端输入。可以考虑把它设置为0。

2023-11-24 11:16:16 23

原创 土堆学习笔记——P13后面几分钟总结

关注输入输出一般在这里,第一行就有说,这里就是把tensor或者ndarrary变成PIL多看官方文档(command+鼠标左键)多用tensorboard可视化代码里要写writer.add_image,writer.close()等

2023-11-20 10:28:57 25

原创 土堆学习笔记——P13Transforms(二)

Resize一般是对PIL格式图像进行操作(类似拉长或者拉高),如果是tensor类型就还需要其他参数。本文学习Resize,Compose,RandomCrop。RandomCrop就是随机裁剪。这三个都可以见代码后半段。

2023-11-20 10:21:42 25

原创 土堆学习笔记——P12常见的Transforms(一)

还是通过下面这个句子可视化(不用了记得ctrl+C)可以看到Normalize归一化之后图片色调变了。补充,内置函数__call__的用法。ToTensor上一节也讲过怎么用。

2023-11-16 20:21:46 35 1

原创 土堆学习笔记——P9Transforms(一)(二)

介绍了transforms.ToTensor()用到了内置函数(直接使用实例化的类)

2023-11-16 19:40:35 33 1

原创 土堆学习笔记——P7P8TensorBoard

本文主要学了TensorBoard的两个函数,分别是add_scalar()和add_image(),他们接收的参数可以在SummaryWriter中查看。

2023-11-15 21:56:43 25

原创 Pytorch土堆学习笔记——P6Dataset类代码实战

关于class,实例化,init,getitem等。

2023-11-15 20:19:11 31

原创 结构体、类和对象

结构体、类和对象(7、8章)

2023-02-01 09:17:15 254

原创 string

string简单用法

2023-01-26 23:04:37 59

原创 安全作业4月13日

作业要求如下图RSA先复习一下RSA密钥生成的过程:首选取两个互质数p和q,然后通过他俩相乘,p * q 得到 N,N=p*q,这时我们需要计算出φ(N),φ(N)是小于或等于N的正整数中与N互质的数的数目。我们通过φ(N)=(p-1)×(q-1)可以快速计算出φ(N)。然后,我们选择一个数e,满足以下两个条件,第一, 1<e<φ(N),第二,且e与φ(n) 互质。接着,我们通过以下公式计算e的逆元d。e*d ≡ 1 (mod φ(n))这个公式简单来说就是e*d除以φ(N)得到

2022-04-23 20:43:35 207

原创 安全作业3月31日

**根据课本3.7进行实验,完成OpenSSL编译与命令实验**3.7.1在命令行下使用OpenSSLopenssl -help实例1. 密钥在文件key.txt中,用des3对文件test.data进行加密解密,并验证其正确性。openssl enc -e -des3 -in test.data -out test.3des -kfile key.txtopenssl enc -d -des3 -in test.3des -out test.dddd -kfile key.txto

2022-04-13 00:15:53 4031

原创 3月23日安全作业2

要求如图实验说明这里使用Linux虚拟机进行实验。步骤一:按照网站https://www.mscs.dal.ca/~selinger/md5collision/要求,下载压缩包,并解压保存到本地。步骤二:cd evilize-0.2make -j8gcc hello-erase.c goodevil.o -o hello-erase./evilize hello-erase -i得到一串初始化向量,如图0x7a80fc13 0xc353d227 0xc24d4047 0x632

2022-04-01 16:04:03 399

原创 3月23日计算机安全作业1

作业描述如下图实验说明:本实验在mac系统下,以C语言完成。一、DES加密源代码:参考网址如下:https://www.cnblogs.com/wbzhao/archive/2012/04/24/2468366.html对源代码进行理解和简单修改,增添加密过程中每个子模块的计时并进行输出。三次运行结果如图:3.小结:DES加密中,加密需要消耗200毫秒左右,即0.2秒。将源码进行简单修改后,可以测得每部分的运行时间。几次实验下来,设置密钥和将密钥转化为二进制的时间都极短,可以忽略

2022-04-01 14:33:33 3302

原创 作业七

1.设 ϕ : G ↦ H ϕ:G↦Hϕ:G↦H是一种群同态。请证明:如果G是循环群,则f(G)也是循环群;如果G是交换群,则f(G)也是交换群。首先令g ∈ G是生成元,则 g^m = e,对任意a∈G,则f(a) = f(g^m)=f(g) ^m ,f(g)也是群H的生成元。任取 a , b ∈ G , f ( a ∗ b ) = f ( b ∗ a ) = f ( b ) f ( a ) 。2.证明:如果H是群G上指标为2的子群,则H是G的正规子群。g∈H,gh1=h2g∈H,即gH = Hg;

2021-01-21 09:29:16 1725

原创 作业六

1.设G是群,H是G的子群。任取g1,g2属于G,则g1H = g2H当且仅当g1-1g2属于 H。充分性由于g1H = g2H,即存在h1,h2属于H,使g1h1 = g2h2,由消去律可得g1-1g2 = h1h2-1,则g-1g2属于H。必要性由于g1-1g2属于H,以及群的封闭性所以g1-1,g2属于H,有群公理又易得g-1的乘法逆元g属于H,故g1H = g2H。2.如果群H是群G的子群,且[G:H] = 2,请证明gH = Hg。如果g属于H,gH = Hg易证。如果g不属于H,则

2021-01-21 09:27:02 610

原创 作业十

QR证明1.设p 是奇素数,请证明Zp*的所有生成元都是模p的二次非剩余。*令a为Zp∗的任意一个生成元,则有a^p − 1^≡ 1(mod p)且p − 1 是使a^p − 1^≡ 1 ( mod p) 成立的最小元素,若a使模p的二次剩余,则根据欧拉准则,则有a^(p − 1/)2^ ≡ 1 ( mod p ),(p − 1)/2 < p − 1,与费尔马小定理矛盾,所以Zp*的所有生成元都是模p 的二次非剩余。QR编程#include<iostream>#include

2021-01-21 09:18:36 276

原创 作业十二

2.任取环R中的元素x都满足x2=x,请证明环R是交换环。解:若R是整环ab=ba,∀a,b∈R,若有ab=0,则ba=ab=0,满足交换环的性质,否则a2b2=ab=(ab)^2=abab=aabb,abab=aabb,根据消去律有ab=ba,R是交换环。若R不是整环,对于那些R那些满足消去律的元素任然满足ab=ba,对不满足消去律的元素,即ab=0且a\0,b\0,(ba)2=ba ==baba=b(ab)a=0 =baba=b(ab)a=0,所以ab=ba=0,所以环R是交换环。3.记Z[√2

2021-01-21 08:54:04 607

原创 作业九

1.利用crt求解 x ≡ 8 ( mod 11 ) , x ≡ 3 ( mod 19 )解:n = 11 ∗ 19 = 20919 m o d 11下的乘法逆元为 7, 11 m o d 19下的乘法逆元为7,则x = 19 ∗ 7 ∗ 8 + 11 ∗ 7 ∗ 3 = 1295 ( m o d n ) = 412.利用crt求解 x≡1(mod 5),x≡2(mod 7),x≡3(mod 9),x≡4(mod 11)解:M=5∗7∗9∗11=3465,b1​=M/5=693,693 mod

2021-01-21 08:17:20 122

原创 作业五

1.群G的非空子集H是G的子群,当且仅当H=∅,且对任意a,b∈H, ab-1∈H。充分性:H是G的子群,则对于任意 a,b ∈ H, 存在b的逆元 b-1,由群的封闭性可得ab-1 ∈ H 。必要性:令 a = b ,则依题意有 e=aa-1 ∈H,则H存在单位元e,且对于任意a∈H,存在逆元a-1∈H,则对于任意 a ∈H,存在b的逆元b-1∈H,且ab-1∈H,所以H满足封闭性.2.G^M证明因为g ∈ G ,g2∈G,类推得gm∈G,所以 GM是 G 的 子 集对任意 a=gk1∈ GM

2021-01-21 03:04:29 523

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除