自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 问答 (1)
  • 收藏
  • 关注

原创 RNN,LSTM,GRU回顾(主要知道代码怎么使用)

lstm返回的是一个output实际也就是rnn中的纵向输出,所以其序列的长度为4,那么这个纵向输出是短期记忆还是长期记忆输出的呢?当我们想要输出每一层对应的输出的时候,由于每一层此时对应正向一个输出,反向一个输出,故每一层实际对应两个输出,但是不同于字符输出,其并不会在最后一个维度上翻倍,而是相当于只增加输出的数量,即在第0个维度上进行堆叠。当我们想要输出每个字符对应的输出的时候,由于正向有一套输出,反向也有一套输出,所以将这两个输出进行堆叠,就得到了每个字符的总输出,故最后一个维度上会翻倍。

2023-07-04 16:06:16 237

原创 利用torchvision.models调用现成的网络

以resnet50为例,其最简单的调用方式就是:↓不需要初始化什么参数,这样得到的model就是默认的resnet50结构,可以直接用来做分类训练。但是还提供了预训练参数权重,只需要:↓这种方式会直接从官网上进行预训练权重的下载,该预训练权重是由ImageNet-1K(标准输入224x224)而来,由于其本质是一个分类网络,所以最后的全连接层大小为1000.但是这种方式会被警告,因为pretrained参数可能以后会被舍弃,建议我们使用weight参数。这样的话我们有两种方法。

2023-04-11 20:38:38 3704 1

原创 如何将任意大小的图片填充成一个方形

0的位置表示左填充,如果在图片的左边填充,那么所有的横坐标都应该加上0位置,既然有01,则必然无23,所以纵坐标不变,但是x2加的却是1位置,其实我们想一下既然有左填充,那必然有右填充,而左填充和右填充的数值基本相同,所以此时x2加1位置(右填充长度),不够准确但影响不大。这种方式我认为是最适合的图片预处理方式,随意resize会改变图片的特征,而进行填充的方式除了会改变原来标签的坐标以外,可以完全保留图片上所有的物体最原始的特征。其中padded_w=padded_h,表示填充后的图片的宽高。

2023-03-30 15:11:47 257

原创 如何使用某个搭建好的网络的某一部分并且可以修改其参数继续使用(也可以认为是迁移学习的方法)

这个Sequential的对象里面利用索引来提取最后一个网络模块,但是好巧不巧,这最后一个模块还是一个Sequential的实例,我们记作A,所以还可以通过索引的方式来获取A下最后一个网络模块。所以一定是Sequential的原因,进去看看源码,果然发现了里面带有魔法函数__getitem__,所以它可以使用索引的方式来获取里面的每个网络层。这就是为什么有的网络结构采用索引,有的采用调用属性的方式的原因。其中①到④,⑨⑩都是类的初始化,⑤到⑧属于由Sequential包起来的大模块。

2023-03-15 20:22:15 294

原创 将CelebA数据集所给标签转化为MTCNN中训练集所需标签

faca_size用来规定我们从野生图片中截取多大的图片,有12,24,48的选择,stop_value表示我们截取的图片的张数,也就是我们输入到PRO网络中需要数据集的个数,由于三个网络都是独立的,所以数量可以不一样。其中0.1对应的正样本实现的方式,0.3和0.5对应偏样本实现的方式,0.95和0.99对应负样本实现的方式,也就是说最后形成的指定大小的训练集图片中,正样本,偏样本,负样本之间的比值是[1,1,3].同时偏移后的目标框的长度也需要重新规定范围,其范围在(0,2max_size)之间。

2023-03-06 15:46:12 119

原创 class PNet,RNet,ONet

【代码】class ONet。

2023-03-03 13:31:25 62

原创 补充:tensor之间进行矩阵相乘的方法总结

torch.mm是阉割版的@,其只能对二维的tensor进行矩阵相乘,高了的维度其不会进行广播 ↓。@符号在tensor中就表示矩阵相乘,@符号的矩阵相乘性质在numpy中依然适用。其作用与@完全相同 ↓。

2023-02-07 16:21:23 1741

原创 向量之间的内积和外积

内积又叫点乘,是向量之间最最最常见的一个运算,也就是对应位置相乘再求和,与向量之间进行矩阵乘的规则相同。它的计算逻辑与笛卡尔积非常相似,只不过笛卡尔积将结果又排成了一排而已。

2023-02-02 16:23:06 3158

原创 一篇解决正则表达式(11539字,看完学不会你砍我)

正则表达式英文名叫regular_expression,直译过来就是规则的表达式。正则表达式的目的我自己是这么定义的:利用一定的规则从一个字符串中提取出我们想要的部分。而正则表达式就是用来表示这个规则的。resultoperationvarstringstringresultoperationvarstringstring其中result是我们的输出量,string是我们的输入量,这两个可以不用管。

2023-01-13 16:58:21 143

原创 NLP 第五周 语言模型,bert(2)

如有侵权,本人立马删除

2022-09-16 19:40:38 1529

原创 NLP第三周(中文分词,新词发现,tfidf)(1)

目前的分词在大部分情况下,效果已经比较理想,优化空间不大分词即使发生错误,下游任务也不一定会发生错误,所以不值得花大量精力优化分词随着神经网络和预训练模型的兴起,中文任务逐渐不再需要单独分词,因为网络已经被训练能很好得寻找句子中的规律解决不了的问题,是真的不好解决了,例如网红带节奏的词。...

2022-08-27 15:54:42 595

原创 VIT与swin transformer

如有侵权,本人立马删除

2022-07-10 12:32:41 4499 3

原创 Mask Rcnn代码与原理相结合解析

前言Mask Rcnn作为目标分割的前驱,其原理与构思值得我们逐字揣摩。为此我用了两周多的事件搞清楚原理,两周左右的事件攻读代码。给我的感觉就是,如果你真的想一句一句看懂每一行着实不现实,尤其是无关原理,无关流程的代码,看起来完全一头雾水。在这里我很感谢CSDN平台中的一位大佬Cleo_Gao。巧合的是我们俩公用了同一套代码,他对这套代码的解释使我明白了很多原理和流程,可以说本篇文章的叙述有百分之60是对他注释的延续,当然,我也从中发现了他注释的一些瑕疵,但是瑕不掩瑜的是,他的三篇博客确实是非常优秀的作品

2022-04-23 20:14:27 2348 4

原创 faster rcnn 代码与原理结合详解

文章目录faster rcnn 原理概括特征提取层的特点和其与feature mpa坐标映射的关系RPN layer详解ROI pooling详解分类层与第二次边框回归faster rcnn 原理概括fater rcnn就是一个几个不同功能的小卷积结合起来的一个大卷积,后面的全连接层同样可以用卷积层来代替。我们输入的图片首先会被放缩到MxN的大小,然后经过一个特征提取网络得到我们的feature map。然后根据feature map的尺寸来得到我们的anchors。之后feature map会进

2022-04-09 21:16:16 3563

原创 YOLOV3代码与原理相互结合的理解(重点在特征图的输出的元素的解析)

这里写自定义目录标题YOLOV3的原理浅谈输入图片的处理(非常重要!!)功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入YOLOV3的原理浅谈我会用非简短的语言说明一下yolov3的原理和我认为的一些特点。我们以训练的角度来说

2022-04-08 21:30:52 774 2

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除