![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习学习笔记
文章平均质量分 74
深度瞎学
这个作者很懒,什么都没留下…
展开
-
RT-DETR个人整理向理解
在开始介绍RT-DETR这个网络之前,我们首先需要先了解DETR这个系列的网络与我们常提及的以及存在着何种差异。首先我们先简单讨论一下以及两者的差异与共性:1、两者差异:顾名思义,这两者一个显而易见的差别就是有无anchor,是需要手工选取不同比例大小的anchor来得到proposals,而则不需要。当然两者具体差异肯定不是这么几句话就能说的清的,这里不做详细讨论所以按下不表。2、两者共性:两者虽然在获取proposals。原创 2023-09-07 15:22:10 · 3238 阅读 · 7 评论 -
关于深度学习与机器学习的一些理解
1.Gradient Bossting与残差模块首先解释一下梯度提升(Gradient Bossting)算法:1.梯度下降法:用泰勒公式表示损失函数,用更数学的方式解释梯度下降法:这里多说一点,我为什么要用泰勒公式推导梯度下降法,是因为我们在面试中经常会被问到GBDT与XGBoost的区别和联系?其中一个重要的回答就是:GBDT在模型训练时只使用了代价函数的一阶导数信息,XGBoost对代价函数进行二阶泰勒展开,可以同时使用一阶和二阶导数。当然,GBDT和XGBoost还有许多其它的区别与联系,原创 2021-11-19 15:57:41 · 402 阅读 · 0 评论 -
关于python的一些小tricks
数据清理方面1.清除某些数据来源于:更着李沐学AIabnormal = (data[area[1]]<10) | (data[area[1]]>1e4])data = data[~abnormal] # 消除符合条件数据sum(abnormal) #获取abnormal个数原创 2021-11-12 20:07:02 · 596 阅读 · 0 评论 -
半监督学习中的伪标签(Pseudo-Labelling)
最近在做东西过程中接触到了半监督学习,所以以此篇博客记录个人觉得写的很好的一篇博客,以防遗忘。如若侵权请联系删除。什么是伪标签技术伪标签的定义来自于半监督学习,半监督学习的核心思想是通过借助无标签的数据来提升有监督过程中的模型性能。举个简单的半监督学习例子,我想去训练一个通过胸片图像来诊断是否患有乳腺癌的模型,但是专家标注一张胸片图像要收费,于是我掏空自己的钱包让专家帮我标注了10张胸片,可是我这10张图片又要划分训练集测试集,咋训练看着都要过拟合哇,这可咋办?聪明的我问了问专家,说不标注的胸片要钱转载 2021-09-25 17:17:12 · 5717 阅读 · 1 评论 -
关于faster-rcnn中anchor box与bbox
问题提出情况在学习理解faster-rcnn网络时,都有出现anchor box这一个概念,然而anchor box的大小却是一个确定的值。那么假如你标注的目标框比anchor box小很多的情况下那不是预测得到的检测框不是划出了过多的无效值了吗?为了解决这个问题在这就需要先了解锚框这个概念一.锚框(anchor box)/先验框(prior bounding box)在众多经典的目标检测模型中,均有先验框的说法,有的paper(如Faster RCNN)中称之为anchor(锚点),有的pape原创 2021-03-04 15:59:46 · 3454 阅读 · 1 评论 -
数据增强
1.垂直镜像对称(Mirroring)2.随机修剪(Random Cropping)随机修建并不是一个完美的数据增强方法。3.色彩转换(Color shifting)在实践中对R、G、B的变换是基于某种分布的。其他方案旋转(Rotation),剪切图像(Shearing)、局部弯曲(Local warping)在实践中因为太复杂所以用的比较少...原创 2020-12-07 19:25:39 · 573 阅读 · 0 评论 -
关于迁移学习
什么是/为什么要迁移学习?迁移学习(Transfer learning) 顾名思义就是就是把已学训练好的模型参数迁移到新的模型来帮助新模型训练。考虑到大部分数据或任务是存在相关性的,所以通过迁移学习我们可以将已经学到的模型参数(也可理解为模型学到的知识)通过某种方式来分享给新模型从而加快并优化模型的学习效率不用像大多数网络那样从零学习(starting from scratch,tabula rasa)。1.训练集很小的情况下在进行tigga和misty以及neither的三分类问题时(自己拥有的数据原创 2020-12-07 16:38:46 · 359 阅读 · 0 评论 -
深度学习基础理论篇一
1.深度学习中为什么使用卷积和只用全连接层相比,卷积层的两个主要优势在于:参数共享和稀疏连接。原创 2020-08-02 23:58:22 · 704 阅读 · 0 评论 -
深度学习基础理论篇之机器学习基础
1.任务T通常机器学习任务定义为机器学习系统应该如何处理样本。样本是指我们从某些希望机器学习系统处理的对象或事件中收集到的已经量化的特征的集合。我们通常会将样本表示为一个向量x∈Rnx\isin\Reals^nx∈Rn,其中向量的每一个元素xix^ixi是一个特征。例如,一张图片的特征通常是指这张图片的像素值。2.交叉验证2.1 LOOCV首先,我们先介绍LOOCV方法,即(Leave-one-out cross-validation)。像Test set approach一样,LOOCV方法也包含原创 2020-08-02 15:40:22 · 262 阅读 · 0 评论 -
《深度学习框架PyTorch:入门与实践》学习笔记第五章
Tensorboard最初是作为TensorFlow的可视化工具迅速流行开来。作为和TensorFlow深度集成的工具,Tensorboard能够展现你的TensorFlow网络计算图,绘制图像生成的定量指标图以及附加数据。但同时Tensorboard也是一个相对独立的工具,只要用户保存的数据遵循相应的格式,tensorboard就能读取这些数据并进行可视化。这里我们将主要介绍如何在PyTorch中使用tensorboardX^1进行训练损失的可视化。 TensorboardX是将Tensorboard的.原创 2020-05-31 18:44:48 · 230 阅读 · 0 评论 -
《深度学习框架PyTorch:入门与实践》学习笔记第三章
应该什么时候使用nn.Module,什么时候使用nn.functional呢?答案很简单,如果模型有可学习的参数,最好用nn.Module,否则既可以使用nn.functional也可以使用nn.Module,二者在性能上没有太大差异,具体的使用取决于个人的喜好。如激活函数(ReLU、sigmoid、tanh),池化(MaxPool)等层由于没有可学习参数,则可以使用对应的functional函数代替,而对于卷积、全连接等具有可学习参数的网络建议使用nn.Module。下面举例说明,如何在模型中搭配使用n.原创 2020-05-30 16:18:05 · 182 阅读 · 0 评论 -
《深度学习框架PyTorch:入门与实践》学习笔记第二章
Tensor和numpy对象共享内存,所以他们之间的转换很快,而且几乎不会消耗什么资源。但这也意味着,如果其中一个变了,另外一个也会随之改变。b.add_(2) # 以`_`结尾的函数会修改自身print(a)print(b) # Tensor和Numpy共享内存[4. 4. 4. 4. 4.] # b原有数组为[2.2.2.2.2.]tensor([4., 4., 4., 4., 4.], dtype=torch.float64)t.tensor()或者tensor.clone()总是.原创 2020-05-30 11:01:46 · 199 阅读 · 0 评论