- 博客(12)
- 资源 (2)
- 收藏
- 关注
原创 【学习笔记】经典目标检测算法
定义目标检测任务的目标是找到图像中的所有感兴趣区域,并确定这些区域的位置和类别。目标检测领域的深度学习方法主要分为两大类:两阶段式(Two-stage)目标检测算法和单阶段式(One-stage)目标检测算法。前者是先由算法生成一系列候选边界框作为样本,然后再通过卷积神经网络分类这些样本,也被称为基于区域的方法,例如R-CNN、Fast R-CNN、Faster R-CNN、R-FCN等;后者则是直接将目标边界定位问题转换成回归问题,图像会被缩放到同一尺寸,并以网格形式均等划分,模型仅需处理图像一次就能
2020-12-26 20:06:20 6162 2
原创 【学习笔记】经典语义分割模型
Image Segmentation定义FCNU-NetSegNetRefineNetPSPNetDeepLabFastFCN性能测试损失函数Focal LossDice Loss定义图像分割将图像中的每个像素都与一个对象类型相关联。图像分割主要有两种类型:语义分割和实例分割。在语义分割中,所有相同类型的对象都使用一个类标签进行标记,而在实例分割中,相似的对象使用各自的标签。FCN《Fully Convolutional Networks for Semantic Segmentation》 20
2020-12-25 14:37:45 5378 2
原创 【学习笔记】Normalization
Local Response Normalization通过对局部神经元的活动创建竞争机制,使得其中响应较大的值变得相对更大,并抑制其他反馈较小的神经元,增强模型的泛化能力。bc=ac(k+αn∑c′=max(0,c−n/2)min(N−1,c+n/2)ac′2)−βb_{c} = a_{c}\left(k + \frac{\alpha}{n} \sum_{c'=\max(0, c-n/2)}^{\min(N-1,c+n/2)}a_{c'}^2\right)^{-\beta}bc=
2020-12-21 00:13:07 252 1
原创 【学习笔记】优化算法
优化算法SGD△w=−ηJ′(w)\triangle w=-\eta J'(w)△w=−ηJ′(w)其中△w\triangle w△w是参数的增量,η\etaη是学习率,J′(w)J'(w)J′(w)是损失关于参数的梯度。而小批量梯度下降算法一次训练使用多个样本,取所有参与训练的样本平均梯度来更新参数。△w=−ηgi,gi=1m∑k=1mJ′(w)\triangle w=-\eta g_i,g_i = \frac 1 m \sum^m_{k=1}J'(w)△w=−ηgi,gi=m1∑k=1
2020-12-20 18:13:34 282
原创 【论文阅读】CNN泛化能力
《High-frequency Component Helps Explain the Generalization of Convolutional Neural Networks》CVPR 2020图片的高低频信息FFT频谱图中靠近中心区域是低频分量,远离中心区域是高频分量。低频成分一般就是图片纹理或者信息,高频成分就是一些边缘和像素锐变区域。对于任何一个数据集,都应该包括语义信息(纹理信息或者说低频信息)和高频信息。对于人类而言,标注时候由于无法感知高频成分故仅仅依靠语义进行标注,忽略了高频成分
2020-12-18 00:14:42 856
原创 【学习笔记】einsum函数
einsum全称Einstein summation convention(爱因斯坦求和约定),又称为爱因斯坦标记法。einsum的写法省去了求和符号,显得更加简洁。常规einsumc=∑iaibic=\sum_ia_ib_ic=∑iaibic=aibic=a_ib_ic=aibicj=∑jAijbjc_j=\sum_jA_{ij}b_jcj=∑jAijbjcj=Aijbjc_j=A_{ij}b_jcj=Aijbjcklmn=∑i∑jaijklb
2020-12-17 00:13:16 1856 1
原创 【学习笔记】损失函数
定义损失函数用于衡量模型对任何给定数据的性能。损失函数将预测值与期望值之间的误差进行量化,并以单个实数的形式表示出来。用梯度下降法求函数的局部极小值,对给定数据进行参数修正,以降低损失函数。先计算梯度,然后在与梯度相反的方向上按一定步长(即学习率)进行移动。由于损失函数可能存在许多局部最小值,在不同的初始点和学习率下,会优化收敛到不同的点。如果学习率太高,我们可能会越过最小值,而无法收敛最小值;如果学习率太低,则训练时间可能会太长。选择合适的学习率可以在得到最优结果,且节省训练时间。...
2020-12-13 20:18:58 708
原创 【学习笔记】经典卷积神经网络
LeNet《Gradient-Based Learning Applied to Document Recognition》Proceedings of the IEEE 1998LeNet-5是最简单的架构之一,是第一个将反向传播应用于实际应用的CNN架构。它由2个5×5卷积层、2个2×2池化层和3个全连接层组成。当初是用于手写数字识别。创新点:叠加卷积层和池化层,并以一个或多个全连接层结束网络。AlexNet《ImageNet Classification with Deep Conv.
2020-12-08 21:44:05 1195
原创 【代码记录】GradCAM
import torchimport torch.nn as nnfrom torch import Tensorimport torch.nn.functional as Fclass GradCAM: def __init__(self, model: nn.Module, conv_layer: str) -> None: self.submodule_dict = dict(model.named_modules()) if conv_lay
2020-12-07 15:33:54 962
原创 【学习笔记】图像超分辨
参考文章:2020 图像超分最新综述及上采样技术一览定义图像超分辨是将低分辨图像恢复为高分辨图像的方法。F(⋅)F(\cdot)F(⋅)为超分辨模型,θ\thetaθ为模型参数。IHR=F(ILR,θ)I_{HR} = F(I_{LR}, \theta)IHR=F(ILR,θ)在实际情况下,HR图像会由于压缩伪影、各向异性退化、传感器噪声和散斑噪声等因素的影响退化为LR图像,但是这些因素不可控,通常情况下,我们采用最原始的降采样(downsampling)操作来对退化过程进行建模。最常见的降采样
2020-12-06 15:17:25 2057
原创 【学习笔记】字符串匹配
暴力匹配(BF)算法暴力匹配(BF)算法是普通的模式匹配算法。模式匹配是模式串PPP在主串TTT中的定位运算。BF算法的思想就是将模式串PPP的第一个字符与主串TTT的第一个字符进行匹配,若相等,则继续比较PPP的第二个字符和TTT的第二个字符;若不相等,则比较PPP的第二个字符和TTT的第一个字符,依次比较,直到得出最后的匹配结果。Rabin-Karp(RK)算法RK算法引入了哈希值计算。如果两个字符串的哈希值不相同,则它们肯定不相同;如果它们哈希值相同,它们不一定相同。RK算法的思想就是将模
2020-12-03 01:53:11 291
原创 【学习笔记】并查集
并查集并查集主要用于解决一些元素分组的问题,管理一系列不相交的集合,支持两种操作:合并(Union):把两个不相交的集合合并为一个集合。查询(Find):查询两个元素是否在同一个集合中。每个元素都唯一对应一个节点;每一组数据中的元素在同一棵树内;一个组中的数据对应的树与另一组对应的树没有任何联系;元素在组中没有子父级关系。代码实现public class UnionFind { private static class Data { private int
2020-12-02 20:07:55 93
wget-1.20.3-win64
2020-06-19
curl-7.70.0.zip
2020-06-19
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人