人工智能
Alphapeople
这个作者很懒,什么都没留下…
展开
-
yolov8预测结果转训练格式
【代码】yolov8预测结果转训练格式。原创 2023-03-17 17:00:05 · 310 阅读 · 0 评论 -
TPR与FPR
真阳率就是预测对的阳性占所有实际的阳性的比例,假阳率就是预测错的阳性占所有实际阴性的比例。由于不同的阈值对应ROC曲线不同的点,因此ROC曲线的目的就是要找到一个最好的阈值。原创 2023-02-23 21:09:49 · 308 阅读 · 0 评论 -
通道混洗网络
通道混洗就是先对通道进行reshape,再transpose,然后再reshape回去。原创 2023-02-18 20:44:48 · 139 阅读 · 0 评论 -
权重初始化的目的
x原创 2023-02-17 17:37:26 · 88 阅读 · 0 评论 -
densenet适用于需要信息保留完整的场景
densenet适用于需要信息保留完整的场景。原创 2023-02-17 17:20:01 · 125 阅读 · 0 评论 -
添加数据杂谈
在添加困难样本的时候究竟添还是不添是一个比较重要的问题,例如在手部检测中如果漏检了一些戴手套的样本,比如戴了蓝色手套,如果只是个例最好是不要添,因为有可能会将蓝色的东西都认为是手,除非这种样本足够多。...原创 2022-03-14 16:23:33 · 395 阅读 · 0 评论 -
分享一款好用的分割标注软件
GitHub - qupath/qupath: QuPath - Bioimage analysis & digital pathology原创 2022-02-12 17:35:23 · 1024 阅读 · 1 评论 -
工程遇到的问题
转载 2022-01-17 10:49:36 · 96 阅读 · 0 评论 -
pytorch简单的二分类
train.py# from torchvision.models.resnet import resnet34# from dataset import datasest# from torch.optim.lr_scheduler import StepLR# from torch.nn import CrossEntropyLoss# import torch# from torch.utils.tensorboard import SummaryWriter## train_ro原创 2021-12-28 14:07:55 · 1323 阅读 · 0 评论 -
Inverted Residuals 的 attention版本
attention机制:代码:class InvertedResidual_(nn.Module): def __init__(self, inp, oup, stride, expand_ratio): super(InvertedResidual_, self).__init__() self.stride = stride assert stride in [1, 2] norm_layer = nn.BatchN原创 2021-02-05 17:10:00 · 274 阅读 · 0 评论 -
FRN的实现TensorFlow and pytorch
import tensorflow as tfdef FRNLayer(x,tua,beta,gamma,eps=1e-6): """ :param x: input tensor:[BHWC] :param tua: [1,1,1,C] :param beta: [1,1,1,C] :param gamma: [1,1,1,C] :param eps: :return: """ nu2 = tf.reduce_mean(tf.s.原创 2020-11-23 10:20:13 · 631 阅读 · 0 评论 -
mosaic数据增强的pytorch实现
import osimport numpy as npimport cv2import randomimport mathdef random_affine(img, targets=(), degrees=10, translate=.1, scale=.1, shear=10, border=0): # torchvision.transforms.RandomAffine(degrees=(-10, 10), translate=(.1, .1), scale=(.9, 1.1).原创 2020-11-20 18:03:33 · 1933 阅读 · 0 评论 -
CBAM的理解pytorch实现和用法
总述:对于卷积神经网络生成的feature map,CBAM从通道和空间两个维度计算feature map的attention map,然后将attention map与输入的feature map相乘来进行特征的自适应学习。CBAM是一个轻量的通用模块,可以将其融入到各种卷积神经网络中进行端到端的训练。也就是说由于CBMA模块输入和输出的featuremap大小是一致的,因此可用于网络的各层。class ChannelAttentionModule(nn.Module): d原创 2020-11-20 16:28:14 · 4770 阅读 · 0 评论 -
transformer目标检测
import torchfrom torch import nnfrom torchvision.models import resnet50class DETR(nn.Module): def __init__(self,num_classes,hidden_dim,nheads,num_encoder_layers,num_decoder_layers): super().__init__() self.backbone = nn.Sequential(.转载 2020-11-12 11:48:41 · 1689 阅读 · 0 评论 -
解决torch无法求导的问题
torch.autograd.Variable(img)原创 2020-05-25 15:22:15 · 575 阅读 · 0 评论 -
Ubuntu安装驱动和CUDA
https://blog.csdn.net/wf19930209/article/details/95237824https://blog.csdn.net/qq_34906039/article/details/104175802原创 2020-05-07 17:52:53 · 124 阅读 · 0 评论 -
YOLOV4补充知识
https://blog.csdn.net/debug_moner/article/details/104477896/原创 2020-04-30 10:50:26 · 196 阅读 · 0 评论 -
AutoML推荐学习网站
https://github.com/hibayesian/awesome-automl-papers原创 2020-04-10 17:51:11 · 179 阅读 · 0 评论 -
CenterNet测试图片demo
import argparsefrom models.py_utils.data_parallel import DataParallelimport torch.nn as nnfrom models.py_utils import TopPool, BottomPool, LeftPool, RightPoolfrom models.py_utils.utils import co...原创 2019-11-13 14:51:44 · 1221 阅读 · 2 评论 -
MultiPoseNet: Fast Multi-Person Pose Estimation using Pose Residual Network
The backbone of MultiPoseNet serves as a feature extractor for keypoint and person detection subnets. It is actually a ResNet [36] with two Feature Pyramid Networks (FPN)MultiposeNet的主干用作关键点和人员...原创 2019-11-07 16:18:50 · 905 阅读 · 0 评论 -
loss代码
import torchimport torch.nn as nnfrom .utils import _tranpose_and_gather_featdef _sigmoid(x): return torch.clamp(x.sigmoid_(), min=1e-4, max=1-1e-4)def _ae_loss(tag0, tag1, mask): num ...转载 2019-11-05 15:01:09 · 763 阅读 · 0 评论 -
比较好的GitHub链接
人体姿态估计:https://github.com/yuanyuanli85/Fast_Human_Pose_Estimation_Pytorchmaskrcnn:https://github.com/FangYang970206/MaskRCNN-Keypoint-Demohttps://blog.csdn.net/qq_25349629/article/details/89493192...转载 2019-11-05 11:19:43 · 165 阅读 · 0 评论 -
线性可分支持向量机
我们知道两类样本点其实是有很多分割超平面的,那么哪条最优呢?若两个集合有部分相交,那么又如何定义超平面使得两个集合“尽量”分开呢?现在就从这两个问题入手来解决SVM分类器的目标函数是什么。假如有正例和负例两类样本点,现在就要去作一条分割线,但是这些样本的地位并不完全一样,距离直线最近的样本,算出它们离直线的距离,如果两边的不相等,那么我们总可以通过移动直线来使得样本到直线的最短距离相等。我们知...原创 2018-12-07 19:09:37 · 2573 阅读 · 3 评论 -
线性支持向量机
现在我们考虑这样一个问题,我们有时候真的需要把这些样本点都分对吗?在我们对样本点进行分类的时候并不要求所有的都分对,有一些太偏离的可以不考虑。因此不一定作线性可分SVM,只做线性SVM。若数据线性不可分,则增加松弛因子,使函数间隔加上松弛变量大于等于1。这样约束条件就变成了。所以我们可以把SVM看作是一个关于给定一个松弛因子作为我们的目标函数,只不过加了一个L2的正则项得到了目标函数: ...原创 2018-12-07 20:10:42 · 166 阅读 · 0 评论 -
非线性支持向量机
首先来看看核函数的概念:如果我们把SVM看作是一个导弹,如果这个导弹运载核弹的话那么它就可以取得很大的威力,而核函数就类似于这样可以取得很大的威力。我们知道在线性可分支持向量机中它主要是构造了这样一个目标函数: ...原创 2018-12-07 20:22:16 · 328 阅读 · 0 评论 -
决策树的一些概念与探讨
决策树通常包括三个步骤:特征选择、决策树的生成、决策树的修剪。用决策树分类,从根节点开始,对实例的某一特征进行测试,根据测试结果,将实例分配到其子节点,这是每一个子节点对应该特征的一个取值,如此递归地对实例进行测试并匹配,直至达到叶节点,最后将实例分到叶节点的类中。决策树的if-then规则:由决策树的根节点到叶节点的每一条路径构建一条规则,路径上内部节点的特征对应着规则的条件,而叶节点的...原创 2018-12-08 13:33:05 · 244 阅读 · 0 评论 -
随机森林总结
先对训练数据有重复的进行采样,得到n个有重复的样本,然后得到一颗决策树,重复这样的步骤最后得到n棵决策树,这些决策树最后做投票就得到了最后的分类结果。为什么叫随机森林:因为对数据的行列是随机采样的。有n个样本,每个样本呢有m个数据,对这n个样本用Bootstrap进行重采样,m列也重采样,从m各特征中选出最好的。就是说从K个特征中选出k个特征,再从k个特征中选出最好的来做分割。随机森林...原创 2018-12-08 13:38:38 · 298 阅读 · 0 评论 -
决策树分类鸢尾花数据集
import numpy as npimport pandas as pdimport matplotlib as mplimport matplotlib.pyplot as pltfrom sklearn.tree import DecisionTreeClassifieriris_feature = u'花萼长度', u'花萼宽度', u'花瓣长度', u'花瓣宽度', u'类...转载 2018-12-08 13:39:59 · 1385 阅读 · 0 评论 -
集成学习与提升方法
提升:在随机森林中我们通过构建T1 ...... Tn的的Ñ棵决策树然后取这Ñ棵决策树的平均得到一个总的森林,由于这是对每棵树取平均,不存在哪棵树重要,哪棵不重要的说法。现在我们换一种思路,给出这ñ棵树的权值,即第T(k + 1)= a1T1 + ...... + akTk,这棵树的系数第(k + 1)应该是什么。那么这就不是简单的做平均,而是做提升。也就是说提升所要解决的问题是ñ棵决策树得到下一...原创 2018-12-08 13:55:17 · 601 阅读 · 0 评论 -
一文读懂聚类
我们不管是做分类还是回归,我们拿到的数据都是这么一对数据,也就是,我们那到是的是这么一堆数据,我们不管是建立什么样的模型,比如说是,参数是,然后再与实际值ý带进损失函数求一个损失,我们去学这模型是一个什么东西,我们最后把学到了,我们带入一个得到一个值,这个要使它与实际的那个ý尽量的接近的,这就是我们的目的。而这样一个东西,带标记,带类别或者是带值的,这是一个有监督的学习。但有些时候我们没有这y...原创 2018-12-08 14:14:55 · 196 阅读 · 0 评论 -
一句话概括PCA
我们现在有一个m行n列的x,而是一个Ñ阶方阵,如果要去求它的特征值和特征向量把它的每一个这些特征值拿出来得到一个矩阵U,那这样一个东西就变成了对角阵,那如此一来我们取U的前ķ个特征值U1 ......,我们在里边仍然是把这ñ乘n,本来是ñ个特征,我们最后选出来了ķ个特征。...原创 2018-12-08 14:17:38 · 283 阅读 · 1 评论 -
K-Means聚类
它的基本思路就是给定若干个样本,如果我们需要做k个簇,先去初始给定k个类别中心,初始给定的意思可以是从这m个样本当中随机选k个值作为初始的样本中心,也可以真的生成k个值作为中心,或者是通过先验知识给定k个中心,这就是初始的意思,就是要怎么样去选那个类别中心。假定说我们有了这个样本中心了,现在考察这m个样本,比如说xi,那这个xi应该属于哪一个聚类中心呢?我们就算一下xi跟u1之间的距离,跟u2,以...原创 2018-12-08 14:27:00 · 141 阅读 · 0 评论 -
通俗易懂描述谱聚类
复习:实对称阵的特征值是实数因此实对称阵不同特征值的特征向量一定是正交的,这个正交是实数范围内的正交。首先我们来看什么叫谱这个字是什么意思,比如说我们唱歌的时候有一个歌谱,那个歌谱就来确定了我们这首歌它唱的旋律是什么样子,我们唱的这个歌是不是在谱上,有没有跑调对吧。而这个我们想定义一个矩阵A它的谱怎么定义呢?OK,因为矩阵A我们可以用它的特征值去做度量的。因为,那么这样的话入本身可以作为A...原创 2018-12-08 15:03:38 · 457 阅读 · 0 评论 -
递归神经网络的不合理有效性
递归神经网络(Rnns)有一些神奇之处。我仍然记得当我训练我的第一个递归网络进行图像捕捉时。在训练后的几十分钟内,我的第一个婴儿模型(带有相当随意选择的超参数)开始生成非常好看的图像描述,这些图像处于有意义的边缘。有时,你的模型的简单程度与结果的质量的比率。你的打击超出了你的期望,这也是其中的一次。当时令人震惊的是,人们普遍认为Rnns应该是很难训练的(事实上,我有更多的经验,得出了相反的...转载 2018-12-12 16:39:53 · 921 阅读 · 0 评论 -
基于多任务级联卷积网络的人脸联合检测与对准
摘要无约束环境下的 抽象人脸检测和比对由于其不同的姿态、光照和遮挡而具有挑战性。最近的研究表明,深度学习方法可以在这两个任务上取得显著的性能。本文提出了一种基于深度级联的多任务框架,利用它们之间的内在相关性来提高性能,特别是采用了分三个阶段精心设计的级联结构。在学习过程中,我们提出了一种新的在线硬样本挖掘策略,它可以在不需要人工选择样本的情况下自动提高人脸挖掘的性能,在挑战Fddb和宽人脸检测...翻译 2018-12-12 17:21:50 · 1090 阅读 · 0 评论 -
用于大规模图像识别的深度卷积网络
摘要 本文研究了大规模图像识别中卷积网络深度对其精度的影响。我们的主要贡献是使用一种非常小(3×3)卷积滤波器的结构对增加深度的网络进行了彻底的评估,这表明通过将深度推进到16-19层,可以实现对现有技术配置的显著改进。这些发现是我们的ImageNet 2014年挑战报告的基础,我们的团队分别在本地化和分类轨道上获得了第一名和第二名。我们还表明,我们的表示很好地推广到了其他数据集,...翻译 2018-12-13 17:17:27 · 2000 阅读 · 0 评论 -
Faster R-CNN:用区域提案网络实现实时目标检测
摘要最先进的目标检测网络依赖于区域建议算法来假设物体的位置.像sppnet[1]和快速r-cnn[2]这样的进步减少了这些检测网络的运行时间,将区域提案计算暴露为瓶颈。在本文中,我们引入了一个区域提案网络(RPN),它与检测网络共享全图像卷积特征,从而实现了几乎免费的区域提案。RPN是一个完全卷积的网络,它同时预测每个位置的对象边界和对象性分数。RPN是经过端到端的训练,以产生高质量的区域提案...翻译 2018-12-14 13:20:10 · 4156 阅读 · 1 评论 -
EM算法详解
我们先来看一下极大似然估计,所谓的极大似然估计就是找出与样本分布最接近的概率分布模型。比如说我们抛10次硬币,它的结果是正正反正正正反反正正,假设p是每次抛硬币结果为正的概率,那么所得实验结果的概率就是 ,再对其取对数会得到这么一个东西: ...原创 2018-12-09 14:57:04 · 2385 阅读 · 1 评论 -
贝叶斯网络数学基础之信息论
不知道大家想过怎么一个问题没有,我们都知道是上帝创造了一切,而谁创造了上帝呢?我们今天探讨的就类似于这么一个问题。我们一直都在那里聊一个模型有一个参数,这个参数通过某种方式去来得到它估计它,那么这个参数又受什么东西来控制呢?我们不断地去来做这么一个东西就得到了贝叶斯网络。第一个我们可以建立一个高斯朴素贝叶斯的模型来对任何我们想做的东西进行建模,然后做估计,比如我们认为鸢尾花数据是服从高斯的朴素贝叶...原创 2018-12-09 15:11:32 · 539 阅读 · 0 评论 -
贝叶斯网络
其实我们有些时候研究的随机变量并不是相互独立的,它可能是相互之间有关系的,也就是说若干个样本之间并不相互独立,可能产生了某种关系,最后就产生了一个看起来像网的东西,我们把这样的一个有向的无环图叫做贝叶斯网络。而每一个节点都是一个随机变量,所以这是一个概率图模型。有向无环图和贝叶斯网络是一个等价的概念,都属于概率图模型,只是有些时候除了贝叶斯网络这种有向无环图可能还有无向图模型,但它也是概率图模型,...原创 2018-12-09 15:54:12 · 20559 阅读 · 3 评论