![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 70
supergxt
这个作者很懒,什么都没留下…
展开
-
语义分割模型总结
之前看了一段时间OoD在语义分割中的应用,并且学习了一些基本的语义分割模型,总结记录本文目录语义分割FCNUnetSegNet(实时语义分割)Deeplab v1(VGG16)Deeplab v2(Resnet)Deeplab v3语义分割语义分割一直存着语义信息和细节信息的矛盾。语义信息足够,局部细节信息不足,细节就会模糊,边缘就会不精准;细节信息准确,语义信息欠缺,像素点预测就会错误。CNN能够很好地编码语义信息和细节信息,整合到一个局部到全局的特征金字塔中。FCNFCN (FCN:Fully原创 2022-04-05 10:58:24 · 7343 阅读 · 0 评论 -
[分布外检测]Entropy Maximization and Meta Classification for Out-of-Distribution Detection...实现记录
Aomaly Segmentation 项目记录该文档记录异常检测在自动驾驶语义分割场景中的应用。主要参考论文Entropy Maximization and Meta Classification for Out-of-Distribution Detection in Semantic Segmentation摘要:Deep neural networks (DNNs) for the semantic segmentation of images are usually trained to原创 2022-04-05 10:53:53 · 3571 阅读 · 0 评论 -
python 余弦相似度计算(faiss)
faissfaiss是为稠密向量提供高效相似度搜索和聚类的框架。由Facebook AI Research研发。详见github https://github.com/facebookresearch/faissfaiss常用的两个相似度搜索是L2欧氏距离搜索和余弦距离搜索(注意不是余弦相似度)简单的使用流程:import faiss index = faiss.IndexFlatL2(d) # 建立L2索引,d是向量维度index = faiss.IndexFlatIP(d) # 建立In原创 2021-11-04 10:41:25 · 8053 阅读 · 0 评论 -
KL散度 pytorch实现
KL散度 KL DivergenceDKLD_{KL}DKL 是衡量两个概率分布之间的差异程度。考虑两个概率分布PPP, QQQ(譬如前者为模型输出data对应的分布,后者为期望的分布),则KL散度的定义如下:DKL=∑xP(x)logP(x)Q(x)D_{KL} = \sum_xP(x)log\frac{P(x)}{Q(x)} DKL=x∑P(x)logQ(x)P(x)DKL=∫xP(x)logP(x)Q(x)D_{KL} = \int_xP(x)log\frac{P(x)}{Q(x原创 2021-08-09 17:02:24 · 2287 阅读 · 0 评论 -
异常检测数据集
在读论文的时候看到一个综合了异常检测各种数据集的网站,在这里进行分享http://odds.cs.stonybrook.edu/数据集类型包括:多维点异常图时间序列异常时间序列点异常对抗/攻击场景和安全数据集视频异常...原创 2021-06-28 15:29:48 · 4207 阅读 · 2 评论 -
机器学习学习日志--线性分类器
之前所讲的KNN是一种无参数的算法,我们只需要把要测试的数据跟已有的数据进行比较就可以得出结果,但是分类器必须要把所有的数据集保存下来,每一次比较都需要拿出来一个一个比较,复杂度很大...而线性分类器是CNN的基础,(我理解的就是一层神经网络),从linear classifier就需要参数的参与了。利用CIFAR-10dataset的数据集进行学习首先,最普通的图片是三色通路构成...原创 2018-06-06 23:49:22 · 727 阅读 · 0 评论 -
机器学习学习日志--KNN
渣渣的学习日志(一)---KNN算法根据斯坦福大学CS231n的课程,在学习CNN之前,要先对一些机器学习的算法进行系统的学习,最先接触到的就是KNN算法KNN(k-nearest neighbor)算法用我个人的理解就是,通过对测试集和数据集进行特征值上的距离计算,来确定距离测试集最近的K个数据,(K值不是定死的,andrej的意思是要通过一种交叉算法来确定最好的K),这K个数据的标签进...原创 2018-06-05 17:15:40 · 631 阅读 · 0 评论 -
模式识别-贝叶斯分类器-知识总结与作业(python版)
基于贝叶斯理论的分类器采用贝叶斯决策理论的前提为:目标观测值随机且服从一定的分布贝叶斯公式设样本空间S划分为Bi,A为某一事件,则在A发生的条件下Bi发生的概率为:P(Bi∣A)=P(BiA)/P(A)=P(A∣Bi)P(Bi)/P(A)P(B_i|A)=P(B_iA)/P(A)=P(A|B_i)P(B_i)/P(A)P(Bi∣A)=P(BiA)/P(A)=P(A∣Bi)P(Bi)/P(A)关键概念:先验概率P(Bi)P(B_i)P(Bi)、后验概率P(Bi∣A)P(B_i|A)P(Bi原创 2020-10-07 10:45:12 · 2204 阅读 · 1 评论 -
K-fold交叉验证(python版)
k-fold交叉验证sklearn可以实现训练集交叉验证划分训练集和验证集这里提供一个原创版本。class My_cv_iterator(): # 自写交叉验证 def __init__(self,data,label,cv_num): ''' data :输入特征 label : 输入标签 cv_num : k-fold 折数 return 返回k-fold的iterator 包括step, t原创 2020-11-01 15:40:16 · 1911 阅读 · 0 评论 -
模式识别-神经网络-知识总结与作业(python版)
神经网络(多层感知器)原理神经网络(neural network)也即多层感知器 multi-layer-perceptron(MLP)指的是通过构造不同结构神经元结构进行前向传播并根据任务设计一定的损失函数进行反向传播,最终获得的模型预备知识神经元:Oj=f(∑inωjxj+b)O_j = f(\sum_i^n\omega_jx_j+b)Oj=f(i∑nωjxj+b)其中f为激活函数,wjw_jwj为第j个输入对应的权重,b为偏置激活函数 activate function:激活原创 2020-11-01 15:34:29 · 1381 阅读 · 0 评论 -
机器学习日志(聚类 k-means)
聚类介绍:聚类属于典型的无监督学习(unsupervised learning),针对label未知的数据集进行划分,获得目标数量的“簇”(划分的不相交的子集)主要概念:划分的不相交的簇:,表示所划分的簇聚类主要性能度量:包括外部指标与内部指标,外部指标是与参考模型label进行比较,内部指标则不参考任何模型,外部指标利用确定划分正确、划分错误等数量来进行评估(不过我认为这...原创 2019-10-23 10:53:29 · 1201 阅读 · 0 评论