![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 92
Dreamcreationman
科学谦卑的自我审视和自我否定不但没有削弱他的光荣,反而使它获得了永恒的力量。
展开
-
Mixer阅读笔记
Mixer阅读笔记Tolstikhin I, Houlsby N, Kolesnikov A, et al. MLP-Mixer: An all-MLP Architecture for Vision[J]. arXiv preprint arXiv:2105.01601, 2021.很久没有看论文了,前一段时间又在准备考试……其实就是懒了点哈哈哈,五一回来在arxiv上看到这篇paper,看了abstract觉得这篇paper有点意思,点进pdf一看各种画风,遥想vision transforme原创 2021-05-21 22:37:31 · 272 阅读 · 2 评论 -
DIM阅读笔记
DIM阅读笔记Hjelm R D, Fedorov A, Lavoie-Marchildon S, et al. Learning deep representations by mutual information estimation and maximization[J]. arXiv preprint arXiv:1808.06670, 2018.前面一段时间也比较忙(忙着让王者荣耀上王者),其实也在做实验,后来验证想法失败了,没写笔记就代表没怎么精读论文,所以一直也没更新,但是一想不能就酱原创 2021-01-12 17:27:04 · 575 阅读 · 2 评论 -
MAML阅读笔记
MAML阅读笔记Finn C, Abbeel P, Levine S. Model-agnostic meta-learning for fast adaptation of deep networks[J]. arXiv preprint arXiv:1703.03400, 2017.为什么我今天这么晚还在工作呢?因为我今天下午又浪费了一下午的光阴……所以罚自己今晚完成任务。。。其实也是因为任务没有完成55555,所以来熬夜完成任务…背景又是一篇高被引论文,MAML可谓是元学习的里程碑之作,当原创 2020-12-16 01:59:00 · 674 阅读 · 0 评论 -
Reviews On Few Shot Learning
文章目录IntroductionBackgroundDefinitionGoalApplication in CVMethodologyDataModelMulti-Task LearningMetrics LearningNTM Based LearningAlgorithmFuture WorkIntroductionBackground随着2012年AlexNet在ImageNet上取得优异的成绩后,这种基于Data-Driven的深度学习逐渐成为现代机器学习最庞大和繁荣的一个分支体系,其实仔细原创 2020-12-13 23:02:52 · 188 阅读 · 0 评论 -
Siamese Neural Networks 阅读笔记
Siamese Neural Networks 阅读笔记文章题目:Siamese Neural Networks for One-shot Image Recognition文章信息:Koch G, Zemel R, Salakhutdinov R. Siamese neural networks for one-shot image recognition[C]//ICML deep learning workshop. 2015, 2.背景最近在做一些Few-Shot Learning的一些原创 2020-12-09 10:08:21 · 388 阅读 · 0 评论 -
Vision Transformer 阅读笔记
Vision Transformer 阅读笔记文章题目:An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale文章信息:Submitted to International Conference on Learning Representation文章状态:Under Reviewgithub:https://github.com/emla2805/vision-transformer给这篇文章算一卦原创 2020-12-09 10:05:30 · 966 阅读 · 2 评论 -
Mutual Guidance 阅读笔记
Mutual Guidance 阅读笔记Zhang H, Fromont E, Lefevre S, et al. Localize to Classify and Classify to Localize: Mutual Guidance in Object Detection[J]. arXiv preprint arXiv:2009.14085, 2020.背景当前的目标检测主要是以RCNN为主的两阶段检测器和以YOLO为代表的一阶段检测器,这些检测器大多都是采用了滑窗或者selective原创 2020-12-09 10:03:43 · 361 阅读 · 1 评论 -
常见的一些“Distance“
机器学习中的"距离"@(神经网络)文章目录机器学习中的"距离"LpL_pLp距离向量的范数定义L0L_0L0范数L1L_1L1范数L2L_2L2范数LpL_pLp范数标准化欧式距离(Standardized Euclidean Distance)L∞L_\inftyL∞范数杰卡德相似系数(Jaccard Similarit Coefficient)杰卡德距离(Jaccard Distance)相关性相关系数 ( Correlation coefficient )相关距离(Correlatio原创 2020-12-09 10:00:53 · 591 阅读 · 0 评论 -
机器学习系列——线性代数基础
机器学习系列——线性代数基础@(神经网络)函数: 函数是输入和输出的关系,是一种映射,可能是一对一,多对一。机器学习所讨论的函数往往是一种隐式的,难以代数解析式来进行表示的一种映射关系。常见函数是:对数函数,指数函数(一般指的是 y=exy=e^xy=ex),sigmoid函数(早期的激励函数S(x)=11+e−x=ex1+exS(x) = \frac{1}{1+e^{-x}}=\frac{e^x}{1+e^x}S(x)=1+e−x1=1+exex),还有Relu修正函数(f(x)=max(0,x原创 2020-12-09 09:58:46 · 413 阅读 · 0 评论 -
关于kNN的一切
关于kNN的一切@(神经网络)文章目录关于kNN的一切kNN定义kNN思想Implementation of kNN总结不要脸环节kNN定义在模式识别领域中,最近邻居法(KNN算法,又译K-近邻算法,K Nearest-Neighbor )是一种用于分类和回归的非参数统计方法[1]。在这两种情况下,输入包含特征空间(Feature Space)中的k个最接近的训练样本。——Wikipedia “K-近邻算法”别人的话总是那么高大上晦涩难懂,说得简单一点,kNN就是一个巨几把简单的一个算法,算是原创 2020-12-09 09:57:48 · 217 阅读 · 0 评论 -
常见损失函数
常见损失函数@(cs231n)文章目录常见损失函数损失函数定义0-1损失函数(zero-one loss)绝对值损失函数(Absolute loss)log对数损失函数(Log Loss)平方损失函数(Square Loss)指数损失函数 (Exponential Loss)SVM损失函数(Hinge Loss)感知损失函数(perceptron Loss)交叉熵损失函数 (Cross-entropy loss function)Modified Huber Loss参考文献损失函数定义0-1损失函数(原创 2020-12-09 09:56:34 · 2372 阅读 · 0 评论