![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
math
TBYourHero
to be your hero
展开
-
Improved Deep Metric Learning with Multi-class N-pair Loss Objective论文阅读
阅读一:链接阅读二:链接原创 2021-12-17 15:32:51 · 387 阅读 · 0 评论 -
浅谈最优化问题的KKT条件
之前看了一些相关书籍,发现KKT条件的证明不是有些简略,就是太偏“数学”(对于非数学专业的学生可能看不懂)——不适合非数学专业的同学入门. 因此我通过总结教材、上课笔记和加入一些帮助理解的重要注记(个人认为不“显然”的内容),写下这篇文章,供大家学习和交流!转载 2021-12-16 14:40:31 · 374 阅读 · 0 评论 -
改进三元组损失
三元组损失tripletloss改进三元组损失原创 2021-04-27 15:52:31 · 1633 阅读 · 0 评论 -
回归模型
参考:https://blog.csdn.net/red_stone1/article/details/81122926线性回归和逻辑回归通常是人们学习预测模型的第一个算法。由于这二者的知名度很大,许多分析人员以为它们就是回归的唯一形式了。而了解更多的学者会知道它们是所有回归模型的主要两种形式。事实是有很多种回归形式,每种回归都有其特定的适用场合。在这篇文章中,我将以简单的形式介绍 7 中最常见的回归模型。通过这篇文章,我希望能够帮助大家对回归有更广泛和全面的认识,而不是仅仅知道使用线性回归和逻辑回原创 2021-04-26 09:56:38 · 113 阅读 · 0 评论 -
流行学习与拉普拉斯变换的推导
参考:拉普拉斯矩阵参考:流行学习原创 2021-01-11 21:03:19 · 1944 阅读 · 0 评论 -
流形学习(Manifold Learning)以及推导
流形学习(Manifold Learning) 前言 流行学习简介 主要的代表方法 1) Isomap (等距映射) Isomap算法步骤: 2) LLE(Locally Linear Embedding) 局部线性嵌入 LLE基本思想: LLE算法步骤: Isomap 与LLE的比较: 3) LE (Laplacian Eigenmaps) 拉普拉斯特征映射 谱图理论: LE基本思想: LE算法步骤:转载 2021-01-11 19:59:20 · 2684 阅读 · 0 评论 -
矩阵迹的几何意义是什么?
迹的几何意义是什么? - 马同学的回答 - 知乎 https://www.zhihu.com/question/20533117/answer/255818053前置阅读:如何理解矩阵乘法? 如何理解相似矩阵?线性代数中,把方阵的对角线之和称为“迹”转载 2021-01-11 16:08:09 · 2810 阅读 · 0 评论 -
图梯度、散度、拉普拉斯算子
graph上定义的graident、divergence、Laplace operator或Laplacian。graident定义:边的梯度=(边的终点-边的起点)/边的权重标题的梯度=(4-2)/1=2,的梯度=(7-2)/1=5...引入关联矩阵,起点为-1,终点为1,则该graph的关联矩阵为,属性矩阵,那么,图的梯度为,发现和图上梯度的定义一样。故,。divergence和Laplacian同理,图上的散度可以定义为:,流入该节点的通量之和,当h为梯度时,.转载 2021-01-08 10:39:50 · 772 阅读 · 0 评论 -
拉普拉斯矩阵与拉普拉斯算子的关系
https://zhuanlan.zhihu.com/p/85287578转载 2021-01-04 17:14:07 · 530 阅读 · 0 评论 -
TripleLoss要点理解
CNN: 4.4 triplet loss:https://www.bilibili.com/video/av16746756/CNN: 4.4 triplet loss_2:https://www.bilibili.com/video/BV1rx41157SA/?spm_id_from=333.788.videocard.1CNN: 4.4 triplet loss_3:https://www.bilibili.com/video/BV1rx41157WQ/?spm_id_from=333.788原创 2020-09-25 10:06:35 · 576 阅读 · 0 评论 -
机器学习讲堂:分析核函数的原理
https://www.youtube.com/watch?v=p4t6O9uRX-U&list=PLt0SBi1p7xrRKE2us8doqryRou6eDYEOy&index=1 转载自李政轩老师系列视频一步一步带你分析核函数的原理-Kernel Method原创 2020-09-25 10:05:12 · 290 阅读 · 0 评论 -
SoftMarginLoss原理
1.triple_lossclass TripleLoss(object): """Modified from Tong Xiao's open-reid (https://github.com/Cysu/open-reid). Related Triplet Loss theory can be found in paper 'In Defense of the Triplet Loss for Person Re-Identification'.""" def _原创 2020-08-26 08:22:05 · 1975 阅读 · 1 评论 -
MarginRankingLoss
https://zhuanlan.zhihu.com/p/83364904MarginRankingLoss大家可能对这个损失函数比较陌生。在机器学习领域,了解一个概念最直观的最快速的方式便是从它的名字开始。MarginRankingLoss也是如此,拆分一下,Margin,Ranking,Loss。Margin:前端同学对Margin是再熟悉不过了,它表示两个元素之间的间隔。在机器学习中其实Margin也有类似的意思,它可以理解为一个可变的加在loss上的一个偏移量。也就是表明这个方法转载 2020-08-23 22:38:12 · 7415 阅读 · 0 评论 -
算法4推荐下载
《算法第 4 版》文字版 PDF:复制这段内容后打开百度网盘手机App,操作更方便哦 链接:https://pan.baidu.com/s/1XaQKuGS6YX00B1jcz9ptPQ&shfl=sharepset 提取码:a465原创 2020-08-19 10:21:52 · 1260 阅读 · 3 评论 -
数学建模资料
数学建模资料百度网盘链接:https://pan.baidu.com/s/1KLMAGVUxp1OdFFGe7UgqsQ提取码:5××9 (发送邮件至vieo.zhu@foxmail.com有偿申请)数学建模资料分享,下面是文件列表:统计模型:历年国赛美赛资料:一些书籍:...原创 2019-11-05 09:58:54 · 1387 阅读 · 0 评论 -
EM算法
作者:Paulmarkye_54b2链接:https://www.jianshu.com/p/c57ef1508fa7来源:简书首先说说什么是EM算法?最大期望算法(Expectation-maximization algorithm,又译期望最大化算法)在统计中被用于寻找,依赖于不可观察的隐性变量的概率模型中,参数的最大似然估计。在统计计算中,最大期望(EM)算法是在概率模...转载 2019-06-15 14:05:42 · 251 阅读 · 0 评论 -
贝叶斯网络
元学习论文总结||小样本学习论文总结2017-2019年计算机视觉顶会文章收录 AAAI2017-2019 CVPR2017-2019 ECCV2018 ICCV2017-2019 ICLR2017-2019 NIPS2017-2019作者:Bioquan链接:https://www.jianshu.com/p/9d3a91cb2117来源:简书概率论只不过是把常识用数学公式表达了...转载 2019-06-15 14:14:18 · 1721 阅读 · 0 评论 -
最大似然估计(MLE)和最大后验概率(MAP)
最大似然估计 (MLE) 最大后验概率(MAP)1) 最大似然估计 MLE给定一堆数据,假如我们知道它是从某一种分布中随机取出来的,可是我们并不知道这个分布具体的参,即“模型已定,参数未知”。例如,我们知道这个分布是正态分布,但是不知道均值和方差;或者是二项分布,但是不知道均值。 最大似然估计(MLE,Maximum Likelihood Estimation)就可以用来估计模型的参数。M...转载 2019-06-27 12:47:44 · 382 阅读 · 0 评论 -
启发式算法
元学习论文总结||小样本学习论文总结2017-2019年计算机视觉顶会文章收录 AAAI2017-2019 CVPR2017-2019 ECCV2018 ICCV2017-2019 ICLR2017-2019 NIPS2017-2019启发式方法(试探法)是一种帮你寻求答案的技术,但它给出的答案是具有偶然性的(subject to chance),因为启发式方法仅仅告诉你该如何去找,...转载 2019-07-01 12:47:53 · 1017 阅读 · 0 评论 -
余弦相似度
百科余弦相似度,又称为余弦相似性,是通过计算两个向量的夹角余弦值来评估他们的相似度。余弦相似度将向量根据坐标值,绘制到向量空间中,如最常见的二维空间。两个向量有相同的指向时,余弦相似度的值为1;两个向量夹角为90°时,余弦相似度的值为0;两个向量指向完全相反的方向时,余弦相似度的值为-1。这结果是与向量的长度无关的,仅仅与向量的指向方向相关。余弦相似度通常用于正空间,因此给出的值为0到...原创 2019-07-19 08:49:37 · 495 阅读 · 0 评论 -
KDE核密度估计
元学习论文总结||小样本学习论文总结2017-2019年计算机视觉顶会文章收录 AAAI2017-2019 CVPR2017-2019 ECCV2018 ICCV2017-2019 ICLR2017-2019 NIPS2017-2019核密度函数的原理比较简单,在我们知道某一事物的概率分布的情况下,如果某一个数在观察中出现了,我们可以认为这个数的概率密度很大,和这个数比较近的数...转载 2019-07-22 09:47:13 · 813 阅读 · 0 评论 -
如何理解矩阵特征值和特征向量?
如何理解矩阵特征值和特征向量?--by 马同学原创 2019-08-13 16:25:07 · 410 阅读 · 0 评论 -
马尔可夫链详解
小白都能看懂的马尔可夫链详解原创 2019-08-13 10:47:12 · 1630 阅读 · 0 评论 -
什么是红黑树
一篇漫画告诉你--什么是红黑树? - 蛙课网的文章 - 知乎 https://zhuanlan.zhihu.com/p/78249704原创 2019-09-25 23:17:46 · 146 阅读 · 0 评论 -
奇异值的物理意义
奇异值的物理意义是什么? - whitefang的回答 - 知乎 https://www.zhihu.com/question/22237507/answer/740565206原创 2019-09-26 11:30:12 · 140 阅读 · 0 评论 -
凸优化||简单介绍
关于凸优化的一些简单概念http://www.cnblogs.com/tornadomeet/p/3300132.html没有系统学过数学优化,但是机器学习中又常用到这些工具和技巧,机器学习中最常见的优化当属凸优化了,这些可以参考Ng的教学资料:http://cs229.stanford.edu/section/cs229-cvxopt.pdf,从中我们可以大致了解到一些凸优化的概念...转载 2019-05-23 14:36:25 · 332 阅读 · 0 评论