度量学习
文章平均质量分 95
西岸行者
问君能有几多愁,恰似一只鸡腿进不了口
展开
-
FSL小样本学习few-shot learning知识点整理
虽然deeplearning在语音视频和语言处理上有了革命性的进步,数据增强和正则化技术也是的小数据样本的过拟合问题得到了改善,但是距离大数据大模型的差距还是存在的。本文结合《Matching Networks for One Shot Learning》,《Domain-Adaptive Few-Shot Learning》和《Prototypical Networks for Few-shot Learning》三篇论文的内容,梳理一下few shot learning的一些知识点,试图探究一下提高小样原创 2021-02-02 18:20:42 · 2283 阅读 · 0 评论 -
TripletsLoss不是解决距离的银色子弹,而是打开度量学习的大门钥匙
在deeplearning时代,姑且肤浅的将表征学习理解成变成向量后的度量学习吧。就解决问题的角度而言,表征学习是建模,抽象到异次元,度量学习是把异次元的东西再量化到三维空间,用“横看成岭侧成峰”来比喻他们作为解决问题(庐山)的两个方面(岭峰)再合适不过了。而用“远近高低各不同”来理解度量学习中各种loss策略,好像也很形象,看来苏轼真的很懂机器学习啊。原创 2020-11-06 18:26:58 · 1950 阅读 · 1 评论 -
高维向量的相似度判定-距离产生了,美还在吗
“海内存知己,天涯若比邻”,古人用心理距离辨证了时空距离,机器学习何尝不是,看似毫不相关或者毫无头绪的分类问题,由于采用了合适的数学距离,就将它们在高维度空间分开了,展现在三维空间里,很多神奇的事情令人难以置信。现实中,我们做神经网络分类或者编码时,loss函数往往需要根据‘distance’来设计,这些distance理解起来是比较烧脑的,下面这个笔记整理些常用的距离,系统的分析一下这些距离的前世今生,看看哪些距离美到令人窒息,还有哪些距离令人痛苦的不能自拔?原创 2020-10-27 19:10:21 · 5216 阅读 · 3 评论