![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
好小的风
这个作者很懒,什么都没留下…
展开
-
L0、L1、L2、核范数以及RPCA方法的应用
机器学习方法之范数规则 范数规则 实则就是将模型的一些先验知识融入到模型的学习中,强行地让学习到的模型具有某些特征,如低秩、稀疏等等,因此可用于防止过拟合现象的出现。 从贝叶斯的角度来看,范数规则项实则对应模型的先验概率;另外,也可看成是结构风险最小化策略的实现,即在经验风险上加一个正则化项或者是惩罚项。 一般来说,监督学习即是最小化下面的目标函数: 其中,第一项衡量模型(分类/回归)对第i个样...原创 2019-01-23 22:24:19 · 1596 阅读 · 1 评论 -
说话人聚类--谱聚类和层次聚类
谱聚类和层次聚类 在讯飞实习了一个月了,做了点说话人聚类的工作,现在总结一下主要用到的谱聚类和层次聚类。 层次聚类 在层次聚类这块,我主要学习了 凝聚型层次聚类和 BIRCH方法,主要参考的博客有 [ BIRCH聚类算法原理 ] 。 定义:通过计算不同类别数据点间相似度来创建一棵有层次的嵌套聚类树,主要有两种方法: 分裂(Divisive):自顶向下的方法,先将所有数据归为一类,不断分裂成不...原创 2019-08-05 21:27:24 · 1648 阅读 · 0 评论 -
面试知识点梳理二:常见范数最小二乘
一点点查漏补缺吧~ l1范数为什么比l2范数更容易得到稀疏解 其实这个问题我之前看到过,包括也有介绍过0,1,2范数(详见L0、L1、L2、核范数以及RPCA方法的应用),但是面试的时候却又结结巴巴地回答不上来,归根到底还是理解得不够透彻,现在又重新来梳理一遍。 参看了一下知乎上的l1相比于l2为什么容易获得稀疏解的相关答案后,才知道原来这个问题有三种理解,此处就偷个懒转个图了。 这里对于"...原创 2019-08-22 16:24:27 · 2371 阅读 · 0 评论 -
快手笔试选择题梳理(机器学习)
梳理一下快手的笔试中的选择题吧,主要是机器学习的内容,当然数学题也有一部分。 卷积层的存储量和计算量 存储量: C(上一层卷积数量) * K(卷积核高) * K(卷积核宽) * C(这一层卷积核的数量) 计算量: C(上一层卷积数量) * K(卷积核高) * K(卷积核宽) * C(这一层卷积核的数量) * W(输出特征图的宽度) * H(输出 特征图的高度) 即为:O(K∗K∗Cin∗M∗M∗...原创 2019-08-29 14:36:11 · 799 阅读 · 0 评论