机器学习
文章平均质量分 94
dulingtingzi
这个作者很懒,什么都没留下…
展开
-
Lookalike算法调研
参考了很多优秀博主的文章,这属于一个汇总吧参考文章:(还有很多,在后面的连接里)Lookalike的几种实现方式 | GA小站计算广告中的lookalike是如何实现的? - 简书1、什么是lookalikelookalike算法是计算广告中的术语,不是单指某一种算法,而是一类方法的统称。其目的是基于目标人群,从海量的人群中找出和目标人群相似的其他人群,实现人群包扩充。比如:广告主需要对100w人投放,但是,从选取的基础数据包中,只有30w,那么如何满足100w的投放需求,这时,就.原创 2021-10-13 17:31:41 · 5324 阅读 · 0 评论 -
机器学习与深度学习里生成模型和判别模型的理解
这篇博客是自己在学习生成模型与判别模型过程中的一些记录,整理了相关的文章后写成,感谢前辈们的辛苦总结转载自:https://blog.csdn.net/zouxy09/article/details/8195017https://blog.csdn.net/lk7688535/article/details/52353350https://blog.csdn.net/Solomon1558/art...转载 2018-05-10 15:20:51 · 24381 阅读 · 8 评论 -
机器学习中常见的几种损失函数
转载自:https://www.cnblogs.com/hejunlin1992/p/8158933.html 通常机器学习每一个算法中都会有一个目标函数,算法的求解过程是通过对这个目标函数优化的过程。在分类或者回归问题中,通常使用损失函数(代价函数)作为其目标函数。损失函数用来评价模型的预测值和真实值不一样的程度,损失函数越好,通常模型的性能越好。不同的算法使用的损失函数不一样。 损失函数分为...转载 2018-05-10 13:38:10 · 3841 阅读 · 0 评论 -
机器学习深度学习调优方法介绍
机器学习中的两个需要克服的问题就是过拟合和欠拟合,所以在调优过程中,针对这两方面分别有以下调优的小方法(当然要选择合适的代价函数和正则项啦):1、针对过拟合(传统机器学习)1、获取更多训练样本,这样可以覆盖更多场景2、尝试少些特征,这样模拟函数会简单一些3、尝试增大正则项前面的系数λ,这样函数参数会变小一些,模拟函数会更倾向于简单2、针对欠拟合(传统机器学习)1、尝试更多特征,让模拟函数复杂一些2...原创 2018-05-10 17:16:00 · 720 阅读 · 0 评论 -
深入浅出——深度学习中的Batch Normalization使用
原文地址:http://blog.csdn.net/hjimce/article/details/50866313转载自:https://blog.csdn.net/u010402786/article/details/51233854(因为感觉这个作者的排版比较好看)关于归一化部分的理解参考资料:神经网络之家 www.nnetinfo.com http://www.nnetinfo.com/nn...转载 2018-05-11 16:11:56 · 3304 阅读 · 0 评论 -
NMS——非极大值抑制
转载自:https://blog.csdn.net/shuzfan/article/details/52711706NMS(non maximum suppression),中文名非极大值抑制,在很多计算机视觉任务中都有广泛应用,如:边缘检测、目标检测等。这里主要以人脸检测中的应用为例,来说明NMS,并给出Matlab和C++示例程序。人脸检测的一些概念(1) 绝大部分人脸检测器的核心是分类器,即...转载 2018-05-18 18:13:15 · 526 阅读 · 0 评论 -
机器学习 l1 相比于 l2 为什么容易获得稀疏解?
此部分博客是我在知乎上摘录下来的,感谢知乎大神的用心回答。一、通俗易懂的解释 作者:王赟 Maigo链接:https://www.zhihu.com/question/37096933/answer/70426653来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。假设费用函数 L 与某个参数 x 的关系如图所示:则最优的 x 在绿点处,...转载 2018-05-14 18:02:30 · 4528 阅读 · 0 评论 -
Bagging和Boosting 概念及区别
转载自:http://www.cnblogs.com/liuwu265/p/4690486.htmlBagging和Boosting都是将已有的分类或回归算法通过一定方式组合起来,形成一个性能更加强大的分类器,更准确的说这是一种分类算法的组装方法。即将弱分类器组装成强分类器的方法。首先介绍Bootstraping,即自助法:它是一种有放回的抽样方法(可能抽到重复的样本)。1、Baggi...转载 2018-07-29 17:29:23 · 359 阅读 · 0 评论