![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
HelloZEX
[2018·10·18]所谓核心竞争力,永远是自身的实力!
[2022·4·4]我需要换一个大脑!
展开
-
梯度下降(Gradient Descent)
原文地址:http://www.cnblogs.com/pinard/p/5970503.html在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。这里就对梯度下降法做一个完整的总结。1. 梯度 在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数转载 2017-11-08 10:24:52 · 364 阅读 · 0 评论 -
【机器学习】参数与超参数
机器学习中的模型参数和模型超参数在作用、来源等方面都有所不同,而模型超参数常被称为模型参数,这样,很容易对初学者造成混淆。本文给出了模型参数和模型超参数的定义,并进行了对比,指出了二者本质上的区别:模型参数是模型内部的配置变量,可以用数据估计模型参数的值;模型超参数是模型外部的配置,必须手动设置参数的值。 我们在做研究的时候,会碰到很多术语。有时,在不同的研究领域还会出现同样名称的术语。比...转载 2018-07-16 16:56:32 · 760 阅读 · 0 评论 -
概率图模型 - 机器学习ML
参考:1 http://www.cnblogs.com/hxsyl/p/5225635.html.2.《机器学习》周志华################################################一、概念引入 很多事情是具有不确定性的。人们往往希望从不确定的东西里尽可能多的得到确定的知识、信息。为了达到这一目的,人们创建了概率理论来转载 2017-11-23 10:00:48 · 1279 阅读 · 0 评论 -
K-means聚类算法-机器学习ML
K-means也是聚类算法中最简单的一种了,但是里面包含的思想却是不一般。最早我使用并实现这个算法是在学习韩爷爷那本数据挖掘的书中,那本书比较注重应用。看了Andrew Ng的这个讲义后才有些明白K-means后面包含的EM思想。 聚类属于无监督学习,以往的回归、朴素贝叶斯、SVM等都是有类别标签y的,也就是说样例中已经给出了样例的分类。而聚类的样本中却没有给定y,只有特征x,比如转载 2017-11-22 15:15:56 · 381 阅读 · 0 评论 -
贝叶斯分类器-机器学习ML
参考:1.《统计学习方法》李航2. https://baike.baidu.com/item/%E8%B4%9D%E5%8F%B6%E6%96%AF%E5%88%86%E7%B1%BB%E5%99%A8/1739590?fr=aladdin3. http://www.cnblogs.com/hexinuaa/articles/2143483.html4. http:原创 2017-11-20 14:25:18 · 406 阅读 · 0 评论 -
支持向量机SVM-机器学习ML
参考:1.《统计学习方法》李航2. http://blog.csdn.net/macyang/article/details/38782399/3. https://baike.baidu.com/item/%E6%94%AF%E6%8C%81%E5%90%91%E9%87%8F%E6%9C%BA/9683835?fr=aladdin原创 2017-11-18 15:07:03 · 777 阅读 · 0 评论 -
逻辑斯蒂回归-机器学习ML
参考:1.《统计学习方法》李航2.http://blog.csdn.net/shijing_0214/article/details/51089330#insertcode逻辑斯蒂回归是一个非常经典的二项分类模型,也可以扩展为多项分类模型。其在应用于分类时的过程一般如下,对于给定的数据集,首先根据训练样本点学习到参数w,b;再对预测点分别计算两类的条件概率,将预转载 2017-11-13 16:23:52 · 449 阅读 · 0 评论 -
分类与回归树(CART)- 机器学习ML
参考:1.《统计学习方法》李航2.https://www.cnblogs.com/en-heng/p/5035945.html3.http://blog.csdn.net/baimafujinji/article/details/532690404.https://baike.baidu.com/item/%E5%9F%BA%E5%B0%BC%E7%B3%BB%E6原创 2017-11-13 11:18:54 · 779 阅读 · 0 评论 -
决策树(Decision Tree)-机器学习ML
参考:1.《统计学习方法》李航2.https://baike.baidu.com/item/%E5%86%B3%E7%AD%96%E6%A0%91/10377049?fr=aladdin3.http://www.jianshu.com/p/6eecdeee50124.http://blog.csdn.net/bigbigship/article/details/50原创 2017-11-13 10:55:15 · 620 阅读 · 0 评论 -
朴素贝叶斯Naive Bayes-机器学习ML
参考:1.《统计学习方法》李航2.先验概率与后验概率的区别:http://blog.csdn.net/ouyang_linux007/article/details/75663393.朴素贝叶斯方法(Naive Bayes)原理和实现:http://blog.csdn.net/tanhongguang1/article/details/45016421#拉普拉斯平滑原创 2017-11-11 15:02:22 · 1550 阅读 · 0 评论 -
k-近邻法KNN-机器学习ML
参考:1.《统计学习方法》李航2.https://baike.baidu.com/item/k%E8%BF%91%E9%82%BB%E7%AE%97%E6%B3%95/9512781?fr=aladdin3.https://www.cnblogs.com/ybjourney/p/4702562.html4.http://blog.csdn.net/shenbo2030/articl原创 2017-11-11 13:53:15 · 334 阅读 · 0 评论 -
kd树
参考:1.《统计学习方法》李航2.https://baike.baidu.com/item/kd-tree/2302515?fr=aladdin3.http://www.jianshu.com/p/ffe52db3e12b4.http://blog.csdn.net/likika2012/article/details/396196871. 概述KD树是一种查询索引结原创 2017-11-11 14:12:21 · 840 阅读 · 0 评论 -
感知机perceptron-机器学习ML
参考:1.《统计学习方法》李航2.http://blog.csdn.net/dream_angel_z/article/details/489155613.https://www.cnblogs.com/kaituorensheng/p/3561091.html 在机器学习中,感知机(perceptron)是二分类的线性分类模型,属于监督学习算法。输入为实例的特征向量原创 2017-11-10 16:42:14 · 357 阅读 · 0 评论 -
机器学习之-利用svm(支持向量机)分类(opencv3)
svm分类算法在opencv3中有了很大的变动,取消了CvSVMParams这个类,因此在参数设定上会有些改变。opencv中的svm分类代码,来源于libsvm。int main(int argc, char** argv){ // visual representation int width = 512; int height = 512; cv::Mat image =转载 2017-10-24 18:49:32 · 874 阅读 · 0 评论 -
最小二乘法
原文地址:http://blog.csdn.net/lotus___/article/details/20546259一.背景 5月9号到北大去听hulu的讲座《推荐系统和计算广告在视频行业应用》,想到能见到传说中的项亮大神,特地拿了本《推荐系统实践》求签名。讲座开始,主讲人先问了下哪些同学有机器学习的背景,我恬不知耻的毅然举手,真是惭愧。后来主讲人在讲座中提到了最小二乘法转载 2017-11-08 14:28:32 · 514 阅读 · 0 评论 -
【CS231n】cs231斯坦福大学计算机视觉课程笔记翻译--学习(转载)
Convolutional Neural Networks for Visual Recognition贺完结!CS231n官方笔记授权翻译总集篇发布 - 智能单元 - 知乎专栏https://zhuanlan.zhihu.com/p/21930884CS231n课程笔记翻译:图像分类笔记(上) - 智能单元 - 知乎专栏 https://zhuanlan.zhihu.com/p/20894041...转载 2018-07-16 10:17:49 · 1715 阅读 · 0 评论