机器学习
文章平均质量分 87
成都往右
趁着年轻多熬夜
展开
-
18年秋招-Java后端面试总结与心路历程(非科班小白勉强拿几个互联网offer但是决定转行了)
犹豫了很久要不要做机器学习,时间就这样浪费掉了很多,最后还是决定去学,然后打算春招,即使没找到或者找的不好都算完成了心愿。首先说一下自己的情况,本硕都算管理相关专业,16年11月起开始学的编程(其实最多学了一年,因为很多时间写paper去了,然后还打了lol),其实至今都想不起为什么做了Java而不是ML,也许是个人信息滞后吧。打算春招,不是秋招没找到而是想转岗,秋招投了30家左右吧,目前拿到...原创 2018-11-15 02:02:46 · 4669 阅读 · 4 评论 -
HMM学习笔记(三):动态规划与维特比算法
学习隐马尔可夫模型(HMM),主要就是学习三个问题:概率计算问题,学习问题和预测问题。在前面讲了[概率计算问题:前后向算法推导]、[Baum-Welch算法]、最后在这里将最后的一个问题,预测问题。原创 2019-01-11 19:47:22 · 2554 阅读 · 0 评论 -
GBDT与XGBoost核心推导
这篇为机器学习笔记,参考资料为《统计学习方法》,邹博的机器学习课程PPT,西瓜书以及一些博客最后加上自己的一些理解进行了总结原创 2019-01-18 11:56:01 · 556 阅读 · 0 评论 -
贝叶斯网络
参考资料有邹博的机器学习PPT,七月在线第九期的PPT,这篇主要为学习笔记,对学到的内容进行总结与整理。原创 2019-01-13 12:58:37 · 1288 阅读 · 0 评论 -
支持向量机学习笔记(三):非线性支持向量机与SMO算法
接着前面的线性支持向量机,这次学习非线性支持向量机与SMO算法。原创 2019-01-08 17:13:29 · 977 阅读 · 0 评论 -
主成分分析(PCA)与奇异值分解(SVD)
下面会依次介绍PCA与SVD,旨在理解,不会涉及太多公式推导。原创 2019-01-27 17:00:17 · 3098 阅读 · 2 评论 -
关于Python机器学习的一些安装配置问题解决
如果是和我一样对机器学习感兴趣,可能学习过程也会遇到各种安装配置的问题,即使是个小问题可能都会搞到深夜。但是相比开发来说这种问题已经算太少了,当初不知道花费了我多少个日日夜夜。由于问题不多所以将自己遇到的都总结一下。原创 2019-02-01 11:23:51 · 1270 阅读 · 0 评论 -
sklearn机器学习:决策树的学习与调参
在没接触到机器学习的时候以为都是自己手写各种牛逼的算法,后来才晓得用sklearn这么个好用的库,既然大神给我们实现好了那没理由不去用啊原创 2019-02-02 08:56:00 · 10335 阅读 · 1 评论 -
sklearn机器学习:泰坦尼克号幸存者的预测
这是Kaggle的一道题,这里使用决策树完成预测,方便起见就直接在jupyter lab上来做这题。原创 2019-02-02 13:07:00 · 4535 阅读 · 0 评论 -
sklear机器学习:逻辑回归
关于逻辑回归的原理和推导,移步线性回归与逻辑回归。接下来不会再过多的解释原理,主要是学习库的调用与参数的解释。按照顺序依次学习以下内容逻辑回归的简单介绍sklearn中的逻辑回归的使用与参数解释样本不平衡问题逻辑回归的介绍与简单推导逻辑回归的损失函数是由似然函数得到的, 令hθ(x)=g(θTx)=11+e−θTxh_{\theta}(x)=g(\theta^Tx)=\frac{1}...原创 2019-02-15 10:38:03 · 1137 阅读 · 0 评论 -
sklearn机器学习:随机森林学习与调参
这部分sklearn学习笔记不会过多的涉及随机森林的原理(但还是会介绍),但是个人建议还是得知道随机森林的原来再来用sklearn会容易懂的多,西瓜书上集成学习部分讲到了bagging和随机森林,只有4页纸还是容易看懂的。原创 2019-02-05 17:47:16 · 14947 阅读 · 2 评论 -
sklearn机器学习笔记:数据预处理与特征工程
这是一篇纯学习笔记,感觉回到了开发,难道要成为调包侠了吗?原创 2019-02-09 17:54:26 · 5735 阅读 · 0 评论 -
sklearn机器学习:K均值聚类
K-Means 均值聚类聚类算法可以说是最简单但是使用最广的一种聚类算法了,原理也简单易懂,sklearn中提供了很多聚类算法的实现,所以这里就学习一下K-Means算法。原创 2019-02-17 11:00:51 · 4869 阅读 · 0 评论 -
sklearn机器学习:PCA在人脸识别,降噪,手写数字案例中的使用
使用sklearn进行PCA降维之前还是需要知道PCA与SVD的知识的,移步主成分分析与奇异值分解。接下来称为一个调包侠加调参侠,对于原理基本不会说什么。依次学习以下内容。PCA中的重要参数与使用PCA进行降维PCA中的SVD以及一些接口的使用人脸识别案例降噪案例PCA对手写数据集的降维一、PCA中的重要参数与使用PCA进行降维在数据预处理与特征工程部分,提到过一种重要的特征选择...原创 2019-02-12 13:55:34 · 3547 阅读 · 0 评论 -
HMM学习笔记(二):监督学习方法与Baum-Welch算法
学习隐马尔可夫模型(HMM),主要就是学习三个问题:概率计算问题,学习问题和预测问题。在前面讲了[概率计算问题:前后向算法推导],这里接着讲学习问题。原创 2019-01-11 15:23:55 · 9259 阅读 · 0 评论 -
支持向量机学习笔记(二):线性支持向量机
接着前面说的线性可分支持向量机,这次讲线性支持向量机。原创 2019-01-06 15:05:11 · 477 阅读 · 1 评论 -
2小时学完机器学习必备Python基础
打算花几个月学下机器学习,还是打算先过一遍python,虽然很多人说没必要但是觉得磨刀不误砍柴工,毕竟Java基础在那学python基础肯定是极快的。原创 2018-11-26 20:44:48 · 399 阅读 · 0 评论 -
半小时学完可视化利器Matplotlib
学ML那么常用工具库Numpy,Pandas,Matplotlib和Scipe等肯定是要用到的,磨刀不误砍柴工,所以先学一些是有必要的,这里先学习下Matplotlib,由于是代码+图的学习,所以半小时是够的。原创 2018-11-30 16:29:57 · 462 阅读 · 0 评论 -
半小时学完Numpy
前面写了Matplotlib,这里继续把科学计算基础库Numpy给写完,后面再写个Pandas那么三大件就写完了,然后准备入手ML。由于是代码+输出的形式,所以半小时学完是没问题的。原创 2018-12-01 00:07:22 · 396 阅读 · 0 评论 -
半小时学完Pandas
前面学了Numpy,numpy能够帮助我们处理数值,但是pandas除了处理数值之外(基于numpy),还能够帮助我们处理其他类型的数据,同样半小时学完下面的内容是没问题的。原创 2018-12-01 23:17:10 · 509 阅读 · 0 评论 -
感知机模型、学习算法、收敛性证明
感知机是用来进行**二类分类**的分类模型,而感知机的学习过程就是求出将训练数据进行线性划分的分离超平面过程。下面会给出感知机模型,接着进行学习,最后证明算法的收敛性。原创 2018-12-20 00:12:26 · 2813 阅读 · 1 评论 -
机器学习笔记:决策树(ID3,C4.5,CART)
决策树是一种树形结构,对实例进行分类和回归的,下面主要说的是用来进行分类,最后说道CART的时候也会说到决策树用到回归问题上。原创 2018-12-20 17:33:20 · 776 阅读 · 0 评论 -
提升方法:前向分步算法与提升树
这篇内容为《统计学习方法》的学习笔记,也看过其他书和培训班的视频ppt等,但是感觉都是离不开《统计学习方法》这本书,还是这本书读起来干净利落(虽然有很少的地方有点晕)。原创 2018-12-26 15:45:19 · 372 阅读 · 0 评论 -
机器学习笔记:最大熵(模型,推导,与似然函数关系的推导,求解)
最大熵原理:最大熵原理认为在学习概率模型时,在所有可能的概率模型中,熵最大的模型是最少的模型。原创 2018-12-21 23:02:23 · 1504 阅读 · 5 评论 -
EM算法:从极大似然估计导出EM算法(还算通俗易懂)
之前看了《统计学习方法》,吴恩达老师的cs229讲义,一起看感觉很昏(如果要看建议选择其中一个,《统计学习方法》里面基本很少会写到$y_i$而都是用 $Y$只用了极大化没有写出我们熟悉的似然函数?!,cs229有视频,但我喜欢看书)原创 2018-12-27 20:40:37 · 4001 阅读 · 2 评论 -
提升方法:Adaboost算法与证明
这基本就是关于《统计学习方法》的笔记,当然自己会记的让人容易读懂,为了加深记忆,证明都证了两遍,便于加深理解还是打算写在博客里好了。原创 2018-12-24 00:47:59 · 1232 阅读 · 1 评论 -
机器学习笔记:线性回归、逻辑斯蒂回归推导
头一次写机器学习的东西,很慌,但是觉得初学者还是能容易读懂的,写的还算比较细。原创 2018-12-18 19:40:18 · 677 阅读 · 0 评论 -
朴素贝叶斯模型、推导、拉普拉斯平滑
先引出朴素贝叶斯模型,接下来会给出部分推导,最后会结束拉普拉斯平滑。原创 2018-12-19 01:00:34 · 1508 阅读 · 3 评论 -
CS229与《统计学习方法》的EM算法理解和比较,收敛性证明
关于吴恩达老师的cs229讲义和视频与《统计学习方法》这本书上的EM算法,作为初学者,强烈建议只看前者,恐怕是我比较菜只看后者的话会有很多地方不明白.原创 2018-12-31 00:16:36 · 949 阅读 · 1 评论 -
支持向量机学习笔记(一):线性可分支持向量机
SVM是用来做二类分类的模型,有简到难分为线性可分支持向量机(或者说硬间隔支持向量机)、线性支持向量机(软间隔支持向量机)、非线性支持向量机。下面先讲最简单的线性可分支持向量机。原创 2019-01-04 18:16:04 · 1682 阅读 · 0 评论 -
EM算法在高斯混合模型中的应用(详细解释与求解)
为什么说是很详细,因为关于这部分我搞了半天才明白,应该有不少跟我一样的小菜也出现了这样的问题,所以就比较啰嗦的写了出来。原创 2019-01-01 00:44:18 · 2885 阅读 · 0 评论 -
隐马尔可夫模型学习笔记(一):前后向算法介绍与推导
学习隐马尔可夫模型(HMM),主要就是学习三个问题:概率计算问题,学习问题和预测问题。概率计算问题主要是讲前向算法和后向算法,这两个算法可以说是隐马尔可夫的重中之重原创 2019-01-11 11:52:48 · 7823 阅读 · 1 评论 -
sklearn机器学习:支持向量机(SMV)
关于支持向量机的原理部分本人阅读的是李航《统计学习方法》,自己也做了个学习笔记,移步线性可分支持向量机,线性支持向量机,非线性支持向量机与SMO算法。以下注重sklearn中SVM部分的代码学习,不会过多的介绍原理。会涉及到SVM的简单使用,4种核函数,SVM的参数,调参以及一些接口属性的介绍。先来创建个数据集,可视化后再来使用SVMimport matplotlib.pyplot as pl...原创 2019-02-18 16:15:29 · 1878 阅读 · 0 评论