机器学习
文章平均质量分 90
分享机器学习基础知识
CHEONG_KG
这个作者很懒,什么都没留下…
展开
-
【机器学习系列】HMM第四讲:从状态空间模型再回看HMM模型
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号后回复:HMM第四讲,本文针对一般的状态空间模型,介绍常探究的两大任务Learning问题和Inference问题。对于一般的状态空间模型State...原创 2021-05-26 14:28:51 · 900 阅读 · 0 评论 -
【机器学习系列】隐马尔科夫模型第三讲:EM算法求解HMM参数
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号后回复:HMM第三讲,本文详细推导使用EM算法求解隐马尔科夫模型Learning问题。隐马尔科夫模型Learning问题:属于参数估计问题,即如何求解..原创 2021-05-26 14:21:10 · 1237 阅读 · 0 评论 -
【机器学习系列】隐马尔科夫模型第二讲:前向算法、后向算法
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号后回复:HMM第二讲,本文主要讲解使用前向算法和后向算法求解隐马尔科夫模型的Evaluation问题。一、核心结论1.HMM Evaluation..原创 2021-05-26 14:13:28 · 1432 阅读 · 0 评论 -
【机器学习系列】隐马尔科夫模型第一讲:通俗易懂概述HMM
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号后回复:HMM第一讲,本文主要从隐马尔科夫模型背景、定义、两大假设和三个问题来理解HMM。一、初识HMM先从整体角度认识一下隐马尔科夫模型HMM,..原创 2021-05-26 13:59:13 · 608 阅读 · 0 评论 -
【机器学习系列】EM算法第三讲:由Jensen Inequality推导EM算法
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号后回复:EM算法第三讲,本文主要介绍如何通过Jensen Inequality推导出EM算法的优化公式。一、EM算法解决的问题通俗些说,EM算法就..原创 2021-05-23 10:23:31 · 414 阅读 · 0 评论 -
【机器学习系列】EM算法第二讲:由条件概率公式推导EM算法
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号后回复:EM算法第二讲,本文主要介绍如何通过条件概率公式推导出EM算法的优化公式。一、EM算法解决的问题通俗些说,EM算法就是求含有隐变量zzz的..原创 2021-05-23 10:17:17 · 549 阅读 · 0 评论 -
【机器学习系列】EM算法第一讲:EM算法相关概述及收敛性证明
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号后回复:EM算法第一讲,本文主要从以下四个方面介绍EM算法:EM算法解决的问题EM算法E-Step和M-StepEM算法收敛性证明EM算法延展思考..原创 2021-05-23 10:10:59 · 2450 阅读 · 0 评论 -
【机器学习系列】MCMC第五讲:马尔科夫链蒙特卡洛系列总结
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1. 机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2. 文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号【AI机器学习与知识图谱】后回复:MCMC第五讲,可添加微信号【17865190919】进学习交流群,加好友时备注来自CSDN。原创不易,转载请告知并注明..原创 2021-04-13 12:36:41 · 395 阅读 · 0 评论 -
【机器学习系列】MCMC第四讲:Metropolis Hastings采样算法
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1. 机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2. 文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号【AI机器学习与知识图谱】后回复:MCMC第四讲,可添加微信号【17865190919】进学习交流群,加好友时备注来自CSDN。原创不易,转载请告知并注明..原创 2021-04-13 12:28:10 · 995 阅读 · 0 评论 -
【机器学习系列】MCMC第三讲:理解MCMC前必先弄懂这两点
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1. 机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2. 文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号【AI机器学习与知识图谱】后回复:MCMC第三讲,可添加微信号【17865190919】进学习交流群,加好友时备注来自CSDN。原创不易,转载请告知并注明..原创 2021-04-13 12:22:39 · 563 阅读 · 0 评论 -
【机器学习系列】MCMC第一讲:蒙特卡罗方法初认识
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1. 机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2. 文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号【AI机器学习与知识图谱】后回复:MCMC第一讲,可添加微信号【17865190919】进学习交流群,加好友时备注来自CSDN。原创不易,转载请告知并注...原创 2021-04-09 19:31:35 · 445 阅读 · 0 评论 -
【机器学习系列】变分推断第三讲:基于随机梯度上升法SGD的变分推断解法
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1. 机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2. 文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号【AI机器学习与知识图谱】后回复:变分推断第三讲,可添加微信号【17865190919】进学习交流群,加好友时备注来自CSDN。原创不易,转载请告知并注明..原创 2021-04-09 17:47:45 · 635 阅读 · 1 评论 -
【机器学习系列】变分推断第二讲:基于Mean Field的变分推断解法
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1. 机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2. 文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号【AI机器学习与知识图谱】后回复:变分推断第二讲,可添加微信号【17865190919】进学习交流群,加好友时备注来自CSDN。原创不易,转载请告知并注明..原创 2021-04-09 16:55:58 · 1064 阅读 · 0 评论 -
【机器学习系列】变分推断第一讲:Variational Inference背景和用途
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号【AI机器学习与知识图谱】后回复:变分推断第一讲,可添加微信号【17865190919】进学习交流群,加好友时备注来自CSDN。原创不易,转载请告知并注明出处..原创 2021-03-26 00:09:44 · 1273 阅读 · 0 评论 -
【机器学习系列】GMM第二讲:高斯混合模型Learning问题,最大似然估计 or EM算法?
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,首先注意以下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看。2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号【AI机器学习与知识图谱】后回复:GMM第二讲,可添加微信号【17865190919】进学习交流群,加好友时备注来自CSDN。原创不易,转载请告知并注明出处!..原创 2021-03-16 19:15:44 · 1002 阅读 · 1 评论 -
【机器学习系列】GMM第一讲:两个角度认识高斯混合模型
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱文中含有大量公式,若需要获取含公式原稿Word文档,可关注公众号【AI机器学习与知识图谱】后回复:GMM第一讲,可添加微信号【17865190919】进学习交流群,加好友时备注来自CSDN。原创不易,转载请告知并注明出处!本文先从两个角度简单认识一下高斯混合模型。下一章将详细介绍高斯混合模型的Learning问题解法。一、几何角度高斯混合模型可以看成是多个高斯分布叠加而成,即多个高斯分布的加权值,用公式表示...原创 2021-03-16 18:50:48 · 377 阅读 · 1 评论 -
【机器学习系列】概率图模型第六讲:因子图和道德图
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,先注意一下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看;2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号【AI机器学习与知识图谱】后回复:概率图模型第六讲,可添加微信号【17865190919】进公众号讨论群,加好友时备注来自CSDN。原创不易,转载请告知并注明...原创 2021-03-13 16:15:29 · 1402 阅读 · 1 评论 -
【机器学习系列】概率图模型第五讲:Max-Product算法
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,先注意一下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号【AI机器学习与知识图谱】后回复:概率图模型第五讲,可添加微信号【17865190919】进公众号讨论群,加好友时备注来自CSDN。原创不易,转载请告知并注明出...原创 2021-03-13 15:48:51 · 1032 阅读 · 2 评论 -
【机器学习系列】概率图模型第四讲:变量消除法和Belief Propagation算法
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,先注意一下两点:1、机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。需要进一步了解推导细节可继续往后看;2、文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号【AI机器学习与知识图谱】后回复:概率图模型第四讲,可添加微信号【17865190919】进公众号讨论群,加好友时备注来自CSDN。原创不易,转载请告知并注明出..原创 2021-03-13 11:18:21 · 1313 阅读 · 1 评论 -
【机器学习系列】概率图模型第三讲:深入浅出无向图中的条件独立性和因子分解
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱阅读本文之前,先注意一下两点:1、 机器学习系列文章常含有大量公式推导证明,为了更好理解,文章在最开始会给出本文的重要结论,方便最快速度理解本文核心。 需要进一步了解推导细节可继续往后看2、 文中含有大量公式,若读者需要获取含公式原稿Word文档,可关注公众号【AI机器学习与知识图谱】后回复:概率图模型第三讲,可添加微信号【17865190919】进公众号讨论群,加好友时备注来自CSDN。原创不易,转载请告知并注..原创 2021-03-13 10:44:11 · 1260 阅读 · 0 评论 -
【机器学习系列】概率图模型第二讲:深入浅出有向图中的条件独立性和D划分
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱前言: 文中含有大量公式,若需获取本文全部的手书版原稿资料,扫码关注公众号【AI机器学习与知识图谱】,回复: 概率图模型第二讲 即可获取。可添加微信号【17865190919】进公众号讨论群,加好友时备注来自CSDN。原创不易,转载请告知并注明出处!上一章节中介绍了相对独立假设,齐次马尔科夫假设以及条件独立性假设,得出一个结论就是:概率图具有条件独立特性,根据一个构建好的概率图可以直接得出节点集合之间的条件独立性,..原创 2021-03-13 10:20:53 · 1013 阅读 · 1 评论 -
【机器学习系列】概率图模型第一讲:从概率和图的角度理解概率图模型
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱前言: 文中含有大量公式,若需获取本文全部的手书版原稿资料,扫码关注公众号【AI机器学习与知识图谱】,回复: 概率图模型第一讲 即可获取。可添加微信号【17865190919】进公众号讨论群,加好友时备注来自CSDN。原创不易,转载请告知并注明出处!让我们进入正文。本文将从从概率和图两个角度先来理解一下概率图模型。一、概率角度首先从概率的角度看,概率问题关注什么?随机变量x服从何种概率分布,对于高维随机变量p..原创 2021-03-13 09:46:47 · 813 阅读 · 0 评论 -
【机器学习系列】高斯分布-最大似然估计求解
作者:CHEONG公众号:AI机器学习与知识图谱研究方向:自然语言处理与知识图谱前言:机器学习系列文章常含有大量公式,若需获取本文全部的手书版原稿资料,扫码关注公众号【AI机器学习与知识图谱】,回复: 高斯分布第一讲 即可获取。原创不易,转载请告知并注明出处!扫码关注公众号,定期发布知识图谱,自然语言处理、机器学习等知识,添加微信号【17865190919】进讨论群,加好友时备注来自CSDN。二话不说咱先抛出一个问题:数据集Data X服从高斯分布,如何推导X的均值和方差欲解答上述问题..原创 2021-03-12 21:39:33 · 4272 阅读 · 1 评论 -
【面经系列】八位硕博大佬的百度之旅
前言:若需获取本文全部的手书版原稿资料,扫码关注公众号,回复: 百度面经 即可获取。原创不易,转载请告知并注明出处!扫码关注公众号【AI机器学习与知识图谱】,定期发布知识图谱,自然语言处理、机器学习等知识,添加微信号【17865190919】进讨论群,加好友时备注来自CSDN。本文分享八位硕博大佬的百度之旅,本八位和字节篇的八位有重合但不完全相同,在分享面经前先来聊一聊备战秋招需要做的准备工作。1、简历: 不言而喻,一份漂亮的简历非常重要。那如何制作,这里提三点意见:1)在经验不足时多看一些优.原创 2021-03-12 12:09:07 · 212 阅读 · 0 评论 -
【面经系列】八位硕博大佬的字节之旅
前言:若需获取本文全部的手书版原稿资料,扫码关注公众号,回复: 字节面经 即可获取。原创不易,转载请告知并注明出处!扫码关注公众号【AI机器学习与知识图谱】,定期发布知识图谱,自然语言处理、机器学习等知识,添加微信号【17865190919】进讨论群,加好友时备注来自CSDN。本文分享八位硕博大佬秋招字节之旅,除了面经之外,也给出了许多中肯的建议,文末有非面经之谈,小道消息谨慎食用。 一、博士大佬W1、 自我介绍 主要包括:姓名年龄,本科,硕士,博士院校,保研考研,研究领域,paper和项.原创 2021-03-12 11:15:38 · 311 阅读 · 0 评论 -
【诸神黄昏】国庆中秋双节聊2021算法秋招,附大量面经
前言:若需获取本文全部的手书版原稿资料,扫码关注公众号,回复: 2021算法秋招 即可获取。原创不易,转载请告知并注明出处!扫码关注公众号【AI机器学习与知识图谱】,定期发布知识图谱,自然语言处理、机器学习等知识,添加微信号【17865190919】进讨论群,加好友时备注来自CSDN。一、双节快乐正值中秋和十一双节假期,祝大家假期吃好玩好休息好。今年秋招也已进行大半,对于技术岗同学来说感觉也就剩个十月的捡漏环节,当然也可以硬钢一波春招但感觉压力比秋招得大得多。秋招已经拿到offer的同学可能已经在.原创 2021-03-12 10:37:39 · 504 阅读 · 1 评论 -
干货 | 各大AI研究院共35场NLP算法岗面经奉上
前言:若需获取本文全部的手书版原稿资料,扫码关注公众号,回复: 算法面经35场 即可获取。原创不易,转载请告知并注明出处!扫码关注公众号【机器学习与自然语言处理】,定期发布知识图谱,自然语言处理、机器学习等知识,添加微信号【17865190919】进讨论群,加好友时备注来自CSDN。一、面试准备工作本文涵盖了腾讯微信事业群模式识别中心,PCG和TEG事业群,阿里达摩院,蚂蚁金服,百度研究院,京东研究院,头条AI Lab,滴滴AI Lab,微软亚洲研究院,微软工程院以及联想研究院等等多个公司NLP.原创 2021-03-11 23:39:10 · 695 阅读 · 0 评论 -
机器学习算法篇:最大似然估计证明最小二乘法合理性
最小二乘法的核心思想是保证所有数据误差的平方和最小,但我们是否认真思考过为什么数据误差平方和最小便会最优,本文便从最大似然估计算法的角度来推导最小二乘法的思想合理性,下面我们先了解一下最大似然估计和最小二乘法,最后我们通过中心极限定理克制的误差ε服从正态分布来引出最大似然估计和最小二乘法的关系一、最大似然估计先从贝叶斯公式说起:P(W∣X)= P(X∣W)P(W)P(X)...原创 2018-10-10 20:58:26 · 2949 阅读 · 0 评论 -
机器学习概念篇:监督学习、过拟合,正则化,泛化能力等概念以及防止过拟合方法总结
上个系列【数字图像处理】还将继续更新,最近由于用到机器学习算法,因此将之前学习到的机器学习知识进行总结,打算接下来陆续出一个【机器学习系列】,供查阅使用!本篇便从机器学习基础概念说起!一、解释监督学习,非监督学习,半监督学习的区别监督学习、非监督学习和半监督学习区别就是训练数据是否拥有标签信息 1、监督学习:给出了数据及数据的标准答案来训练模型,Regression回归问题、clas...原创 2018-10-09 22:11:06 · 3682 阅读 · 0 评论 -
机器学习算法篇:从为什么梯度方向是函数变化率最快方向详谈梯度下降算法
梯度下降法是机器学习中常用的参数优化算法,使用起来也是十分方便!很多人都知道梯度方向便是函数值变化最快的方向,但是有认真的思考过梯度方向是什么方向,梯度方向为什么是函数值变化最快的方向这些问题嘛,本文便以解释为什么梯度方向是函数值变化最快方向为引子引出对梯度下降算法的研究,后面也将通过线性回归详细介绍梯度下降算法以及算法调优方式及其变种一、证明梯度方向是函数变化率最快方向1、由导数看...原创 2018-10-11 23:31:59 · 8116 阅读 · 1 评论 -
Numpy快速入门教程
一、numpy简介[numpy][6] 是一个由多维数组对象和用于处理数组的例程集合组成的库 [numpy][6] 中操作的对象: ndarray对象,即ndarray的N维数组类型,描述相同类型的元素集合,每个元素在内存中使用相同大小的块。二、numpy对象创建方式#首先导入numpy库import numpy as np1、numpy.array()数组函数创建...原创 2018-08-10 10:13:25 · 1624 阅读 · 0 评论 -
支持向量机(SVM)必备知识(KKT、slater、对偶)
SVM目前被认为是最好的现成的分类器,SVM整个原理的推导过程也很是复杂啊,其中涉及到很多概念,如:凸优化问题、拉格朗日乘子法、对偶问题,slater条件、KKT条件还有复杂的SMO算法!相信有很多研究过SVM的小伙伴们为了弄懂它们也是查阅了各种资料,着实费了不少功夫!本文便针对SVM涉及到的这些复杂概念进行总结,希望为大家更好地理解SVM奠定基础。一、凸集和凸函数在讲解凸优化问题之前我们先来了解一原创 2017-03-16 16:50:00 · 23124 阅读 · 11 评论 -
贝叶斯估计和极大似然估计到底有何区别
在开始接触最大似然估计和贝叶斯估计时,大家都会有个疑问:最大似然估计和贝叶斯估计二者很相似,到底有何区别?本文便来说说二者的不同之处以及推导二者使用时的数学模型!预热知识必知如何求类条件概率密度: 我们知道贝叶斯决策中关键便在于知道后验概率,那么问题便集中在求解类条件概率密度!那么如何求呢?答案便是:将类条件概率密度进行参数化。最大似然估计和贝叶斯估计参数估计: 鉴于类条件概率密度难求,我们将其原创 2017-03-12 21:28:00 · 39731 阅读 · 9 评论 -
logistic回归原理解析及Python应用实例
logistic回归,又叫对数几率回归(从后文中便可此名由来)。首先给大家强调一点,这是一个分类模型而不是一个回归模型!下文开始将从不同方面讲解logistic回归的原理,随后分别使用梯度上升算法和随机梯度上升算法将logistic回归算法应用到实例中。一、logistic回归和线性回归的关系想必大家也早有疑惑,既然logistic回归名字中都带有“回归”二者,难道和回归模型一点关系都没有!没错,二原创 2017-03-20 17:59:00 · 39492 阅读 · 13 评论 -
机器学习概念篇:一文详解凸函数和凸优化,干货满满
一、几何体的向量表示在介绍凸集等概念之前,首先介绍一下空间几何体的向量表示,下面在定义凸集概念时便用到了线段的线段表示。先通过一个例子来认识一下如何使用向量表示线段已知二维平面上两定点A(5, 1)、B(2, 3),给出线段AB的方程表示如下:{x1=θ∗5+(1−θ)∗2x2=θ∗1+(1−θ)∗3   &原创 2018-10-29 19:44:28 · 30788 阅读 · 15 评论 -
机器学习算法篇:谈Softmax激活函数以及Softmax回归和Logistic回归关系
一、神经网络中的Softmax函数1、Softmax函数定义Softmax函数常在神经网络输出层充当激活函数,将输出层的值通过激活函数映射到0-1区间,将神经元输出构造成概率分布,用于多分类问题中,Softmax激活函数映射值越大,则真实类别可能性越大,下面先给出Softmax函数计算公式:aj= ezj∑kezka_{j} = \ \frac{e^{z_{j}}}{\sum...原创 2018-11-05 21:23:33 · 3664 阅读 · 0 评论 -
降维算法原理篇:主成分分析PCA、奇异值分解SVD、因子分析法FA、独立成分分析ICA等原理详推
一、前话在降维算法中,我们经常要用到协方差的概念,下面给出协方差,相关系数等概念解释协方差描述两个变量的相关程度,同向变化时协方差为正,反向变化时协方差为负,而相关系数也是描述两个变量的相关程度,只是相关系数对结果相当于做了归一化处理,协方差的值范围是负无穷到正无穷,而相关系数值范围是在负一到正一之间,详细描述参考:如何通俗易懂地解释「协方差」与「相关系数」的概念数据降维作用1、减少存储...原创 2018-11-26 19:10:32 · 5655 阅读 · 0 评论 -
机器学习岗面试准备提纲笔记
本文仅仅是机器学习岗位自己面试前的准备提纲,可供参考,后续有待补充,不详细谈各个问题的具体解法,仅限于提纲一、数据结构算法面试中算法题是少不了的,这体现一个程序员的基本功,因此平时要多多在Leetcode、牛客网上刷题,所以在面试前倒也没办法突击准备,注重平时多积累,说道最简单且容易忽视的算法也就是排序算法,因此面试前也是可以临时抱佛脚准备一下排序算法:简单排序算法:冒泡排序、选择排序、...原创 2018-11-30 23:35:39 · 897 阅读 · 0 评论 -
干货 | 一文弄懂机器学习中偏差、方差
一、理解偏差、方差偏差:描述的是预测值的期望与真实值之间的差距,偏差越大,越偏离真实数据方差:预测值的方差,描述的是预测值的变化范围,离散程度,也就是离预测值期望值的距离,方差越大,数据的分布越分散概念上理解比较抽象,下面我们通过下面一个例子来理解一下偏差和方差如上图,我们假设一次射击就是一个机器学习模型对一个样本进行预测,射中红色靶心位置代表预测准确,偏离靶心越远代表预测误差越大。偏...原创 2018-12-10 22:39:29 · 2331 阅读 · 1 评论 -
【收藏】十个深度学习和机器学习问题速问速答
一、谈如何划分训练集、验证集和测试集高质量验证集、测试集、训练集对于神经网络至关重要,验证集目的:在多个算法中选出最有效的算法,测试集目的:正确评估分类器的性能那如何划分训练集、验证集、测试集,在小数据量时,例如1000,10000时划分标准可参考(70%,30%)(无验证集)、(60%,20%,20%),当百万数据及以上时,如100万,我们可能只需要10000个作为验证集,10000作为测...原创 2018-12-17 21:47:46 · 1019 阅读 · 0 评论