![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习算法
徐柳~
正在积极投身大数据分析领域!
展开
-
机器学习算法中的几个疑难杂症点(8)----ID3算法的缺陷
本文主要来讨论一下决策树中ID3算法的缺陷,以及为什么倾向于特征选择项较多的特征.文章目录一、ID3 算法的缺点:1、考虑不全面2、原理缺陷二、ID3 算法为什么要选择特征多的属性:参考文档一、ID3 算法的缺点:1、考虑不全面(1)没有考虑连续特征.只对于离散型特征进行信息增益的比较,极大的限制了ID3的用途.(2)没有考虑到缺失值的情况.(3)没有考虑过拟合问题.因为决策树会把特征...原创 2019-11-12 19:03:12 · 1405 阅读 · 0 评论 -
机器学习中的几个疑难杂症点(7)----SVM的损失函数
今天我们来讨论一下该如何理解svm的hinge损失函数.文件目录参考文档参考文档https://blog.csdn.net/Snow_yuki/article/details/90755421https://www.cnblogs.com/hoey-ge/p/5587383.htmlhttps://zhidao.baidu.com/question/2015612124607131548...原创 2019-11-11 21:53:50 · 202 阅读 · 0 评论 -
机器学习的几个疑难杂症点(4)——变量编码方式(LabelEncoder、one-hot Encoding、dummy Encoding)
文章目录一、LabelEncoder 编码方式对文本:对不连续数字:二、one-hot Encoding (独热编码)三、dummy Encding(哑编码)四、总结参考文档一、LabelEncoder 编码方式LabelEncoder是对不连续的数字或文本编号。对文本:LabelEncoder可以将[中国,美国,日本]转化为[0,1,2],但这样会出现一个问题:中国和日本的平均会等于日本...原创 2019-11-10 21:45:30 · 730 阅读 · 0 评论 -
机器学习的几个疑难杂症点(3)——数据离散化
本文主要解释了什么是离散化,什么情况下我们需要离散化,以及离散化的优点文章目录一、什么是数据离散化二、为什么要进行离散化三、离散化的优势四、总结:4、参考文档:一、什么是数据离散化百度百科:离散化,把无限空间中有限的个体映射到有限的空间中去,以此提高算法的时空效率。通俗的说,离散化是在不改变数据相对大小的条件下,对数据进行相应的缩小。例如:原数据:1,999,100000,15;处理后...原创 2019-11-10 21:01:54 · 643 阅读 · 0 评论 -
在机器学习算法中的几个疑难杂症点(2)
文章目录最大似然和最小二乘法参考文档:最大似然和最大后验准确率和召回率最大似然和最小二乘法参考文档:https://blog.csdn.net/behboyhiex/article/details/80807851https://www.zhihu.com/question/20447622/answer/209839263最大似然和最大后验准确率和召回率...原创 2019-11-07 23:50:17 · 291 阅读 · 0 评论 -
在机器学习算法中的几个疑难杂症点(1)
文章目录过拟合过拟合的定义过拟合出现的原因过拟合的解决办法正则化的两种形式L1正则化L2正则化L1正则化和L2正则化的区别过拟合过拟合的定义过拟合的百度百科定义:“给定一个假设空间H,一个假设h属于H,如果存在其他的假设h’属于H,使得在训练样例上h的错误率比h’小,但在整个实例分布上h’比h的错误率小,那么就说假设h过度拟合训练数据。”个人理解:是指模型过度的完美拟合训练数据,但是训练...原创 2019-11-06 22:38:32 · 264 阅读 · 0 评论 -
机器学习算法2(用python实现三种梯度下降)
用python实现三种梯度下降我尽量详细的进行相关注释代码如下 import numpy as np #导入numpy import os #导入os操作系统 # 画图%matplotlib inlineimport matplotlib.pyplot as plt# 随机种子,用随机函数时自动触发np.random.seed(42)# 保存图像PROJECT_ROOT...原创 2019-11-05 22:56:18 · 382 阅读 · 0 评论 -
机器学习算法第一天
做了思维导图自我感觉相对清晰以后可能会再有所补充。原创 2019-11-04 23:03:29 · 162 阅读 · 2 评论