![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习实战笔记
ys1305
这个作者很懒,什么都没留下…
展开
-
Python3《机器学习实战》学习笔记(一):k-近邻算法
转载自 https://blog.csdn.net/c406495762/article/details/75172850Python3《机器学习实战》学习笔记(一):k-近邻算法(史诗级干货长文)文章目录@[toc]1.1 k-近邻法简介1.2 距离度量1.3.1 准备数据集二 k-近邻算法实战之约会网站配对效果判定#一 简单k-近邻算法 &nb...转载 2018-12-19 08:55:49 · 1013 阅读 · 0 评论 -
LR为什么使用sigmoid函数
两个方面的原因Sigmoid 函数自身的性质sigmoid 函数连续,单调递增sigmiod 函数关于(0,0.5) 中心对称对sigmoid函数求导p′=p∗(1−p)p′=p∗(1−p)p′=p∗(1−p)计算sigmoid函数的导数非常的快速LR可以推出来sigmod函数用 指数簇分布推导出来的sigmod函数p(y;η)=b(y)exp(ηT(y)−α(η...原创 2019-08-24 09:48:13 · 435 阅读 · 0 评论 -
特征选择
Filter**先进行特征选择,然后去训练学习器,所以特征选择的过程与学习器无关。**相当于先对特征进行过滤操作,然后用特征子集来训练分类器。主要思想:对每一维特征“打分”,即给每一维的特征赋予权重,这样的权重就代表着该特征的重要性,然后依据权重排序。主要方法:Chi-squared test(卡方检验)Information gain(信息增益)Correlation coeffi...原创 2019-08-14 16:21:22 · 576 阅读 · 0 评论 -
决策树1
modelfeature select树的类型计算公式ID3{分类:信息增益}多叉树g(D,A)=H(D)−H(D∥A)g(D,A)=H(D)-H(D\|A)g(D,A)=H(D)−H(D∥A)C4.5{分类:信息增益比}多叉树gR(D,A)=g(D,A)HA(D)g_R(D,A)=\frac{g(D,A)}{H_A(D)}gR(D,A)=HA(D...原创 2019-08-13 15:17:47 · 175 阅读 · 0 评论 -
pandas读取csv Error tokenizing data. C error: Expected 18 fields in line 173315, saw 20
Error tokenizing data. C error: Expected 18 fields in line 173315, saw 20此行内容为b55421db8f2f7f9610e7dfc08bcc76e5 销售顾问上市公司高薪高提成 - 719 \N 1 10000 5000 20190314 20190413 0 -1 null 大专 \N \N 岗位职责:1.独立并...原创 2019-07-25 20:55:12 · 9707 阅读 · 0 评论 -
1-手写线性回归
githubimport numpy as npfrom sklearn.datasets import load_diabetesfrom sklearn.utils import shuffleimport matplotlib.pyplot as pltfrom sklearn.linear_model import LinearRegressiondef initialize...原创 2019-07-19 20:51:55 · 161 阅读 · 0 评论 -
AdaBoost 算法
笔记下载链接AdaBoost 算法Boosting族算法最著名的代表是AdaBoost算法。AdaBoot算法两个核心步骤:每一轮中如何改变训练数据的权值?AdaBoost算法提高那 些被前一轮弱分类器错误分类样本的权值,而降低那些被正确分类样本的权值。于是那些没有得到正确分类的数据由于权值的加大而受到后一轮的弱分类器的更大关注。最后如何将一系列弱分类器组合成一个强分...原创 2019-07-29 14:43:20 · 266 阅读 · 0 评论 -
机器学习新手入门
将机器学习入门的代码进行了整合一个是手写实现各种机器学习算法手写一个是sklearn中各种机器学习算法的使用sklearn原创 2019-07-10 19:17:35 · 124 阅读 · 0 评论 -
sklearn中svc与逻辑回归的正则化系数
参数C代表目标函数的惩罚系数,惩罚系数指的是分错样本时的惩罚程度,默认情况下为1.0。当C越大的时候,分类器的准确性越高,但同样容错率会越低,泛化能力会变差。相反,C越小,泛化能力越强,但是准确性会降低。这里的的参数C就是SVM公式推导中的C。如果C值设定比较大,那SVC可能会选择边际较小的,能够更好地分类所有训练点的决策边界,不过模型的训练时间也会更长。如果C的设定值较高,那SVC会尽量最大...原创 2019-06-30 11:17:54 · 3391 阅读 · 0 评论 -
深度之眼-kesci-银行营销案例分析
导包读数据import pandas as pdimport numpy as npimport lightgbm as lgbimport warningsfrom tqdm import tqdm# %matplotlib inlinefrom sklearn.preprocessing import LabelEncoderfrom scipy import sparsef...原创 2019-07-02 08:07:54 · 1268 阅读 · 2 评论 -
决策树
决策树决策树是一种基本的分类与回归方法。这里主要讨论决策树用于分类。决策树模型是描述对样本进行分类的树形结构。树由结点和有向边组成:内部结点表示一个特征或者属性。叶子结点表示一个分类。有向边代表了一个划分规则。决策树从根结点到子结点的的有向边代表了一条路径。决策树的路径是互斥并且是完备的。用决策树分类时,对样本的某个特征进行测试,根据测试结果将样本分配到树的子结点...原创 2019-06-16 10:19:37 · 347 阅读 · 0 评论 -
总结
1深度学习吴恩达学习笔记-imshuai2Sklearn 与 TensorFlow 机器学习实用指南笔记3Sklearn 与 TensorFlow 机器学习实用指南-精简笔记原创 2019-03-26 11:10:41 · 110 阅读 · 0 评论 -
MLhub
机器学习导航周志华《机器学习》笔记机器学习100天机器学习过程中所看的书李航ML-python实现吴恩达深度学习笔记机器学习/深度学习笔记AI算法工程师手册台湾大学林轩田机器学习笔记-红色石头利用 Python 进行数据分析 · 第 2 版SciPyCon 2018 sklearn 教程中文 Linear Algebra (线性代数)笔记数据科学...原创 2019-01-14 16:11:15 · 248 阅读 · 0 评论 -
专栏总结
1林轩田机器学习课程笔记2Python3机器学习3Deep Learning Research4吴恩达深度学习专项课程5【火炉炼AI】之机器学习6机器学习实战-刘玉刚7【火炉炼AI】之深度学习8机器学习与数据挖掘-寒小阳9Python全栈开发-骆昊...原创 2019-01-13 15:59:26 · 452 阅读 · 0 评论 -
机器学习笔试宝典
红色石头Will1机器学习笔试题精选(一)2机器学习笔试题精选(二)3机器学习笔试题精选(三)4机器学习笔试题精选(四)5机器学习笔试题精选(五)6机器学习笔试题精选(六)7机器学习笔试题精选(七)...原创 2019-01-13 15:45:32 · 447 阅读 · 0 评论 -
LR如何进行并行计算
由逻辑回归问题的求解方法中可以看出,无论是梯度下降法、牛顿法、拟牛顿法,计算梯度都是其最基本的步骤,并且L-BFGS通过两步循环计算牛顿方向的方法,避免了计算海森矩阵。因此逻辑回归的并行化最主要的就是对目标函数梯度计算的并行化。从梯度更新公式中可以看出,目标函数的梯度向量计算中只需要进行向量间的点乘和相加,可以很容易将每个迭代过程拆分成相互独立的计算步骤,由不同的节点进行独立计算,然后归并计算结果...原创 2019-08-12 15:59:26 · 947 阅读 · 1 评论