![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
_威行天下_
世界未亡 死不投降
展开
-
numpy介绍
文章目录Numpy 基础数据结构参看ndarray数据属性例如参看数据,秩,维度,大小...`dtype`(查看数组元素类型)`ndim`(输出数组维度的个数(轴数),或者说“秩”,维度的数量也称rank)`shape`(数组的维度,对于n行m列的数组,shape为(n,m))`size`(数组的元素总数,对于n行m列的数组,元素总数为n*m)`itemsize`(数组中每个元素的字节大小,int...原创 2018-10-05 19:05:03 · 425 阅读 · 0 评论 -
第六章 逻辑斯蒂回归
第6章 逻辑斯谛回归基本梳理逻辑斯蒂回归模型回归广义线性模型与多重线性回归区别因变量不同用途寻找危险因素预测判别常规步骤寻找h函数(hypothesis)hθ(x)=g(θTx)=11+e−θTxh _ { \theta } ( x ) = g \left( \theta ^ { T } x \right) = \frac { 1 } { 1 +...原创 2018-12-03 16:05:52 · 325 阅读 · 0 评论 -
第七章 支持向量机
第七章 支持向量机基本梳理参考链接:https://zhuanlan.zhihu.com/p/36332083二分类模型,间隔最大化的分类器训练数据线性可分硬间隔支持向量机近似可分软间隔支持向量机不可分非线性支持向量机感知机特殊情况线性支持向量机线性支持向量机假设函数y^=sign(wTx+b)\hat { y ...原创 2018-12-05 16:38:23 · 251 阅读 · 0 评论 -
第三章 k近邻法
基本梳理思维导图k近邻算法原理特点优点精度高对异常值不敏感无数据输入假定缺点计算复杂度高空间复杂度高适用数据范围数值型和标称型工作原理训练样本集,知道样本集中每个数据与所属分类的对应的关系输入没有标签的新数据后,讲新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签...原创 2018-11-28 15:44:38 · 319 阅读 · 0 评论 -
第五章 决策树
基本梳理:决策树模型与学习决策树是通过一系列规则对数据进行分类的过程优点推理过程容易理解依赖于属性变量忽略没有贡献的属性变量核心是归纳算法决策树相关的重要算法CLSID3C4.5CART特征选择决策树的CLS算法信息增益熵消息量大小的度量I(ai)=p(ai)log21p(ai)I \left( a _ { i } \right) ...原创 2018-11-30 16:30:17 · 232 阅读 · 0 评论 -
第二章 感知机
第二章 感知机基本梳理附上思维导图:感知机模型输入特征向量输出类别判别模型基于误分类损失函数利用梯度下降法对损失函数进行极小化学习算法原始形式对偶形式神经网络与支持向量机的基础定义几何解释感知机学习策略定义损失函数距离1∥w∥∣w⋅x0+b∣\frac { 1 } { \| w \| } \left| w \cdot x ...原创 2018-11-27 15:46:36 · 256 阅读 · 1 评论 -
第四章 朴素贝叶斯
基本梳理朴素贝叶斯法的学习与分类基本方法训练集T={(x1,y1),(x2,y2),⋯ ,(xN,yN)}T = \left\{ \left( x _ { 1 } , y _ { 1 } \right) , \left( x _ { 2 } , y _ { 2 } \right) , \cdots , \left( x _ { N } , y _ { N ...原创 2018-11-29 16:13:03 · 139 阅读 · 0 评论 -
统计学习方法 第一章
第一章 统计学习方法基本知识统计学习对象数字文字图像视频音频…目的预测分析方法Supervised learning训练数据(training data)模型(model) —假设空间 hypothesis评价准则 evaluation criterion ---- 策略 strategy算法 algorithmUnsupervise...原创 2018-11-26 15:37:58 · 245 阅读 · 0 评论 -
934. 最短的桥
深度遍历(dfs) 和 广度遍历(bfs) 理解今天参加LeetCode周赛时候,把我一直不理解的dfs 和 bfs搞懂了,真的开心!相信我,搞懂我下面这道题,这个概念就理解了!解释**dfs:**一条路走的死,用栈实现,进栈、退栈,一搜到底!一般用递归实现bfs: 辐射八方,用队实现,入队、出队,步步为营!一般用迭代实现举例最短的桥在给定的二维二进制数组 A 中,存在两座岛。...原创 2018-11-04 18:19:18 · 1026 阅读 · 0 评论 -
sklearn之特征工程
转博客:http://www.cnblogs.com/jasonfreak/p/5448385.html什么是特征工程** 最大限度从原始数据中提取特征义工算法和模型使用**数据预处理# 导入数据from sklearn.datasets import load_irisiris = load_iris()iris.data iris.target特征问题不属于同一量...转载 2018-10-31 15:57:11 · 166 阅读 · 0 评论 -
召回率 和 准确率
召回率 和 准确率首先,要先理解,TP,真正,将正类预测成正类数(预测对了)FN,假负,将正类预测成负类数(预测错了)FP,假正,将负类预测成正类数(预测错了)TN,真负,将负类预测成负类数(预测对了)第一字母是判断的对错,第二字母是判断的对错的类别预测类别yesno实际类别yesTPPNnoFPTN准确率:针对本人,意思你...原创 2018-09-25 20:52:12 · 213 阅读 · 0 评论 -
sklearn的线性模型
广义线性模型普通最小二乘法from sklearn.linear_model import LinearRegressionreg = LinearRegression()reg.fit ([[0, 0], [1, 1], [2, 2]], [0, 1, 2])reg.coef_array([ 0.5, 0.5])岭回归from sklearn.linear_model ...原创 2018-10-17 15:51:41 · 309 阅读 · 0 评论 -
sklearn之神经网络模型(有监督)
分类MLPClassifier参数说明:hidden_layer_sizes : 元组形式,长度n_layers-2,默认(100,),第i元素表示第i个神经元的个数activation: {‘identity’, ‘logistic’, ‘tanh’, ‘relu’},默认"relu"‘identity’: f(x) = x‘logistic’:f(x) = 1 / (1 ...原创 2018-10-19 15:36:47 · 1011 阅读 · 0 评论 -
sklearn之决策树
决策树分类from sklearn.datasets import load_irisfrom sklearn.model_selection import cross_val_scorefrom sklearn.tree import DecisionTreeClassifierclf = DecisionTreeClassifier(random_state=0)iris = lo...原创 2018-10-18 15:41:54 · 206 阅读 · 0 评论 -
pandas数组计算和统计基础
import numpy as npimport pandas as pd1 pandas 数值计算和统计基础1.1 常用数学,统计方法1.1.1 axis,skipnadf = pd.DataFrame({'key1':[4,5,3,np.nan,2], 'key2':[1,2,np.nan,4,5], 'key3'...原创 2018-10-07 17:34:42 · 3108 阅读 · 0 评论 -
pandas基础数据结构.md
文章目录pandas1. Series 数据结构(Series 是带有标签的一维数组,可以保存任何数据类型(整数,字符串,浮点数,Python对象等),轴标签统称为索引)1.1 创建对象1.1.1 由字典创建,字典的key就是index,values就是values1.1.2 由数组创建(一维数组)1.1.3 由标量创建1.2 属性1.2.1 name1.2.2 dtypes1.2.3 对数据快速...原创 2018-10-06 16:59:06 · 300 阅读 · 0 评论 -
第8章 提升方法
第8章 提升方法基本梳理强可学习弱可学习强可学习的充分必要条件是弱可学习怎样获得不同的弱分类器使用不同的弱学习算法参数估计非参数估计使用相同弱学习算法,使用不同的参数K-mean不同的K神经网络不同的隐含层使用输入对象的不同表示凸显事物不同的特征使用不同的训练集baggingboosting怎样组合弱分类器多专家组合...原创 2018-12-06 15:54:26 · 305 阅读 · 0 评论