![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
算法实例
Doris_H_n_q
这个作者很懒,什么都没留下…
展开
-
普通线性回归/岭回归/lasso回归[x.T/np.dot/lrg.coef_/lrg.intercept_/Xw = y/r2_score]
基础运算导包import numpy as np随机产生数据集a = np.random.randint(0,10,size = (2,3))aOut:array([[2, 8, 2], [8, 3, 3]])转置:x.Tb = a.TbOut:array([[2, 8], [8, 3], [2, 3]])矩阵...原创 2018-09-11 19:43:57 · 1339 阅读 · 0 评论 -
【转】梯度下降法与反向传播
一、梯度下降法1.什么是梯度下降法顺着梯度下滑,找到最陡的方向,迈一小步,然后再找当前位,置最陡的下山方向,再迈一小步… 通过比较以上两个图,可以会发现,由于初始值的不同,会得到两个不同的极小值,所以权重初始值的设定也是十分重要的,通常的把W全部设置为0很容易掉到局部最优解,一般可以按照高斯分布的方式分配初始值。 2.有两种计算梯度的方法:(1)慢一些但是简单一些...转载 2018-09-17 17:20:48 · 286 阅读 · 0 评论 -
【转】python实现简单的LSTM
直接上代码:""" @file: my_lstm.py@Time: 2018/09/17@Author:hnq"""import numpyfrom keras.models import Sequentialfrom keras.layers import Densefrom keras.layers import LSTMfrom keras.utils import ...转载 2018-09-17 17:02:19 · 1455 阅读 · 0 评论 -
朴素贝叶斯分类算法[sklearn.naive_bayes/GaussianNB/MultinomialNB/BernoulliNB]
朴素贝叶斯举栗子1'''另一个例子,现分别有 A、B 两个容器,在容器 A 里分别有 7 个红球和 3 个白球,在容器 B 里有 1 个红球和 9 个白球,现已知从这两个容器里任意抽出了一个球,且是红球,问这个红球是来自容器 A 的概率是多少?假设已经抽出红球为事件 B,选中容器 A 为事件 A,则有:P(B) = 8/20,P(A) = 1/2,P(B|A) = 7/10,...原创 2018-09-20 14:39:02 · 8216 阅读 · 0 评论 -
决策树[sklearn.tree/DecisionTreeClassifier/scatter/np.meshgrid/np.concatenate/Kfold/Cross-validation]
决策树概念举栗子import numpy as np引入数据:s= '''在1948年,香农引入了信息熵,将其定义为离散随机事件出现的概率,一个系统越是有序,信息熵就越低,反之一个系统越是混乱,它的信息熵就越高。所以信息熵可以被认为是系统有序化程度的一个度量。'''s_l = list(s)len(s_l)Out:93# 打乱顺序index = np.arange(...原创 2018-09-20 19:43:06 · 1200 阅读 · 0 评论 -
K-means[np.argwhere/图片压缩/kmeans.cluster_centers_]
K均值算法(K-means)聚类【关键词】K个种子,均值一、K-means算法原理聚类的概念:一种无监督的学习,事先不知道类别,自动将相似的对象归到同一个簇中。K-Means算法是一种聚类分析(cluster analysis)的算法,其主要是来计算数据聚集的算法,主要通过不断地取离种子点最近均值的算法。K-Means算法主要解决的问题如下图所示。我们可以看到,在图的左边有一些...原创 2018-09-20 23:10:44 · 6177 阅读 · 2 评论 -
SVM[sklearn.svm/SVC/SVR/拉格朗日乘子法]
支持向量机SVM(Support Vector Machine)【关键词】支持向量,最大几何间隔,拉格朗日乘子法一、支持向量机的原理Support Vector Machine。支持向量机,其含义是通过支持向量运算的分类器。其中“机”的意思是机器,可以理解为分类器。 那么什么是支持向量呢?在求解的过程中,会发现只根据部分数据就可以确定分类器,这些数据称为支持向量。 见下图,在一个二维环...原创 2018-09-21 19:07:27 · 2225 阅读 · 0 评论 -
线性回归[求W/中心化/标准差]
使用最小二乘法求解回归系数W:求解W:[对W求导,当导数为零时,平方误差最小,此时W=]参数:class sklearn.linear_model.LinearRegression(fit_intercept=True, normalize=False, copy_X=True, n_jobs=1)fit_intercept:布尔型,默认为true说明:是否对训练数据进...原创 2018-09-22 09:42:08 · 2916 阅读 · 0 评论 -
【转】分类/回归模型评估—ROC,AUC,RMSE等指标/调参—Grid Search
看到此篇文章内容干货较多,转载过来学习。链接:https://www.52ml.net/20410.html参考:https://blog.csdn.net/shenxiaoming77/article/details/72626218https://blog.csdn.net/pacosonswjtu/article/details/56871762模型评估的方法 ...转载 2018-09-22 12:31:40 · 4796 阅读 · 0 评论 -
【转】数据处理——One-Hot Encoding
机器学习 数据预处理之独热编码(One-Hot Encoding)来源:https://blog.csdn.net/dulingtingzi/article/details/51374487https://www.cnblogs.com/haobang008/p/5911466.htmlhttps://blog.csdn.net/pipisorry/article/details/...转载 2018-09-17 22:37:06 · 303 阅读 · 0 评论 -
梯度下降
导包import numpy as npimport matplotlib.pyplot as plt%matplotlib inline构建数据集# 定义函数# f(x) = x**4 + x**3 + 5f = lambda x:x**4 + x**3 + 5x = np.linspace(-10,10,200)y = f(x)绘制图形plt.plot(...原创 2018-09-20 11:18:40 · 200 阅读 · 0 评论 -
K-近邻算法[sklearn.neighbors/KNeighborsClassifier/KNeighborsRegressor]
K-近邻算法(KNN)K nearest neighbour1、k-近邻算法原理简单地说,K-近邻算法采用测量不同特征值之间的距离方法进行分类。优点:精度高、对异常值不敏感、无数据输入假定。 缺点:时间复杂度高、空间复杂度高。 适用数据范围:数值型和标称型。工作原理存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据 与所属分...原创 2018-09-10 20:02:31 · 6891 阅读 · 0 评论 -
算法预测实例——预测年收入[特征选取/数据转换str->int]
1、预测年收入是否大于50K美元读取adult.txt文件,最后一列是年收入,并使用KNN算法训练模型,然后使用模型预测一个人的年收入是否大于50导包import pandas as pdfrom pandas import Series,DataFrame# fit----->train训练# predict ---->test测试预测from sklearn...原创 2018-09-10 20:33:10 · 6982 阅读 · 0 评论 -
算法预测实例——癌细胞[正则化(x-min)/(max-min)]
导包import pandas as pdfrom pandas import Series,DataFrameimport numpy as npfrom sklearn.neighbors import KNeighborsClassifier数据集加载# 将数据加载进来cancer = pd.read_csv('../data/cancer.csv',sep ='...原创 2018-09-10 21:18:02 · 1683 阅读 · 0 评论 -
算法数据分析实例——城市气候与海洋关系数据分析[线性回归y=w*x+b]
城市气候与海洋的关系研究导入包import numpy as npimport pandas as pdfrom pandas import Series,DataFrameimport matplotlib.pyplot as plt%matplotlib inline城市信息citis = np.array(['asti','bologna','cesena','...原创 2018-09-10 22:41:24 · 2138 阅读 · 3 评论 -
算法图片识别——手写数字识别[保存算法joblib.dump/np.save]
导包import matplotlib.pyplot as plt%matplotlib inlineimport numpy as npimport pandas as pdfrom pandas import Series,DataFrame导入单个数字digit = plt.imread('./data/8/8_400.bmp')digitOut:arra...原创 2018-09-11 10:23:31 · 1223 阅读 · 0 评论 -
算法图片识别——使用保存的模型识别数字[joblib.load/np.load/ndimage.zoom]
导包from sklearn.externals import joblibimport numpy as npimport matplotlib.pyplot as plt%matplotlib inline导入模型knn = joblib.load('./digits.m')knnOut:KNeighborsClassifier(algorithm='auto',...原创 2018-09-11 10:36:23 · 812 阅读 · 0 评论 -
逻辑斯蒂回归分类算法[sklearn.linear_model/LogisticRegression/最大似然/梯度下降]
【关键词】Logistics函数,最大似然估计,梯度下降法1、Logistics回归的原理利用Logistics回归进行分类的主要思想是:根据现有数据对分类边界线建立回归公式,以此进行分类。这里的“回归” 一词源于最佳拟合,表示要找到最佳拟合参数集。训练分类器时的做法就是寻找最佳拟合参数,使用的是最优化算法。接下来介绍这个二值型输出分类器的数学原理Logistic Regressi...原创 2018-09-20 09:50:40 · 1801 阅读 · 0 评论 -
【转】L1正则化和L2正则化的理解
转:https://blog.csdn.net/fisherming/article/details/79492602一、 奥卡姆剃刀(Occam's razor)原理: 在所有可能选择的模型中,我们应选择能够很好的解释数据,并且十分简单的模型。从贝叶斯的角度来看,正则项对应于模型的先验概率。可以假设复杂模型有较小的先验概率,简单模型有较大的先验概率。 二、正则化项...转载 2018-09-20 08:52:05 · 521 阅读 · 0 评论 -
ROC受试曲线AUC[TPR/ FPR/截断点/StratifiedKFold/KFold]
概念ROC和AUC定义 ROC全称是“受试者工作特征”(Receiver Operating Characteristic)。ROC曲线的面积就是AUC(Area Under the Curve)。AUC用于衡量“二分类问题”机器学习算法性能(泛化能力)。计算ROC需要知道的关键概念 首先,解释几个二分类问题中常用的概念:True Positive, Fal...原创 2018-09-22 13:21:53 · 4851 阅读 · 0 评论