机器学习
文章平均质量分 84
听离
本本分分记录工作所得。
展开
-
将数据写为wfdb可用的文件,自动生成dat, atr, hea文件
将tele数据集写为wfdb可用的数据集TELE_data = np.load('Tele.npy', allow_pickle=True)for i in range(250): dat = TELE_data[i]# print(dat['labels']) sample = np.where(dat['qrs']==1)[0] symbol = np....原创 2019-12-27 13:47:05 · 1402 阅读 · 0 评论 -
python plot线形和颜色
(1)线形:'-' solid line style'--' dashed line style'-.' dash-dot line style':' dotted line style(2)marker类型:'.' point marker',' pixel marker'o' circle...原创 2019-11-26 17:02:26 · 12452 阅读 · 0 评论 -
机器学习总结一:常见的损失函数
1. 通常机器学习每个算法都会有一个目标函数,算法的求解过程就是对这个目标函数优化的过程。在分类或者回归问题中,通常使用损失函数(代价函数)作为其目标函数。损失函数用来评价模型的预测值和真实值不一样的程度。损失函数越好,通常模型的性能越好。不同的算法使用的损失函数不一样。2. 损失函数分为经验损失函数和结构损失函数。(1)经验风险损失函数指预测结果和实际结果的差别;(2)结构风险损失函...转载 2018-08-22 15:16:38 · 862 阅读 · 0 评论 -
0,1,2范数的说明
作者:魏通链接:https://www.zhihu.com/question/20473040/answer/102907063来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。以下分别列举常用的向量范数和矩阵范数的定义。向量范数1-范数:,即向量元素绝对值之和,matlab调用函数norm(x, 1) 。2-范数:,Euclid范数(欧几里得...转载 2018-07-21 16:03:21 · 587 阅读 · 0 评论 -
如何理解梯度下降
一般情况下,我们把要最小化或最大化的函数称为目标函数。当我们队其进行最小化时,我们也把他称为代价函数,损失函数或误差函数。 我们说导数对于最小化一个函数很有用,因为它告诉我们如何更改x来略微地改善y。加入,我们知道对于足够小的来说,f(x-sign(f'(x)))<f(x)。因为我们可以将x往导数的反方向移动一小步来减少f(x)。这种技术被称为梯度下降。 ...翻译 2018-07-21 15:55:35 · 478 阅读 · 0 评论 -
深度学习与神经网络的异同:
1. 相同点: 二者均采用分层结构,系统包括输入层,隐藏层(多层),输出层组成的多层网络,只有相邻层节点之间有连接,同一层以及跨层节点之间相互无连接,每一层都可以看作是一个logistic回归模型。2. 不同点:(1)神经网络: (a)采用BP算法调整参数,即采用迭代式算法来训练整个网络。随机设定初值,计算当前网络的输出,然后根据当前输出和样本真实标签之间的差去改变前面...翻译 2018-07-21 15:13:47 · 7690 阅读 · 0 评论 -
关于贝叶斯分类器的过程的理解
原创 2018-05-11 10:47:46 · 204 阅读 · 0 评论 -
logistic regression(Python实现以及MATLAB实现)
Linear Regression解决的是连续的预测和拟合问题,而Logistic Regression解决的是离散的分类问题。两种方式,但本质殊途同归,两者都可以算是指数函数族的特例。在分类问题中,y取值在{0,1}之间,因此,上述的Liear Regression显然不适应。Sigmoid函数范围在[0,1]之间,参数 θ 只不过控制曲线的陡峭程度。以0.5为截点,>0.5则y值为1,&...原创 2018-04-26 10:15:28 · 1096 阅读 · 0 评论 -
线性判别分析(LDA)的MATLAB和Python实现
线性判别分析(linear discriminant analysis),LDA。也称为Fisher线性判别(FLD)是模式识别的经典算法。(1)中心思想:将高维的样本投影到最佳鉴别矢量空间,来达到抽取分类信息和压缩特种空间维数的效果,投影后保证样本在新的子空间有最大的类间距离和最小的类内距离。也就是说在该空间中有最佳的可分离性。(2)与PCA的不同点:PCA主要是从特征的协方差出发,来找到比较好...原创 2018-05-09 21:50:01 · 26575 阅读 · 22 评论 -
单变量的线性回归(用梯度下降法实现,Python语言,MATLAB语言)
单变量的线性回归实现:Python版:import numpy as npimport matplotlib.pyplot as plta = np.loadtxt('ex1data1.txt')m=a.shape[0]print(m)print(type(a))x=a[:,0]y=a[:,1]plt.scatter(x,y,marker='*',color='...原创 2018-04-20 16:45:14 · 2985 阅读 · 0 评论 -
多变量的线性回归(梯度下降,Python语言,MATLAB语言)
Python版:import numpy as npimport matplotlib.pyplot as plta = np.loadtxt('ex1data2.txt')print(a.shape)X=a[:,0:2]y=a[:,2:3]m=y.shape[0]l=X.shape[1]print(m,l)X0=np.ones(m)def featureNormalize(X,l): X_...原创 2018-04-24 10:49:21 · 4225 阅读 · 0 评论