机器学习
文章平均质量分 91
PJZero
95后/ 在大厂后端六年;利用业余时间探索开源和副业;全干工程师; ♀️热爱跑步,有氧万岁;
新的博客地址: https://journeypeng.best;
SmartZoom: https://smartzoom.fun
展开
-
[机器学习]划分训练集和测试集的方法
在进行机器学习常常需要处理的一个问题是划分测试集和训练集。训练集用于训练模型,测试集则是根据训练集的训练结果来评判最终的训练效果。一般而言,测试集应该和训练集尽可能保持互斥~常用的数据集划分方法有一下几种方法1:留出法直接将数据集D划分为两个互斥的集合。需要注意的问题:在划分的时候应该尽量保持数据分布的一致性。例如在分类任务中应该保持正负样本比例相近。划分存在多种方法,为得到合理的算法模型评估标原创 2017-05-02 00:33:33 · 24155 阅读 · 0 评论 -
[西瓜书]朴素贝叶斯--numpy + python实现
回到分类的问题上,我们想要通过上面的公式解决具体的分类问题。首先,我们根据一般的分类问题将上面公式中提到的A和B具体化一下,我们指示A为样本,其包含样本所有的特征数据。B为分类的类别。为更好的对对应起来,我们用x代指一个样本数据,c代表一个分类类别。那么就有如下的贝叶斯公式:$$P(c | x) = \frac{P(c) * P(x | c)}{P(x)}$$这个公式的左边描述的是,在我们已知一个数据样本的情况下原创 2017-05-15 17:08:28 · 3339 阅读 · 0 评论 -
[(机器学习)概率统计]极大似然估计MLE原理+python实现
在数理统计学中,似然函数是一种关于统计模型中的参数的函数,表示模型参数中的似然性。“似然性”与“或然性”或“概率”意思相近,都是指某种事件发生的可能性,但是在统计学中,“似然性”和“或然性”或“概率”又有明确的区分。概率用于在已知一些参数的情况下,预测接下来的观测所得到的结果,而似然性则是用于在已知某些观测所得到的结果时,对有关事物的性质的参数进行估计。原创 2017-05-05 19:17:56 · 28690 阅读 · 4 评论 -
KNN原理+python实现
在模式识别领域中,最近邻居法(KNN算法,又译K-近邻算法)是一种用于分类和回归的非参数统计方法。[1]在这两种情况下,输入包含特征空间中的k个最接近的训练样本。 KNN可分为分类和回归:在k-NN分类中,输出是一个分类族群。一个对象的分类是由其邻居的“多数表决”确定的,k个最近邻居(k为正整数,通常较小)中最常见的分类决定了赋予该对象的类别。若k = 1,则该对象的类别直接由最近的一个节点赋予原创 2017-05-04 23:00:28 · 686 阅读 · 0 评论 -
fisher判别分析原理+python实现
参考资料:周志华老师的《机器学习》http://wiki.mbalib.com/wiki/%E5%88%A4%E5%88%AB%E5%88%86%E6%9E%90判别分析是一种经典的现行分析方法,其利用已知类别的样本建立判别模型,对未知类别的样本进行分类。在这里我们主要讨论fisher判别分析的方法。fishter原理费歇(FISHER)判别思想是投影,使多维问题简化为一维问题来处理。选择一个原创 2017-05-03 20:07:41 · 40406 阅读 · 12 评论 -
[神经网络]keras中的层
Core全连接层:DenseActivation层:对一个层的输出添加激活函数Dropout层:每次更新参数的时候随机断开一定百分比(b)的输入神经元连接,用于防止过拟合Flatten层:用来将输入“压平”,即把多维的输入一维化,常用在从卷积层到全连接层的过渡。Reshape层:用来将输入shape转换为特定的shapePermute层:将输入的维度按照给定模式进行重排,例如,当需要将R原创 2017-02-21 22:03:19 · 11391 阅读 · 3 评论 -
CNN减少参数的方法
参数爆炸如果我们有1000x1000像素的图像,有1百万个隐层神经元,那么他们全连接的话(每个隐层神经元都连接图像的每一个像素点),就有1000x1000x1000000=10^12个连接,也就是10^12个权值参数。如下左图: 使用感受野之后假如局部感受野是10x10,隐层每个感受野只需要和这10x10的局部图像相连接,所以1百万个隐层神经元就只有一亿个连接,即10^8个参数。比原来减少了四个0(原创 2017-02-21 22:05:44 · 3214 阅读 · 0 评论 -
泛型模型实例
需要一定的keras基础,然后还请对着代码和图认真的看一看实现过程,其实不算复杂文章来源与keras中文翻译网站,想查看具体内容还请移步到这里该教程里面有更为详细的解释,我只是搬运并记录了一下。泛型模型实例: code:from keras.layers import Input, Embedding, LSTM, Dense, mergefrom keras.models import M原创 2017-02-21 22:43:00 · 887 阅读 · 0 评论 -
梯度下降法(BGD,SGD,MSGD)python+numpy具体实现
梯度下降是一阶迭代优化算法。为了使用梯度下降找到函数的局部最小值,一个步骤与当前位置的函数的梯度(或近似梯度)的负值成正比。如果相反,一个步骤与梯度的正数成比例,则接近该函数的局部最大值;该程序随后被称为梯度上升。梯度下降也被称为最陡峭的下降,或最快下降的方法。(from wikipad)首先,大家要明白它的本质:这是一个优化算法!!!它是可以用来解决很多问题的,一般学习机器学习的朋友都会在线性回归原创 2017-05-01 23:51:31 · 27231 阅读 · 11 评论 -
【 pandas】修改最大显示行和列
import pandas as pdpd.set_option('display.max_rows', 500)pd.set_option('display.max_columns', 500)```原创 2018-11-23 10:13:27 · 4547 阅读 · 0 评论