机器学习
文章平均质量分 71
chinwuforwork
博客原文在简书:吴祺育的笔记
展开
-
机器学习算法---Logistic回归
PDF下载地址:http://download.csdn.net/detail/lewsn2008/65474631.引言看了Stanford的Andrew Ng老师的机器学习公开课中关于Logistic Regression的讲解,然后又看了《机器学习实战》中的LogisticRegression部分,写下此篇学习笔记总结一下。首先说一下我的感受,《机器学习实战》一书在介转载 2016-05-24 16:57:24 · 851 阅读 · 0 评论 -
word2vector的原理,结构,训练过程
之前用word2vector模型,上网找原理,出现各种CSDN上的解答。看了一下,都是copy某个人写的东西,而且什么CBOW,什么Skip-Gram,什么哈夫曼树,层次softmax,概念很多,绕都给绕晕了。看了很多遍,只知道个大概,具体还是没看懂。今天重新整理关于word2vector的原理。以一个好的脉络把这个模型理清楚。原型:NNLM(Neural Network Language ...原创 2018-12-14 17:45:54 · 2654 阅读 · 3 评论 -
对CNN各层的深入理解以及BP中的权重变化
继续温故,CNN篇。这次重新思考的是CNN中每层的作用,以及之前没有思考过的BP中梯度更新的过程。CNN的结构最典型的CNN的结构是由如若干个卷积层+池化层,再接若干个(一般一到两个)全连接层组成。总的来说,这个最典型的CNN结构,终究是起到一个分类器的作用。卷积层做不同特征提取,采样层负责选择相应的特征,全连接层负责分类。卷积层卷积运算这里就不讲了,这里讲一下filter。filt...原创 2018-11-30 20:52:12 · 956 阅读 · 0 评论 -
判断pdf中跨页的两个表格是否应该合并的思路
一、判断前表格和后表格是否为跨页的表格1.基于两张表格的明显特征用来快速过滤不可能是跨页的表格(1) 前后两页的页面方向不一致,一页的方向是纵向,一页的方向是横向;(2) 前后两张表格在同一页面内不是跨页表格;(3) 跨页的前表格只可能是前页面的最后一个表格,同理,跨页的后表格只可能是后页面的第一个表格;(4) 两张表格的表格类型必须是一样的,必须同为有线表格或同为无线表格;(5) 前...原创 2018-11-23 19:15:15 · 2724 阅读 · 1 评论 -
关于神经网络中隐藏层和神经元的深入理解
最近复习了一下基础知识,看到MLP的结构,关于隐藏层和神经元有了新的一些理解。隐藏层的意义要说明隐藏层的意义,需要从两个方面理解,一个是单个隐藏层的意义,一个是多层隐藏层的意义。单个隐藏层的意义隐藏层的意义就是把输入数据的特征,抽象到另一个维度空间,来展现其更抽象化的特征,这些特征能更好的进行线性划分。举个栗子,MNIST分类。输出图片经过隐藏层加工, 变成另一种特征代表 (3个神经...原创 2018-11-16 16:57:45 · 35330 阅读 · 8 评论 -
短文本评分方法 (Short Text Scoring Method)
短文本评分方法 (Short Text Scoring Method)此方法是基于改进后的RAKE算法并结合word2vector,对短文本内容进行评分的一种方法。RAKE的改进原RAKE算法对划分后的短语打分机制存在一点问题,短语的长度对短语的得分影响大。也就是说,如果一个不重要的短语,但是它足够长,这个短语的分数就会高。这一点是存在较大问题的,针对这一点,对RAKE进行了以下改进。一个短语的原创 2017-10-13 17:39:00 · 3131 阅读 · 0 评论 -
继续深究支持向量机---超详细讲解(比三层理解SVM好)
今天又重温了一下SVM,看到一个人的博客,将的特别好,比三层理解SVM更详细一些。如果想学习可以相互对照着看。原博地址:http://blog.csdn.net/passball/article/details/7661887/(一)SVM的背景简介支持向量机(Support Vector Machine)是Cortes和Vapnik于1995年首先提出的,它在解决转载 2017-05-19 11:04:42 · 2182 阅读 · 0 评论 -
SVM---拉格朗日乘子法,KKT条件的解析
在求取有约束条件的优化问题时,拉格朗日乘子法(Lagrange Multiplier) 和KKT条件是非常重要的两个求取方法,对于等式约束的优化问题,可以应用拉格朗日乘子法去求取最优值;如果含有不等式约束,可以应用KKT条件去求取。当然,这两个方法求得的结果只是必要条件,只有当是凸函数的情况下,才能保证是充分必要条件。KKT条件是拉格朗日乘子法的泛化。之前学习的时候,只知道直接应用两个方法,但是却转载 2016-08-15 10:35:00 · 1841 阅读 · 0 评论 -
关于SVM支持向量机的学习
原博地址:http://www.blogjava.net/zhenandaci/archive/2009/02/13/254519.html?page=2#pagedcomment另外,CSDN大神博主,《编程之法》作者July的 支持向量机通俗导论(理解SVM的三层境界)也是特别推荐的。(一)SVM的八股简介支持向量机(Support Vector Machi转载 2016-08-07 17:01:48 · 524 阅读 · 0 评论 -
机器学习算法---无监督学习,k-means聚类
聚类属于无监督学习,以往的回归、朴素贝叶斯、SVM等都是有类别标签y的,也就是说样例中已经给出了样例的分类。而聚类的样本中却没有给定y,只有特征x,比如假设宇宙中的星星可以表示成三维空间中的点集。聚类的目的是找到每个样本x潜在的类别y,并将同类别y的样本x放在一起。比如上面的星星,聚类后结果是一个个星团,星团里面的点相互距离比较近,星团间的星星距离就比较远了。 在聚类问题中,给我们的训原创 2016-06-12 11:41:02 · 3249 阅读 · 0 评论 -
机器学习算法---kNN算法
kNN-------k-邻近算法1.kNN是non-parametric分类器,既不做分布式假设,直接从数据估计概率密度;2.kNN不适用于高维数据优点:1.无需估计参数,无需训练;2.特别适合于多分类问题(对象具有多个标签)。缺点:1.当样本容量不平衡是,输入有个新样本,该样本的K个邻值中大容量样本占多数,对分类不利;2.计算量过大,需要计算待分类原创 2016-05-06 18:55:45 · 1794 阅读 · 0 评论 -
博客迁移至简书
实在受不了CSDN的广告了,越来越垃圾。呼吁抵制CSDN。博客迁移至简书:https://www.jianshu.com/u/ed8ec5442f76欢迎大家交流!原创 2018-12-21 18:57:05 · 279 阅读 · 0 评论