Deep Learning
文章平均质量分 93
哇小明
这个作者很懒,什么都没留下…
展开
-
深度学习---百度世界大会有感
作为一个即将毕业的本科生,原创 2014-09-08 22:38:40 · 1454 阅读 · 1 评论 -
机器学习算法研究启动篇
世界上的优秀程序员绝不是逼出来的,但是他一定是在恶劣的情况下做出令人费解的行为,简而言之就是不可能。对于机器学习的涉猎早在大三暑假时就开始,当时跟着andrew NG学了四节课,网易公开课上的斯坦福的公开课,深深被迷住了,但是课程好深,好难掌握,貌似课能听懂,但是无法体会机器学习的终极奥义。后来的日子,途中几次,重操旧业,都被难度所打到,当然大部分还是自己太懒加上还有其他事情。我曾认为,对原创 2016-06-02 00:25:46 · 1028 阅读 · 3 评论 -
机器学习系列-Logistic Regression(1)
机器学习这是记录自学的过程,目前的理论基础就是:大学高等数学+线性代数+概率论。编程基础:C/C++,python在观看机器学习实战这本书,慢慢介入。相信有读过以上三门课的人完全可以开始自学机器学习了,当然我上面这三门课学的一般,所以你只知道有这么一个公式或名词,不懂可以百度之深究之。在写这篇文章的时候作者机器学习还没学完,故文章中的错误还请不吝指出。再次声明,系列文章只是分享学习过程,学习点原创 2016-06-20 01:11:39 · 8211 阅读 · 2 评论 -
机器学习系列-Locally weighted linear regression(2)
机器学习这是记录自学的过程,目前的理论基础就是:大学高等数学+线性代数+概率论。编程基础:C/C++,python在观看机器学习实战这本书,慢慢介入。相信有读过以上三门课的人完全可以开始自学机器学习了,当然我上面这三门课学的一般,所以你只知道有这么一个公式或名词,不懂可以百度之深究之。在写这篇文章的时候作者机器学习还没学完,故文章中的错误还请不吝指出。再次声明,系列文章只是分享学习过程原创 2016-10-24 00:03:55 · 3621 阅读 · 0 评论 -
机器学习系列-K-NearestNeighbo
这是记录自学的过程,目前的理论基础就是:大学高等数学+线性代数+概率论。编程基础:C/C++,python 在观看机器学习实战这本书,慢慢介入。相信有读过以上三门课的人完全可以开始自学机器学习了,当然我上面这三门课学的一般,所以你只知道有这么一个公式或名词,不懂可以百度之深究之。在写这篇文章的时候作者机器学习还没学完,故文章中的错误还请不吝指出。再次声明,系列文章只是分享学习过程,学习点滴,不能保原创 2016-12-14 23:34:50 · 2952 阅读 · 0 评论 -
机器学习系列-Generative Learning Algorithms
前言目前为止,之前学习的几个算法的模型P(y|x;θ),在给定x的情况下y的条件分布。比如逻辑回归算法中,基础模型P(y|x;θ)的演化为 h(x)=g(θTx),g 是sigmod函数。这类的算法都是直接的去学习p(y|x)或者学习如何将输入x映射到{0,1}这样的标签中,我们称这类算法为判别学习算法。 这篇文章要讲述的是另外一个算法,假设有一个分类问题,主要为了学习区分大象(y=1)和小狗(y原创 2017-01-02 23:35:04 · 1233 阅读 · 0 评论 -
机器学习系列--Naive Bayes Classification
Native Bayes贝叶斯决策理论的核心思想:选择最高概率的决策。朴素贝叶斯是贝叶斯决策理论的一部分。 下面不加证明地直接给出贝叶斯定理: 朴素贝叶斯分类的正式定义如下: 因为分母对于所有类别为常数,因为我们只要将分子最大化皆可。又因为各特征属性是条件独立的,所以有: 分类问题现在实际的来研究一个文本分类的问题,下面是朴素贝叶斯分析问题的一般过程: 1.收集数据:可以使用任何方法。 2原创 2017-08-09 00:11:36 · 2765 阅读 · 3 评论