- 博客(38)
- 资源 (3)
- 收藏
- 关注
原创 语音识别初探
本文是对最近学习的语音识别的一个总结,主要参考以下内容:《解析深度学习——语音识别实践》http://licstar.net/archives/328词向量和语言模型几篇论文,具体见参考文献语音识别任务是把声音数据转换为文本,研究的主要目标是实现自然语言人机交互。在过去的几年里,语音识别领域的研究成为人们关注的热点,出现了众多新型语音应用,例如语音搜索、虚拟语音助手
2017-07-10 10:45:10 4507
原创 scrapy+beautifulsoup+mongo数据库简单爬虫——利用搜索关键词爬取百度百科城市地理信息
scrapy+beautifulsoup+mongo数据库,快速搭建简单爬虫——利用搜索关键词爬取百度百科城市地理信息,并将结果存入mongo数据库中
2017-03-23 14:01:43 1790
原创 斯坦福机器学习网易公开课笔记16
这一讲介绍了强化学习(Reinforcement Learning and Control)和马尔科夫决策过程,由此引出了两个解决强化学习问题的算法:值迭代和策略迭代并介绍了这两个算法的实现以及它们的优缺点。大纲是这样子的:增强学习(Reinforcement Learning)马尔科夫决策(MDPs)值函数(Value Function)值迭代(Value iteration)策略迭代(Policy iteration)
2017-03-17 11:58:56 771
原创 斯坦福机器学习网易公开课笔记15
这一讲首先介绍主成分分析的SVD实现,接下来介绍独立成分分析Independent Components Analysis(ICA)。
2017-03-16 09:14:20 793
原创 斯坦福机器学习网易公开课笔记14
主成分分析是一种常用的降低数据维度的算法。先假设我们有一个非监督学习问题,给出一个包含m个样本的训练数据集{x^((1) ),…,x^((m))},每个样本数据都是一个n维向量。目标是将其降维成为一个维度更低的数据集合,降维后每个样本数据都是一个k维向量,k远小于n。
2017-03-13 18:52:13 766
原创 斯坦福机器学习网易公开课笔记12
这一讲开始介绍无监督学习的内容。首先介绍了K-means算法,之后介绍了混合高斯模型,最后介绍了最大期望算法EM和Jesen不等式。
2017-03-08 16:58:57 904
原创 斯坦福机器学习网易公开课笔记10
这一讲主要介绍了VC维的概念,该概念能够将ERM一般误差的界的结论推广到无限假设类的情形;之后介绍了模型选择问题,包括交叉验证和特征选择两方面,具体介绍了交叉验证方法以及几种变形,特征选择的两类方法——封装特征选择和过滤特征选择。
2017-03-05 18:00:13 737
原创 深度学习——Ubuntu上安装tensorflow
Ubuntu上安装tensorflow非常简单,但还是会踩到一点小坑。本文假设你的Ubuntu已经安装好,然后安装tensorflow过程如下:1. 输入 su 回车,输入密码2. 安装pipsudo apt-get install python-pip3. 安装tensorflowsudo pip install tensorflo
2017-03-05 11:43:23 1386 2
原创 斯坦福机器学习网易公开课笔记9
这一讲介绍学习理论,之前我们已经学习了不少机器学习算法,那么在使用中如何评估这些算法的运行情况,需要进行哪些调整?学习理论就是用来debug算法,通过学习理论能够针对实际问题更好的选择算法,修改算法。这一讲首先介绍underfitting/overfitting,Bias/variance, 经验风险最小化(EmpiricalRisk Minization ERM),联合界(Union bound
2017-03-03 13:23:54 651
原创 斯坦福机器学习网易公开课笔记8
这一讲首先介绍了核方法,它在SVM和许多学习算法中都有重要应用;之后介绍了软间隔SVM,它是一种SVM的变形,可以处理非线性可分隔的数据,最后介绍了SMO算法,它是一种高效的可以解决SVM优化问题的算法。
2017-02-28 17:55:59 537
原创 斯坦福机器学习公开课笔记7
这一讲首先提出了原始的优化问题:最优间隔分类器问题,之后介绍了对偶问题的概念和KKT条件,之后基于原始优化问题的对偶问题的分析,介绍了SVM算法。这一讲的最后引出核方法的介绍,具体的关于核方法的讲解将在下一讲中介绍。
2017-02-27 15:03:30 715 1
原创 斯坦福机器学习网易公开课笔记6
这一讲介绍了两种朴素贝叶斯算法的事件模型,接着介绍了神经网络算法。最后介绍支持向量机,给出了两个重要的概念,函数间隔和几何间隔,基于这两个概念的最大间隔分类器算法。
2017-02-24 16:53:31 716
原创 斯坦福机器学习网易公开课笔记5
这一讲介绍生成学习算法,具体学习一种生成学习算法,称为高斯判别分析并简单对比生成学习算法和判别学习算法之间的区别;朴素贝叶斯算法和Laplace平滑。
2017-02-23 12:34:05 859
原创 斯坦福机器学习网易公开课笔记4
这一讲介绍牛顿方法,是可以代替梯度上升法来求解函数最大值的方法;之后以高斯分布和伯努利分布为例介绍了指数分布函数族;最后以指数分布函数族为基础介绍了广义线性模型,可以通过指定概率分布直接推导出模型。
2017-02-22 10:09:46 593
原创 斯坦福机器学习网易公开课笔记3
上一讲介绍了线性回归,这一讲将介绍局部加权线性回归、线性模型的概率解释、并基于线性模型的概率解释介绍逻辑回归,之后再简要介绍感知器算法。其中还会介绍“过拟合(overfitting)”与“欠拟合(underfitting)”概念、参数化和非参数化算法概念。
2017-02-21 10:56:12 760
原创 斯坦福机器学习网易公开课笔记1
之前在coursera上看了Andrew Ng的机器学习课程,那个课程比较简明,适合对机器学习有一个整体的印象,但是很多细节的内容和推导都忽略了。现在想要了解机器学习更多,所以开始看Andrew Ng在网易公开课上的机器学习课程,并对每一讲整理笔记,以促使自己更好的理解和记忆。 第一讲中对机器学习给出了两个定义。第一个定义是1959年Arthur Samuel 提出的“Field of s
2017-02-20 09:57:33 2066
原创 Andrew Ng《Machine Learning》第十讲——海量数据集上的机器学习
这一讲介绍海量数据集的处理的两种技术,第一种是随机梯度下降(stochastic gradient descent),介绍批量梯度下降,随机梯度下降和小批量梯度下降,第二种是Map Reduce。
2017-02-19 09:04:05 539
原创 Andrew Ng《Machine Learning》第九讲——异常检测和推荐算法
这一讲将会介绍异常检测和两种常用的推荐算法(collaborative filtering & low-rank matrix factorization)
2017-02-18 09:41:40 587
原创 Andrew Ng 《Machine Learning》第八讲——无监督学习(K-Means & PCA)
这一讲介绍两类无监督学习算法,聚类问题(具体介绍K-Means)和数据压缩(具体介绍PCA)。
2017-02-16 18:21:02 636
原创 Andrew Ng 《Machine Learning》第三讲——分类(Classification)&逻辑回归(Logistic Regression Model)
介绍分类问题、逻辑回归,包括Hypothesis Representation\Decision Boundary\Cost Function\Simplified Cost Function\Gradient Descent、多类别分类问题。
2017-02-09 16:42:28 1152
原创 Andrew Ng 《MachineLearning》第二讲——多变量线性回归(LinearRegression with Multiple Variables)&梯度下降
多变量线性回归(Linear Regression with Multiple Variables)的定义、cost function,梯度下降法
2017-02-08 12:40:54 551
原创 Andrew Ng 《Machine Learning》第一讲——Supervised Learning & Unsupervised Learning 学习笔记
一般的,机器学习的问题可分为有监督学习(Supervised)和无监督学习(Unsupervised)两类。有监督学习需要有一个包含“正确答案”的数据集,例如房价,是否恶性肿瘤,有监督学习算法解决的目标问题是产生更多的“正确答案”,例如预测房子面积为750平方时的房价,指定肿瘤大小预测是否是恶性肿瘤。有监督学习包含了回归问题(预测结果为连续值)和分类问题(预测结果为有限个离散值)。可以认为回归问题是建立输入和某个连续函数之间的map,分类问题是建立输入和某个离散函数之间的map。提供给无监督学习的数据集中不
2017-02-07 18:52:24 3050 1
转载 Latex 学习笔记--table 和 algorithm的写法
稍微整理下latex 写table和algorithm的方法,大多是对网上搜索到的内容的整理参考内容 http://blog.sina.com.cn/s/blog_5e16f1770102ezhv.html最简单的table的写法:代码\begin{table} \begin{center} \caption{your table caption
2015-05-22 17:02:40 70092
原创 Latex学习笔记-参考文献篇
Latex中插入参考文献目前我看到的有两种方法一种是手工一条一条的写入正文中,这种方法我感觉使用起来不太方便,这里不作整理。另一种是写一个后缀名为bib的文件,我用的是myreference.bib.然后再latex正文中使用这个文件来插入参考文献。下面介绍这种方式。bib文件中添加文献记录:在google 、google scholar 中搜索文献后,在每条记录下面有一个“”引用
2015-05-19 10:57:58 2603
转载 Latex 一些代码样式
一些有用的LaTeX的代码样式,这些样式平时用得很多。对我来说非常珍贵。%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一些最基本的环境%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%居中环境\begin{center}\end{center}%左对齐环境\b
2015-05-18 17:07:00 1114
原创 指针和引用,const 指针和const 引用
指针和引用是在使用中经常弄混淆的两个概念。引用(reference)为对象起了另外一个名字,用符号&表示。 &name,例如:int i=1024;int &ref=i;一般在初始化变量时,初始值会被拷贝到新创建的对象中,然而定义引用时,程序把引用和它的初始值绑定(bind)在一起,而不是将初始值拷贝给引用。一旦初始化完成,引用将和它的初始值对象一直绑定在一起。因为无法令引用重新绑
2015-04-19 16:03:34 681
原创 数据结构(C语言版)-递归学习笔记
递归,介绍了解决某一类问题的思维方式。在一个函数定义中出现了对自己本身的调用,称为直接递归。一个函数p的定义中包含了对函数q的调用,而q的实现过程中又调用了p,即函数调用形成了一个环状调用链,这种方式称之为间接递归。一个最简单递归程序设计的实例。例子1 编写一个递归函数,以正整数n为参数,求n的阶乘值 n!显然当 ,n!是建立在(n-1)!的基础上的。由于求解(n-1)!的过程与求解n
2015-04-19 15:23:26 2124
原创 解决VS2010 command prompt error:nmake 不是内部或外部命令,也不是可运行的程序或批处理文件
在我的Path:“c:\windows\system32″
2014-07-01 09:26:36 10647 1
转载 DTW 讲解
网上看到的非常好的DTW算法的讲解,转载记录一下。DTW 是 Dynamic Time Warping的简称,中文可以翻译成「动态时间扭曲」或是「动态时间规整」,这是一套根基与「动态规划」(DynamicProgramming,简称 DP)的方法,可以有效地将搜寻比对的时间大幅降低。DTW 的目标就是要找出两个向量之间的最短距离。一般而言,对于两个 n维空间中的向量 x 和 y,它
2013-10-28 16:26:37 2862 1
android平台开发初学者入门Android开发教程
2011-03-06
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人