- 博客(19)
- 资源 (3)
- 收藏
- 关注
转载 windows下Graphviz安装及入门教程
转载:http://m.blog.csdn.net/article/details?id=49472949下载安装配置环境变量intall配置环境变量验证基本绘图入门graphdigraph一个复杂的例子和python交互发现好的工具,如同发现新大陆。有时,我们会好奇,论文中、各种专业的书中那么形象的插图是如何做出来的,无一例外不是对绘图
2016-10-25 15:32:30 3244 3
原创 Codeforces Round #376 (Div. 2) A. Night at the Museum
题目链接:http://codeforces.com/contest/731/problem/A#include #include using namespace std;char a[26];int main(){ string s; for(int i = 0; i < 26; i++) a[i] = 'a'+i; while(cin
2016-10-17 00:22:57 380
原创 Codeforces Round #376 (Div. 2) B. Coupons and Discounts
题目链接:http://codeforces.com/contest/731/problem/B#include#define MX 200007using namespace std;int ar[MX];int main(){ bool flag=1; int n; cin>>n; for(int i = 1;i>ar[i];
2016-10-17 00:19:38 402
转载 机器学习之正则化
原文链接:http://www.cnblogs.com/jianxinzhou/p/4083921.html1. The Problem of Overfitting1还是来看预测房价的这个例子,我们先对该数据做线性回归,也就是左边第一张图。如果这么做,我们可以获得拟合数据的这样一条直线,但是,实际上这并不是一个很好的模型。我们看看这些数据,很明显,随着房子
2016-10-16 16:52:10 357
转载 PCA降维算法详解——Coursera笔记
转载:http://blog.csdn.net/a784763307/1. 前言 PCA : principal component analysis ( 主成分分析)最近发现我的一篇关于PCA算法总结以及个人理解的博客的访问量比较高, 刚好目前又重新学习了一下PCA (主成分分析) 降维算法, 所以打算把目前掌握的做个全面的整理总结, 能够对有需要的人有帮助。 自己再
2016-10-15 11:24:04 18107
转载 机器学习7-SVM Cousera测验
转载:http://lib.csdn.net/article/machinelearning/34686Question 1Suppose you have trained an SVM classifier with a Gaussian kernel, and it learned the following decision boundary on the trainin
2016-10-14 15:24:53 2348
转载 一文搞懂HMM(隐马尔可夫模型)
一文搞懂HMM(隐马尔可夫模型)什么是熵(Entropy)简单来说,熵是表示物质系统状态的一种度量,用它老表征系统的无序程度。熵越大,系统越无序,意味着系统结构和运动的不确定和无规则;反之,,熵越小,系统越有序,意味着具有确定和有规则的运动状态。熵的中文意思是热量被温度除的商。负熵是物质系统有序化,组织化,复杂化状态的一种度量。熵最早来原于物理学. 德国物理学家鲁道夫·
2016-10-08 23:14:20 11927 1
转载 Bias和Variance
在A Few Useful Thingsto Know about Machine Learning中提到,可以将泛化误差(gener-alization error)分解成bias和variance理解。 Bias: a learner’s tendency to consistently learn the same wrong thing,即度量了某种学习算法的平均估计结果所能逼近学
2016-10-06 19:58:19 1434
转载 Git工作区和暂存区介绍
Git工作区和暂存区介绍Git和其他版本控制系统如SVN的一个不同之处就是有暂存区的概念。1.工作区和暂存区1.1工作区(Working Directory)指的是在PC中能看得到的创建的一个管理仓库的目录,比如我的GitMyWarehouse文件夹就是一个工作区:如下图:1.2版本库(Repository)工作区有一个隐藏目录.git,这个
2016-10-05 23:55:34 502
转载 深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件
在求取有约束条件的优化问题时,拉格朗日乘子法(Lagrange Multiplier) 和KKT条件是非常重要的两个求取方法,对于等式约束的优化问题,可以应用拉格朗日乘子法去求取最优值;如果含有不等式约束,可以应用KKT条件去求取。当然,这两个方法求得的结果只是必要条件,只有当是凸函数的情况下,才能保证是充分必要条件。KKT条件是拉格朗日乘子法的泛化。之前学习的时候,只知道直接应用两个方法,但是却
2016-10-05 17:55:32 903
转载 LDA 线性判别分析
1. LDA是什么线性判别式分析(Linear Discriminant Analysis),简称为LDA。也称为Fisher线性判别(Fisher Linear Discriminant,FLD),是模式识别的经典算法,在1996年由Belhumeur引入模式识别和人工智能领域。基本思想是将高维的模式样本投影到最佳鉴别矢量空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样
2016-10-05 16:39:56 598
原创 非监督学习(Udacity学习笔记)
Udacity机器学习纳米工程师学位课程学习笔记part1. 聚类部分:Udacity聚类部分重点介绍的是K-means聚类K-means聚类分为两个步骤:1.assign根据样本点离聚类中心点的远近将样本点进行分类(思考:如果是多分类问题,要怎样进行分类)2.optimization根据分类后的情况计算出每个类别的中心点
2016-10-04 22:04:14 1807
原创 IndentationError: unindent does not match any outer indentation level
缩进问题特别是把几个不同的源码拷到一块修改调式的时候容易遇到,因为两个人写的程序缩进可能不一样,有的是tab,有的是空格,这用肉眼很难察觉。把缩进都改为一种格式就可以了。
2016-10-04 21:33:54 439
原创 Python的from import 和 import 的区别
假设有一个包名字叫 numpy, 里面有一个函数 zeros1、 from numpy import zeros 那么你可以直接调用 zeros()函数2、import numpy.zeros 那么你只能使用全名 numpy.zeros这就是区别
2016-10-04 20:38:47 4681
转载 论numpy中matrix和array的区别
Numpy matrices必须是2维的,但是 numpy arrays (ndarrays) 可以是多维的(1D,2D,3D····ND). Matrix是Array的一个小的分支,包含于Array。所以matrix 拥有array的所有特性。在numpy中matrix的主要优势是:相对简单的乘法运算符号。例如,a和b是两个matrices,那么a*b,就是矩阵积。import nu
2016-10-04 19:31:03 448
转载 EM算法详细推导和讲解
今天不太想学习,炒个冷饭,讲讲机器学习十大算法里有名的EM算法,文章里面有些个人理解,如有错漏,还请读者不吝赐教。 众所周知,极大似然估计是一种应用很广泛的参数估计方法。例如我手头有一些东北人的身高的数据,又知道身高的概率模型是高斯分布,那么利用极大化似然函数的方法可以估计出高斯分布的两个参数,均值和方差。这个方法基本上所有概率课本上都会讲,我这就不多说了,不清楚的请百度。 然
2016-10-04 12:05:02 3101 1
转载 CPU与GPU的区别
CPU和GPU之所以大不相同,是由于其设计目标的不同,它们分别针对了两种不同的应用场景。CPU需要很强的通用性来处理各种不同的数据类型,同时又要逻辑判断又会引入大量的分支跳转和中断的处理。这些都使得CPU的内部结构异常复杂。而GPU面对的则是类型高度统一的、相互无依赖的大规模数据和不需要被打断的纯净的计算环境。 于是CPU和GPU就呈现出非常不同的架构(示意图): 图片
2016-10-04 00:25:56 3247
网络是怎样连接的.pdf
2017-10-22
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人