自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 资源 (3)
  • 收藏
  • 关注

转载 windows下Graphviz安装及入门教程

转载:http://m.blog.csdn.net/article/details?id=49472949下载安装配置环境变量intall配置环境变量验证基本绘图入门graphdigraph一个复杂的例子和python交互发现好的工具,如同发现新大陆。有时,我们会好奇,论文中、各种专业的书中那么形象的插图是如何做出来的,无一例外不是对绘图

2016-10-25 15:32:30 3244 3

原创 Codeforces Round #376 (Div. 2) A. Night at the Museum

题目链接:http://codeforces.com/contest/731/problem/A#include #include using namespace std;char a[26];int main(){ string s; for(int i = 0; i < 26; i++) a[i] = 'a'+i; while(cin

2016-10-17 00:22:57 380

原创 Codeforces Round #376 (Div. 2) B. Coupons and Discounts

题目链接:http://codeforces.com/contest/731/problem/B#include#define MX 200007using namespace std;int ar[MX];int main(){ bool flag=1; int n; cin>>n; for(int i = 1;i>ar[i];

2016-10-17 00:19:38 402

转载 机器学习之正则化

原文链接:http://www.cnblogs.com/jianxinzhou/p/4083921.html1. The Problem of Overfitting1还是来看预测房价的这个例子,我们先对该数据做线性回归,也就是左边第一张图。如果这么做,我们可以获得拟合数据的这样一条直线,但是,实际上这并不是一个很好的模型。我们看看这些数据,很明显,随着房子

2016-10-16 16:52:10 357

原创 Coursera机器学习笔记

Coursera笔记网址

2016-10-16 14:55:43 603 1

转载 PCA降维算法详解——Coursera笔记

转载:http://blog.csdn.net/a784763307/1. 前言 PCA : principal component analysis ( 主成分分析)最近发现我的一篇关于PCA算法总结以及个人理解的博客的访问量比较高, 刚好目前又重新学习了一下PCA (主成分分析) 降维算法, 所以打算把目前掌握的做个全面的整理总结, 能够对有需要的人有帮助。 自己再

2016-10-15 11:24:04 18107

转载 机器学习7-SVM Cousera测验

转载:http://lib.csdn.net/article/machinelearning/34686Question 1Suppose you have trained an SVM classifier with a Gaussian kernel, and it learned the following decision boundary on the trainin

2016-10-14 15:24:53 2348

转载 一文搞懂HMM(隐马尔可夫模型)

一文搞懂HMM(隐马尔可夫模型)什么是熵(Entropy)简单来说,熵是表示物质系统状态的一种度量,用它老表征系统的无序程度。熵越大,系统越无序,意味着系统结构和运动的不确定和无规则;反之,,熵越小,系统越有序,意味着具有确定和有规则的运动状态。熵的中文意思是热量被温度除的商。负熵是物质系统有序化,组织化,复杂化状态的一种度量。熵最早来原于物理学. 德国物理学家鲁道夫·

2016-10-08 23:14:20 11927 1

转载 Bias和Variance

在A Few Useful Thingsto Know about Machine Learning中提到,可以将泛化误差(gener-alization error)分解成bias和variance理解。 Bias: a learner’s tendency to consistently learn the same wrong thing,即度量了某种学习算法的平均估计结果所能逼近学

2016-10-06 19:58:19 1434

转载 Git工作区和暂存区介绍

Git工作区和暂存区介绍Git和其他版本控制系统如SVN的一个不同之处就是有暂存区的概念。1.工作区和暂存区1.1工作区(Working Directory)指的是在PC中能看得到的创建的一个管理仓库的目录,比如我的GitMyWarehouse文件夹就是一个工作区:如下图:1.2版本库(Repository)工作区有一个隐藏目录.git,这个

2016-10-05 23:55:34 502

原创 Unix新手教程

教程:http://www.ee.surrey.ac.uk/Teaching/Unix/

2016-10-05 19:39:11 870

转载 深入理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件

在求取有约束条件的优化问题时,拉格朗日乘子法(Lagrange Multiplier) 和KKT条件是非常重要的两个求取方法,对于等式约束的优化问题,可以应用拉格朗日乘子法去求取最优值;如果含有不等式约束,可以应用KKT条件去求取。当然,这两个方法求得的结果只是必要条件,只有当是凸函数的情况下,才能保证是充分必要条件。KKT条件是拉格朗日乘子法的泛化。之前学习的时候,只知道直接应用两个方法,但是却

2016-10-05 17:55:32 903

转载 LDA 线性判别分析

1. LDA是什么线性判别式分析(Linear Discriminant Analysis),简称为LDA。也称为Fisher线性判别(Fisher Linear Discriminant,FLD),是模式识别的经典算法,在1996年由Belhumeur引入模式识别和人工智能领域。基本思想是将高维的模式样本投影到最佳鉴别矢量空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样

2016-10-05 16:39:56 598

原创 非监督学习(Udacity学习笔记)

Udacity机器学习纳米工程师学位课程学习笔记part1.   聚类部分:Udacity聚类部分重点介绍的是K-means聚类K-means聚类分为两个步骤:1.assign根据样本点离聚类中心点的远近将样本点进行分类(思考:如果是多分类问题,要怎样进行分类)2.optimization根据分类后的情况计算出每个类别的中心点

2016-10-04 22:04:14 1807

原创 IndentationError: unindent does not match any outer indentation level

缩进问题特别是把几个不同的源码拷到一块修改调式的时候容易遇到,因为两个人写的程序缩进可能不一样,有的是tab,有的是空格,这用肉眼很难察觉。把缩进都改为一种格式就可以了。

2016-10-04 21:33:54 439

原创 Python的from import 和 import 的区别

假设有一个包名字叫 numpy, 里面有一个函数 zeros1、 from numpy import zeros 那么你可以直接调用 zeros()函数2、import numpy.zeros 那么你只能使用全名 numpy.zeros这就是区别

2016-10-04 20:38:47 4681

转载 论numpy中matrix和array的区别

Numpy matrices必须是2维的,但是 numpy arrays (ndarrays) 可以是多维的(1D,2D,3D····ND). Matrix是Array的一个小的分支,包含于Array。所以matrix 拥有array的所有特性。在numpy中matrix的主要优势是:相对简单的乘法运算符号。例如,a和b是两个matrices,那么a*b,就是矩阵积。import nu

2016-10-04 19:31:03 448

转载 EM算法详细推导和讲解

今天不太想学习,炒个冷饭,讲讲机器学习十大算法里有名的EM算法,文章里面有些个人理解,如有错漏,还请读者不吝赐教。  众所周知,极大似然估计是一种应用很广泛的参数估计方法。例如我手头有一些东北人的身高的数据,又知道身高的概率模型是高斯分布,那么利用极大化似然函数的方法可以估计出高斯分布的两个参数,均值和方差。这个方法基本上所有概率课本上都会讲,我这就不多说了,不清楚的请百度。  然

2016-10-04 12:05:02 3101 1

转载 CPU与GPU的区别

CPU和GPU之所以大不相同,是由于其设计目标的不同,它们分别针对了两种不同的应用场景。CPU需要很强的通用性来处理各种不同的数据类型,同时又要逻辑判断又会引入大量的分支跳转和中断的处理。这些都使得CPU的内部结构异常复杂。而GPU面对的则是类型高度统一的、相互无依赖的大规模数据和不需要被打断的纯净的计算环境。  于是CPU和GPU就呈现出非常不同的架构(示意图):  图片

2016-10-04 00:25:56 3247

中科院矩阵分析历年期末试题2014-2018

中科院李保滨老师的矩阵分析与应用课程期末试题及答案整理、PPT作业题笔记,2014年-2018年。

2018-12-04

网络是怎样连接的.pdf

本书以探索之旅的形式,从在浏览器中输入网址开始,一路追踪了到显示出网页内容为止的整个过程,以图配文,讲解了网络的全貌,并重点介绍了实际的网络设备和软件是如何工作的。目的是帮助读者理解网络的本质意义,理解实际的设备和软件,进而熟练运用网络技术。同时,专设了“网络术语其实很简单”专栏,以对话的形式介绍了一些网络术语的词源,颇为生动有趣。 本书图文并茂,通俗易懂,非常适合计算机、网络爱好者及相关从业人员阅读。

2017-10-22

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除