学习笔记
huayunlong1
这个作者很懒,什么都没留下…
展开
-
logistic回归笔记
一、问题引出在线性回归问题中,样本的变量y的取值是连续值,若是其变为若干表示类别的离散值,那么就成了一个分类问题,其中最基本的就是二分类问题,这类问题中,样本的类别只有两类,分别用0和1表示,即y∈{0, 1}。原创 2016-07-22 10:59:14 · 333 阅读 · 0 评论 -
线性回归的概率解释
在线性回归问题中,为了对参数θ求解,使用了代价函数J(θ)=∑(i=1,2,...m) (y(i)-θx(i))²/2,这里给出使用该函数的概率上的解释。首先,假设其中,ε(i)表示未被建模的特征的影响造成的误差,并且其服从均值为0的高斯分布。关于这些假设的原因并不是很清楚。因此可以得到误差的密度函数,由上述两个公式可以得到在这里要提一下似然估计的概念,关于最大似然估计是以前概原创 2016-07-21 10:11:50 · 3071 阅读 · 1 评论 -
线性回归笔记
一、处理问题对于给定的每个样本的一系列特征(x1, x2, ...xm)及其结果y,之间的关系可以用这种形式表示y=θ_1*x1+θ_2*x2+...θ_m*xm,那么可以建立这样的模型:h_θ(x)=θx 用来对新的样本结果进行预测,θ和x都是m+1维向量,并且令x0=1。二、参数求解对于以上模型,需要对参数θ进行求解。直觉上,我们期望得到的θ的解应当满足条件——对所有训练样原创 2016-07-20 09:58:12 · 263 阅读 · 0 评论 -
SVM笔记
这段时间就开始接触机器学习,看了斯坦福的公开课关于svm的内容后,觉得没怎么懂,因此想写一篇笔记,一方面梳理一下, 一方面自己以后还可以阅读。这方面已经有一篇很棒的文章了支持向量机通俗导论大家可以去学习下一、问题引出最初是通过logistic回归处理一个二分类问题,对于一个样本(x[i], y[i]),x[i]是特征向量,y[i]是其分类结果(y[i]∈{0, 1}),logist原创 2016-07-18 09:04:23 · 200 阅读 · 0 评论 -
初学python闭包时的疑问
刚开始学习python,今天看了闭包的内容,学着视频写了一个代码,为了研究一个函数和装饰器装饰后的同名函数的关系,打印了信息查看,对于函数也是对象这个概念有了稍微深入一点的认识一下是代码和运行结果原本的my_sum这个名称指示的对象是初始定义的包含一行代码的函数对象,在in_dec的闭包中,已经将其写入in_dec的__closure__属性中,而my_sum=dec(my_sum)执原创 2016-09-21 16:14:00 · 193 阅读 · 0 评论 -
UNIX标准I/O的奇奇怪怪的缓冲
“内核中设有缓冲区高速缓存或页面高速缓存,将数据写入文件时,内核先将该数据复制到其中一个缓冲区,如果该缓冲区未满,并不将其排入输出队列,而是等待其写满或当内核需要重用该缓冲区以便存放其他磁盘块数据时,再将该缓冲排入输出队列,等待其到达队首时,才进行实际的I/O操作。这种输出方式称为延迟写。”原创 2016-12-01 15:53:44 · 328 阅读 · 0 评论